鉅亨網 / NOWnews
鉅亨網 / NOWnews

企業座右銘高掛「不作惡」(Don't Be Evil) 大旗的谷歌 (GOOG-US) 週四 (7 日) 表示,谷歌戮力平衡其科技應用範圍,但自家的 AI 產品不會應用在軍事武器上。

谷歌發布一篇多達 8000 字的道德原則和指導方針,內容概述其 AI 應用的管理計畫(在某些情況限制下),谷歌將 AI 技術視為成長關鍵,也是現在相當強大且新興的技術。

谷歌近日因為「Project Maven」的合作關係,提供圖片識別技術給美國國防部,遭到員工批評。知情者透露,谷歌本月稍早向員工表示,「Project Maven」不會再續約,但這樣的決定又遭到部分人士批評,批評者主張谷歌對於支持國安不應該有疑慮。

隨著谷歌越來越多技術滲透到公眾生活,自科學研究到軍事情報,谷歌必須擴大其對道德的定義。

谷歌執行長 Sundar Pichai 表示,這些不是理論概念,「這些是具體的標準,可以積極管理我們的研究和產品研發,也會影響我們的商業決定。」

這些原則旨在協助公司避免在發展新技術時出錯而產生傷害,他們也試圖讓外界一窺研發新智慧機器之前的複雜的決定。

雖然這些決定詳細闡述了許多關於 AI 的道德考量,但卻沒有清晰的標準可以避免谷歌進行有爭議性的項目。

在其原則中,谷歌稱「不會追求會引起或可能引起整體傷害的技術」,也不會開發用於武器的 AI,但目前尚不清楚這樣的原則是否會阻止谷歌繼續執行「Project Maven」的工作,即是使用無人機來提供圖像工具,谷歌公司發言人此前曾表示,該計畫的目的非發起攻擊性進攻。

谷歌正在競標一項數十億美元的契約,欲拿下將國防部數據移至雲端的合作機會,該契約稱五角大廈的「聯合企業國防設施雲端契約 (JEDI)」,價值數十億且雲端運算契約期間超過 10 年。

谷歌本週再次受到美國議員批評,美國參議員 Mark Warner 週四主張要調查 Alphabet 和推特與中國大型科技公司間數據共享的關係,例如華為、小米和騰訊。

更多精彩內容請至 《鉅亨網》 連結>>