舊金山——最近,谷歌駁回了一名工程師關於該公司的人工智慧(簡稱AI)有知覺力的說法,然後讓其帶薪休假,這一事件再次顯露出圍繞著谷歌最先進技術的爭論。
布雷克·勒穆瓦納是谷歌「負責任的AI技術」(Responsible A.I.)部門高級軟體工程師,他在接受採訪時表示,他已於週一開始休假。公司人力資源部稱他違反了谷歌的保密政策。勒穆瓦納說,他在被停職的前一天把一些文件交給了一名美國參議員的辦公室,他說這些文件提供了谷歌及其技術有宗教歧視的證據。
谷歌表示,公司的AI系統模仿人們的對話交流,能對不同的話題進行複述,但沒有意識。「我們的團隊——包括倫理學家和技術專家——已根據我們的AI原則對布萊克的擔憂進行了核查,並告知他,證據不支持他的說法,」谷歌發言人布萊恩·加布里埃爾在一份聲明中說。「在更廣泛的人工智慧界,有些人正在仔細考慮有知覺力AI或通用AI的長遠可能性,但是,通過將目前建立在對話模型上的AI擬人化來實現這種可能性是講不通的,因為這些模型沒有知覺。」《華盛頓郵報》首先報導了勒穆瓦納暫被停職的消息。
幾個月來,勒穆瓦納一直與谷歌的經理、高管和人力資源部門爭吵,因為他令人吃驚地聲稱,谷歌的對話應用語言模型(簡稱LaMDA)有意識,有靈魂。谷歌表示,公司的數百名研究員和工程師與內部使用的LaMDA工具進行對話後,得出了與勒穆瓦納不同的結論。大多數人工智慧專家認為,該行業距離計算機知覺還有很長的路要走。
一些AI研究者很早以前就已樂觀地聲稱,人工智慧技術很快會達到有知覺力的水平,但許多人立即反駁了這些說法。「如果你用過這些系統,你永遠也不會說這種話,」在加州大學柏克萊分校和加州大學舊金山分校任職的研究員伊馬德·赫瓦賈說道,他正在探索類似的技術。
在爭當人工智慧先鋒的同時,谷歌的研究部門也在過去幾年裡陷入了醜聞與爭議。該部門的科學家和其他員工經常在技術和人事問題上爭吵不休,這些爭吵有時會進入公眾領域。今年3月,谷歌解僱了一名研究員,因為此人曾試圖對兩名同事已發表的研究結果公開表示不同意。在批評了谷歌的語言模型後,兩名研究AI倫理的研究員——蒂姆尼特·加布魯和瑪格麗特·米切爾被解僱,讓該部門進一步蒙上陰影。
勒穆瓦納是一名退伍軍人,他把自己描述為一名牧師,曾是服刑囚犯,也是一名AI研究員。勒穆瓦納對谷歌的高管們(最高是負責全球事務的總裁肯特·沃克)說,他認為LaMDA是一個七八歲的孩子。他希望公司在對計算機程序進行實驗前徵得其同意。他的宣稱是建立在其宗教信仰基礎上的,他認為公司的人力資源部門對他的宗教信仰有歧視。
「他們一再懷疑我是否神志正常,」勒穆瓦納說。「他們說,『你最近看過精神科醫生嗎?』」公司在安排他帶薪休假前的幾個月裡,曾建議他請心理健康假。
Meta的人工智慧研究主管、在神經網路興起中起關鍵作用的揚恩·萊坎本週在接受採訪時說,這類系統還沒有強大到足以獲得真正智能的程度。
谷歌的這項技術被科學家稱為神經網路,是一個通過分析大量數據來學習技能的數學模型。例如,通過確定幾千張貓照片中的模式,它可以學會識別貓。
在過去幾年裡,谷歌和其他領先公司已設計了從數量巨大的文章中學習的神經網路,它們用的數據包括未出版的書籍和維基百科上成千上萬篇文章。這些「大型語言模型」能用在許多任務上。它們能對文章進行總結、回答問題、生成推文,甚至能寫部落格文章。
但它們也存在巨大的缺陷。它們有時能寫出完美的散文,有時卻生成毫無意義的話。這些系統非常擅長將它們以前遇到過的模式再現出來,但不能像人類那樣思考。
WhatsApp us