北京時間4月20日上午消息,據報道,在3月份面向公眾推出人工智能聊天機器人Bard的前不久,谷歌要求內部員工測試這個新工具。
根據內部討論的截圖,一名員工的結論是,Bard是個“病態的騙子”。另一名員工則表示,Bard“令人尷尬”。一名員工寫道,當他們向Bard詢問如何降落飛機時,聊天機器人往往給出會導致墜機的建議。還有一名員工表示,Bard提供的關于潛水的建議“可能會導致重傷或死亡”。

不過,谷歌依然推出了Bard。根據多名在職員工和前員工的說法,以及谷歌的內部文件,作為一家以往非常受信任的互聯網搜索巨頭,谷歌通過Bard提供的是低質量的信息,目的是跟上競爭對手,同時將科技倫理承諾放在了很低的優先級來考慮。2021年,谷歌曾經承諾,將人工智能倫理研究團隊擴大一倍,并投入更多資源評估人工智能技術的潛在危害。然而,隨著競爭對手OpenAI的聊天機器人ChatGPT在2022年11月首次亮相并大受歡迎,谷歌開始匆忙將生成式人工智能技術融入其最重要的產品中。
對這項技術本身來說,這樣做帶來的發展速度明顯更快,并可能會給社會產生深遠的影響。谷歌的在職員工和前員工們表示,谷歌承諾加強的科技倫理團隊目前沒有話語權,士氣低落。他們透露,負責新產品安全和科技倫理影響的員工已被告知,不要妨礙或試圖扼殺正在開發中的任何生成式人工智能工具。
谷歌的目標是圍繞這項尖端技術振興其日益成熟的搜索業務,搶在微軟支持的OpenAI前面,推動生成式人工智能應用進入全球數千萬的手機和家庭,并贏得競爭。
權益組織Signal Foundation主席、谷歌前經理梅雷迪思?惠特克(Meredith Whittaker)表示:“人工智能倫理已經退居次要地位。如果科技倫理不能被置于利潤和增長之上,它們最終就不會起作用。”
對此谷歌表示,負責任的人工智能仍是該公司的首要任務。谷歌發言人布萊恩?加布里艾爾(Brian Gabriel)表示:“我們將繼續投資將人工智能原則應用于技術的團隊。”從事負責任人工智能研究的團隊在1月份的一輪裁員中至少減員3人,其中包括技術治理和項目主管。此次裁員影響了谷歌及其母公司的約1.2萬名員工。
多年來,谷歌一直引領著支撐當前人工智能發展的大部分研究,然而在ChatGPT推出時,谷歌還沒有將對用戶友好的生成式人工智能技術集成到產品中。谷歌的員工們說,以往在將新技術應用于搜索和其他重要產品時,谷歌會謹慎地評估自身的能力和道德倫理考量。
然而去年12月,谷歌高級管理層發布了“紅色警報”,并改變了對風險的偏好。員工們說,谷歌的領導團隊決定,只要把新產品定位為“實驗”,公眾就會原諒其中的缺陷。不過,谷歌仍然需要讓科技倫理團隊加入進來。當月,人工智能治理負責人簡恩?詹納伊(Jen Gennai)召開了負責任創新團隊的會議,該團隊負責維護谷歌的人工智能原則。
詹納伊建議,為了加快產品發布的步伐,谷歌可能有必要做出一些妥協。谷歌為幾個重要類別的產品進行打分,以衡量這些產品是否準備好向公眾發布。在一些領域,例如兒童安全,工程師仍然需要100%解決潛在問題。但她在會上表示,在其他領域,谷歌可能沒時間繼續等待。她說:“‘公平’可能不是,并不需要達到99分。在這個方面,我們可能只要到80分,85分,或更高的水平,就可以滿足產品發布的需求。”這里的“公平”指的是減少產品的偏見。
今年2月,谷歌一名員工在內部消息群中提出:“Bard的問題不僅僅是毫無用處:請不要發布這款產品。”有近7000人查看了這條消息。其中許多人都認為,在簡單的事實問題上,Bard的回答自相矛盾,甚至大錯特錯。然而消息人士透露,詹納伊在次月駁回了團隊成員提交的風險評估報告。當時報告的結論是Bard尚未做好準備,可能造成危害。不久之后,谷歌就面向公眾開放了Bard,并將其稱作是一次“實驗”。
在一份聲明中,詹納伊表示,這不僅僅是她這個層級的決定。在團隊做出評估之后,她“列出了潛在風險清單,并將分析結果”升級提交給產品、研究和業務線的高級管理者。她說,該團隊隨后判斷,“可以通過有限制的實驗性發布的形式向前推進,包括繼續進行預訓練,提高安全圍欄,以及做出適當的免責聲明”。
作為一個整體,硅谷仍然在努力解決競爭壓力和技術安全之間的矛盾。“人道技術研究中心”在最近的一次演示中表示,人工智能研究者與專注于人工智能安全的研究人員的數量之比達到30:1。這表明,在大型組織中提出對人工智能的擔憂往往會孤掌難鳴。
隨著人工智能的加速發展,人們正在越來越擔憂人工智能對社會的不利影響。作為ChatGPT和Bard背后的技術,大語言模型從新聞報道、社交媒體貼文和其他互聯網信息源處獲得大量文字信息,隨后用這些信息來訓練軟件,讓軟件根據用戶的輸入信息或問題自動預測并生成內容。這意味著,從本質上來看,這些產品有可能會產生攻擊性、有害或不準確的言論。
然而,ChatGPT在首次亮相時引發了轟動。到今年年初,這方面的發展已經無法回頭。2月份,谷歌開始發布一系列的生成式人工智能產品,推出聊天機器人Bard,隨后升級了視頻平臺YouTube。當時谷歌表示,YouTube的創作者很快就可以在視頻中進行虛擬換裝,以及使用生成式人工智能創建“奇幻的電影場景”。兩周后,谷歌宣布谷歌云加入新的人工智能功能,展示了谷歌Docs和Slides等服務如何自動創建演示文稿、銷售培訓文件和電子郵件。同一天,谷歌還宣布將把生成式人工智能融入醫療健康產品線。員工們表示,他們擔心,這樣的發展速度意味著谷歌沒有足夠的時間來研究人工智能潛在的危害。
是否應該以符合科技倫理的方式去開發尖端的人工智能技術,長期以來這一直是谷歌內部爭論的一個話題。在過去幾年里,谷歌產品發生的錯誤備受矚目。例如,在2015年一起令人尷尬的事件中,谷歌相簿錯誤地將一名黑人軟件開發者和他朋友的照片標記為“大猩猩”。
三年后,谷歌表示,沒有修復底層的人工智能技術,而是刪除了搜索關鍵詞“大猩猩”、“黑猩猩”和“猴子”的所有結果。根據谷歌的說法,“一群不同背景的專家”評估了這一解決方案。該公司還成立了人工智能倫理部門,主動開展相關研究,確保人工智能對用戶更加公平。
然而根據多名在職員工和前員工的說法,一個重要轉折點是人工智能研究員蒂姆尼特?格布魯(Timnit Gebru)和瑪格麗特?米切爾(Margaret Mitchell)的離職。他們曾共同帶領谷歌的人工智能倫理團隊。然而,因為一場關于谷歌人工智能研究公平性的爭議,他們分別在2020年12月和2021年2月離開。最終,負責管理他們工作的計算機科學家薩米?本吉奧(Samy Bengio)和其他幾名研究者也在幾年時間里紛紛離職,加入了谷歌的競爭對手。
丑聞發生后,谷歌也采取措施試圖恢復公眾聲譽。負責任人工智能團隊在當時的工程副總裁瑪麗安?克羅克(Marian Croak)的領導下進行了重組。她承諾,將把人工智能倫理團隊的規模擴大一倍,并強化該團隊與公司其他部門的聯系。
不過即使在公開發表聲明之后,一些人也發現,在谷歌從事人工智能倫理工作難度很大。一名前員工表示,他們提出要求,解決機器學習公平性的問題。然而他們也發現,自己往往不被鼓勵這樣做,以至于甚至影響了他們工作的績效打分。他表示,經理們也提出抗議,認為人工智能倫理問題的提出妨礙了他們“真正的工作”。
那些繼續在谷歌從事人工智能倫理研究的員工則面臨兩難:如何既能保住自己在谷歌的工作,又能繼續推進這方面研究。亞倫?穆羅希(Nyalleng Moorosi)曾是谷歌的研究員,目前則在格魯布創立的“分布式人工智能研究所”擔任高級研究員。她表示,人工智能倫理研究崗位的設立就是為了說明,技術可能沒有做好大規模發布的準備,而公司需要放慢速度。
兩名員工表示,到目前為止,谷歌對產品和功能的人工智能倫理審核幾乎完全是自愿性質的,僅有的例外是研究論文的發表,以及谷歌云對客戶合作和產品發布的審核。生物識別、身份識別,以及與兒童相關的人工智能研究必須由詹納伊的團隊進行“敏感話題”審核,但其他項目不一定需要。不過,一些員工也會在沒有被要求的情況下聯系人工智能倫理團隊。
盡管如此,當谷歌產品和工程團隊的員工試圖了解,谷歌的人工智能為何在市場上進展緩慢時,他們往往會注意到公眾對人工智能倫理的關切。但谷歌的一些人相信,新技術應當更快地被提供給公眾,以便通過公眾反饋對技術進行優化。
另一名前員工表示,在紅色警戒發布之前,谷歌工程師可能很難接觸到公司最先進的人工智能模型。他說,谷歌的工程師經常會通過研究其他公司的生成式人工智能模型來進行頭腦風暴,探索這項技術的可能性,隨后再去研究如何在公司內部去實現這一技術。
谷歌前產品經理、在2020年之前一直從事谷歌聊天機器人開發的高拉夫?內馬德(Gaurav Nemade)表示:“毫無疑問我看到‘紅色警戒’和OpenAI的觸動給谷歌帶來的積極變化。他們真的能成為領導者,在自己的游戲中挑戰OpenAI嗎?”近期的一系列變化,例如三星考慮在手機中用微軟必應替換谷歌作為默認搜索引擎,充分表明了技術的先發優勢有多么重要。微軟必應也采用了ChatGPT的技術。
谷歌的一些員工表示,他們認為谷歌已經對最新的生成式人工智能產品進行了足夠的安全檢查,并且Bard比競爭對手的聊天機器人更安全。然而,現在的當務之急是快速發布生成式人工智能產品,因此再怎么強調科技倫理問題都是徒勞的。
研發新人工智能功能的團隊目前正在封閉狀態中,因此普通的谷歌員工很難看到谷歌人工智能技術的全貌。以往,員工還可以通過公司的郵件組和內部頻道來公開表達自己的疑慮,但現在谷歌以減少毒性為由提出了一系列社區指南,限制員工這樣去做。幾名員工表示,他們認為這些限制是控制言論的一種方式。
米切爾表示:“這帶來了挫敗感。我們的感覺是,我們到底在做什么?”即使谷歌沒有明確的指令,要求停止科技倫理的工作,但在當前的氛圍下,從事這類工作的員工會很明顯的感覺到,自己不受支持,最終可能會因此減少工作量。“在谷歌管理層公開討論科技倫理問題時,他們傾向于探討假想的未來,即全能的技術無法被人類控制,而不太涉及已經可能帶來危害的日常場景。這種做法也被一些業內人士批評為一種營銷形式。
曾在谷歌擔任研究科學家的艾爾馬蒂?艾爾瑪穆迪(El-Mahdi El-Mhamdi)于今年2月從谷歌離職,原因是谷歌拒絕正面探討人工智能倫理問題。他表示,去年底他參與合著的一篇論文提出,從數學上來看,基礎性的人工智能模型不可能同時做到大規模、健壯,以及保障隱私安全。
他表示,谷歌通過雇傭關系對他參與的研究提出質疑。隨后,他并沒有為自己的學術研究辯護,而是直接放棄了與谷歌的雇傭關系,選擇了學術身份。他說:”如果你想留在谷歌,就必須為整個系統服務,而不是與其發生沖突。“







