OpenAI宣布正在組建一個新團隊,由其聯合創始人兼首席科學家Ilya Sutskever和Alignment負責人Jan Leike共同領導,以尋找引導和控制下一代“超智能人工智能系統”的方法。

據悉,該團隊目前具備最高優先級,有權使用公司20%的計算資源,目標是在未來四年內解決“控制超智能AI”的核心技術挑戰。團隊聲稱,他們需要時間來進行“科學和技術”方面的突破,以引導和控制比人類聰明得多的AI系統。
研究者Sutskever和Leike認為,“下一代超智能AI”可能將在十年內誕生,這將是人類迄今為止發明的最具影響力的技術,可以幫助人類解決許多原先需要大量人力資源才能解決的問題。但研究者同時認為,該技術也有反噬人類的可能,其巨大的力量可能導致人類喪失主權甚至滅絕。
團隊表示,在“確保比人類更聰明的AI系統遵循人類的意圖”方面,他們當下還沒有一個合理的解決方案來引導或控制潛在的超智能AI,當下人類只能通過反饋來令AI調整生成過程,但人類無法可靠地從根源監督AI系統。
OpenAI計劃構建一個大致達到人類水平的AI“automated alignment researcher”,然后使用大量深度學習來擴展AI能力,并迭代地調整該超級智能。
為此,研究人員需要開發可擴展的訓練方法,接著驗證生成的模型,并最終對模型進行一系列可控性測試。
IT之家發現,研究人員當下正計劃利用該AI系統來協助評估其它AI系統(可擴展的監督),同時還希望了解和控制他們的模型是如何將監督推廣到人類研究員無法監督的任務上。
Sutskever和Leike表示,隨著研究的深入,預計其將來的研究重點也可能出現發生變化,甚至可能還會有新的研究領域隨之出現。
目前,這一新團隊還在對外招募機器學習研究人員和工程師。Sutskever和Leike認為,招募更多的機器學習專家對于解決下一代超智能AI的問題至關重要。他們計劃廣泛分享團隊的研究成果,并將促進業界共同進步。
這個新團隊的工作是對OpenAI現有工作的補充,旨在提高ChatGPT等當前模型的安全性,以及理解和減輕人工智能帶來的其他風險,例如濫用、經濟破壞、虛假信息、偏見和歧視、成癮和過度依賴等問題。雖然新團隊將專注于將超智能AI系統與人類意圖結合起來的機器學習挑戰,但我們正在積極與跨學科專家合作解決相關的社會技術問題,以確保我們的技術解決方案考慮到更廣泛的人類和社會問題。







