4月16日消息,OpenAI的聯合創始人兼CEO薩姆?奧爾特曼(Sam Altman)在麻省理工學院“想象力行動”活動上接受了采訪,談到了大語言模型(LLM)的發展趨勢和安全問題。

奧爾特曼認為,我們正在接近LLM規模的極限,規模越大并不一定意味著模型越好,而可能只是為了追求一個數字而已。LLM的規模不再是衡量模型質量的重要指標,未來將有更多的方式來提升模型的能力和效用。他將LLM的規模與過去芯片速度的競賽進行了類比,指出今天我們更關注芯片能否完成任務,而不是它們有多快。他表示,OpenAI的目標是為世界提供最有能力、最有用、最安全的模型,而不是為了參數數量而自我陶醉。

IT之家注意到,奧爾特曼還回應了一封要求OpenAI暫停開發更強大AI六個月的公開信,他表示他同意在能力越來越強大的情況下,安全標準也要提高,但他認為信件缺乏技術細節和準確性。他說,OpenAI在發布GPT-4之前已經花了六個月以上的時間來研究安全問題,并邀請外部審計和“紅隊”來測試模型。“我也同意,隨著能力變得越來越強,安全標準必須提高。但我認為這封信缺少了關于我們需要暫停的大部分技術上的細微差別——這封信的早期版本聲稱我們正在訓練GPT-5。我們沒有,而且在一段時間內也不會,所以從這個意義上說,這有點愚蠢。但我們在GPT-4的基礎上還在做其他事情,我認為這些事情有各種安全問題需要解決,但信中完全沒有提到。因此,我認為謹慎行事,并對安全問題越來越嚴格,這一點非常重要。我不認為(信中的)建議是解決這個問題的最終方法,”他說。
奧爾特曼說,OpenAI已經在這個領域工作了七年,付出了很多努力,而大多數人都不愿意這樣做。他說,他愿意公開討論安全問題和模型的局限性,因為這是正確的事情。他承認有時候他和其他公司代表會說一些“蠢話”,結果發現是錯誤的,但他愿意冒這個風險,因為這項技術需要對話。







