據彭博社昨晚報道,谷歌和Discord共同邀請自家AI聊天機器人Bard的忠實用戶,設立一個聊天室。其中,Bard的產品經理、設計師和工程師在聊天室內討論了AI的有效性和實用性,但也有一些人開始提出質疑。

Discord上Bard社區的兩名參與者向彭博社分享了7月-10月期間聊天室內的討論細節。Bard的高級產品經理Dominik Rabiej在討論中表示,自己“不信任”大語言模型生成的回復答案,并建議人們僅在“創意”“頭腦風暴”等方面使用Bard。Rabiej還表示,將Bard用于編程“也是一個不錯的選擇”——因為人們不可避免地要驗證代碼是否有效。
此外,Rabiej還在本月強調了Bard中新增的“仔細檢查回復”按鈕的重要性。據稱,該功能會用橙色來突出顯示“可能不正確的”內容。他還重申,Bard并無法真正理解自己獲取的文本,只是根據用戶的提示用更多文本進行回復。“請記住,Bard和任何大模型一樣都是生成式的——它不是在幫你查資料或做總結,而是在生成文本。”
這名產品經理曾在7月份的一次聊天中直言道,除非(用戶自己)能獨立驗證,否則不要相信大語言模型的輸出結果。“我們也想讓它達到你們的預期,但它還沒有。”
另一位產品經理Warkentin也在討論中寫道,“人性化的改進至關重要,只有這樣Bard才能成為一款適合所有人的產品。否則,用戶就沒有能力來評判產品的功能,我認為這將是一個巨大的錯誤。”“我們不需要在象牙塔中的產品,而是所有人都能受用的產品!”
IT之家此前報道,谷歌今年7月擴大部署Bard AI工具時,加入了“分享對話鏈接”的功能。用戶可以將他和Bard的對話以網頁鏈接形式導出,分享給他人,讓別人繼續和Bard展開對話。
而X平臺一名分析顧問Gagan Ghotra發現了這一漏洞,谷歌錯誤將部分用戶分享的鏈接,作為索引加入搜索結果中,從而導致了相關敏感信息外泄。
Gagan Ghotra據此警告用戶與不要在和Bard對話時分享任何“私密性內容”,否則相關信息可能外泄。







