據路透社報道,盡管谷歌是生成式AI最堅定的支持者之一,但該公司正在警告員工注意聊天機器人的使用。

▲圖源Pixabay

▲圖源Pixabay
知情人士稱,谷歌母公司Alphabet已建議員工不要將其機密材料輸入給AI聊天機器人,同時該公司還提醒IT工程師避免直接使用聊天機器人生成的計算機代碼。
谷歌對此回應稱,其聊天機器人Bard可以提出不受歡迎的代碼建議,但它仍然對IT工程師們會有所幫助。谷歌表示其目標是對生成式AI的技術局限性保持足夠的透明度。
分析人士指出,這些擔憂表明谷歌希望避免生成式AI對公司的商業化運作造成損害,這種謹慎的態度也體現出對生成式AI的使用限制正越發成為某種具有共性的企業安全標準。
IT之家此前報道,包括三星、亞馬遜、蘋果等大型科技企業對員工使用生成式AI都設置了一定的限制,以確保不會對公司運營造成風險。
支持OpenAI的微軟則拒絕評論是否已全面禁止員工將機密信息輸入ChatGPT這樣的公共AI應用。但微軟消費者業務首席營銷官Yusuf Mehdi曾表示,公司不希望員工使用公共聊天機器人工作是“有道理的”。
根據Fishbowl對包括美國頂級公司員工在內的近12000名受訪者的調查,截至今年1月,約43%的專業人士在工作中使用了ChatGPT或其他生成式AI工具,而且通常都沒有告訴他們的老板。







