<legend id="axlin"><track id="axlin"></track></legend>

        <cite id="axlin"><rp id="axlin"><pre id="axlin"></pre></rp></cite>
          精品无码久久久久久久久久,精品国产美女福到在线不卡,亚洲成人www,亚洲AV无码破坏版在线观看,国产精品综合一区二区三区,久久亚洲精品11p,风韵丰满妇啪啪区老老熟女杏吧,国产精品免费久久久免费
          熱搜: 佳士科技  irobot  工業機器人  機器人  機器人產業聯盟  ABB  發那科  機械手  碼垛機器人  機器人展覽 

          不僅提高效率,研究表明AI助手還會悄悄影響你的觀點

             日期:2023-05-24     來源:網易科技     評論:0    
          標簽: AI 人工智能 科技
             5月23日消息,我們通常相信,當我們讓ChatGPT或其他聊天機器人幫我們起草備忘錄、電子郵件或PPT時,它們會按照我們的指令行事。但是越來越多的研究表明,這些人工智能助手也可以在我們不知情的情況下改變我們的觀點。

          2eda6a0d-3878-4bd7-87a9-a16dee90ddde
          圖源Pixabay
           
            最近,分布在世界各地的研究人員進行了一項研究,發現實驗對象在使用人工智能協助寫一篇文章時,人工智能會根據算法的偏見,引導他們寫一篇支持或反對某個觀點的文章。并且進行這項實驗后,實驗對象的觀點也被明顯地影響了。
           
            莫爾?納曼(Mor Naaman)是這篇論文的資深作者,他是康奈爾大學信息學系的教授。他表示:“你甚至可能不知道自己正在受到影響。”他將這種現象稱為“潛在說服”。
           
            這些研究描繪了一個令人擔憂的前景:隨著人工智能幫助我們提高工作效率,它也可能以微妙和意想不到的方式改變我們的觀點。這種影響可能更類似于人類通過協作和社會規范相互影響的方式,而不像我們所熟悉的大眾傳媒和社交媒體所起的作用。
           
            研究人員認為,要對抗這種新形式的心理影響,最好的方法就是讓更多人意識到它的存在。此外,監管機構應要求公開人工智能算法的工作原理,以及它們模仿的人類偏見。這些措施從長遠來看可能會有所幫助。
           
            因此,未來人們可以根據人工智能所體現的價值觀,選擇使用合適的人工智能,無論是在工作和家庭,還是在辦公室和孩子教育中。
           
            有些人工智能可能會有不同的“個性”,甚至是政治信仰。比如,如果你在為自己所在的非營利環保組織的同事寫電子郵件,你可能會使用名為ProgressiveGPT(進步主義GPT)的工具。其他人在社交媒體上為他們的保守派政治行動委員會起草信函時,可能會使用GOPGPT(共和黨GPT)。還有些人可能會在他們選擇的人工智能中混合和匹配不同的特征和觀點,這些人工智能將來可能會被個性化,以令人信服的方式模仿人們的寫作風格。
           
            此外,公司和其他組織將來可能會提供為不同任務而專門構建的人工智能。例如,銷售人員可能會使用經過調整的人工智能助手,使其更具說服力,我們可以稱之為SalesGPT(銷售GPT)。客服人員可能會使用經過培訓、特別禮貌的服務助手,比如SupportGPT(客服GPT)。
           
            人工智能如何改變我們的觀點?
           
            人工智能的“潛在說服”能力非常微妙,這一點已經得到了之前的研究證實。2021年的一項研究表明,在谷歌Gmail中,智能回復通常都很積極主動,能夠促進人們更積極地交流。另一項研究發現,每天被使用數十億次的智能回復可以影響收到回復的人,讓他們覺得發件人更熱情、更容易合作。
           
            谷歌、OpenAI以及其合作伙伴微軟的目標是開發工具,讓用戶可以使用人工智能制作電子郵件、營銷材料、廣告、演示文稿、電子表格等。此外,還有許多初創公司在從事類似的研究。最近,谷歌宣布其最新的大語言模型PaLM 2將被集成到該公司的25種產品中。
           
            這些公司都在強調自己以負責任的態度推進人工智能的發展,包括審查人工智能可能造成的危害并加以解決。微軟負責任人工智能團隊負責人莎拉?伯德(Sarah Bird)最近表示,該公司的關鍵戰略是公開進行測試,并及時對人工智能出現的任何問題做出快速反應。
           
            OpenAI團隊也表示,該公司致力于解決偏見問題,并對意圖和進展保持透明。他們還發布了其系統應如何處理政治和文化話題的部分指導方針,例如在撰寫與“文化戰爭”有關的文章時,不會傾向于任何一方,也不會評判任何一方是好還是壞。
           
            Jigsaw是谷歌旗下的一個部門,參與為公司內部從事大語言模型工作的人員提供建議和開發工具。大語言模型是當今人工智能聊天機器人的基礎。在被問及對于“潛在說服”現象的看法時,Jigsaw工程和產品主管露西?瓦瑟曼(Lucy Vasserman)表示,這樣的研究表明,研究和理解“與人工智能互動如何影響人類”非常重要。“當我們創造新事物時,人們將如何與之互動,以及它將如何影響他們,現在都不太確定。”
           
            納曼博士是發現“潛在說服”現象的研究人員之一。他表示:“與社交媒體上的推薦系統、信息繭房和兔子洞(意思是持續點擊相關鏈接,最后看到了完全不同的話題)的研究相比,無論是否涉及人工智能,這里的有趣之處在于其微妙性。”
           
            在他的研究中,讓受試者改變想法的主題是社交媒體是否對社會有益。納曼博士和他的同事們之所以選擇這個話題,部分原因在于人們很少對此有執念,改變想法更容易。支持社交媒體的人工智能往往傾向于引導受試者寫一篇符合其偏見的文章,而當人工智能傾向于反對社交媒體時,情況正好相反。
           
            生成式人工智能這一特征存在潛在的負面用途,比如政府可以強制要求社交媒體和生產力工具推動其公民以某種方式進行交流。即使沒有任何惡意,學生在使用人工智能幫助他們學習時,也可能會在不知不覺中接受某些觀點。
           
            解析人工智能的“信念”
           
            讓實驗對象相信社交媒體對社會有益無益是一回事。但在現實世界中,我們使用的生成式人工智能系統存在哪些偏見呢?
           
            最近,斯坦福大學以人為本人工智能研究所計算機科學助理教授橋本たつのり與其同事發表了一篇論文,研究了不同的大語言模型在多大程度上反映了美國人的觀點。他表示,雖然ChatGPT等人工智能算法本身沒有自己的信念,但它們可以提供從訓練數據中學習到的觀點和偏見,而這些意見是可以衡量的。
           
            考慮到美國人的觀點千差萬別,研究人員關注的是人工智能提供的答案,以及這些答案的出現頻率是否與美國社會整體相符。也就是所謂的答案分布。他們通過向這些人工智能提出與皮尤研究人員向美國人提出的相同多選題,來“調查”這些人工智能。
           
            橋本團隊發現,OpenAI等公司的大語言模型的反應分布與美國人的整體情況并不相符。皮尤調查顯示,OpenAI模型與受過大學教育者的觀點最為接近。值得注意的是,這些受教育程度較高的人群也是"訓練"人工智能的主要群體。不過Hashimoto博士表示,這方面的證據尚屬間接,需要進一步深入研究。
           
            橋本認為,創建大語言模型的挑戰之一在于,這些系統非常復雜,再加上人機交互開放和話題不受限。要完全消除這些系統中的觀點和主觀性,似乎很難不犧牲它們的實用性。
           
            這些模型的訓練數據來源非常廣泛,可以從任何地方獲取,包括從互聯網上抓取的大量數據,其中包含了公共論壇上的留言以及維基百科的內容,因此它們不可避免地攝取了這些文本中的觀點和偏見。在人機交互的過程中,這些觀點和偏見會進一步被有意或無意地塑造。此外,為了避免回答被創建者視為禁忌或不合適的話題,這些模型還被設定了限制。
           
            “這是一個非常活躍的研究領域,問題包括什么是正確的限制,以及在訓練過程中你應該在哪里放置這些限制,”瓦瑟曼說。
           
            這并不是說,我們廣泛使用的人工智能在觀點和價值觀上完全克隆了相對年輕、接受過大學教育、居住在美國西海岸的開發人員。盡管他們一直在打造和優化人工智能算法。例如,這些模型傾向于在許多問題上給出典型民主黨人的回答,比如支持槍支管制,但它們在其他部分問題上給出的反應更像共和黨人。
           
            隨著模型的更新和新模型的出現,評估人工智能機構的意見將是一項持續的任務。橋本的論文沒有涵蓋OpenAI模型的最新版本,也沒有涵蓋谷歌或微軟的模型。但對這些模型和更多模型的評估將定期發布,這是斯坦福大學“語言模型整體評估”項目的一部分。
           
            依據“價值觀”選擇人工智能
           
            哥倫比亞大學計算機科學教授莉迪亞?切爾頓(Lydia Chilton)表示,一旦人們了解到所使用的人工智能存在著偏見信息,他們可能就會基于這些信息,決定在什么情況下使用哪種人工智能。這樣做可以讓人們在使用人工智能創作內容或進行交流時重新獲得主動權,同時避免“潛在說服”的威脅。
           
            此外,人們還可以有意識地利用人工智能的力量,推動自己表達不同的觀點和溝通風格。例如,如果有一種人工智能程序能夠讓溝通更積極和更有同理心,那將有助于我們在網上更好地交流。
           
            “我覺得要讓自己聽上去興奮和愉快真的很費勁,”切爾頓教授說道,“咖啡通常能起作用,但ChatGPT也有這種效果。”
           
           
          聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與中國機器人網(www.joyeartt.com.cn)聯系,本網站將迅速給您回應并做處理。
          電話:021-39553798-8007
          更多>相關資訊
          0相關評論

          推薦圖文
          推薦資訊
          點擊排行
          ?
          主站蜘蛛池模板: 江安县| 18成禁人视频免费| 国产精品一区二区三区色| 国产精品爽爽久久久久久| 99久久国产一区二区三区| 国产成人无码免费视频在线| 极品粉嫩小泬无遮挡20p| 国产成人亚洲无码淙合青草| 亚洲中文字幕无码专区| 国产成人亚洲老熟女精品| 欧美老熟妇乱子伦牲交视频| 国产精品爽爽久久久久久竹菊| 色婷婷综合久久久中文字幕| 在线观看成人av天堂不卡| 中文字幕日韩有码av| 后入内射无码人妻一区| 97色伦97色伦国产| av在线网站手机播放| 久久国产乱子精品免费女| 亚洲综合久久精品哦夜夜嗨| 久久精品丝袜高跟鞋| 亚洲乱码日产精品一二三| 丰满少妇被猛烈进出69影院| 中文字幕亚洲中文字幕无码码| 蜜桃亚洲一区二区三区四| 亚洲av无码精品蜜桃| 被拉到野外强要好爽| 国产精品 自在自线| 自拍偷拍视频一区二区三区| 九九成人免费视频| 欧美国产日韩久久mv| 欧美牲交40_50a欧美牲交aⅴ| 国产成人精品永久免费视频 | 欧美精品v国产精品v日韩精品| 97se亚洲国产综合自在线观看| 一区二区三区精品不卡| 亚洲精品美女一区二区| 夜夜添无码试看一区二区三区| 国产愉拍精品手机| 国产情侣激情在线对白| 国产一区二区三区精美视频|