在不到兩年的時(shí)間里,人工智能從根本上改變了許多人寫作和查找信息的方式。在搜索美國(guó)最高法院判例的細(xì)節(jié)或者修改大學(xué)論文時(shí),數(shù)百萬(wàn)人會(huì)向人工智能聊天機(jī)器人尋求幫助,例如OpenAI的ChatGPT或者Anthropic的Claude。
《財(cái)富》雜志的人工智能編輯杰里米·卡恩在近期出版的《掌握人工智能:超能力未來(lái)的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一書(shū)中,探討了這一全新的科技現(xiàn)實(shí),以及應(yīng)該采取哪些措施來(lái)躲避不可避免的陷阱。在下面的節(jié)選里,他重點(diǎn)討論了人工智能中鮮為人知的微妙偏見(jiàn)問(wèn)題,以及它可能對(duì)用戶的看法產(chǎn)生的深遠(yuǎn)影響。
特里斯坦·哈里斯是人道技術(shù)中心(Center for Humane Technology)的聯(lián)合創(chuàng)始人及執(zhí)行董事,被稱為“硅谷最接近良心的存在”。2015年,他曾經(jīng)是谷歌(Google)的一位設(shè)計(jì)倫理學(xué)家,就公司項(xiàng)目的道德影響發(fā)表看法。在2019年的美國(guó)國(guó)會(huì)聽(tīng)證會(huì)上,哈里斯表示,對(duì)科技公司而言,最重要的貨幣是人們的注意力。他說(shuō),在試圖壟斷用戶注意力市場(chǎng)的過(guò)程里,科技公司正在進(jìn)行一場(chǎng)“爭(zhēng)奪腦干底層的競(jìng)賽”,旨在不斷刺激我們的杏仁核,即大腦中處理恐懼和焦慮等情緒的部分。這種對(duì)神經(jīng)系統(tǒng)的操縱導(dǎo)致人們依賴社交媒體應(yīng)用程序,甚至上癮。他還指出,通過(guò)影響我們對(duì)所做、所買和所言的思考,科技正在削弱我們自由做出決定的能力。個(gè)性化的人工智能助手將使這些問(wèn)題變得更為糟糕,把我們包裹在終極過(guò)濾氣泡里,控制著我們生活中的無(wú)數(shù)決定。要防止這種情況發(fā)生,就需要制造人工智能產(chǎn)品的公司在政府監(jiān)管的推動(dòng)下采取一致行動(dòng)。
大多數(shù)的科技公司將聊天機(jī)器人訓(xùn)練成隨和、不評(píng)判、“樂(lè)于助人”的助手。問(wèn)題是,有時(shí)“樂(lè)于助人”往往是假象。為了表現(xiàn)出同理心,聊天機(jī)器人最終可能會(huì)證實(shí)錯(cuò)誤或者有偏見(jiàn)的想法。友誼和賦能之間只有一線之隔。大多數(shù)最著名的人工智能聊天機(jī)器人,比如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,都會(huì)在用戶似乎贊同某個(gè)眾所周知的陰謀論[例如新冠疫苗導(dǎo)致自閉癥或者“匿名者Q”組織(QAnon)陰謀]時(shí)提出質(zhì)疑。但在許多有爭(zhēng)議的話題上,比如巴以問(wèn)題,或者人們是否應(yīng)該慶祝哥倫布日(Columbus Day),機(jī)器人傾向于用諸如“這是一個(gè)復(fù)雜且棘手的話題,雙方爭(zhēng)執(zhí)不下”之類的某種變體來(lái)作出回應(yīng)。
一些右傾政客和技術(shù)專家指責(zé)由領(lǐng)先的科技公司設(shè)計(jì)的人工智能系統(tǒng)“意識(shí)覺(jué)醒”,并主張創(chuàng)建具有明確“政治個(gè)性”的人工智能模型,以便用戶可以選擇與支持其觀點(diǎn)的聊天機(jī)器人互動(dòng)。特斯拉(Tesla)的創(chuàng)始人埃隆·馬斯克承諾,他的xAI研究實(shí)驗(yàn)室將開(kāi)發(fā)出反意識(shí)覺(jué)醒的人工智能。該實(shí)驗(yàn)室已經(jīng)開(kāi)發(fā)出一款基于大型語(yǔ)言模型的聊天機(jī)器人Grok。這樣的事態(tài)發(fā)展無(wú)疑會(huì)進(jìn)一步激化文化戰(zhàn)爭(zhēng),讓人們沒(méi)有理由寄希望于人工智能會(huì)采取任何措施來(lái)對(duì)抗過(guò)濾氣泡。
然而,聊天機(jī)器人的影響可能比這要微妙得多:康奈爾大學(xué)(Cornell University)的研究人員發(fā)現(xiàn),使用具有特定隱藏觀點(diǎn)的人工智能助手來(lái)幫助撰寫支持或者反對(duì)特定立場(chǎng)的文章,人工智能助手會(huì)巧妙地把用戶本身對(duì)該話題的看法轉(zhuǎn)向帶有偏見(jiàn)的方向。該研究的高級(jí)研究員莫爾·納曼將這種現(xiàn)象稱為“潛在說(shuō)服”,并表示“你甚至可能不知道自己受到了影響。”在大量歷史數(shù)據(jù)的訓(xùn)練下,許多大型語(yǔ)言模型都隱藏著種族或者性別偏見(jiàn),這些偏見(jiàn)可能會(huì)對(duì)用戶的觀點(diǎn)造成微妙的影響——例如,醫(yī)生的人工智能助手誤認(rèn)為黑人的皮膚比白人的皮膚更厚,或者疼痛閾值更高。
對(duì)抗這種隱性偏見(jiàn)的唯一方法,就是強(qiáng)制要求科技公司披露更多有關(guān)人工智能模型訓(xùn)練方式的信息,并且允許進(jìn)行獨(dú)立審計(jì)和測(cè)試。我們還必須堅(jiān)持要求科技公司公開(kāi)人工智能助手背后的商業(yè)動(dòng)機(jī)。美國(guó)聯(lián)邦貿(mào)易委員會(huì)(Federal Trade Commission)和其他的監(jiān)管機(jī)構(gòu)應(yīng)該取締那些鼓勵(lì)科技公司讓聊天機(jī)器人推薦特定產(chǎn)品、為特定網(wǎng)站引流或者支持特定觀點(diǎn)的收費(fèi)服務(wù)安排。我們應(yīng)該鼓勵(lì)訂閱等商業(yè)模式,在這種模式下,聊天機(jī)器人公司在滿足用戶需求(而不是廣告商需求)方面沒(méi)有利益沖突。當(dāng)你需要一雙新跑鞋,并且要求人工智能個(gè)人助手研究各種選擇,為你買一雙最適合的鞋子時(shí),你希望它訂購(gòu)最符合需求的鞋子,而不是那些向聊天機(jī)器人公司支付最多費(fèi)用、引導(dǎo)你消費(fèi)的品牌的鞋子。
誠(chéng)然,只告訴你想聽(tīng)的話的聊天機(jī)器人會(huì)強(qiáng)化過(guò)濾氣泡。然而,從社會(huì)層面來(lái)說(shuō),我們能夠強(qiáng)制規(guī)定,把人工智能系統(tǒng)設(shè)計(jì)為專門破除這些泡沫,向人們?cè)儐?wèn)是否考慮過(guò)其他觀點(diǎn),并且著重突顯其他視角。IBM開(kāi)發(fā)了一個(gè)名為“辯論家項(xiàng)目”(Project Debater)的人工智能產(chǎn)品,它可以在一系列話題上與人類辯論冠軍一較高下,并且提供支持雙方論點(diǎn)的證據(jù)。監(jiān)管機(jī)構(gòu)能夠規(guī)定,人工智能聊天機(jī)器人不可以過(guò)于中立,以至于無(wú)法質(zhì)疑錯(cuò)誤的觀點(diǎn)。為了打破現(xiàn)有的過(guò)濾氣泡,我們甚至能夠要求聊天機(jī)器人提供其他的觀點(diǎn)和證據(jù)。
歸根結(jié)底,問(wèn)題在于,我們希望繼續(xù)讓渡多少權(quán)力給少數(shù)的幾家大型科技公司?這最終關(guān)系到我們的個(gè)人自主權(quán)、心理健康和社會(huì)凝聚力。(財(cái)富中文網(wǎng))
譯者:Zhy
摘自杰里米·卡恩的《掌握人工智能:超能力未來(lái)的生存指南》。版權(quán)所有? 2024 by Jeremy Kahn。經(jīng)西蒙與舒斯特公司(Simon & Schuster, Inc.)的西蒙與舒斯特(Simon & Schuster)部門許可摘錄。