自從ChatGPT于2022年11月面世以來,它和谷歌(Google)、微軟(Microsoft)等公司研發(fā)的一些聊天機(jī)器人帶給用戶的不單單有驚喜,甚至還有“驚嚇”。例如它的對話經(jīng)常令人細(xì)思極恐,有時(shí)還會(huì)給出一些不準(zhǔn)確的信息。但或許正如神經(jīng)學(xué)家一直以來所預(yù)言的那樣,人工智能的最大限制,就是它可能永遠(yuǎn)無法完全復(fù)制人腦的工作方式。
知名當(dāng)代語言學(xué)家、哲學(xué)家諾姆·喬姆斯基指出,雖然ChatGPT這樣的人工智能程序在編程或者制定旅行計(jì)劃上可能很有用,但它可能永遠(yuǎn)無法進(jìn)行原創(chuàng)性、復(fù)雜性甚至爭議性的討論,而這些正是人腦所擅長的。
3月8日,喬姆斯基與語言學(xué)家伊安·羅伯茨、人工智能研究員杰弗里·瓦圖姆爾在《紐約時(shí)報(bào)》(New York Times)上撰文稱:“OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機(jī)器學(xué)習(xí)技術(shù)產(chǎn)生的奇跡?!彪m然ChatGPT標(biāo)志著人工智能技術(shù)邁出了重要的一步,但它離達(dá)到或者超過人類智力仍然還有很遠(yuǎn)。
喬姆斯基指出,人工智能缺乏道德和理性思維,這使它成為了“平庸之惡”的一個(gè)例子。換言之,人工智能對所謂的“現(xiàn)實(shí)”和“真理”漠不關(guān)心,只是按照編定的程序在行動(dòng)。這種限制對于人工智能來說,是一座不可逾越的高峰,使它永遠(yuǎn)無法模擬人類思維。
“另外,我們從語言學(xué)和認(rèn)知哲學(xué)中了解到,人工智能在推理和語言的使用上與人類有很大不同,這些差異極大限制了這些程序的潛能?!眴棠匪够f。
他繼續(xù)指出:“在認(rèn)知演化上,此類程序還停留在前人類或者非人類階段,而真正的智能則表現(xiàn)在能夠思考和表達(dá)一些未必會(huì)發(fā)生,但卻有深刻見解的事情上?!?/p>
人工智能在哪些領(lǐng)域永遠(yuǎn)無法取代人腦?
ChatGPT可以從大量數(shù)據(jù)中挖掘出連貫的對話,從而給用戶留下了深刻印象。上個(gè)月,它已經(jīng)成為有史以來增長最快的一款應(yīng)用程序,并且刺激各大科技公司加快了推出自家人工智能產(chǎn)品的速度。
人工智能聊天機(jī)器人是基于大型的語言模型構(gòu)建的,這些模型動(dòng)輒需要使用以TB為單位的海量數(shù)據(jù)來生成文本信息。但是人工智能只能預(yù)測一句話最有可能表達(dá)什么意思,從而生成一句話去回應(yīng)它,但卻無法判斷用戶說的是真的還是假的,也無法判斷用戶究竟想聽什么。
由于人工智能無法辨別信息的準(zhǔn)確性,因此它經(jīng)常會(huì)出現(xiàn)明顯的錯(cuò)誤,甚至是給出完全誤導(dǎo)性的信息。聊天機(jī)器人的開發(fā)者表示,犯錯(cuò)也是人工智能學(xué)習(xí)過程的一部分,而且這項(xiàng)技術(shù)將隨著時(shí)間的推移而逐步改進(jìn)。但人工智能缺乏推理能力,這有可能成為它改善人類生活最大的絆腳石。
在談到當(dāng)前的人工智能程序時(shí),喬姆斯基寫道:“它們最大的缺陷,是缺乏作為一個(gè)智能最關(guān)鍵的能力,也就是對過去、現(xiàn)在、未來的描述和預(yù)測能力,以及對可能發(fā)生或可能不發(fā)生的事件的描述和預(yù)測能力。這些都是推理能力的要素,也是真正的智能的標(biāo)志?!?/p>
喬姆斯基還指出,人腦的一大特征,是可以根據(jù)現(xiàn)有信息進(jìn)行推理,并且得出新的有洞察力的結(jié)論。他表示,人腦的設(shè)計(jì)是為了“創(chuàng)造解釋”,而不是“盲目建立關(guān)聯(lián)”。但是盡管人工智能技術(shù)已經(jīng)取得了種種進(jìn)步,但神經(jīng)學(xué)家一直認(rèn)為,它仍然遠(yuǎn)遠(yuǎn)不能復(fù)制人類的推理能力。
喬姆斯基寫道:“雖然人類的大腦處理的信息并不多,但它卻是一個(gè)效率驚人的甚至堪稱優(yōu)雅的系統(tǒng)?!?/p>
“平庸之惡”
喬姆斯基認(rèn)為,在目前階段,人工智能尚不能進(jìn)行批判性思考,也無法經(jīng)常進(jìn)行觀點(diǎn)的自我審查,這意味著它無法進(jìn)行那種會(huì)導(dǎo)致科學(xué)、文化和哲學(xué)等領(lǐng)域取得重大突破的艱難對話。
喬姆斯基等人指出:“要想讓它變得有用,必須讓ChatGPT能夠生成觀點(diǎn)新穎的輸出。但是為了讓它被大多數(shù)用戶接受,它必須避免道德上讓人反感的內(nèi)容。”
有一點(diǎn)可以肯定,不要讓ChatGPT和其他聊天機(jī)器人隨心所欲的做決策,或許才是最好的選擇。考慮到這項(xiàng)技術(shù)涉及的種種問題,有專家建議用戶,不要依賴它來提供醫(yī)學(xué)建議,或者讓它替你做作業(yè)。還有一個(gè)人工智能“越軌”的例子——上個(gè)月,《紐約時(shí)報(bào)》的一名記者試著與微軟的必應(yīng)(Bing)機(jī)器人對話,結(jié)果這個(gè)人工智能機(jī)器人居然勸說記者與他的妻子離婚。
人工智能的不準(zhǔn)確性,甚至有可能助長陰謀論的傳播,它還有可能誘使用戶做出對自己甚至對他人都有危險(xiǎn)的決定。
喬姆斯基認(rèn)為,只要人工智能無法解決道德取向的問題,它有可能永遠(yuǎn)無法做出理性的決定,也永遠(yuǎn)無法參與道德問題的討論。那么這項(xiàng)技術(shù)仍將只是一個(gè)玩具,或是一個(gè)偶爾能夠使用的工具,而無法成為我們生活中的一個(gè)重要組成部分。
“ChatGPT表現(xiàn)出了‘平庸之惡’,具體表現(xiàn)為抄襲、冷漠和回避等等。它以一種超級自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),但拒絕在任何事上表明立場,它以無知和缺乏智能為借口,并且最終以‘只是聽從命令’為辯護(hù),將責(zé)任都推給了它的創(chuàng)造者?!眴棠匪够鶎懙馈?/p>
“由于缺乏從道德層面進(jìn)行推理的能力,它的開發(fā)者限制了ChatGPT進(jìn)行任何新穎的或者有爭議的討論,但是這些討論才是最重要的。也就是說,它為了某種非道德而犧牲了創(chuàng)造力?!保ㄘ?cái)富中文網(wǎng))
譯者:樸成奎
自從ChatGPT于2022年11月面世以來,它和谷歌(Google)、微軟(Microsoft)等公司研發(fā)的一些聊天機(jī)器人帶給用戶的不單單有驚喜,甚至還有“驚嚇”。例如它的對話經(jīng)常令人細(xì)思極恐,有時(shí)還會(huì)給出一些不準(zhǔn)確的信息。但或許正如神經(jīng)學(xué)家一直以來所預(yù)言的那樣,人工智能的最大限制,就是它可能永遠(yuǎn)無法完全復(fù)制人腦的工作方式。
知名當(dāng)代語言學(xué)家、哲學(xué)家諾姆·喬姆斯基指出,雖然ChatGPT這樣的人工智能程序在編程或者制定旅行計(jì)劃上可能很有用,但它可能永遠(yuǎn)無法進(jìn)行原創(chuàng)性、復(fù)雜性甚至爭議性的討論,而這些正是人腦所擅長的。
3月8日,喬姆斯基與語言學(xué)家伊安·羅伯茨、人工智能研究員杰弗里·瓦圖姆爾在《紐約時(shí)報(bào)》(New York Times)上撰文稱:“OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機(jī)器學(xué)習(xí)技術(shù)產(chǎn)生的奇跡?!彪m然ChatGPT標(biāo)志著人工智能技術(shù)邁出了重要的一步,但它離達(dá)到或者超過人類智力仍然還有很遠(yuǎn)。
喬姆斯基指出,人工智能缺乏道德和理性思維,這使它成為了“平庸之惡”的一個(gè)例子。換言之,人工智能對所謂的“現(xiàn)實(shí)”和“真理”漠不關(guān)心,只是按照編定的程序在行動(dòng)。這種限制對于人工智能來說,是一座不可逾越的高峰,使它永遠(yuǎn)無法模擬人類思維。
“另外,我們從語言學(xué)和認(rèn)知哲學(xué)中了解到,人工智能在推理和語言的使用上與人類有很大不同,這些差異極大限制了這些程序的潛能。”喬姆斯基說。
他繼續(xù)指出:“在認(rèn)知演化上,此類程序還停留在前人類或者非人類階段,而真正的智能則表現(xiàn)在能夠思考和表達(dá)一些未必會(huì)發(fā)生,但卻有深刻見解的事情上。”
人工智能在哪些領(lǐng)域永遠(yuǎn)無法取代人腦?
ChatGPT可以從大量數(shù)據(jù)中挖掘出連貫的對話,從而給用戶留下了深刻印象。上個(gè)月,它已經(jīng)成為有史以來增長最快的一款應(yīng)用程序,并且刺激各大科技公司加快了推出自家人工智能產(chǎn)品的速度。
人工智能聊天機(jī)器人是基于大型的語言模型構(gòu)建的,這些模型動(dòng)輒需要使用以TB為單位的海量數(shù)據(jù)來生成文本信息。但是人工智能只能預(yù)測一句話最有可能表達(dá)什么意思,從而生成一句話去回應(yīng)它,但卻無法判斷用戶說的是真的還是假的,也無法判斷用戶究竟想聽什么。
由于人工智能無法辨別信息的準(zhǔn)確性,因此它經(jīng)常會(huì)出現(xiàn)明顯的錯(cuò)誤,甚至是給出完全誤導(dǎo)性的信息。聊天機(jī)器人的開發(fā)者表示,犯錯(cuò)也是人工智能學(xué)習(xí)過程的一部分,而且這項(xiàng)技術(shù)將隨著時(shí)間的推移而逐步改進(jìn)。但人工智能缺乏推理能力,這有可能成為它改善人類生活最大的絆腳石。
在談到當(dāng)前的人工智能程序時(shí),喬姆斯基寫道:“它們最大的缺陷,是缺乏作為一個(gè)智能最關(guān)鍵的能力,也就是對過去、現(xiàn)在、未來的描述和預(yù)測能力,以及對可能發(fā)生或可能不發(fā)生的事件的描述和預(yù)測能力。這些都是推理能力的要素,也是真正的智能的標(biāo)志?!?/p>
喬姆斯基還指出,人腦的一大特征,是可以根據(jù)現(xiàn)有信息進(jìn)行推理,并且得出新的有洞察力的結(jié)論。他表示,人腦的設(shè)計(jì)是為了“創(chuàng)造解釋”,而不是“盲目建立關(guān)聯(lián)”。但是盡管人工智能技術(shù)已經(jīng)取得了種種進(jìn)步,但神經(jīng)學(xué)家一直認(rèn)為,它仍然遠(yuǎn)遠(yuǎn)不能復(fù)制人類的推理能力。
喬姆斯基寫道:“雖然人類的大腦處理的信息并不多,但它卻是一個(gè)效率驚人的甚至堪稱優(yōu)雅的系統(tǒng)?!?/p>
“平庸之惡”
喬姆斯基認(rèn)為,在目前階段,人工智能尚不能進(jìn)行批判性思考,也無法經(jīng)常進(jìn)行觀點(diǎn)的自我審查,這意味著它無法進(jìn)行那種會(huì)導(dǎo)致科學(xué)、文化和哲學(xué)等領(lǐng)域取得重大突破的艱難對話。
喬姆斯基等人指出:“要想讓它變得有用,必須讓ChatGPT能夠生成觀點(diǎn)新穎的輸出。但是為了讓它被大多數(shù)用戶接受,它必須避免道德上讓人反感的內(nèi)容?!?/p>
有一點(diǎn)可以肯定,不要讓ChatGPT和其他聊天機(jī)器人隨心所欲的做決策,或許才是最好的選擇??紤]到這項(xiàng)技術(shù)涉及的種種問題,有專家建議用戶,不要依賴它來提供醫(yī)學(xué)建議,或者讓它替你做作業(yè)。還有一個(gè)人工智能“越軌”的例子——上個(gè)月,《紐約時(shí)報(bào)》的一名記者試著與微軟的必應(yīng)(Bing)機(jī)器人對話,結(jié)果這個(gè)人工智能機(jī)器人居然勸說記者與他的妻子離婚。
人工智能的不準(zhǔn)確性,甚至有可能助長陰謀論的傳播,它還有可能誘使用戶做出對自己甚至對他人都有危險(xiǎn)的決定。
喬姆斯基認(rèn)為,只要人工智能無法解決道德取向的問題,它有可能永遠(yuǎn)無法做出理性的決定,也永遠(yuǎn)無法參與道德問題的討論。那么這項(xiàng)技術(shù)仍將只是一個(gè)玩具,或是一個(gè)偶爾能夠使用的工具,而無法成為我們生活中的一個(gè)重要組成部分。
“ChatGPT表現(xiàn)出了‘平庸之惡’,具體表現(xiàn)為抄襲、冷漠和回避等等。它以一種超級自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),但拒絕在任何事上表明立場,它以無知和缺乏智能為借口,并且最終以‘只是聽從命令’為辯護(hù),將責(zé)任都推給了它的創(chuàng)造者?!眴棠匪够鶎懙?。
“由于缺乏從道德層面進(jìn)行推理的能力,它的開發(fā)者限制了ChatGPT進(jìn)行任何新穎的或者有爭議的討論,但是這些討論才是最重要的。也就是說,它為了某種非道德而犧牲了創(chuàng)造力?!保ㄘ?cái)富中文網(wǎng))
譯者:樸成奎
Since ChatGPT’s November debut, it and other A.I.-powered chatbots from Google and Microsoft have terrorized users, engaged in disturbing conversations, and provided inaccurate information. But A.I.’s biggest limitation might be what neurologists have long warned about: It may never be able to completely replicate how the human brain works.
While A.I. and intelligent chatbots like ChatGPT may be useful for writing code and planning trips, the technology might never be capable of the original, thoughtful, and potentially controversial discussions that human brains excel at, according to Noam Chomsky, among the most influential contemporary linguists and philosophers.
“OpenAI’s ChatGPT, Google’s Bard, and Microsoft’s Sydney are marvels of machine learning,” Chomsky cowrote with linguistics professor Ian Roberts and A.I. researcher Jeffrey Watumull in an essay published in the New York Times on March 8. But while Chomsky says ChatGPT could be considered an early step forward, A.I. that can equal or exceed human intelligence is still far away.
Chomsky wrote that A.I.’s lack of morality and rational thought makes it an example of the “banality of evil,” or indifferent to reality and to truth while simply going through the motions spelled out in its programming. This limitation may be an insurmountable obstacle for A.I. to imitate human thinking.
“We know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do,” Chomsky wrote.
He continued: “Indeed, such programs are stuck in a prehuman or nonhuman phase of cognitive evolution. True intelligence is demonstrated in the ability to think and express improbable but insightful things.”
Where A.I. can’t reach the human brain
OpenAI’s ChatGPT has impressed users with its ability to dig through large amounts of data to generate coherent conversations. The technology became the fastest-growing app in history last month and accelerated Big Tech’s rollout of their own A.I.-assisted products.
A.I.-powered chatbots rely on large language models, which dig deeply into terabytes of data to produce detailed information in the form of text. But A.I. predicts what would make the most sense in a sentence to generate its next word, without being able to tell whether what it just said was true or false, or if it’s what the user wanted to hear.
The inability to discern accuracy has led to glaring mistakes and outright misinformation. Chatbot developers have said that mistakes are part of A.I.’s learning process, and that the technology will improve with time. But A.I.’s lack of reasoning may also be the biggest stumbling block to its helping make life better for humanity.
“Their deepest flaw is the absence of the most critical capacity of any intelligence,” Chomsky wrote of current A.I. programs. “To say not only what is the case, what was the case, and what will be the case—that’s description and prediction—but also what is not the case, and what could and could not be the case. Those are the ingredients of explanation, the mark of true intelligence.”
The ability to reason based on available information and come to new and insightful conclusions is a hallmark of the human brain, which Chomsky wrote is designed to “create explanations” rather than “infer brute correlations.” But for all A.I.’s improvements, neurologists have long said that it is still far from being able to replicate human reasoning.
“The human mind is a surprisingly efficient and even elegant system that operates with small amounts of information,” Chomsky wrote.
“The banality of evil”
A.I. in its current state, unable to think critically and frequently censoring itself from giving opinions, means that it cannot have the kinds of difficult conversations that have led to major breakthroughs in science, culture, and philosophy, according to Chomsky.
“To be useful, ChatGPT must be empowered to generate novel-looking output; to be acceptable to most of its users, it must steer clear of morally objectionable content,” he wrote with his coauthors.
To be sure, inhibiting ChatGPT and other chatbots from making freewheeling decisions is likely for the best. Considering the problems with the tech, experts have urged users not to rely on it for medical advice or for homework. In one example of A.I. going off the rails, a conversation between a New York Times reporter and Microsoft’s Bing last month spiraled into the chatbot trying to persuade the user to leave his wife.
A.I.’s inaccuracies could even contribute to the spread of conspiracy theories, and it risks coercing users into decisions that are dangerous to themselves or to others.
Fears about rogue A.I. may mean that it may never be able to make rational decisions and weigh in on moral arguments, according to Chomsky. If so, the technology may remain a toy and occasional tool rather than a significant part of our lives.
“ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation. It summarizes the standard arguments in the literature by a kind of super-autocomplete, refuses to take a stand on anything, pleads not merely ignorance but lack of intelligence, and ultimately offers a ‘just following orders’ defense, shifting responsibility to its creators,” Chomsky wrote.
“In the absence of a capacity to reason from moral principles, ChatGPT was crudely restricted by its programmers from contributing anything novel to controversial—that is, important—discussions. It sacrificed creativity for a kind of amorality.”