一周三次“標志性失敗”!AI要從“超紅”變“黑紅”了?
2023-02-19 15:00
文本設(shè)置
小號
默認
大號
Plus(0條)
過去一周,人工智能領(lǐng)域有三大新聞:一是特斯拉“召回”36萬輛具有全自動駕駛功能的電動汽車,二是聊天機器人Bard錯誤頻出,被谷歌回爐重造,三是微軟限定Bing機器人“聊天長度”,避免AI“變態(tài)”。有觀察者認為,這一系列事件可能將AI送入一個新的“寒冬”。也有專家稱,生成式AI是一面鏡子:它最大的缺陷是人類自身的缺陷。 | 相關(guān)閱讀(華爾街見聞)
43
叁浪
人生如浪,我已翻船
對于電腦我只是使用,經(jīng)常因為一些小問題求人。每當我抱怨說電腦不好用的時候,技術(shù)人員總是說電腦沒有錯。特斯拉,谷歌和微軟出的問題,都與AI有關(guān)。錯誤和問題的背后也是應了技術(shù)人員的那句話,電腦不會出錯,如果說電腦有錯,那一定是設(shè)計電腦程序的人的錯。
ChatGPT火爆,因為人人都想有求必應。不過輸出什么,來自于輸入的設(shè)計,而據(jù)說ChatGPT的訓練費用也是不菲,那么問題來了,通過內(nèi)測的一個應用模式,在不能窮盡更多反饋的情況下,一旦確定投入應用,難免會有bug產(chǎn)生。即便是你運用再多的訓練時間,也是一樣。
所有錯誤缺陷的改進,只能是通過技術(shù)不斷的迭代來實現(xiàn)。所有的完美,只有是在已經(jīng)確定的程序路徑下的完美,和人們需求的完美完全是兩回事。ChatGPT任重道遠。