首秀“翻車”后,谷歌高管警告:AI聊天機(jī)器人會產(chǎn)生錯(cuò)覺
2023-02-12 12:00
文本設(shè)置
小號
默認(rèn)
大號
Plus(0條)
在谷歌最新推出的聊天機(jī)器人Bard意外“翻車”并導(dǎo)致股價(jià)大跌后,美東時(shí)間周六,該公司搜索引擎高管在接受媒體采訪時(shí)表示,要警惕聊天機(jī)器人中人工智能的陷阱。谷歌高級副總裁兼谷歌Search負(fù)責(zé)人普拉巴卡爾·拉加萬在接受采訪時(shí)表示:“我們現(xiàn)在談?wù)摰倪@種人工智能,有時(shí)會導(dǎo)致出現(xiàn)某種我們所謂的錯(cuò)覺……機(jī)器會以一種令人信服但完全編造的方式來表達(dá)自己?!彼a(bǔ)充說,目前人工智能行業(yè)的基本任務(wù)之一,就是將這種情況控制在最低限度。 | 相關(guān)閱讀(財(cái)聯(lián)社)
47
騎行人張浩
永遠(yuǎn)在路上
谷歌高管普拉巴卡爾·拉加萬的這個(gè)提醒實(shí)際上也是當(dāng)下業(yè)內(nèi)很多分析人士對生成式人工智能的一個(gè)擔(dān)憂,不用說匆匆上馬之后一上來就回答錯(cuò)問題的Brad,就連ChatGPT,也已經(jīng)被人證實(shí),在學(xué)術(shù)界人士向其查閱一些文獻(xiàn)的時(shí)候,ChatGPT有時(shí)候會胡編亂造。這或許給未來ChatGPT的應(yīng)用帶來一定隱憂。我們之前使用普通搜索引擎的時(shí)候,還能從不同的結(jié)果對照下找出正確答案,但是如果以后ChatGPT代替了搜索引擎,我們可能都沒有辦法證實(shí)其是不是在說謊。