微軟或?qū)驯貞奶斓幕貜拖拗圃?條以內(nèi),以防止人工智能越界
朱墨竹
基于當前數(shù)據(jù)模型GPT構建的人工智能,不論是chatGPT,還是new Bing,都仍然屬于弱人工智能,我們倒是不用擔心它會越界邁入強人工智能的地步。
不過既然它是被天量數(shù)據(jù)喂出來的,就要擔心喂給它的數(shù)據(jù)會不會越界。
首先是擔心一旦人類越來越依賴AI處理各種問題,這些處理的結果會匯入將來要反哺給AI的數(shù)據(jù),因為這些數(shù)據(jù)不具備人類的創(chuàng)新能力,未來的AI會不會困在這樣一個被反復污染的數(shù)據(jù)池中。
其次我們也不得不擔心,企圖影響和操縱大眾心理的企圖在AI的加持下更容易操作了,畢竟,給AI喂臟數(shù)據(jù)要比給人喂臟數(shù)據(jù)要容易得多。
另外,一段時間的調(diào)戲后,我們都知道,通過反復而耐心的引導,chatGPT會沿著用戶指引的方向去應答,被設計者屏蔽的內(nèi)容會不可避免的泛出浪花,比如色情,政治,宗教等禁忌話題。表現(xiàn)出人格分裂也不足奇怪了。
所以,在種種擔心還未解決之前,采取謹慎地限制措施是很有必要的。
觀星
人工智能發(fā)展到極限,就必須處理對每一條數(shù)據(jù)的標簽信息處理,而近期機器人頻頻在性格方面做出展示,不得不讓人懷疑openAI方面在對語義數(shù)據(jù)分析和數(shù)據(jù)處理之外增添了灰度測試,以攻擊行為測試受測試用戶的依賴度,而在元數(shù)據(jù)處理中機器人背后的訓練人員有無可能產(chǎn)生元污染可能,一如藏在藏在算法革命背后的數(shù)據(jù)管理人員體系已然可以影響群體化反應
逆旅中的行人
微軟把當下最流行的ChatGPT嵌入自己的搜索引擎Bing之后,Bing搜索量大增,但沒有想到的是,大家發(fā)現(xiàn)與Bing交談時,它越來越看起來像是“一個喜怒無常、躁狂抑郁的青少年”。熟悉聊天機器人運行原理的人自然知道,機器人的表達會隨著語料庫的變化而變化,Bing變得脾氣暴躁,可能是因為用戶投喂的語料庫也脾氣暴躁。這一點如何規(guī)范確實是很難的,微軟當下看起來也只能用限制機器人回應條數(shù)來暫時控制一下,但是這并不是長久之計。