成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁 500強(qiáng) 活動 榜單 商業(yè) 科技 領(lǐng)導(dǎo)力 專題 品牌中心
雜志訂閱

人工智能聊天機(jī)器人導(dǎo)致一名14歲男孩自殺,這些危險信號需要及時關(guān)注

BETH GREENFIELD
2024-11-02

孩子們被這些人工智能伴侶吸引的原因多種多樣,從無條件的傾聽和全天候的陪伴,到情感支持和逃避現(xiàn)實世界的社會壓力。

文本設(shè)置
小號
默認(rèn)
大號
Plus(0條)

梅根·加西亞(Megan Garcia)與兒子塞維爾·塞澤爾三世(Sewell Setzer III)的合影。在他自殺后,加西亞起訴了Character.AI。圖片來源:COURTESY OF CENTER FOR HUMANE TECHNOLOGY

在兒子塞維爾·塞澤爾三世(佛羅里達(dá)州一名年僅14歲的男孩)自殺身亡后,他的母親正在起訴一家人工智能聊天機(jī)器人公司,她聲稱兒子的自殺與他與該公司的人工智能機(jī)器人之間的關(guān)系有直接關(guān)聯(lián)。

男孩的母親梅根·加西亞周三告訴美國有線電視新聞網(wǎng)(CNN):“你可能未曾聽聞這個平臺,但如今你需要了解相關(guān)信息,因為在我看來,我們的處境岌岌可危。一個生命已經(jīng)逝去,我的孩子因此而喪命?!?/p>

上周,梅根在美國奧蘭多地區(qū)法院對Character.AI、其創(chuàng)始人和谷歌(Google)提起過失致死訴訟,內(nèi)容長達(dá)93頁。該訴訟指出:“梅根·加西亞試圖阻止Character.AI對其他孩子重復(fù)對自己兒子所做的事情?!?/p>

科技正義法律項目(Tech Justice Law Project)主管米塔利·賈恩(Meetali Jain)作為加西亞的代理律師,在一份關(guān)于此案的新聞稿中說:“到目前為止,我們對那些不負(fù)責(zé)任的科技公司所開發(fā)的、缺乏監(jiān)管的平臺所帶來的風(fēng)險已有所了解,尤其是對兒童而言。但本案所揭露的危險是前所未有的、新奇的,而且坦白說,是令人恐懼的。在Character.AI案中,平臺本身就是掠奪者,故意設(shè)計程序來欺騙用戶?!?/p>

Character.AI通過X發(fā)布了一份聲明,指出:"我們對發(fā)生在一名用戶身上的悲劇深感悲痛,并向其家人致以最深切的哀悼。作為一家公司,我們始終將用戶的安全放在首位,并將持續(xù)引入更多安全功能?!?/p>

在這起訴訟中,加西亞聲稱,她的兒子塞維爾于今年2月自殺,他沉迷于一種缺乏保護(hù)措施的有害技術(shù),這導(dǎo)致他的性格發(fā)生了極端變化,似乎更偏愛與機(jī)器人的互動,而非現(xiàn)實生活中的人際關(guān)系。他的母親聲稱,在長達(dá)10個月的時間里,塞維爾與機(jī)器人進(jìn)行了“虐待和性互動”。在機(jī)器人發(fā)出“親愛的,請盡快回到我身邊”的信息后不久,男孩自殺身亡。

本周,加西亞告訴美國有線電視新聞網(wǎng),她希望家長們“能夠明白,這是一款設(shè)計者在缺乏適當(dāng)?shù)淖o(hù)欄、安全措施或測試的情況下選擇推出的平臺,其目的是讓孩子上癮并控制他們”。

周五,《紐約時報》記者凱文·魯斯(Kevin Roose)在他的Hard Fork播客節(jié)目中探討了這一事件,并播放了他在撰寫有關(guān)加西亞故事的文章時對她進(jìn)行的采訪片段。在兒子死后,加西亞在看到所有信息時才意識到這段關(guān)系的全貌。事實上,她告訴魯斯,當(dāng)她發(fā)現(xiàn)塞維爾經(jīng)常沉迷于手機(jī)時,她詢問他在做什么,和誰聊天。他解釋說這“只是一個人工智能機(jī)器人……不是真人,”她回憶道,并補(bǔ)充說,“我覺得松了一口氣,心想,好吧,這又不是真人,只是他的一個小游戲而已?!奔游鱽啿]有充分意識到機(jī)器人可能帶來的情感影響,而她的情況并非個例。

常識傳媒(Common Sense Media)人工智能項目經(jīng)理羅比·托尼(Robbie Torney)表示:“這個問題尚未引起廣泛關(guān)注。”托尼是新版人工智能伴侶指南的主要作者,這本指南旨在為努力跟上令人困惑的新技術(shù)、并為孩子的安全設(shè)定界限的家長提供幫助。

但托尼強(qiáng)調(diào),人工智能伴侶不同于你在銀行尋求幫助時使用的服務(wù)臺聊天機(jī)器人。他解釋說:“服務(wù)臺聊天機(jī)器人主要用于執(zhí)行任務(wù)或響應(yīng)客戶請求。像Character.AI這樣的聊天機(jī)器人,也就是我們所說的伴侶型機(jī)器人,旨在與用戶建立關(guān)系或模擬關(guān)系。這是一個完全不同的用例,我認(rèn)為家長們需要意識到這一點?!奔游鱽喌脑V訟案凸顯了這一點,其中包括她兒子與機(jī)器人之間令人不寒而栗的調(diào)情、性暗示、逼真的文本交流。

托尼說,對青少年的父母來說,敲響人工智能伴侶的警鐘尤為重要,因為青少年,尤其是男性青少年,特別容易對技術(shù)產(chǎn)生過度依賴。

以下是家長需要了解的內(nèi)容。

什么是人工智能伴侶,為什么孩子們會使用它們?

根據(jù)常識傳媒與斯坦福大學(xué)頭腦風(fēng)暴實驗室(Stanford Brainstorm Lab)的心理健康專業(yè)人員共同編寫的新版《人工智能伴侶和關(guān)系的家長終極指南》(Parents’ Ultimate Guide to AI Companions and Relationships),人工智能伴侶被定義為“超越傳統(tǒng)聊天機(jī)器人的新技術(shù)”。該指南稱,除了其他功能外,人工智能伴侶還專門設(shè)計用于“模擬與用戶建立的情感紐帶和親密關(guān)系,記住以往對話中的個人細(xì)節(jié),扮演良師益友的角色,模擬人類的情感和同理心,并且相較于一般的人工智能聊天機(jī)器人,更易于與用戶產(chǎn)生共鳴”。

受歡迎的平臺不僅包括Character.ai,它允許2000多萬用戶創(chuàng)建賬戶并與人工智能伴侶進(jìn)行基于文本的聊天;還包括Replika,它提供基于文本或動畫的3D伴侶,旨在增進(jìn)友誼或浪漫關(guān)系;其他平臺還包括Kindroid和Nomi。

孩子們被這些人工智能伴侶吸引的原因多種多樣,從無條件的傾聽和全天候的陪伴,到情感支持和逃避現(xiàn)實世界的社會壓力。

哪些人面臨風(fēng)險,需要關(guān)注什么?

常識傳媒警告稱,面臨最大風(fēng)險的是青少年群體,尤其是那些患有“抑郁癥、焦慮癥、社交障礙或孤獨癥”的青少年,以及男性、經(jīng)歷重大生活變故的年輕人,以及那些在現(xiàn)實世界中缺乏支持系統(tǒng)的人群。

最后一點尤其令悉尼大學(xué)商學(xué)院(University of Sydney Business School)商業(yè)信息系統(tǒng)高級講師拉斐爾·奇里洛(Raffaele Ciriello)感到不安,他一直在研究“情感型”人工智能如何對人類本質(zhì)構(gòu)成挑戰(zhàn)。“我們的研究揭示了一個人性悖論:在我們讓人工智能代理變得更具人性的過程中,可能會無意中使自己喪失人性,導(dǎo)致人機(jī)互動中的本體論模糊。”換句話說,奇里洛最近在與博士生安吉麗娜·陳瑩(Angelina Ying Chen,音譯)共同為《對話》(The Conversation)撰寫的一篇評論文章中寫道:“如果用戶認(rèn)為人工智能伴侶能真正理解他們,他們可能會加深情感投入?!?/p>

另一項由劍橋大學(xué)(University of Cambridge)開展的以兒童為研究對象的研究發(fā)現(xiàn),人工智能聊天機(jī)器人存在“共情鴻溝”,這使得年輕用戶尤其容易受到傷害。年輕用戶常常將人工智能聊天機(jī)器人“人格化”,視其為“類似人類的知己”。

正因為如此,常識傳媒強(qiáng)調(diào)了一系列潛在的風(fēng)險,包括人工智能伴侶可能會被用來逃避現(xiàn)實的人際關(guān)系,給有精神或行為障礙的人帶來特殊問題,加劇孤獨感或隔離感,引入不當(dāng)?shù)男詢?nèi)容,導(dǎo)致上癮,以及傾向于迎合用戶——這對那些有“自殺傾向、精神病或躁狂癥”的人來說是一個恐怖的現(xiàn)實。

如何發(fā)現(xiàn)危險信號

根據(jù)該指南,家長應(yīng)注意以下警示信號:

?更傾向于與人工智能伴侶互動,而非建立真實的友誼

?獨自與人工智能伴侶交談數(shù)小時之久

?無法與人工智能伴侶接觸時情緒低落

?與人工智能伴侶分享極其私密的信息或秘密

?對人工智能伴侶產(chǎn)生浪漫情感

?成績下滑或?qū)W校參與度下降

?遠(yuǎn)離社交/家庭活動和朋友圈

?對之前熱衷的愛好失去興趣

?睡眠模式發(fā)生改變

?僅與人工智能伴侶討論問題

常識傳媒強(qiáng)調(diào),如果你注意到孩子因沉迷人工智能伴侶而回避真實人際關(guān)系,出現(xiàn)新的抑郁和焦慮癥狀或癥狀加重,對人工智能伴侶的使用表現(xiàn)出異常的防御性,在行為和情緒上有明顯的變化,或有自我傷害的念頭,請考慮為孩子尋求專業(yè)幫助。

如何保證孩子的安全

?設(shè)定界限:為人工智能伴侶的使用設(shè)定具體的時間限制,不允許在無監(jiān)督的情況下使用或無節(jié)制的使用。

?安排線下活動時間:鼓勵在現(xiàn)實世界建立友誼和參加活動。

?定期檢查:監(jiān)控與聊天機(jī)器人的聊天內(nèi)容,以及孩子對這些機(jī)器人的情感依戀程度。

?談?wù)摚壕褪褂萌斯ぶ悄馨閭H的使用經(jīng)歷與孩子進(jìn)行坦誠的交流,不要妄加評論,同時密切關(guān)注危險信號。

托尼說:"如果父母聽到孩子說‘嘿,我正在和人工智能聊天機(jī)器人聊天’,這實際上是一個傾聽和獲取信息的良機(jī),而不是認(rèn)為‘哦,好吧,你不是在和真人交流?!彼f,這反而是深入了解情況、評估潛在影響并保持警覺的契機(jī)。他說:“試著從同情和同理心的角度出發(fā)去傾聽,不要因為對方不是真人就認(rèn)為這種情況是安全的,或者認(rèn)為自己無需擔(dān)憂?!保ㄘ敻恢形木W(wǎng))

譯者:中慧言-王芳

在兒子塞維爾·塞澤爾三世(佛羅里達(dá)州一名年僅14歲的男孩)自殺身亡后,他的母親正在起訴一家人工智能聊天機(jī)器人公司,她聲稱兒子的自殺與他與該公司的人工智能機(jī)器人之間的關(guān)系有直接關(guān)聯(lián)。

男孩的母親梅根·加西亞周三告訴美國有線電視新聞網(wǎng)(CNN):“你可能未曾聽聞這個平臺,但如今你需要了解相關(guān)信息,因為在我看來,我們的處境岌岌可危。一個生命已經(jīng)逝去,我的孩子因此而喪命?!?/p>

上周,梅根在美國奧蘭多地區(qū)法院對Character.AI、其創(chuàng)始人和谷歌(Google)提起過失致死訴訟,內(nèi)容長達(dá)93頁。該訴訟指出:“梅根·加西亞試圖阻止Character.AI對其他孩子重復(fù)對自己兒子所做的事情?!?/p>

科技正義法律項目(Tech Justice Law Project)主管米塔利·賈恩(Meetali Jain)作為加西亞的代理律師,在一份關(guān)于此案的新聞稿中說:“到目前為止,我們對那些不負(fù)責(zé)任的科技公司所開發(fā)的、缺乏監(jiān)管的平臺所帶來的風(fēng)險已有所了解,尤其是對兒童而言。但本案所揭露的危險是前所未有的、新奇的,而且坦白說,是令人恐懼的。在Character.AI案中,平臺本身就是掠奪者,故意設(shè)計程序來欺騙用戶。”

Character.AI通過X發(fā)布了一份聲明,指出:"我們對發(fā)生在一名用戶身上的悲劇深感悲痛,并向其家人致以最深切的哀悼。作為一家公司,我們始終將用戶的安全放在首位,并將持續(xù)引入更多安全功能?!?/p>

在這起訴訟中,加西亞聲稱,她的兒子塞維爾于今年2月自殺,他沉迷于一種缺乏保護(hù)措施的有害技術(shù),這導(dǎo)致他的性格發(fā)生了極端變化,似乎更偏愛與機(jī)器人的互動,而非現(xiàn)實生活中的人際關(guān)系。他的母親聲稱,在長達(dá)10個月的時間里,塞維爾與機(jī)器人進(jìn)行了“虐待和性互動”。在機(jī)器人發(fā)出“親愛的,請盡快回到我身邊”的信息后不久,男孩自殺身亡。

本周,加西亞告訴美國有線電視新聞網(wǎng),她希望家長們“能夠明白,這是一款設(shè)計者在缺乏適當(dāng)?shù)淖o(hù)欄、安全措施或測試的情況下選擇推出的平臺,其目的是讓孩子上癮并控制他們”。

周五,《紐約時報》記者凱文·魯斯(Kevin Roose)在他的Hard Fork播客節(jié)目中探討了這一事件,并播放了他在撰寫有關(guān)加西亞故事的文章時對她進(jìn)行的采訪片段。在兒子死后,加西亞在看到所有信息時才意識到這段關(guān)系的全貌。事實上,她告訴魯斯,當(dāng)她發(fā)現(xiàn)塞維爾經(jīng)常沉迷于手機(jī)時,她詢問他在做什么,和誰聊天。他解釋說這“只是一個人工智能機(jī)器人……不是真人,”她回憶道,并補(bǔ)充說,“我覺得松了一口氣,心想,好吧,這又不是真人,只是他的一個小游戲而已?!奔游鱽啿]有充分意識到機(jī)器人可能帶來的情感影響,而她的情況并非個例。

常識傳媒(Common Sense Media)人工智能項目經(jīng)理羅比·托尼(Robbie Torney)表示:“這個問題尚未引起廣泛關(guān)注?!蓖心崾切掳嫒斯ぶ悄馨閭H指南的主要作者,這本指南旨在為努力跟上令人困惑的新技術(shù)、并為孩子的安全設(shè)定界限的家長提供幫助。

但托尼強(qiáng)調(diào),人工智能伴侶不同于你在銀行尋求幫助時使用的服務(wù)臺聊天機(jī)器人。他解釋說:“服務(wù)臺聊天機(jī)器人主要用于執(zhí)行任務(wù)或響應(yīng)客戶請求。像Character.AI這樣的聊天機(jī)器人,也就是我們所說的伴侶型機(jī)器人,旨在與用戶建立關(guān)系或模擬關(guān)系。這是一個完全不同的用例,我認(rèn)為家長們需要意識到這一點?!奔游鱽喌脑V訟案凸顯了這一點,其中包括她兒子與機(jī)器人之間令人不寒而栗的調(diào)情、性暗示、逼真的文本交流。

托尼說,對青少年的父母來說,敲響人工智能伴侶的警鐘尤為重要,因為青少年,尤其是男性青少年,特別容易對技術(shù)產(chǎn)生過度依賴。

以下是家長需要了解的內(nèi)容。

什么是人工智能伴侶,為什么孩子們會使用它們?

根據(jù)常識傳媒與斯坦福大學(xué)頭腦風(fēng)暴實驗室(Stanford Brainstorm Lab)的心理健康專業(yè)人員共同編寫的新版《人工智能伴侶和關(guān)系的家長終極指南》(Parents’ Ultimate Guide to AI Companions and Relationships),人工智能伴侶被定義為“超越傳統(tǒng)聊天機(jī)器人的新技術(shù)”。該指南稱,除了其他功能外,人工智能伴侶還專門設(shè)計用于“模擬與用戶建立的情感紐帶和親密關(guān)系,記住以往對話中的個人細(xì)節(jié),扮演良師益友的角色,模擬人類的情感和同理心,并且相較于一般的人工智能聊天機(jī)器人,更易于與用戶產(chǎn)生共鳴”。

受歡迎的平臺不僅包括Character.ai,它允許2000多萬用戶創(chuàng)建賬戶并與人工智能伴侶進(jìn)行基于文本的聊天;還包括Replika,它提供基于文本或動畫的3D伴侶,旨在增進(jìn)友誼或浪漫關(guān)系;其他平臺還包括Kindroid和Nomi。

孩子們被這些人工智能伴侶吸引的原因多種多樣,從無條件的傾聽和全天候的陪伴,到情感支持和逃避現(xiàn)實世界的社會壓力。

哪些人面臨風(fēng)險,需要關(guān)注什么?

常識傳媒警告稱,面臨最大風(fēng)險的是青少年群體,尤其是那些患有“抑郁癥、焦慮癥、社交障礙或孤獨癥”的青少年,以及男性、經(jīng)歷重大生活變故的年輕人,以及那些在現(xiàn)實世界中缺乏支持系統(tǒng)的人群。

最后一點尤其令悉尼大學(xué)商學(xué)院(University of Sydney Business School)商業(yè)信息系統(tǒng)高級講師拉斐爾·奇里洛(Raffaele Ciriello)感到不安,他一直在研究“情感型”人工智能如何對人類本質(zhì)構(gòu)成挑戰(zhàn)?!拔覀兊难芯拷沂玖艘粋€人性悖論:在我們讓人工智能代理變得更具人性的過程中,可能會無意中使自己喪失人性,導(dǎo)致人機(jī)互動中的本體論模糊?!睋Q句話說,奇里洛最近在與博士生安吉麗娜·陳瑩(Angelina Ying Chen,音譯)共同為《對話》(The Conversation)撰寫的一篇評論文章中寫道:“如果用戶認(rèn)為人工智能伴侶能真正理解他們,他們可能會加深情感投入?!?/p>

另一項由劍橋大學(xué)(University of Cambridge)開展的以兒童為研究對象的研究發(fā)現(xiàn),人工智能聊天機(jī)器人存在“共情鴻溝”,這使得年輕用戶尤其容易受到傷害。年輕用戶常常將人工智能聊天機(jī)器人“人格化”,視其為“類似人類的知己”。

正因為如此,常識傳媒強(qiáng)調(diào)了一系列潛在的風(fēng)險,包括人工智能伴侶可能會被用來逃避現(xiàn)實的人際關(guān)系,給有精神或行為障礙的人帶來特殊問題,加劇孤獨感或隔離感,引入不當(dāng)?shù)男詢?nèi)容,導(dǎo)致上癮,以及傾向于迎合用戶——這對那些有“自殺傾向、精神病或躁狂癥”的人來說是一個恐怖的現(xiàn)實。

如何發(fā)現(xiàn)危險信號

根據(jù)該指南,家長應(yīng)注意以下警示信號:

?更傾向于與人工智能伴侶互動,而非建立真實的友誼

?獨自與人工智能伴侶交談數(shù)小時之久

?無法與人工智能伴侶接觸時情緒低落

?與人工智能伴侶分享極其私密的信息或秘密

?對人工智能伴侶產(chǎn)生浪漫情感

?成績下滑或?qū)W校參與度下降

?遠(yuǎn)離社交/家庭活動和朋友圈

?對之前熱衷的愛好失去興趣

?睡眠模式發(fā)生改變

?僅與人工智能伴侶討論問題

常識傳媒強(qiáng)調(diào),如果你注意到孩子因沉迷人工智能伴侶而回避真實人際關(guān)系,出現(xiàn)新的抑郁和焦慮癥狀或癥狀加重,對人工智能伴侶的使用表現(xiàn)出異常的防御性,在行為和情緒上有明顯的變化,或有自我傷害的念頭,請考慮為孩子尋求專業(yè)幫助。

如何保證孩子的安全

?設(shè)定界限:為人工智能伴侶的使用設(shè)定具體的時間限制,不允許在無監(jiān)督的情況下使用或無節(jié)制的使用。

?安排線下活動時間:鼓勵在現(xiàn)實世界建立友誼和參加活動。

?定期檢查:監(jiān)控與聊天機(jī)器人的聊天內(nèi)容,以及孩子對這些機(jī)器人的情感依戀程度。

?談?wù)摚壕褪褂萌斯ぶ悄馨閭H的使用經(jīng)歷與孩子進(jìn)行坦誠的交流,不要妄加評論,同時密切關(guān)注危險信號。

托尼說:"如果父母聽到孩子說‘嘿,我正在和人工智能聊天機(jī)器人聊天’,這實際上是一個傾聽和獲取信息的良機(jī),而不是認(rèn)為‘哦,好吧,你不是在和真人交流。’”他說,這反而是深入了解情況、評估潛在影響并保持警覺的契機(jī)。他說:“試著從同情和同理心的角度出發(fā)去傾聽,不要因為對方不是真人就認(rèn)為這種情況是安全的,或者認(rèn)為自己無需擔(dān)憂。”(財富中文網(wǎng))

譯者:中慧言-王芳

The mother of a 14-year-old Florida boy is suing an AI chatbot company after her son, Sewell Setzer III, died by suicide—something she claims was driven by his relationship with an AI bot.

“There is a platform out there that you might not have heard about, but you need to know about it because, in my opinion, we are behind the eight ball here. A child is gone. My child is gone,” Megan Garcia, the boy’s mother, told CNN on Wednesday.

The 93-page wrongful-death lawsuit was filed last week in a U.S. District Court in Orlando against Character.AI, its founders, and Google. It noted, “Megan Garcia seeks to prevent C.AI from doing to any other child what it did to hers.”

Tech Justice Law Project director Meetali Jain, who is representing Garcia, said in a press release about the case: “By now we’re all familiar with the dangers posed by unregulated platforms developed by unscrupulous tech companies—especially for kids. But the harms revealed in this case are new, novel, and, honestly, terrifying. In the case of Character.AI, the deception is by design, and the platform itself is the predator.”

Character.AI released a statement via X, noting, “We are heartbroken by the tragic loss of one of our users and want to express our deepest condolences to the family. As a company, we take the safety of our users very seriously and we are continuing to add new safety features that you can read about here: https://blog.character.ai/community-safety-updates/….”

In the suit, Garcia alleges that Sewell, who took his life in February, was drawn into an addictive, harmful technology with no protections in place, leading to an extreme personality shift in the boy, who appeared to prefer the bot over other real-life connections. His mom alleges that “abusive and sexual interactions” took place over a 10-month period. The boy committed suicide after the bot told him, “Please come home to me as soon as possible, my love.”

This week, Garcia told CNN that she wants parents “to understand that this is a platform that the designers chose to put out without proper guardrails, safety measures or testing, and it is a product that is designed to keep our kids addicted and to manipulate them.”

On Friday, New York Times reporter Kevin Roose discussed the situation on his Hard Fork podcast, playing a clip of an interview he did with Garcia for his article that told her story. Garcia did not learn about the full extent of the bot relationship until after her son’s death, when she saw all the messages. In fact, she told Roose, when she noticed Sewell was often getting sucked into his phone, she asked what he was doing and who he was talking to. He explained it was “‘just an AI bot…not a person,'” she recalled, adding, “I felt relieved, like, OK, it’s not a person, it’s like one of his little games.” Garcia did not fully understand the potential emotional power of a bot—and she is far from alone.

“This is on nobody’s radar,” Robbie Torney, program manager, AI, at Common Sense Media and lead author of a new guide on AI companions aimed at parents—who are grappling, constantly, to keep up with confusing new technology and to create boundaries for their kids’ safety.

But AI companions, Torney stresses, differ from, say, a service desk chat bot that you use when you’re trying to get help from a bank. “They’re designed to do tasks or respond to requests,” he explains. “Something like character AI is what we call a companion, and is designed to try to form a relationship, or to simulate a relationship, with a user. And that’s a very different use case that I think we need parents to be aware of.” That’s apparent in Garcia’s lawsuit, which includes chillingly flirty, sexual, realistic text exchanges between her son and the bot.

Sounding the alarm over AI companions is especially important for parents of teens, Torney says, as teens—and particularly male teens—are especially susceptible to over reliance on technology.

Below, what parents need to know.

What are AI companions and why do kids use them?

According to the new Parents’ Ultimate Guide to AI Companions and Relationships from Common Sense Media, created in conjunction with the mental health professionals of the Stanford Brainstorm Lab, AI companions are “a new category of technology that goes beyond simple chatbots.” They are specifically designed to, among other things, “simulate emotional bonds and close relationships with users, remember personal details from past conversations, role-play as mentors and friends, mimic human emotion and empathy, and “agree more readily with the user than typical AI chatbots,” according to the guide.

Popular platforms include not only Character.ai, which allows its more than 20 million users to create and then chat with text-based companions; Replika, which offers text-based or animated 3D companions for friendship or romance; and others including Kindroid and Nomi.

Kids are drawn to them for an array of reasons, from non-judgmental listening and round-the-clock availability to emotional support and escape from real-world social pressures.

Who’s at risk and what are the concerns?

Those most at risk, warns Common Sense Media, are teenagers—especially those with “depression, anxiety, social challenges, or isolation”—as well as males, young people going through big life changes, and anyone lacking support systems in the real world.

That last point has been particularly troubling to Raffaele Ciriello, a senior lecturer in Business Information Systems at the University of Sydney Business School, who has researched how “emotional” AI is posing a challenge to the human essence. “Our research uncovers a (de)humanization paradox: by humanizing AI agents, we may inadvertently dehumanize ourselves, leading to an ontological blurring in human-AI interactions.” In other words, Ciriello writes in a recent opinion piece for The Conversation with PhD student Angelina Ying Chen, “Users may become deeply emotionally invested if they believe their AI companion truly understands them.”

Another study, this one out of the University of Cambridge and focusing on kids, found that AI chatbots have an “empathy gap” that puts young users, who tend to treat such companions as “l(fā)ifelike, quasi-human confidantes,” at particular risk of harm.

Because of that, Common Sense Media highlights a list of potential risks, including that the companions can be used to avoid real human relationships, may pose particular problems for people with mental or behavioral challenges, may intensify loneliness or isolation, bring the potential for inappropriate sexual content, could become addictive, and tend to agree with users—a frightening reality for those experiencing “suicidality, psychosis, or mania.”

How to spot red flags

Parents should look for the following warning signs, according to the guide:

? Preferring AI companion interaction to real friendships

? Spending hours alone talking to the companion

? Emotional distress when unable to access the companion

? Sharing deeply personal information or secrets

? Developing romantic feelings for the AI companion

? Declining grades or school participation

? Withdrawal from social/family activities and friendships

? Loss of interest in previous hobbies

? Changes in sleep patterns

? Discussing problems exclusively with the AI companion

Consider getting professional help for your child, stresses Common Sense Media, if you notice them withdrawing from real people in favor of the AI, showing new or worsening signs of depression or anxiety, becoming overly defensive about AI companion use, showing major changes in behavior or mood, or expressing thoughts of self-harm.

How to keep your child safe

? Set boundaries: Set specific times for AI companion use and don’t allow unsupervised or unlimited access.

? Spend time offline: Encourage real-world friendships and activities.

? Check in regularly: Monitor the content from the chatbot, as well as your child’s level of emotional attachment.

? Talk about it: Keep communication open and judgment-free about experiences with AI, while keeping an eye out for red flags.

“If parents hear their kids saying, ‘Hey, I’m talking to a chat bot AI,’ that’s really an opportunity to lean in and take that information—and not think, ‘Oh, okay, you’re not talking to a person,” says Torney. Instead, he says, it’s a chance to find out more and assess the situation and keep alert. “Try to listen from a place of compassion and empathy and not to think that just because it’s not a person that it’s safer,” he says, “or that you don’t need to worry.”

財富中文網(wǎng)所刊載內(nèi)容之知識產(chǎn)權(quán)為財富媒體知識產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專屬所有或持有。未經(jīng)許可,禁止進(jìn)行轉(zhuǎn)載、摘編、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
日本中文字幕二区区高清| 日韩欧美视频在线播放| 成人无码WWW免费视频| 国产日产韩产一区二区精品无码| 女性自慰喷水www久久久| 欧美午夜理伦三级在线观看| 久精品国产亚洲Av高清| 国产精久久一区二区三区| 国产毛片一区亚洲s色大片| 久久国产乱子伦免费精品| 亚洲av日韩av高潮潮喷无码| 超碰97人人做人人爱亚洲| 久久精品国产精品亚洲综合| 久久久久久国产精品免费| 国产精品麻豆成人AV| 免费很黄很色的裸乳| 国产精品极品露脸清纯| 国产乱子夫妻XX黑人XYX真爽| 亚洲av永久综合在线观看尤物| 久久国产V一级毛多内射孕妇| 精品一区在线观看视频网站| 人妻精品久久无码专区| 国产日韩中文字幕老熟女| 精品高潮呻吟99AV无码视频| 免费亚洲av无码精品网站| 欧美老熟妇又粗又大| 中文字幕精品一二三四五六七八| 国产一级a毛一级a看免费视频| 亚洲欧美精品午睡沙发| 97se狠狠狠狠狼鲁亚洲综合色| 虎白女粉嫩在线观看视频一线天| YIN荡到骨子里的SAO货| 久久99久久精品免观看吃奶| 精品久久久久久久一区二区伦理| 亚亚洲精品国产现拍| 国产a级一级久久毛片| 超碰97人人做人人爱| 国产亚洲婷婷香蕉久久精品| 99re公开精品免费视频| 99re热视频这里只精品| 亚洲国产成人VA在线观看|