成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁 500強 活動 榜單 商業(yè) 科技 領導力 專題 品牌中心
雜志訂閱

CEO采用AI必須理解一件事,否則將會付出代價

AARON ANDALMAN
2025-02-06

生物神經(jīng)網(wǎng)絡與人工神經(jīng)網(wǎng)絡之間的相似性具有商業(yè)意義。

文本設置
小號
默認
大號
Plus(0條)

薩姆·奧爾特曼最近宣稱,OpenAI已經(jīng)知道如何構建通用人工智能(AGI),這再次引發(fā)了有關AI未來的辯論。雖然這些主張頻頻登上媒體頭條,但作為一名研究人腦工作原理超過十年的神經(jīng)科學家,我發(fā)現(xiàn)自己關注的是一個不同的悖論:對現(xiàn)代AI系統(tǒng)最常見的批評之一是我們沒有完全理解它們的工作原理,這實際上可能是它們最像人腦的特征之一。

當前的AI熱潮導致對AGI有各種模糊的定義。但從神經(jīng)科學的角度來看待AI,為我們提供了寶貴的機會,對AI的能力和局限性進行有意義的現(xiàn)實檢驗。

現(xiàn)實是,盡管經(jīng)過了幾個世紀的科學探究,我們?nèi)匀粵]有完全了解人類大腦的工作機制。作為研究人員,我們可以觀察到某些神經(jīng)元執(zhí)行特定功能,但關于我們的認知過程實際上如何執(zhí)行,這種知識的解釋能力極其有限。然而,這并沒有阻止我們成為有生產(chǎn)能力的社會成員或者做出重要的決策。

同樣,我們理解AI背后的數(shù)學原理,但在相對簡單的數(shù)學運算和這些系統(tǒng)表現(xiàn)出的非凡智能之間存在著神奇的飛躍。這種生物神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡之間的相似性不是缺陷,而是復雜智能系統(tǒng)的標志。

以我和朋友最近使用OpenAI o1(目前最先進的 AI 模型之一)的經(jīng)歷為例。我們向它展示了一個由不同州的車牌拼接而成的視覺謎題,并要求它識別每個字母或數(shù)字來自哪個州。經(jīng)過幾分鐘的思考,它提供了一段清晰流暢而自信的分析,但結果幾乎完全錯誤。

即使在收到詳細反饋之后,它又生成了一個自信但同樣錯誤的答案。這暴露出AI的一個關鍵局限性:盡管當前的AI在許多領域表現(xiàn)出色,但它可能缺乏自我意識,無法識別它可能出錯的情況,而這是人類智能的一個寶貴元素。

商業(yè)意義

這揭示了一個關于智能的更廣泛的真相:智能不是一種單一的能力,而是一系列專門學習系統(tǒng)的組合。人腦有不同的機制——從語義記憶(如知道2+2=4的事實知識)到回憶個人體驗的情景記憶(如記住你第一次學習算術的時刻),以及隱性概率學習(如在不自覺理解原因的情況下提高網(wǎng)球水平)。盡管AI基準測試變得越來越全面和嚴格,但它們?nèi)晕茨懿蹲降饺祟愔悄艿娜慷鄻有浴?/p>

對于商業(yè)領袖而言,這具有重要意義。當前的AI浪潮并不是要全面取代人類智能,而是要理解這些工具可以在哪些方面補充人類的能力——以及在哪些方面無法作為補充。例如,在創(chuàng)意領域,生成式AI尚無法生成比人類專業(yè)人士更好的圖像或視頻。它是一種需要人類監(jiān)督的“人機協(xié)同”工具。

隨著AI能力的增長,這種理解變得日益重要。特斯拉(Tesla)的自動駕駛技術展示了其未來前景和風險:盡管它可能在99.9%的時間內(nèi)表現(xiàn)出色,但人類往往難以辨別99.9%和99.9999%準確率之間的差異。因此,我們可能對其產(chǎn)生一種過度的信任,忽視了小數(shù)點后增加幾位數(shù)對于確保真正安全的重要性。偶爾出現(xiàn)的不可預測的故障會提醒人們,這些系統(tǒng)尚未完全符合人類預期的復雜性和現(xiàn)實世界的不可預測性。

人工智能的局限性

雖然機器在長期記憶和處理速度方面早已超越了人類的能力,現(xiàn)在在其他領域似乎也將超越人類,但相比一些行業(yè)領導者的觀點,全面復制人類的智能仍然是一個更遙不可及的目標。值得注意的是,大多數(shù)AI基準測試將機器性能與人類個體進行比較。然而,人類通常不是孤立的。從建立文明到解碼人類基因組,人類最重要的成就都是集體努力和合作的產(chǎn)物。共享知識、團隊合作和文化傳遞的專業(yè)知識使我們能夠突破個人的局限性。因此,雖然AI模型可能在某些任務上優(yōu)于人類個體,但它并不能復制一群人共同工作時所產(chǎn)生的那種協(xié)同智能。這種由語言、文化和社會互動推動的動態(tài)、集體問題解決能力是人類智能的一個關鍵方面,當前的AI系統(tǒng)并不完全具備這種能力。

理解這種更細微的現(xiàn)實,對于公司高管應用AI至關重要。我們不能局限于AI是否達到了人類智能水平這個二元問題,而是應該專注于理解AI系統(tǒng)在具體維度上的優(yōu)勢和劣勢。成功采用AI的關鍵不是盲目信任或全面懷疑,而是要細致地理解這些系統(tǒng)的能力和局限性。正如我們在不完全理解人類智能的情況下學會了高效利用人類智能一樣,我們需要開發(fā)與人工智能合作的框架,既承認其非凡的能力,也承認其固有的不可預測性。

這并不意味著要放慢開發(fā)AI的速度,其實AI的進開發(fā)展令人驚嘆,值得慶祝。但隨著這些系統(tǒng)變得越來越復雜,且對AGI的辯論仍在繼續(xù),我們就需要保持一種平衡的觀點,既認識到它們的變革潛力,也認識到它們的基本局限性。AI的未來不是實現(xiàn)完美的理解或控制,而是學會如何與這些系統(tǒng)有效合作,這些系統(tǒng)可能像我們自己的大腦一樣,總是保留著某種神秘元素。(財富中文網(wǎng))

本文作者亞倫·安達爾曼現(xiàn)任Cognitiv的首席科學家兼聯(lián)合創(chuàng)始人。

Fortune.com上發(fā)表的評論文章中表達的觀點,僅代表作者本人的觀點,不能代表《財富》雜志的觀點和立場。

譯者:劉進龍

審校:汪皓

薩姆·奧爾特曼最近宣稱,OpenAI已經(jīng)知道如何構建通用人工智能(AGI),這再次引發(fā)了有關AI未來的辯論。雖然這些主張頻頻登上媒體頭條,但作為一名研究人腦工作原理超過十年的神經(jīng)科學家,我發(fā)現(xiàn)自己關注的是一個不同的悖論:對現(xiàn)代AI系統(tǒng)最常見的批評之一是我們沒有完全理解它們的工作原理,這實際上可能是它們最像人腦的特征之一。

當前的AI熱潮導致對AGI有各種模糊的定義。但從神經(jīng)科學的角度來看待AI,為我們提供了寶貴的機會,對AI的能力和局限性進行有意義的現(xiàn)實檢驗。

現(xiàn)實是,盡管經(jīng)過了幾個世紀的科學探究,我們?nèi)匀粵]有完全了解人類大腦的工作機制。作為研究人員,我們可以觀察到某些神經(jīng)元執(zhí)行特定功能,但關于我們的認知過程實際上如何執(zhí)行,這種知識的解釋能力極其有限。然而,這并沒有阻止我們成為有生產(chǎn)能力的社會成員或者做出重要的決策。

同樣,我們理解AI背后的數(shù)學原理,但在相對簡單的數(shù)學運算和這些系統(tǒng)表現(xiàn)出的非凡智能之間存在著神奇的飛躍。這種生物神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡之間的相似性不是缺陷,而是復雜智能系統(tǒng)的標志。

以我和朋友最近使用OpenAI o1(目前最先進的 AI 模型之一)的經(jīng)歷為例。我們向它展示了一個由不同州的車牌拼接而成的視覺謎題,并要求它識別每個字母或數(shù)字來自哪個州。經(jīng)過幾分鐘的思考,它提供了一段清晰流暢而自信的分析,但結果幾乎完全錯誤。

即使在收到詳細反饋之后,它又生成了一個自信但同樣錯誤的答案。這暴露出AI的一個關鍵局限性:盡管當前的AI在許多領域表現(xiàn)出色,但它可能缺乏自我意識,無法識別它可能出錯的情況,而這是人類智能的一個寶貴元素。

商業(yè)意義

這揭示了一個關于智能的更廣泛的真相:智能不是一種單一的能力,而是一系列專門學習系統(tǒng)的組合。人腦有不同的機制——從語義記憶(如知道2+2=4的事實知識)到回憶個人體驗的情景記憶(如記住你第一次學習算術的時刻),以及隱性概率學習(如在不自覺理解原因的情況下提高網(wǎng)球水平)。盡管AI基準測試變得越來越全面和嚴格,但它們?nèi)晕茨懿蹲降饺祟愔悄艿娜慷鄻有浴?/p>

對于商業(yè)領袖而言,這具有重要意義。當前的AI浪潮并不是要全面取代人類智能,而是要理解這些工具可以在哪些方面補充人類的能力——以及在哪些方面無法作為補充。例如,在創(chuàng)意領域,生成式AI尚無法生成比人類專業(yè)人士更好的圖像或視頻。它是一種需要人類監(jiān)督的“人機協(xié)同”工具。

隨著AI能力的增長,這種理解變得日益重要。特斯拉(Tesla)的自動駕駛技術展示了其未來前景和風險:盡管它可能在99.9%的時間內(nèi)表現(xiàn)出色,但人類往往難以辨別99.9%和99.9999%準確率之間的差異。因此,我們可能對其產(chǎn)生一種過度的信任,忽視了小數(shù)點后增加幾位數(shù)對于確保真正安全的重要性。偶爾出現(xiàn)的不可預測的故障會提醒人們,這些系統(tǒng)尚未完全符合人類預期的復雜性和現(xiàn)實世界的不可預測性。

人工智能的局限性

雖然機器在長期記憶和處理速度方面早已超越了人類的能力,現(xiàn)在在其他領域似乎也將超越人類,但相比一些行業(yè)領導者的觀點,全面復制人類的智能仍然是一個更遙不可及的目標。值得注意的是,大多數(shù)AI基準測試將機器性能與人類個體進行比較。然而,人類通常不是孤立的。從建立文明到解碼人類基因組,人類最重要的成就都是集體努力和合作的產(chǎn)物。共享知識、團隊合作和文化傳遞的專業(yè)知識使我們能夠突破個人的局限性。因此,雖然AI模型可能在某些任務上優(yōu)于人類個體,但它并不能復制一群人共同工作時所產(chǎn)生的那種協(xié)同智能。這種由語言、文化和社會互動推動的動態(tài)、集體問題解決能力是人類智能的一個關鍵方面,當前的AI系統(tǒng)并不完全具備這種能力。

理解這種更細微的現(xiàn)實,對于公司高管應用AI至關重要。我們不能局限于AI是否達到了人類智能水平這個二元問題,而是應該專注于理解AI系統(tǒng)在具體維度上的優(yōu)勢和劣勢。成功采用AI的關鍵不是盲目信任或全面懷疑,而是要細致地理解這些系統(tǒng)的能力和局限性。正如我們在不完全理解人類智能的情況下學會了高效利用人類智能一樣,我們需要開發(fā)與人工智能合作的框架,既承認其非凡的能力,也承認其固有的不可預測性。

這并不意味著要放慢開發(fā)AI的速度,其實AI的進開發(fā)展令人驚嘆,值得慶祝。但隨著這些系統(tǒng)變得越來越復雜,且對AGI的辯論仍在繼續(xù),我們就需要保持一種平衡的觀點,既認識到它們的變革潛力,也認識到它們的基本局限性。AI的未來不是實現(xiàn)完美的理解或控制,而是學會如何與這些系統(tǒng)有效合作,這些系統(tǒng)可能像我們自己的大腦一樣,總是保留著某種神秘元素。(財富中文網(wǎng))

本文作者亞倫·安達爾曼現(xiàn)任Cognitiv的首席科學家兼聯(lián)合創(chuàng)始人。

Fortune.com上發(fā)表的評論文章中表達的觀點,僅代表作者本人的觀點,不能代表《財富》雜志的觀點和立場。

譯者:劉進龍

審校:汪皓

Sam Altman’s recent declaration that OpenAI now knows how to build artificial general intelligence (AGI) has reignited debates about AI’s future. While such claims generate headlines, as a neuroscientist who spent over a decade studying how the brain works, I find myself focused on a different paradox: One of the most common criticisms of modern AI systems—that we do not fully understand how they work—might actually be one of their most brain-like features.

The current AI hype cycle has led to varied, ambiguous definitions of AGI. But looking at AI through the lens of neuroscience offers a valuable reality check about both its capabilities and limitations.

The reality is that despite centuries of scientific inquiry, we still do not fully understand how the human brain works. As researchers, we can observe that certain neurons perform specific functions, but this knowledge offers limited explanatory power about how our cognitive processes actually function. Yet this has not stopped us from being productive members of society or making important decisions.

Similarly, we understand the mathematics behind AI, but there is a mysterious leap between these relatively simple mathematical operations and the remarkable intelligence these systems display. This parallel between biological and artificial neural networks is not a flaw—it is a signature of complex intelligence systems.

Consider a recent experience my friend and I had with OpenAI o1, one of the most advanced AI models out there. We presented it with a visual puzzle of spliced license plates from different states and asked it to identify the origin state of each individual letter or number. After thinking for several minutes, it provided a beautifully articulated and confident analysis that was nearly completely incorrect.

Even after detailed feedback, it produced another confident, but equally wrong, answer. This reveals one of AI’s crucial limitations: Despite impressive capabilities in many areas, today’s AI can lack the self-awareness to recognize when it might be wrong, which is a valuable element of human intelligence.

Business implications

This points to a broader truth about intelligence: It is not a monolithic capability but rather a tapestry of specialized learning systems. Our brains have distinct mechanisms—from semantic memory for factual knowledge (like knowing that 2+2=4) to episodic memory for recalling personal experiences (like remembering the moment you first learned arithmetic), and implicit probabilistic learning (like improving at tennis without consciously understanding why). While AI benchmarks become increasingly comprehensive and rigorous, they still do not capture this full diversity of human intelligence.

For business leaders, this has important implications. The current wave of AI is not about replacing human intelligence wholesale, but about understanding where these tools can complement human capabilities—and where they cannot. In creative fields, for instance, generative AI is not yet capable of producing better images or videos than human professionals. It is a tool that needs to remain “in the loop” with human oversight.

The stakes of this understanding grow higher as AI capabilities grow. Tesla’s self-driving technology demonstrates both the promise and the peril: While it may perform impressively 99.9% of the time, humans often have difficulty discerning the difference between 99.9% and 99.9999% accuracy. As a result, we risk developing an undue level of trust that overlooks how vital those extra nines are for ensuring true safety. The occasional unpredictable failure thus serves as a stark reminder that these systems are not yet fully aligned with the complexities of human expectations and real-world unpredictability.

AI limitations

While machines surpassed human capabilities in long-term memory and processing speed long ago and now appear poised to exceed us in other domains, replicating the full breadth of human intelligence remains a far more elusive goal than some industry leaders suggest. It is worth noting that most AI benchmarks compare machine performance to individual humans. Yet humans do not generally operate in isolation. Our species’ most significant achievements—from building civilizations to decoding the human genome—are products of collective effort and collaboration. Shared knowledge, teamwork, and culturally transmitted expertise allow us to transcend our individual limitations. So while an AI model might outperform a lone human on certain tasks, it does not replicate the kind of collaborative intelligence that emerges when groups of people work together. This capacity for dynamic, collective problem-solving—fueled by language, culture, and social interaction—is a key aspect of human intelligence that current AI systems do not fully capture.

Understanding this more nuanced reality is crucial for executives navigating the AI landscape—we need to move beyond the binary question of whether AI has reached human-level intelligence and instead focus on understanding the specific dimensions along which AI systems excel or fall short. The key to successful AI implementation is not blind trust or wholesale skepticism, but rather a nuanced understanding of these systems’ capabilities and limitations. Just as we have learned to work productively with human intelligence despite not fully understanding it, we need to develop frameworks for working with artificial intelligence that acknowledge both its remarkable capabilities and its inherent unpredictability.

This does not mean slowing down AI development—the progress is indeed amazing and should be celebrated. But as these systems become more sophisticated and as debates about AGI continue, we need to maintain a balanced perspective that recognizes both their transformative potential and their fundamental limitations. The future of AI is not about achieving perfect understanding or control, but about learning to work effectively with systems that, like our own brains, may always retain an element of mystery.

Aaron Andalman is the chief science officer and a cofounder at Cognitiv.

The opinions expressed in Fortune.com commentary pieces are solely the views of their authors and do not necessarily reflect the opinions and beliefs of Fortune.

財富中文網(wǎng)所刊載內(nèi)容之知識產(chǎn)權為財富媒體知識產(chǎn)權有限公司及/或相關權利人專屬所有或持有。未經(jīng)許可,禁止進行轉(zhuǎn)載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
欧美日韩一区在线观看| 久久久久国产精品免费观看| 亚洲精品国产精华液怎么样亚洲 | 在线精品一区亚洲毛片免费一级| 成人欧美亚洲另类综合| 日韩专区一中文字目一区二区| 国产精品无码一区二区三区不卡| 日韩内射激情视频在线播放免费| 99久久国产精品无码| 亚洲精品456在线播放| 国产精品一区按摩国产一区| 偷国产乱人伦偷精品视频 | 另类 专区 欧美 制服丝袜| 成人精品视频在线观看不卡| 亚洲中文久久久久久精品国产| 18禁止观看网站A级毛片自慰| 粗大的内捧猛烈进出视频| 亚洲国产精品Ⅴa在线观看麻豆| 精品人妻AV区波多野结衣| 国产AV影片久久久久久| 看免费视频一区二区三区| 亚洲国产国语自产精品| 亚洲欧美日本国产高清| 少妇午夜中文字幕无码无删减| 91无码精品久久久久一区二区| 看全色黄大色黄女片 | 风流老熟女一区二区三区| 性欧美精品一区二区三区在线播放| 少妇午夜中文字幕无码无删减| 三年片在线观看免费观看大全| 久久人妻无码精品一区二区三区| 人与动人物a级毛片免费视频| 色色视频网亚色中文91在线| 日韩一区三区视频| 亚洲精品熟女国产| 日本大乳高潮视频在线观看| 日本午夜精品理论片A级APP发布| 九九99久久精品在免费线bt国内精品伊人久久久久| 无码午夜人妻一区二区不卡视频| 无码制服丝袜人妻在线视频| 亚洲国产一二三精品无码|