安迪?泰勒的目標既適度又雄心勃勃:首次將人工智能引入空中交通管制。作為一名職業(yè)空中交通管制員,泰勒很快就意識到了計算機視覺技術(shù)的改進可以為他的職業(yè)帶來潛在的好處。
示例:每次飛機離開跑道時,空中交通管制員都必須進行標記,并通知下一架飛機跑道可以使用。這項簡單、重復(fù)的任務(wù)占據(jù)了管制員所有的注意力,使其無法觀察到停機坪上發(fā)生的其他任何情況。即使稍有耽擱,在一天中累積起來所產(chǎn)生的影響也不能小覷,尤其是在泰勒工作的倫敦希思羅機場,該機場的航班預(yù)訂從早上六點到晚上11點30分從不間斷。
如果人工智能系統(tǒng)能夠自動處理此項工作,會怎么樣?NATS是英國唯一的空中交通管制服務(wù)提供商,泰勒現(xiàn)在帶頭進行NATS的開創(chuàng)性工作,以回答該問題,并采用人工智能來承擔這項工作以及相關(guān)的空中交通管制任務(wù)。
他創(chuàng)新路上的最大障礙是什么?人工智能航空安全法規(guī)尚未成型。
缺乏法規(guī)可能會阻礙像泰勒這樣的創(chuàng)新者,有些人可能會認為這種說法有悖常理。畢竟,通常情況下,無阻礙創(chuàng)新的支持者與那些擔心不受約束的競爭會造成社會危害的人們在圍繞監(jiān)管進行爭論時一直都站在對立面。
特朗普政府加入了前一陣營,主張各機構(gòu)對新法規(guī)采取“低干預(yù)”的手段,其認為新的法規(guī)“不必要且會阻礙人工智能創(chuàng)新和發(fā)展”。
作為一個日益強大的政治主體,許多硅谷的精英們也同意這種觀點,其對監(jiān)管的厭惡眾所周知。
但是,盡管不干預(yù)的手段可能會促進互聯(lián)網(wǎng)、航空和其他行業(yè)的創(chuàng)新,但它可能會成為進步的障礙。我在加利福尼亞大學(xué)伯克利分校(UC Berkeley)的人工智能安全倡議研究中心(AI Security Initiative)的報告中作出了解釋。部分問題在于,航空安全法規(guī)范圍太廣,且與人工智能情況嚴重不符,因此需要對現(xiàn)有規(guī)則進行大量修訂和補充。
例如,飛機認證過程遵循基于邏輯的方法,其中每一個可能的輸入和輸出都有人關(guān)注并對其進行分析。但是這種方法通常對人工智能模型不起作用,其中許多模型的反應(yīng)不同,甚至對輸入的輕微擾動反應(yīng)也不同,從而產(chǎn)生了幾乎無限量的結(jié)果需要考慮。
應(yīng)對這一挑戰(zhàn)不僅僅是修改現(xiàn)有監(jiān)管語言的問題:它需要人們進行新的技術(shù)研究,構(gòu)建行為可預(yù)測和可解釋的人工智能系統(tǒng),以及制定新的技術(shù)標準來對標安全性和其他性能標準。在制定這些標準和法規(guī)之前,企業(yè)必須完全從零開始,為人工智能應(yīng)用程序構(gòu)建安全案例。即使對于像NATS這樣的開路先鋒企業(yè)來說,這也是一項艱巨的任務(wù)。
“這絕對是個挑戰(zhàn),”泰勒今年早些時候告訴我,“因為沒有指南或要求,我沒辦法指著某個指南或要求說,‘我遵循的就是這個要求?!?/p>
一個更深層次的問題是,空中交通管制企業(yè)以及波音公司和空中客車公司等制造商明白,制定人工智能新規(guī)則不可避免。雖然他們渴望獲得人工智能帶來的成本和安全方面的好處,但可以理解的是,它們中大多數(shù)不愿意進行重大投資,因為他們沒有信心,能夠保證由人工智能產(chǎn)生的產(chǎn)品將符合未來的法規(guī)。
其結(jié)果可能是采用人工智能的速度大幅放緩:如果監(jiān)管機構(gòu)無法獲得更多資源以及白宮不施加強有力的領(lǐng)導(dǎo),設(shè)定標準和制定符合人工智能的法規(guī)的過程需要花費幾年甚至幾十年的時間。
即將上任的拜登政府準備進行強有力的領(lǐng)導(dǎo),這與特朗普政府“治理人工智能”所采取的不干預(yù)手段形成了鮮明對比。
在影響拜登政府對待人工智能監(jiān)管的態(tài)度方面,商界領(lǐng)袖和技術(shù)專家可以發(fā)揮關(guān)鍵作用。他們首先可能鼓勵政府優(yōu)先考慮進行和樹立與支持航空業(yè)和其他行業(yè)創(chuàng)新的人工智能有關(guān)的安全研究和監(jiān)管框架。或者,他們可以發(fā)揮自己的專長:在私營部門開發(fā)原型解決方案(例如,見OpenAI關(guān)于人工智能治理的監(jiān)管市場提案)。
如果他們的努力取得成功,安迪?泰勒和其他企業(yè)家就可以放開拳腳,在從航空到醫(yī)療保健再到軍事等安全至上的行業(yè)中進行創(chuàng)新。如果未能取得成功,NATS等少數(shù)企業(yè)仍將嘗試在這些行業(yè)開發(fā)新的人工智能應(yīng)用程序。但這并不容易,而且會增加發(fā)生事故的風險。人工智能的潛在好處——改進的醫(yī)療診斷、經(jīng)濟適用的城市空氣流動性等等——在技術(shù)上將仍然可行,但總是要幾年時間。
因此,支持創(chuàng)新的商業(yè)領(lǐng)袖和技術(shù)專家應(yīng)該減少對新的法規(guī)會使人工智能發(fā)展減緩的擔心,而是努力制定加快發(fā)展所需的智能法規(guī)。(財富中文網(wǎng))
威爾?亨特是喬治敦大學(xué)安全與新興技術(shù)中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析師以及加州大學(xué)伯克利分校(University of California at Berkeley)的政治學(xué)在讀博士生。他與別人合作編寫了《華爾街日報》上的科技政策社評。先前,他曾是加州大學(xué)伯克利分校人工智能安全倡議研究中心的研究生研究員。
翻譯:曉田
審校:汪皓
安迪?泰勒的目標既適度又雄心勃勃:首次將人工智能引入空中交通管制。作為一名職業(yè)空中交通管制員,泰勒很快就意識到了計算機視覺技術(shù)的改進可以為他的職業(yè)帶來潛在的好處。
示例:每次飛機離開跑道時,空中交通管制員都必須進行標記,并通知下一架飛機跑道可以使用。這項簡單、重復(fù)的任務(wù)占據(jù)了管制員所有的注意力,使其無法觀察到停機坪上發(fā)生的其他任何情況。即使稍有耽擱,在一天中累積起來所產(chǎn)生的影響也不能小覷,尤其是在泰勒工作的倫敦希思羅機場,該機場的航班預(yù)訂從早上六點到晚上11點30分從不間斷。
如果人工智能系統(tǒng)能夠自動處理此項工作,會怎么樣?NATS是英國唯一的空中交通管制服務(wù)提供商,泰勒現(xiàn)在帶頭進行NATS的開創(chuàng)性工作,以回答該問題,并采用人工智能來承擔這項工作以及相關(guān)的空中交通管制任務(wù)。
他創(chuàng)新路上的最大障礙是什么?人工智能航空安全法規(guī)尚未成型。
缺乏法規(guī)可能會阻礙像泰勒這樣的創(chuàng)新者,有些人可能會認為這種說法有悖常理。畢竟,通常情況下,無阻礙創(chuàng)新的支持者與那些擔心不受約束的競爭會造成社會危害的人們在圍繞監(jiān)管進行爭論時一直都站在對立面。
特朗普政府加入了前一陣營,主張各機構(gòu)對新法規(guī)采取“低干預(yù)”的手段,其認為新的法規(guī)“不必要且會阻礙人工智能創(chuàng)新和發(fā)展”。
作為一個日益強大的政治主體,許多硅谷的精英們也同意這種觀點,其對監(jiān)管的厭惡眾所周知。
但是,盡管不干預(yù)的手段可能會促進互聯(lián)網(wǎng)、航空和其他行業(yè)的創(chuàng)新,但它可能會成為進步的障礙。我在加利福尼亞大學(xué)伯克利分校(UC Berkeley)的人工智能安全倡議研究中心(AI Security Initiative)的報告中作出了解釋。部分問題在于,航空安全法規(guī)范圍太廣,且與人工智能情況嚴重不符,因此需要對現(xiàn)有規(guī)則進行大量修訂和補充。
例如,飛機認證過程遵循基于邏輯的方法,其中每一個可能的輸入和輸出都有人關(guān)注并對其進行分析。但是這種方法通常對人工智能模型不起作用,其中許多模型的反應(yīng)不同,甚至對輸入的輕微擾動反應(yīng)也不同,從而產(chǎn)生了幾乎無限量的結(jié)果需要考慮。
應(yīng)對這一挑戰(zhàn)不僅僅是修改現(xiàn)有監(jiān)管語言的問題:它需要人們進行新的技術(shù)研究,構(gòu)建行為可預(yù)測和可解釋的人工智能系統(tǒng),以及制定新的技術(shù)標準來對標安全性和其他性能標準。在制定這些標準和法規(guī)之前,企業(yè)必須完全從零開始,為人工智能應(yīng)用程序構(gòu)建安全案例。即使對于像NATS這樣的開路先鋒企業(yè)來說,這也是一項艱巨的任務(wù)。
“這絕對是個挑戰(zhàn),”泰勒今年早些時候告訴我,“因為沒有指南或要求,我沒辦法指著某個指南或要求說,‘我遵循的就是這個要求。’”
一個更深層次的問題是,空中交通管制企業(yè)以及波音公司和空中客車公司等制造商明白,制定人工智能新規(guī)則不可避免。雖然他們渴望獲得人工智能帶來的成本和安全方面的好處,但可以理解的是,它們中大多數(shù)不愿意進行重大投資,因為他們沒有信心,能夠保證由人工智能產(chǎn)生的產(chǎn)品將符合未來的法規(guī)。
其結(jié)果可能是采用人工智能的速度大幅放緩:如果監(jiān)管機構(gòu)無法獲得更多資源以及白宮不施加強有力的領(lǐng)導(dǎo),設(shè)定標準和制定符合人工智能的法規(guī)的過程需要花費幾年甚至幾十年的時間。
即將上任的拜登政府準備進行強有力的領(lǐng)導(dǎo),這與特朗普政府“治理人工智能”所采取的不干預(yù)手段形成了鮮明對比。
在影響拜登政府對待人工智能監(jiān)管的態(tài)度方面,商界領(lǐng)袖和技術(shù)專家可以發(fā)揮關(guān)鍵作用。他們首先可能鼓勵政府優(yōu)先考慮進行和樹立與支持航空業(yè)和其他行業(yè)創(chuàng)新的人工智能有關(guān)的安全研究和監(jiān)管框架。或者,他們可以發(fā)揮自己的專長:在私營部門開發(fā)原型解決方案(例如,見OpenAI關(guān)于人工智能治理的監(jiān)管市場提案)。
如果他們的努力取得成功,安迪?泰勒和其他企業(yè)家就可以放開拳腳,在從航空到醫(yī)療保健再到軍事等安全至上的行業(yè)中進行創(chuàng)新。如果未能取得成功,NATS等少數(shù)企業(yè)仍將嘗試在這些行業(yè)開發(fā)新的人工智能應(yīng)用程序。但這并不容易,而且會增加發(fā)生事故的風險。人工智能的潛在好處——改進的醫(yī)療診斷、經(jīng)濟適用的城市空氣流動性等等——在技術(shù)上將仍然可行,但總是要幾年時間。
因此,支持創(chuàng)新的商業(yè)領(lǐng)袖和技術(shù)專家應(yīng)該減少對新的法規(guī)會使人工智能發(fā)展減緩的擔心,而是努力制定加快發(fā)展所需的智能法規(guī)。(財富中文網(wǎng))
威爾?亨特是喬治敦大學(xué)安全與新興技術(shù)中心(Georgetown University’s Center for Security and Emerging Technology)的研究分析師以及加州大學(xué)伯克利分校(University of California at Berkeley)的政治學(xué)在讀博士生。他與別人合作編寫了《華爾街日報》上的科技政策社評。先前,他曾是加州大學(xué)伯克利分校人工智能安全倡議研究中心的研究生研究員。
翻譯:曉田
審校:汪皓
Andy Taylor has a goal both modest and ambitious: bring artificial intelligence, or A.I., to air traffic control for the first time. A career air traffic controller, Taylor was quick to see the potential benefits that advances in computer vision technology could bring to his profession.
Example: Every time a plane clears its runway, an air traffic controller must flag it and notify the next plane that the runway is free. This simple, repetitive task takes controllers’ attention away from everything else that’s happening on the tarmac. Even short delays can add up considerably over the course of a day—especially at airports such as London’s Heathrow, where Taylor works, which has flights booked end-to-end from six in the morning till 11:30 at night.
What if an A.I. system could handle this work autonomously? Taylor now leads the groundbreaking effort by NATS, Britain’s sole air traffic control provider, to answer that question, and to bring A.I. to bear on this and related air traffic control tasks.
His biggest obstacle to innovation? The nonexistence of A.I. safety regulations for aviation.
That a lack of regulations might obstruct innovators like Taylor might be counterintuitive to some. After all, arguments around regulation usually pit proponents of unencumbered innovation against those concerned about social harms resulting from unchecked competition.
The Trump administration falls into the former camp, advocating that agencies adopt a light-touch approach toward new regulations, which it feels could “needlessly hamper A.I. innovation and growth.”
So do many Silicon Valley elites—an increasingly powerful political constituency with a well-documented distaste for regulation.
But while a hands-off approach might foster innovation on the Internet, in aviation and other industries it can be an obstacle to progress. In a report from UC Berkeley’s AI Security Initiative, I explain why. Part of the problem is that safety regulations for aviation are both extensive and deeply incompatible with A.I., necessitating broad revisions and additions to existing rules.
For example, aircraft certification processes follow a logic-based approach in which every possible input and output receives attention and analysis. But this approach often doesn’t work for A.I. models, many of which react differently even to slight perturbations of input, generating a nearly infinite number of outcomes to consider.
Addressing this challenge isn’t a mere matter of modifying existing regulatory language: It requires novel technical research on building A.I. systems with predictable and explainable behavior and the development of new technical standards for benchmarking safety and other performance criteria. Until these standards and regulations are developed, firms will have to build safety cases for A.I. applications entirely from scratch—a tall order, even for pathbreaking firms like NATS.
“It’s absolutely a challenge,” Taylor told me earlier this year, “because there’s no guidance or requirements that I can point to and say, ‘I’m using that particular requirement.’”
A further issue is that air traffic control firms, as well as manufacturers such as Boeing and Airbus, know that new rules for A.I. are inevitable. While they are eager to reap the cost and safety benefits offered by A.I., most are understandably reluctant to make serious investments without confidence that the resulting product will be compatible with future regulations.
The result could be a major slowdown in A.I. adoption: Without more resources for regulators and strong leadership from the White House, the process of setting standards and developing A.I.-appropriate regulations will take years or even decades.
The incoming Biden administration is poised to offer that leadership, striking a contrast with the Trump administration’s light-touch approach to A.I. governance.
Business leaders and technologists have a key role to play in influencing the Biden administration’s attitude toward A.I. regulation. They might start by encouraging the administration to prioritize A.I. safety research and regulatory frameworks for A.I. that support innovation in aviation and other industries. Or they could do what they do best: develop prototype solutions in the private sector (for a great example, see OpenAI’s proposal of regulatory markets for A.I. governance).
If successful, these efforts could free up Andy Taylor and other entrepreneurs to innovate in safety-critical industries from aviation to health care to the military. If not, a handful of companies like NATS will still try to develop new A.I. applications in these industries. But it won’t be easy and could increase the risk of accidents. The potential benefits of A.I.—improved medical diagnoses, affordable urban air mobility, and much more—would remain technically feasible, but always a few years away.
Pro-innovation business leaders and technologists should therefore worry less about new regulations slowing down progress and instead work on developing the smart regulations required to speed it up.
Will Hunt is a research analyst at Georgetown University’s Center for Security and Emerging Technology and a political science Ph.D. student at the University of California at Berkeley. He has coauthored commentary on technology policy in the Wall Street Journal, and he was previously a graduate researcher at the UC Berkeley AI Security Initiative.