熱門文章
人工智能(AI)危險嗎?我們現(xiàn)在應該監(jiān)管它嗎?
發(fā)布時間:2018-08-24 分類:交通百科
既然人工智能(AI)已經(jīng)不再只是一種讓科技大師們對各種可能性瘋狂的假想,而是正在使用并影響著我們的日常生活,人們重新開始討論如何監(jiān)管這一令人興奮的、強大的、潛在的問題的技術?,F(xiàn)在一邊是那些認為現(xiàn)在開始討論還為時過早的人,而另一邊則是那些認為討論已經(jīng)嚴重滯后的人。
無論你在這個問題上的立場如何,我們都會同意讓人工智能將繼續(xù)存在下去。因此,不管找出監(jiān)管的“兔子洞”有多大的挑戰(zhàn)性,現(xiàn)在是時候開始認真考慮在國家和國際層面上需要采取什么措施來監(jiān)管人工智能了。
為什么我們需要人工智能(AI)規(guī)則?
斯蒂芬·霍金(Stephen Hawking)等人工智能監(jiān)管的支持者擔心,如果我們不積極避免不受約束的人工智能(如“強大的自主武器,或少數(shù)人壓迫多數(shù)人的新方式”)的風險,人工智能可能會毀滅人類。他認為,監(jiān)管是讓人工智能和人類在一個和平而富有成效的未來共存的關鍵。比爾·蓋茨也“關心超級智慧”,不理解為什么有些人不關心。埃隆·馬斯克(Elon Musk)提出,我們應該“在為時已晚之前”監(jiān)管人工智能。2015年,包括機器人和人工智能研究人員、知識分子、活動人士、斯蒂芬·霍金(Stephen Hawking)和埃隆·馬斯克(Elon Musk)在內(nèi)的2萬人簽署了一封公開信,并在國際人工智能會議上提交了這封公開信。該公開信呼吁聯(lián)合國禁止進一步發(fā)展“無法有效控制”的武器化人工智能。
我們的社會已經(jīng)被部署在金融機構、雇主、政府系統(tǒng)、警察等部門的人工智能算法的爆炸式增長所影響。這些人工智能算法能夠而且確實能做出決策,在人們的生活中產(chǎn)生重大而嚴重的問題。一名學校教師過去曾得到過好評,但在她所在的學區(qū)實施了一種評估教師業(yè)績的算法后,她被解雇了。學校無法解釋為什么會發(fā)生這種情況,除非是其他人在“游戲”這個系統(tǒng),反恐面部識別程序吊銷了一名無辜男子的駕駛執(zhí)照,因為它把他當成了另一名司機。
人工智能正在迅速成熟,而政府和監(jiān)管決策的進展卻非常緩慢。馬斯克和其他人認為,現(xiàn)在是開始辯論人工智能監(jiān)管將是什么樣子的時候了,這樣當監(jiān)管真正通過時,我們就不會落后太遠了。即使沒有建立監(jiān)管,也應該成立監(jiān)管機構和監(jiān)督機構,以便它們能夠得到適當?shù)男畔?,并準備好在必要時作出決定。
為什么對人工智能(AI)進行監(jiān)管為時尚早?
許多人認為現(xiàn)在談論人工智能監(jiān)管還為時過早,因為目前還沒有具體的監(jiān)管要求。盡管人工智能領域已經(jīng)有了巨大的創(chuàng)新,但該領域仍處于起步階段。監(jiān)管可能會扼殺一個正在爆炸式增長的行業(yè)的創(chuàng)新,而trouva的聯(lián)合創(chuàng)始人亞歷克斯洛伊佐(Alex Loizou)認為,在監(jiān)管之前,我們需要了解它的全部潛力。
斯坦福大學(StanfordUniversity)的一項研究發(fā)現(xiàn),“試圖監(jiān)管人工智能總體上是錯誤的,因為對人工智能沒有明確的定義(這不是一件事),而且不同領域的風險和考慮非常不同。”
人工監(jiān)管(AI)會是什么樣子?
2018年,英國和其他歐洲成員國首次涉足人工智能立法,允許對自動化決策提出挑戰(zhàn)?!耙话銛?shù)據(jù)保護條例”(GDPR)是試圖圍繞如何挑戰(zhàn)人工智能而制定法律的第一步,有望防止貌相和歧視的危險,并允許人們了解作出不利于他們的決定的邏輯是什么,即所謂的“解釋權”。人們認識到,如果任何類型的標準或指導方針都有任何權力,那么監(jiān)督人們遵循指導方針將需要分配給一個管理機構。
目前,那些正在辯論人工智能條例可能是什么樣子的人考慮了以下一些問題:
1、AI不應該武器化。
2、應該有一個不可逾越的“關閉開關”,可以由人類部署。
3、人工智能應遵循與人類相同的規(guī)則。
4、制造商應同意遵守國際法規(guī)規(guī)定的一般道德準則。
5、應該了解人工智能邏輯和決策是如何作出的。
6、如果出了問題,AI應該承擔責任嗎?