系統(tǒng)之家 - 系統(tǒng)光盤下載網(wǎng)站!

當(dāng)前位置:系統(tǒng)之家 > IT快訊 > 詳細(xì)頁面

霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭(zhēng)摧毀人類

編輯:jiayuan 2017-03-14 10:23:13 來源于:華爾街見聞

  人工智能(AI)技術(shù)自誕生之日起,其理論和技術(shù)日益成熟,可應(yīng)用的領(lǐng)域也在不斷擴(kuò)大。然而該技術(shù)的不斷進(jìn)步,卻引發(fā)了著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)的擔(dān)憂!據(jù)外媒報(bào)道,繼2015年9月拋出“人工智能威脅論”之后,霍金日前再次發(fā)聲表達(dá)了他對(duì)該技術(shù)的憂慮之處。

霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭(zhēng)摧毀人類

  本月8日,霍金向英國《獨(dú)立報(bào)》表示,人類必須建立有效機(jī)制盡早識(shí)別威脅所在,防止新科技(人工智能)對(duì)人類帶來的威脅進(jìn)一步上升。

  霍金表示:“自從人類文明形成以來,來自生存能力優(yōu)勢(shì)群體的侵略就一直存在,而未來新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢(shì),它們可能會(huì)通過核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。”

  霍金還就如何應(yīng)對(duì)人工智能的威脅給出了自己的建議;艚鹫J(rèn)為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅,但他同時(shí)認(rèn)為“世界政府”本身也有問題,因?yàn)檫@樣一個(gè)政府可能會(huì)施行暴政。

  實(shí)際上,霍金是人工智能技術(shù)的支持者,霍金認(rèn)為,如今AI似乎已經(jīng)滲透到各個(gè)領(lǐng)域,包括推動(dòng)自動(dòng)汽車進(jìn)步,支持Facebook的廣告篩選功能,并通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動(dòng)。AI甚至可幫助根除長期存在的社會(huì)挑戰(zhàn),比如疾病和貧困等。

  但霍金也一直對(duì)AI帶來的潛在挑戰(zhàn)表示擔(dān)憂。2015年9月,霍金在美國網(wǎng)站reddit的AMA(問我任何問題)專欄中談到,他擔(dān)心聰明能干的AI會(huì)讓人類滅亡;艚鸨硎荆“一個(gè)超級(jí)聰明的AI可以非常好地實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)都沒有與我們?nèi)祟愐恢,我們(nèi)祟惥吐闊┝恕?rdquo;

  近年來,隨著人工智能技術(shù)蓬勃發(fā)展,其潛在的威脅受到越來越多科學(xué)家的關(guān)注。

  英國牛津大學(xué)教授、人類未來研究所創(chuàng)始人Nick Bostrom表示:“我認(rèn)為改善全球治理很有必要,不僅可應(yīng)對(duì)AI帶來的危險(xiǎn)挑戰(zhàn),也可解決擺在我們面前的其他巨大挑戰(zhàn)。隨著世界不斷分化,我們?cè)诓粩嚅_發(fā)出越來越強(qiáng)大的工具,我不確定人類是否能夠無限期生存下去。”

  對(duì)比霍金等人“人工智能將威脅人類”的觀點(diǎn),普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授Edward Felten更關(guān)注眼下人工智能技術(shù)帶來的影響,他表示:“AI主要有兩個(gè)經(jīng)濟(jì)風(fēng)險(xiǎn):第一,工人具備的技能與未來工廠所需要的技能可能不匹配。第二,通過增加資本所有者和某些高級(jí)技工的回報(bào),AI可能加劇經(jīng)濟(jì)不平等性。”

  此外,Edward Felten還表示,目前在計(jì)算機(jī)科學(xué)領(lǐng)域中還不存在足以促使機(jī)器智能水平突然加速提高的完美基礎(chǔ)。至于人工智能目前曝光出的部分威脅性,則可以通過調(diào)整公共政策解決,比如重新分配生產(chǎn)力。

發(fā)表評(píng)論

0

沒有更多評(píng)論了

評(píng)論就這些咯,讓大家也知道你的獨(dú)特見解

立即評(píng)論

以上留言僅代表用戶個(gè)人觀點(diǎn),不代表系統(tǒng)之家立場(chǎng)

官方交流群 軟件收錄