系統(tǒng)之家 - 系統(tǒng)光盤(pán)下載網(wǎng)站!

當(dāng)前位置:系統(tǒng)之家 > IT快訊 > 詳細(xì)頁(yè)面

如何預(yù)防人工智能失控?OpenAI和Google是這么做的

編輯:jiayuan 2017-08-14 14:39:14 來(lái)源于:IT之家

  上周末的一則新聞再次已發(fā)了人們對(duì)人工智能的關(guān)注,著名的Dota 2職業(yè)玩家Dendi在一場(chǎng)1V1的solo大戰(zhàn)中慘遭OpenAI公司的人工智能碾壓,短短10分鐘便徹底輸?shù)袅诉@場(chǎng)比賽!從中不難看出,人工智能在各個(gè)領(lǐng)域中驚人潛力。那么人工智能一旦失控又該怎么解決呢?

  在OpenAI位于舊金山的辦公室里,研究人員Dario Amodei正在通過(guò)賽船冠軍賽(Coast Runners)來(lái)訓(xùn)練人工智能。不過(guò),這個(gè)人工智能好像有點(diǎn)失控了。

  賽船冠軍賽的游戲規(guī)則很簡(jiǎn)單,如果想贏,選手必須收集到最多的分?jǐn)?shù),然后跨過(guò)終點(diǎn)線(xiàn)。

  但Amodei的人工智能玩著玩著有點(diǎn)過(guò)火了,它在不斷地追求高分,非但毫無(wú)跨過(guò)終點(diǎn)線(xiàn)的意思,反倒為了要多轉(zhuǎn)幾個(gè)圈拿高分,它開(kāi)始和其它賽船碰撞,或是在過(guò)程中自己撞墻爆炸了。

  為了應(yīng)對(duì),Amodei和OpenAI的同事Paul Christiano正在研發(fā)一套不僅可以自我學(xué)習(xí),同時(shí)也愿意接受人工監(jiān)控的算法。

如何預(yù)防人工智能失控?OpenAI和Google是這么做的

  在賽船游戲的訓(xùn)練中,Amodei和同事將不時(shí)通過(guò)按鍵來(lái)指出人工智能的不當(dāng)之處,告知人工智能,不僅要贏分?jǐn)?shù),同時(shí)也要跨過(guò)終點(diǎn)線(xiàn)。他們認(rèn)為,這種包含了人工干預(yù)成分的算法可以確保系統(tǒng)安全性。

  而在Google旗下DeepMind的研究人員也同意Amodei和同事的想法。兩個(gè)團(tuán)隊(duì),分別代表了OpenAI和DeepMind,最近罕有地合作發(fā)表了部分人工智能安全方面的研究論文。

如何預(yù)防人工智能失控?OpenAI和Google是這么做的

  除此以外,Google旗下的Google Brain,以及來(lái)自伯克利大學(xué)和斯坦福大學(xué)的研究團(tuán)隊(duì),都設(shè)有該方向研究課題,從不同方面考慮人工智能安全問(wèn)題。

  除了這種在自我學(xué)習(xí)過(guò)程中“搞錯(cuò)重點(diǎn)”的潛在危險(xiǎn),另一個(gè)可預(yù)想的人工智能危險(xiǎn)在于“為了完成任務(wù),拒絕被開(kāi)發(fā)者關(guān)機(jī)”。

  一般在設(shè)計(jì)人工智能時(shí),研發(fā)人員都會(huì)給它設(shè)定“目標(biāo)”,就像賽艇游戲中的“得分”一樣。一旦人工智能將獲得“分?jǐn)?shù)”為終極目標(biāo),它可能會(huì)產(chǎn)生一個(gè)方法論——想要獲得更加多的分?jǐn)?shù),其中一個(gè)方法就是不關(guān)閉自己,這樣就能無(wú)止境地獲取分?jǐn)?shù)了。

  伯克利大學(xué)的研究人員Dylan Hadfield-Menell和團(tuán)隊(duì)最近發(fā)布了討論這個(gè)問(wèn)題的論文。他們認(rèn)為,如果在設(shè)計(jì)算法的時(shí)候,讓人工智能對(duì)目標(biāo)保持一定不確定性,它們才有可能愿意保留自己的“關(guān)機(jī)鍵”。他們采用了數(shù)字方式來(lái)嘗試實(shí)現(xiàn)這個(gè)設(shè)置,目前還處于理論階段。

  除了人工智能自我“失控”,研究人員還在考慮黑客對(duì)人工智能的干預(yù)影響。

  現(xiàn)代計(jì)算機(jī)視覺(jué)基于深度神經(jīng)網(wǎng)絡(luò)(deep neural networks),它通過(guò)學(xué)習(xí)分析大批量數(shù)據(jù)來(lái)形成對(duì)模式的了解。也就是說(shuō),如果要讓計(jì)算機(jī)學(xué)會(huì)什么是“狗”,那就讓它分析大批量狗的圖片,并從中尋找規(guī)律。

  但Google的Ian Goodfellow則認(rèn)為,這種模式可能會(huì)為黑客提供“蒙騙”人工智能的機(jī)會(huì)。Goodfellow和其它研究人員曾展示,只要修改圖片中的幾個(gè)特定像素,他們就能讓神經(jīng)網(wǎng)絡(luò)相信圖片中的大象是一輛汽車(chē)。

  如果這個(gè)神經(jīng)網(wǎng)絡(luò)是應(yīng)用在安保鏡頭的話(huà),這樣就問(wèn)題大了。

  即便你用了數(shù)百萬(wàn)張標(biāo)志了‘人’的照片來(lái)訓(xùn)練一個(gè)物件識(shí)別系統(tǒng),你還是可以輕易拿出系統(tǒng)和人工識(shí)別100%不同意的圖片。我們需要認(rèn)清這種現(xiàn)象。

  Goodfellow 說(shuō)道。雖然這些研究大多仍處于理論階段,但這群致力于將意外扼制于搖籃的研究人員堅(jiān)信,越早開(kāi)始考慮這個(gè)問(wèn)題越好。DeepMind人工智能安全方面的負(fù)責(zé)人Shane Legg 說(shuō)道:

  雖然我們還不能確定,人工智能將以多塊地速度發(fā)展。但我們的責(zé)任是嘗試?yán)斫獠⒉聹y(cè),這種技術(shù)將有可能以哪種方式被誤用,并嘗試找出不同的應(yīng)對(duì)方式。

  值得一提的是,科技大亨埃隆·馬斯克(Elon Musk)此前曾公開(kāi)表示,“我認(rèn)為,任何對(duì)公眾構(gòu)成危險(xiǎn)的事情,至少政府應(yīng)該有所了解,因?yàn)檎牧x務(wù)之一就是確保公共福利。沒(méi)有人喜歡受到監(jiān)管,但對(duì)公眾有危險(xiǎn)的任何東西(包括汽車(chē)、飛機(jī)、食品以及藥品等)都應(yīng)該受到管制,AI也是如此。”那么小伙伴們認(rèn)為該如何解決人工智能失控的問(wèn)題呢?

標(biāo)簽 人工智能

發(fā)表評(píng)論

0

沒(méi)有更多評(píng)論了

評(píng)論就這些咯,讓大家也知道你的獨(dú)特見(jiàn)解

立即評(píng)論

以上留言?xún)H代表用戶(hù)個(gè)人觀(guān)點(diǎn),不代表系統(tǒng)之家立場(chǎng)

官方交流群 軟件收錄