系統(tǒng)之家 - 系統(tǒng)光盤下載網(wǎng)站!

當(dāng)前位置:系統(tǒng)之家 > IT快訊 > 詳細(xì)頁(yè)面

谷歌在開發(fā)人工智能末日攻擊的“切斷開關(guān)”

編輯:lijun 2016-06-06 15:02:14 來(lái)源于:互聯(lián)網(wǎng)

  近日有媒體報(bào)道稱,Deep Mind打算給人工智能機(jī)器人安裝 “切斷開關(guān)”,主要目的是為了阻止AI學(xué)會(huì)如何阻止人類對(duì)某項(xiàng)活動(dòng)的干預(yù)。因?yàn)锳I先進(jìn)的自學(xué)能力不僅在玩游戲比人厲害,而且還在與人類頂級(jí)圍棋選手的對(duì)決中取得了壓倒性的勝利。

谷歌在開發(fā)人工智能末日攻擊的“切斷開關(guān)”

  關(guān)于安全科中斷性的作用,論文寫道:安全可中斷性可用于控制機(jī)器人不端甚至可能導(dǎo)致不可逆后果的行為,或者將其從微妙處境中脫身出來(lái),或者甚至臨時(shí)用來(lái)實(shí)現(xiàn)某項(xiàng)機(jī)器人尚未學(xué)會(huì)執(zhí)行或者未必會(huì)為此受到獎(jiǎng)勵(lì)的任務(wù)。

  天生具備拯救人類使命感的 Elon Musk 以及地球最聰明的大腦之一霍金都認(rèn)為,機(jī)器對(duì)人類的威脅并非杞人憂天。去年底的時(shí)候,Musk 和孵化器 YC 的總裁 Sam Altman 共同宣布設(shè)立一家非盈利的人工智能公司 OpenAI。他們希望,這個(gè)項(xiàng)目能夠抵消邪惡的人工超級(jí)智能可能帶來(lái)的威脅。這種威脅的可能性正如牛津大學(xué)的哲學(xué)家 Nick Bostrom 發(fā)出的警告一樣—如果毫無(wú)限制地分享人工智能的研究成果,在沒能確保安全的情況下,一些不懷好意的人可能就會(huì)利用它干壞事:“如果你有一個(gè)按鈕,只要按一下就能夠?qū)κ澜缭斐善茐,你肯定不希望每個(gè)人都擁有一個(gè)這樣按鈕。” 而 Deep Mind 的研究,就是對(duì)這樣一種按鈕的切斷按鈕。不過(guò)將來(lái)的問(wèn)題也許是,哪一個(gè)按鈕會(huì)先起效?

  現(xiàn)在,Google收購(gòu)的英國(guó)人工智能公司Deep Mind已經(jīng)展現(xiàn)出AI先進(jìn)的自學(xué)能力,如果谷歌能夠開發(fā)人工智能末日攻擊的“切斷開關(guān)”,那么便可抵消邪惡的人工超級(jí)智能可能帶來(lái)的威脅。

標(biāo)簽 谷歌人工智能

發(fā)表評(píng)論

0

沒有更多評(píng)論了

評(píng)論就這些咯,讓大家也知道你的獨(dú)特見解

立即評(píng)論

以上留言僅代表用戶個(gè)人觀點(diǎn),不代表系統(tǒng)之家立場(chǎng)

官方交流群 軟件收錄