特斯拉 CEO 埃隆·馬斯克(Elon Musk)在推特揭橥了很多恐怖的 “AI 威逼論”,預(yù)言 AI 在將來(lái)會(huì)統(tǒng)治人類(lèi),風(fēng)險(xiǎn)性跨越了朝鮮核危機(jī)。關(guān)于這類(lèi) “AI 威逼論”,微軟開(kāi)創(chuàng)人比爾·蓋茨和微軟CEO 薩提亞·納德拉(Satya Nadella)都表現(xiàn)分歧意,以為該不雅點(diǎn)過(guò)于極端、消極,疏忽了人作為 AI 發(fā)明者的自動(dòng)性和掌握權(quán)。本文譯自VentureBeat。
比爾·蓋茨:擔(dān)憂(yōu) AI 撲滅人類(lèi),為時(shí)髦早
這是我與馬斯克不雅點(diǎn)紛歧致的一點(diǎn)。馬斯克擔(dān)心 AI 會(huì)撲滅人類(lèi),但現(xiàn)實(shí)上,該擔(dān)憂(yōu)這個(gè)的時(shí)刻還遠(yuǎn)遠(yuǎn)未到。我們不該該對(duì)此覺(jué)得驚恐,但同時(shí)也不該該過(guò)度悲觀(guān),不克不及疏忽它的能夠性。
——微軟開(kāi)創(chuàng)人比爾·蓋茨
現(xiàn)階段,我們關(guān)于 AI 的焦點(diǎn)準(zhǔn)繩應(yīng)當(dāng)是:若何進(jìn)步人類(lèi)的才能?就算 AI 自我進(jìn)修體系做出的決議,也有很多是人類(lèi)可以把控的。是以,人類(lèi)可以確保這類(lèi)體系不涌現(xiàn)成見(jiàn)性或不良的數(shù)據(jù)。與其擔(dān)憂(yōu)'AI 會(huì)掌握人類(lèi)',倒不如行為起來(lái),我們可以經(jīng)由過(guò)程很多辦法來(lái)轉(zhuǎn)變將來(lái)。掌握是一種選擇,我應(yīng)當(dāng)盡力堅(jiān)持這類(lèi)掌握。
——微軟 CEO 薩提亞·納德拉
VentureBeat 撰稿人 John Brandon 也贊成上述不雅點(diǎn),以為 AI 根本上只都邑聽(tīng)人的指導(dǎo)來(lái)行為。
John 表現(xiàn),很多 AI 工程師和機(jī)械人專(zhuān)家都以為,編好法式的 AI 不太能夠會(huì)做出格的工作:它們不會(huì)忽然疏忽代碼,然后就“黑化”,把你家的車(chē)開(kāi)進(jìn)湖里。代碼很“聽(tīng)話(huà)”,由于人類(lèi)沒(méi)有“交卸”的義務(wù),它相對(duì)不會(huì)履行。這是由人類(lèi)主控的品德原則。《終結(jié)者》不外是好萊塢的理想。
對(duì) AI 應(yīng)堅(jiān)持恰當(dāng)?shù)男⌒?/p>
不外,John 也提示年夜家,我們依然不克不及對(duì) AI 抓緊小心。
AI 與人類(lèi)一個(gè)很年夜的差異,在于人類(lèi)會(huì)遭到“連續(xù)留意力” (sustained attention)的影響,統(tǒng)一時(shí)光只能思慮一件工作,沒(méi)法“同心專(zhuān)心兩用”。然則 AI 卻可以同時(shí)思慮 100 件工作,一旦觸發(fā)了指令,AI 能夠會(huì)激發(fā)連續(xù)串舉措,好比:智能車(chē)庫(kù)一旦被語(yǔ)音觸發(fā),就有能夠在開(kāi)門(mén)的同時(shí),開(kāi)燈、開(kāi)啟家里的供暖體系、還有能夠把家里的爐子打著,從而組成潛伏風(fēng)險(xiǎn)。
