
可以預(yù)見(jiàn)的風(fēng)險(xiǎn)
人工智能帶給人類(lèi)巨大威脅
美國(guó)“臉書(shū)”?CEO馬克·扎克伯格曾放言:“人類(lèi)當(dāng)下面臨的最大威脅是什么?無(wú)疑是人工智能!”但就當(dāng)前來(lái)講,人工智能的“威脅”還不存在,因?yàn)樗粚?zhuān)注于完成某個(gè)特別設(shè)定的任務(wù),比如下圍棋就僅僅會(huì)下圍棋。而未來(lái)超過(guò)人類(lèi)智慧的超人工智能具備知識(shí)遷移能力,可以充分利用已掌握的技能解決新問(wèn)題,這就有可能給人類(lèi)造成巨大威脅。
實(shí)現(xiàn)高度自主并可能“失控”。未來(lái)超人工智能開(kāi)始具備自主思維意識(shí),能夠像人類(lèi)一樣獨(dú)立思考,并自我決定如何行動(dòng)。因此,自主智能機(jī)器系統(tǒng)雖然由人類(lèi)設(shè)計(jì)制造,但它們的行為卻不受人類(lèi)的直接指令控制,而是可以基于在不同情境中對(duì)其所獲得的信息進(jìn)行分析、判斷和決策,形成不需要人類(lèi)介入或干預(yù)的“感知—思考—行動(dòng)”模式,并最終超出創(chuàng)造者預(yù)料或事先控制的范圍而失控。
這種高度智能化的系統(tǒng)還能夠通過(guò)學(xué)習(xí)進(jìn)行機(jī)器再造,可以快速?gòu)?fù)制或再生其他新的人工智能體。據(jù)專(zhuān)家推算,一個(gè)失去控制的正在自我復(fù)制的納米機(jī)器人,完成130個(gè)復(fù)制周期只需要3個(gè)半小時(shí),考慮到納米機(jī)器人向外移動(dòng)擴(kuò)張等因素,最多只需數(shù)周就可以“摧毀”地球上的一切生物。這也就是為什么霍金多次“告誡”人們:人工智能一旦脫離束縛,就會(huì)以不斷加速的狀態(tài)重新設(shè)計(jì)自身。而人類(lèi)由于受到漫長(zhǎng)生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),最終或?qū)⒈蝗〈?/p>
遭遇非法入侵可能被“黑化”。人工智能作為一種新興的技術(shù)領(lǐng)域,一般來(lái)說(shuō),沒(méi)有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能系統(tǒng)或機(jī)器人去實(shí)施破壞活動(dòng),這樣的后果是極其可怕的。而且,隨著人工智能的發(fā)展,其他工具包括人工智能的技術(shù)開(kāi)發(fā)和復(fù)制也變得越來(lái)越容易。也就是說(shuō),未來(lái)任何人都可以使用該系統(tǒng)去實(shí)現(xiàn)自我復(fù)制或繁殖其他人工智能系統(tǒng)。因此,超人工智能系統(tǒng)一旦被非法獲取或操縱,將產(chǎn)生巨大的破壞力量。
爆發(fā)機(jī)器戰(zhàn)爭(zhēng)造成武力“濫用”。未來(lái)大量智能化無(wú)人系統(tǒng)將運(yùn)用于戰(zhàn)場(chǎng),“死傷”的主要是沒(méi)有生命并可以大量再造的“智能機(jī)器”,使戰(zhàn)爭(zhēng)成本大大降低,并能夠?qū)崿F(xiàn)作戰(zhàn)人員的“零傷亡”。戰(zhàn)爭(zhēng)的政治、外交風(fēng)險(xiǎn)明顯降低,這就可能會(huì)因戰(zhàn)爭(zhēng)顧慮和壓力減少而降低戰(zhàn)爭(zhēng)決策的門(mén)檻,導(dǎo)致軍事強(qiáng)國(guó)在武力使用上更加隨意,從而使戰(zhàn)爭(zhēng)的爆發(fā)更加頻繁,戰(zhàn)爭(zhēng)從“最后的選擇”轉(zhuǎn)變?yōu)椤笆紫鹊氖侄巍?。為此,許多科學(xué)家呼吁禁止“致命性自主式武器”的研發(fā)和使用,并警告這將引發(fā)全球性人工智能“軍備競(jìng)賽”,人類(lèi)社會(huì)將可能深陷戰(zhàn)爭(zhēng)泥潭。