未雨綢繆的防范
給人工智能戴上“緊箍咒”
霍金曾這樣評價人工智能:“它既可能成為人類迄今發(fā)生過的最好的事,也可能成為最糟糕的事”。我們既不能盲目樂觀,也不能因噎廢食,必須及早給未來人工智能的發(fā)展套上必要的安全、倫理等方面的“緊箍咒”,同時又不能阻礙技術(shù)創(chuàng)新和人類社會進步的步伐。
從技術(shù)安全角度建立共同遵守的發(fā)展準則。根據(jù)人工智能可預見的風險,建立世界范圍內(nèi)的人工智能發(fā)展準則,對研究范圍、內(nèi)容、目的、用途等各個方面進行規(guī)范,確保安全、可控地發(fā)展人工智能。比如,對于智能系統(tǒng)到底應該實現(xiàn)到什么樣的自主程度,賦予其多大的自主權(quán)利以及哪些方面不能實現(xiàn)等進行明確限制。2017年1月,在美國加利福尼亞州舉辦的阿西洛馬人工智能會議上,近千名人工智能和機器人領(lǐng)域?qū)<乙崖?lián)合簽署了《阿西洛馬人工智能23條原則》,呼吁世界在發(fā)展人工智能時共同遵守,成為人工智能安全、有序發(fā)展的良好開端。
從道德倫理角度建立科學嚴格的評估機制。人工智能主要是基于算法,而算法在本質(zhì)上是“以數(shù)學方式或計算機代碼表達的意見”,是設(shè)計者、開發(fā)者的主觀創(chuàng)造,有可能將自己的偏見、價值觀嵌入算法系統(tǒng),制造出不符合社會道德規(guī)范的智能機器,這就需要對其進行嚴格評估以確保安全。2016年12月,美國電氣和電子工程師協(xié)會啟動了人工智能倫理工程,提出對嵌入智能系統(tǒng)的規(guī)范和價值進行評估,以確定其是否和現(xiàn)實中的道德價值體系相一致。我國在《新一代人工智能發(fā)展規(guī)劃》中也提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。
從規(guī)范運用角度建立具有法律約束力的普遍性制度條約。任何一種先進技術(shù)能否產(chǎn)生威脅,主要看使用者出于何種目的、如何運用。誠然,面對人工智能的巨大優(yōu)勢和潛在利益,特別是在涉及國家安全領(lǐng)域方面,直接禁止使用人工智能技術(shù)是不現(xiàn)實的。這正如國際上禁止或限制使用“致命性自主武器系統(tǒng)”一樣,至今無法取得任何實質(zhì)性進展。因此,應呼吁建立具有法律約束力的國際性條約,對某些特殊功能的智能系統(tǒng)風險和技術(shù)擴散等進行規(guī)范和預防。