來源:中國軍網(wǎng)-解放軍報 責(zé)任編輯:于雅倩 發(fā)布:2024-12-31 06:39:22
從“缸中之腦”看智能化作戰(zhàn)指揮
■劉 奎 秦芳菲
要點提示
●現(xiàn)代人工智能,本質(zhì)上就如同“缸中之腦”,如果讓它實施作戰(zhàn)指揮,始終會面臨主體缺失即“自我”缺失的問題。這使得人工智能存在天然的、根本的缺陷,必須基于人的主體性,通過人機混合來提升作戰(zhàn)指揮效能和水平
●智能化作戰(zhàn)指揮中,指揮員主要負(fù)責(zé)規(guī)劃做什么、按什么思路做,智能模型則負(fù)責(zé)規(guī)劃具體怎么做
“缸中之腦”是一項著名科學(xué)假設(shè)。意思是,假如人的大腦被取出放在營養(yǎng)液中,神經(jīng)末梢接上計算機,由計算機模擬出各種感知信號。這時候,“缸中之腦”能不能意識到“我是缸中之腦”?答案是不能,因為人作為一個封閉的系統(tǒng),當(dāng)與外界缺乏真實的交互體驗時,人是無法跳出自身、從自身之外觀察自身并形成自我意識的。而現(xiàn)代人工智能,本質(zhì)上就如同“缸中之腦”,如果讓它實施作戰(zhàn)指揮,始終會面臨主體缺失即“自我”缺失的問題。這使得人工智能存在天然的、根本的缺陷,必須基于人的主體性,通過人機混合來提升作戰(zhàn)指揮效能和水平。
基于“自由選擇”,構(gòu)建“人謀機劃”的指揮模式
戰(zhàn)場上,指揮員可以選擇打哪一個目標(biāo),可以選擇從正面打、從翼側(cè)打、從背后打、從空中打;可以隔而不打、圍而不打、談而不打……這就是人的自主性,可以自由選擇做什么、怎么做。但機器不行,它給出的作戰(zhàn)方案,只能是智能模型中蘊含的方案。就每次給出的特定方案而言,也是概率統(tǒng)計意義上可能性最大的方案。這使得人工智能生成的方案呈現(xiàn)“模板化”傾向,相當(dāng)于一個“復(fù)刻機”,同樣的問題,它給出的是相似的回答,同樣的作戰(zhàn)場景,它給出的就是相似的作戰(zhàn)方案。
與人工智能相比,同樣的作戰(zhàn)場景,不同的指揮員設(shè)計的作戰(zhàn)方案完全不同;同一指揮員在不同的時間面對相似的作戰(zhàn)場景,設(shè)計的作戰(zhàn)方案也不相同?!肮テ錈o備,出其不意”,最有效的方案很可能看上去是最危險、最不可能的方案。對于指揮員,面對作戰(zhàn)場景,一瞬間有無限可能,而對于人工智能,一瞬間卻只有看上去最好的確定,缺乏創(chuàng)意、缺少謀略,很容易為對方所預(yù)料。所以,在智能化作戰(zhàn)指揮中,要基于人的自主性,由指揮員負(fù)責(zé)籌謀算計、創(chuàng)新戰(zhàn)法打法、設(shè)計基本策略,由機器負(fù)責(zé)將基本策略轉(zhuǎn)化為可執(zhí)行可操作的作戰(zhàn)方案,形成“人謀機劃”的指揮模式。更為重要的是,自主性是人作為人而存在的獨特標(biāo)志,這種自由作決定的權(quán)力不可能也不允許讓渡給機器,使人淪為機器的附庸。
基于“自我批判”,構(gòu)建“人反機正”的指揮模式
人類的成長進(jìn)步,通常是立足現(xiàn)實自我,著眼理想自我,對歷史自我進(jìn)行否定之否定式的批判。人工智能沒有“自我”,同時也就喪失了自我批判能力。這使得它只能停留在原有認(rèn)知框架內(nèi)解決問題,模型擁有的作戰(zhàn)思想、作戰(zhàn)原則、戰(zhàn)法打法,是在訓(xùn)練完成時所給予的。如果想獲得知識和想法的更新提升,就必須從外部對模型進(jìn)行持續(xù)訓(xùn)練。映射到特定作戰(zhàn)場景,智能模型給指揮員提供的只能是事先給定的問題解決方案,要想在一次作戰(zhàn)中不斷地動態(tài)調(diào)整更新是做不到的。
具有自我批判精神的人類,可以跳出指揮決策思考過程,對指揮決策進(jìn)行審視、評價、批判。在持續(xù)地自我批判中不斷對作戰(zhàn)方案進(jìn)行調(diào)整,甚至推翻原有方案,形成新的方案。在指揮機構(gòu)群體中,其他指揮人員也可能對作戰(zhàn)方案提出不同意見,指揮員在充分吸納這些意見的基礎(chǔ)上,調(diào)整改進(jìn)原有方案,實現(xiàn)作戰(zhàn)方案的動態(tài)進(jìn)化。所以,作戰(zhàn)指揮本質(zhì)上是一個不斷向前探索的動態(tài)過程,不是作戰(zhàn)方案事先給定的靜態(tài)過程。當(dāng)機器生成作戰(zhàn)方案時,指揮員不能不加思考地盲目接受,而應(yīng)充當(dāng)“反對者”“找茬人”,對作戰(zhàn)方案展開反思批判,提出反對意見,機器根據(jù)人的反對意見,輔助指揮員不斷調(diào)整、優(yōu)化作戰(zhàn)方案,形成“人反機正”的指揮模式。
基于“自覺能動”,構(gòu)建“人引機隨”的指揮模式
毛澤東同志說過,我們名之曰“自覺的能動性”,是人之所以區(qū)別于物的特點。任何一項改造世界的復(fù)雜實踐活動,都是從粗糙的、抽象的想法開始的,要將抽象觀念轉(zhuǎn)化為具體行動,需要克服各種風(fēng)險和挑戰(zhàn),充分發(fā)揮自覺能動性,主動定目標(biāo)、出主意、想辦法。沒有自覺能動性的人工智能,人們向它提出問題,它給出的只是模型中蘊含的答案,而不會管這個答案能不能用、有沒有針對性、可不可以實際操作,即提出抽象、空洞的問題,它給出的就是抽象、空洞的回答。這也是為什么時下流行的大模型統(tǒng)一的運行模式是“人問機答”,而不是“機器提出問題”。
依靠自覺能動性,再抽象、空洞的問題都能由人一步一步轉(zhuǎn)化為具體的行動方案、具體的行動實踐。因此,智能化作戰(zhàn)指揮中,指揮員主要負(fù)責(zé)規(guī)劃做什么、按什么思路做,智能模型則負(fù)責(zé)規(guī)劃具體怎么做。如果作戰(zhàn)任務(wù)太過抽象籠統(tǒng),應(yīng)先由指揮員對問題進(jìn)行分解細(xì)化,再由智能模型對細(xì)化后的問題進(jìn)行求解。在指揮員引導(dǎo)下,分階段、分領(lǐng)域逐步解決問題,最終達(dá)成作戰(zhàn)目標(biāo),形成“人引機隨”的指揮模式。這就像寫一篇論文,先列出提綱,再進(jìn)行寫作,列提綱由人負(fù)責(zé),具體寫作由機器完成,如果感覺一級綱目不夠具體,可由人細(xì)化為二級乃至三級綱目。
基于“自主負(fù)責(zé)”,構(gòu)建“人斷機算”的指揮模式
現(xiàn)代先進(jìn)的艦載防空反導(dǎo)系統(tǒng),通常有手動、半自動、標(biāo)準(zhǔn)自動、特殊自動四種作戰(zhàn)模式,一旦啟用特殊自動模式,系統(tǒng)發(fā)射導(dǎo)彈將不再需要人的授權(quán)干預(yù)。但該模式無論在實戰(zhàn)還是在訓(xùn)練中都很少啟用。究其原因,人作為責(zé)任主體要對自己的所有行為負(fù)責(zé),而機器行為背后卻是責(zé)任主體的缺失,當(dāng)要為重大失誤追責(zé)時,機器是無法負(fù)責(zé)的。所以,生死攸關(guān)的大事決不能讓一個沒有自主責(zé)任的機器決定。況且,現(xiàn)代人工智能是一個“黑箱”,它展現(xiàn)的智能行為具有不可解釋性,對與錯的原因無從知曉,讓人無法輕易將重大決定權(quán)完全交給機器。
由于人工智能缺乏“自主責(zé)任”,會使它眼中的問題全是“馴化問題”,也就是該類問題產(chǎn)生的后果與回答者沒有關(guān)系,問題解決的成功也罷、失敗也罷,對回答者來說無所謂。與之相應(yīng)的是“野生問題”,也就是該類問題產(chǎn)生的后果與回答者息息相關(guān),回答者必須置身其中。所以,在缺失自我的人工智能眼中沒有“野生問題”,都是“馴化問題”,它對任何問題都置身事外。因此,智能化作戰(zhàn)指揮中,機器不能代替指揮員作出判斷和決策。它可以為指揮員提供關(guān)鍵知識、識別戰(zhàn)場目標(biāo)、整編戰(zhàn)場情報、分析戰(zhàn)場情況、預(yù)測戰(zhàn)場態(tài)勢,甚至可以形成作戰(zhàn)方案、制訂作戰(zhàn)計劃、擬制作戰(zhàn)命令,但它給出的方案計劃命令,只能作為草稿和參考,至于采不采用、在多大程度上采用,還得指揮員說了算。簡單來說,就是雙方共同作出決策,人工智能負(fù)責(zé)預(yù)測,人負(fù)責(zé)判斷,形成“人斷機算”的指揮模式。