發(fā)布時(shí)間:2025-12-08
◇未說出口的思想、情感和意圖被掌握等擔(dān)心,在10年內(nèi)是不必要的
◇我們對(duì)大腦改造的邊界在哪兒,需要隨著技術(shù)發(fā)展逐步探索。完整意識(shí)上傳、記憶編輯等需要較長(zhǎng)時(shí)間實(shí)現(xiàn),相信在實(shí)現(xiàn)過程中,無論是社會(huì)共識(shí)層面還是法律倫理層面都會(huì)為技術(shù)的演進(jìn)做好準(zhǔn)備
◇在全球尚未對(duì)腦機(jī)接口技術(shù)的倫理達(dá)成共識(shí)的背景下,我們更應(yīng)穩(wěn)步推進(jìn)技術(shù),構(gòu)建與中國科技實(shí)力相匹配的倫理治理體系,避免陷入“先發(fā)展后治理”的陷阱

當(dāng)腦機(jī)接口技術(shù)從實(shí)驗(yàn)室邁向現(xiàn)實(shí)應(yīng)用,一場(chǎng)觸及人類終極邊界——大腦、思想與身份認(rèn)同等——的深刻變革正悄然開啟。?
這項(xiàng)技術(shù)不僅有望為癱瘓患者重建行動(dòng)能力、為失明人士帶來視覺希望,更將神經(jīng)數(shù)據(jù)這一前所未有的隱私形態(tài)、思想情感的潛在掌控,乃至決策自主的哲學(xué)命題等,驟然推到我們面前,形成對(duì)人類積淀已久的社會(huì)倫理、法律體系和哲學(xué)認(rèn)知的全新關(guān)切。
今時(shí)今日,距離真正的“讀心術(shù)”“精神控制”“意識(shí)上傳”“記憶編輯”等場(chǎng)景仍較遙遠(yuǎn),但防范其可能引發(fā)的隱私泄露、算法操控等風(fēng)險(xiǎn),應(yīng)當(dāng)始于當(dāng)下、防患未然。在腦機(jī)接口技術(shù)加速突破的當(dāng)下,可能是關(guān)乎人類文明走向的十字路口——如果大腦信號(hào)可能被破譯、神經(jīng)數(shù)據(jù)需要確權(quán),我們面臨的就不僅是技術(shù)問題,更是如何守護(hù)人之為人的本質(zhì)命題。?
神經(jīng)數(shù)據(jù)權(quán)屬之辯?
《瞭望》:大腦信號(hào)會(huì)否被非法獲取、濫用??
李澄宇:隨著腦機(jī)接口技術(shù)在醫(yī)療康復(fù)、神經(jīng)科學(xué)研究等領(lǐng)域的應(yīng)用邊界不斷拓展,與其他智能設(shè)備帶來的問題一樣,大腦信號(hào)在技術(shù)上也存在被非法獲取和濫用的可能。需要與電腦、手機(jī)等智能設(shè)備或醫(yī)療信息相關(guān)器械的設(shè)計(jì)一樣,引入安全防火墻,保障信息安全。?
《瞭望》:大腦產(chǎn)生的神經(jīng)數(shù)據(jù)所有權(quán)歸誰??
李澄宇:大腦產(chǎn)生的神經(jīng)數(shù)據(jù)直接關(guān)聯(lián)到個(gè)人的精神世界、內(nèi)心隱私和人格尊嚴(yán)。因此,其最終所有權(quán)應(yīng)歸屬于產(chǎn)生該數(shù)據(jù)的個(gè)人。去個(gè)人隱私后的數(shù)據(jù),在明確歸屬個(gè)人的基礎(chǔ)上,可類比其他類型的醫(yī)療數(shù)據(jù),建立精細(xì)化的授權(quán)使用和收益分享機(jī)制。這里,要特別注意以下3個(gè)原則:?
一是知情同意要深化。對(duì)神經(jīng)數(shù)據(jù)的收集和使用,必須獲得用戶具體的、分場(chǎng)景的知情同意。
二是嚴(yán)格限制使用目的。收集的神經(jīng)數(shù)據(jù)只能用于用戶同意的特定目的,如疾病治療,嚴(yán)禁未經(jīng)清晰請(qǐng)求并獲許可而進(jìn)行二次開發(fā)及用于其他商業(yè)用途。?
三是收益共享。當(dāng)匿名的、聚合的神經(jīng)數(shù)據(jù)被用于訓(xùn)練更先進(jìn)的算法并產(chǎn)生巨大商業(yè)價(jià)值時(shí),可以考慮建立一種數(shù)據(jù)貢獻(xiàn)者參與價(jià)值分配的模式,前提是確保數(shù)據(jù)的絕對(duì)匿名化和安全,防止任何形式的反推識(shí)別。?
段偉文:神經(jīng)數(shù)據(jù)的所有權(quán)是一個(gè)悖論。神經(jīng)數(shù)據(jù)極其特殊,患者本人難以理解其含義,醫(yī)生和研究機(jī)構(gòu)能進(jìn)行專業(yè)解讀和處理,并可能用于共享研究,但這些神經(jīng)數(shù)據(jù)未來會(huì)被用于何處、產(chǎn)生何種價(jià)值等,均存在不確定性。因此,神經(jīng)數(shù)據(jù)很難簡(jiǎn)單歸屬于被采集者、醫(yī)療機(jī)構(gòu)或研究機(jī)構(gòu)。?
國家層面目前對(duì)此尚未有清晰的法律界定。一個(gè)現(xiàn)實(shí)挑戰(zhàn)在于如何界定神經(jīng)數(shù)據(jù)——許多非直接來自大腦的信號(hào),如通過模式識(shí)別分析的眼動(dòng)、心率變異性,甚至顱內(nèi)壓值等,經(jīng)過計(jì)算后也能間接揭示人的神經(jīng)活動(dòng)狀態(tài)。?
有鑒于此,當(dāng)前的核心任務(wù)是建立一套貫穿神經(jīng)數(shù)據(jù)全周期的治理框架,其重點(diǎn)不在于糾結(jié)所有權(quán)的歸屬,而要確保神經(jīng)數(shù)據(jù)的保管與使用始終安全、合規(guī),承認(rèn)并保障神經(jīng)數(shù)據(jù)主體的追溯權(quán)與知情同意權(quán),即個(gè)人有權(quán)知道其神經(jīng)數(shù)據(jù)被如何使用,并能夠追溯用途。?
《瞭望》:如何界定通過腦機(jī)接口產(chǎn)生的行為責(zé)任??
李雪:由于腦機(jī)接口能夠直接控制外部設(shè)備,行為的發(fā)生是否代表用戶真實(shí)意圖,或是系統(tǒng)故障導(dǎo)致的誤操作,這一問題已引發(fā)法律、倫理界人士的廣泛討論。我認(rèn)為可借鑒自動(dòng)駕駛領(lǐng)域的責(zé)任分配原則,建立“神經(jīng)責(zé)任界定標(biāo)準(zhǔn)”,通過操作日志與意圖識(shí)別機(jī)制明確行為歸屬,確保行為責(zé)任的清晰劃分。?
李澄宇:傳統(tǒng)法律體系建立在“人的意圖通過身體動(dòng)作執(zhí)行,行為責(zé)任清晰可辨”的基礎(chǔ)上。但腦機(jī)接口一旦大規(guī)模使用,在意圖與行為之間就插入了算法與機(jī)器執(zhí)行的環(huán)節(jié),有可能存在對(duì)責(zé)任認(rèn)定的爭(zhēng)議。建議參考自動(dòng)駕駛技術(shù)分級(jí)控制,對(duì)算法的自動(dòng)化與責(zé)任進(jìn)行分類或分層,可大致分為產(chǎn)品責(zé)任、用戶責(zé)任、混合責(zé)任三類:?
產(chǎn)品責(zé)任類似汽車因剎車失靈引發(fā)事故,當(dāng)因腦機(jī)接口設(shè)備的設(shè)計(jì)缺陷、制造瑕疵或算法錯(cuò)誤等導(dǎo)致非意圖的后果時(shí),可追究制造商、開發(fā)者的責(zé)任。?
用戶責(zé)任是指腦機(jī)接口設(shè)備準(zhǔn)確無誤地執(zhí)行了使用者的清晰指令,由此產(chǎn)生的行為后果由使用者承擔(dān)。?
混合責(zé)任的過失認(rèn)定相對(duì)復(fù)雜,因?yàn)檫@一情形涉及交互中的共同作用,例如使用者未按規(guī)程操作、忽視系統(tǒng)警告,同時(shí)腦機(jī)接口設(shè)備本身也存在問題,此時(shí)需要根據(jù)過錯(cuò)程度進(jìn)行責(zé)任劃分。?
為厘清責(zé)任,確保腦機(jī)接口設(shè)備的行為可追溯,未來需要保證腦機(jī)接口設(shè)備的工作狀態(tài)、決策邏輯,尤其是基于AI的腦信號(hào)解碼可記錄、可追溯、可審計(jì),以便發(fā)生爭(zhēng)議時(shí)能夠客觀還原指令產(chǎn)生、傳輸與執(zhí)行的完整鏈條,為責(zé)任認(rèn)定提供關(guān)鍵證據(jù)。??

暫無“讀心”之憂?
《瞭望》:未說出口的思想、情感和意圖通過腦機(jī)接口技術(shù)被掌握,會(huì)否影響精神隱私?進(jìn)而引發(fā)精神控制??
李澄宇:腦機(jī)接口技術(shù)的核心是讀取腦活動(dòng)、寫入腦信息,但目前還處于較為早期的技術(shù)與產(chǎn)品驗(yàn)證階段,在腦中讀取寫入信息的精準(zhǔn)度有限,且都在醫(yī)療環(huán)境下應(yīng)用。?
同時(shí)需要澄清的是,未說出口的思想、情感,這些信息一般并不會(huì)被納入腦機(jī)接口算法進(jìn)行訓(xùn)練,因此不存在針對(duì)思想與情感的訓(xùn)練與被掌握的問題,也不會(huì)存在精神隱私問題。因此未說出口的思想、情感和意圖被掌握等擔(dān)心,在10年內(nèi)是不必要的。?
談到意圖,如肢體運(yùn)動(dòng)、未說出的言語,以及視覺圖像的輸入等,是根據(jù)患者需求被解碼或編碼的,應(yīng)該說不只可以被掌握,而且腦機(jī)接口技術(shù)本就依托掌握這些信息來幫助患者,這方面的隱私可通過軟硬件防火墻、加密等方式來保護(hù)。?
談到隱私泄露與精神控制,目前確實(shí)在研發(fā)幫助精神障礙患者的腦機(jī)接口技術(shù),也會(huì)獲取患者的精神疾病狀態(tài),如抑郁癥患者的某些腦區(qū)特征性異常腦活動(dòng)等,對(duì)這些信息同樣需要進(jìn)行軟硬件防火墻、加密等方式保護(hù)。?
但我個(gè)人認(rèn)為,對(duì)患者精神障礙癥狀的改善不應(yīng)該看做是精神控制,目前腦機(jī)接口的精度也遠(yuǎn)遠(yuǎn)達(dá)不到精神控制的程度。精神疾病狀態(tài)之外的精神世界,還遠(yuǎn)不是腦機(jī)接口技術(shù)可以獲取的;其他的運(yùn)動(dòng)、視覺、記憶等腦機(jī)接口技術(shù),僅涉及這些行為相關(guān)腦區(qū)的腦信號(hào)采集、處理和傳輸,這些腦區(qū)對(duì)精神世界參與度非常低,并不會(huì)對(duì)精神隱私帶來泄露風(fēng)險(xiǎn)。?
李雪:我們需要辯證看待腦機(jī)接口對(duì)人類未來的影響。人和動(dòng)物的區(qū)別之一在于語言能力——我們可以通過語言表達(dá)自己的思想和情感。而通過腦機(jī)接口與大腦交互,將有助于我們更好地理解自己的情感與意圖及其產(chǎn)生的原因。當(dāng)然,我們需要做好這類隱私的保護(hù)。?
就保護(hù)手段而言,可以從技術(shù)和法律兩個(gè)方面實(shí)現(xiàn):在技術(shù)層面,我們可以將腦機(jī)接口做成邊緣計(jì)算系統(tǒng),在系統(tǒng)內(nèi)部篩選過濾信息,使輸出的是高度凝練的、只用于我們目標(biāo)的信息,如運(yùn)動(dòng)控制。在法律、倫理層面,以制度形式保障個(gè)體對(duì)自身腦電數(shù)據(jù)的所有權(quán)、知情權(quán)、授權(quán)權(quán)與撤銷權(quán)等權(quán)利。?
腦機(jī)接口的哲學(xué)叩問?
《瞭望》:如果決策被腦機(jī)接口預(yù)測(cè),人類是否失去了選擇權(quán)??
李雪:人的大腦是一個(gè)復(fù)雜系統(tǒng),無法簡(jiǎn)單地用機(jī)械化思維解釋。腦機(jī)接口能夠預(yù)測(cè)決策,實(shí)際意味著系統(tǒng)更好地理解了個(gè)體的意圖。這與日常生活中家人通過觀察我們的行為推測(cè)我們的狀態(tài)相似,并不意味著個(gè)體失去了選擇權(quán)。相反,這種技術(shù)為我們提供了更多的選擇。預(yù)測(cè)本身只是提供更多可能性,最終的決策權(quán)利仍然由個(gè)體掌握。?
我們對(duì)大腦改造的邊界在哪兒,是需要隨著技術(shù)發(fā)展逐步探索的,就像人類了解了DNA編碼,做了大量基因測(cè)序,也能夠在一定程度上對(duì)部分基因進(jìn)行編輯,但是這距離解決大部分基因缺陷導(dǎo)致的疾病還很遠(yuǎn),更不要說我們最早擔(dān)憂的設(shè)計(jì)生命體等問題了。完整意識(shí)上傳、記憶編輯等需要較長(zhǎng)時(shí)間實(shí)現(xiàn),我相信在實(shí)現(xiàn)過程中,無論是社會(huì)共識(shí)層面還是法律倫理層面都會(huì)為技術(shù)的演進(jìn)做好準(zhǔn)備。?
李澄宇:決策與選擇權(quán)的問題如果是在討論目前針對(duì)運(yùn)動(dòng)、視覺等應(yīng)用場(chǎng)景的腦機(jī)接口技術(shù),則不存在決策的問題,因?yàn)檫@些技術(shù)的基本要求在于編解碼的準(zhǔn)確率,目前技術(shù)并不代替使用者作出選擇,不存在人類失去選擇權(quán)的問題。?
對(duì)記憶腦機(jī)接口、視覺腦機(jī)接口、情緒腦機(jī)接口這些依賴調(diào)控神經(jīng)元活動(dòng)的腦機(jī)接口技術(shù),有可能存在算法出現(xiàn)問題、進(jìn)而出現(xiàn)在腦中錯(cuò)誤寫入信息,或者黑客獲取了腦機(jī)接口控制權(quán)并寫入誤導(dǎo)性信息誤導(dǎo)決策的情況。這應(yīng)當(dāng)在未來的技術(shù)研發(fā)中注意避免,采取隱私保護(hù)、保密、設(shè)立防火墻等方法降低風(fēng)險(xiǎn)。?
如果是討論未來認(rèn)知增強(qiáng)之后,可能發(fā)展出的“決策”或“認(rèn)知”腦機(jī)接口,那么人類是否還擁有“選擇權(quán)”確實(shí)是可以討論的問題,但可以留到那個(gè)時(shí)代再討論,預(yù)計(jì)15~20年內(nèi)不太可能出現(xiàn)這種情況。?
《瞭望》:有人擔(dān)心腦機(jī)接口技術(shù)可能預(yù)示著思想的共享,對(duì)這一潛在場(chǎng)景究竟是打破溝通壁壘的終極溝通還是消解自我特性的意識(shí)湮滅存在爭(zhēng)議。你怎么看??
李澄宇:目前以疾病治療為目的的腦機(jī)接口技術(shù),不存在思想共享的可能。也很難想象人類腦機(jī)接口的未來用戶會(huì)同意意識(shí)湮滅。在隱私與自主權(quán)方面,應(yīng)最大限度保障使用者的神經(jīng)數(shù)據(jù)隱私,阻止可能出現(xiàn)的無意識(shí)的思想共享。?
而在未來腦機(jī)接口大發(fā)展的前提下,如果出現(xiàn)思想共享的可能,也應(yīng)與語言、文字、廣播、視頻、廣告、互聯(lián)網(wǎng)傳播等人類其他共享思想的模式一樣,進(jìn)行相應(yīng)管控。?
《瞭望》:當(dāng)意識(shí)可上傳、記憶可編輯,會(huì)否引起人的身份認(rèn)同危機(jī)??
李澄宇:意識(shí)上傳、記憶編輯在可見的未來不太可能實(shí)現(xiàn),其困難來自腦機(jī)接口讀取與寫入腦信息的精準(zhǔn)度還遠(yuǎn)遠(yuǎn)不夠,尤其是對(duì)意識(shí)和記憶腦機(jī)接口靶點(diǎn)腦區(qū)這樣基本的問題還不清楚答案。如果二三十年后技術(shù)上實(shí)現(xiàn)了,大概率也會(huì)和人類本有的意識(shí)和記憶進(jìn)行某種程度的融合,而不會(huì)是裂腦人一樣的分裂并引發(fā)身份認(rèn)同危機(jī)。?
況且,腦機(jī)接口這類技術(shù)的應(yīng)用屬于自主選擇范疇:重大疾病患者,其使用前提是基于使用者的明確認(rèn)可;面向商業(yè)娛樂場(chǎng)景的非侵入式腦機(jī)接口產(chǎn)品,主要定位為消費(fèi)級(jí)電子產(chǎn)品,是否使用、選擇何種技術(shù)方案,也均由使用者自主決定。同時(shí),相關(guān)技術(shù)的應(yīng)用尺度應(yīng)通過法律層面的明確規(guī)范進(jìn)行界定,切實(shí)保障使用者的合法權(quán)益。?
在這些選擇與制度保障下,意識(shí)上傳、記憶編輯所產(chǎn)出的人,一定與現(xiàn)在的人有很大不同,如果這樣改變意識(shí)與記憶的方式影響到后代人類或其他生物的生存、生殖、生活模式,這個(gè)變化可能會(huì)成為生物學(xué)上進(jìn)化或演化的一部分,其所產(chǎn)生的影響可以建模分析。?

在復(fù)旦大學(xué)附屬華山醫(yī)院腦機(jī)接口前瞻性臨床試驗(yàn)手術(shù)現(xiàn)場(chǎng),采集到了高質(zhì)量的單神經(jīng)元信號(hào) 受訪者供圖 既踩
“油門”又備“剎車”?
《瞭望》:腦機(jī)接口帶來的認(rèn)知增強(qiáng)是否可能帶來失控的風(fēng)險(xiǎn)??
李澄宇:在發(fā)展方向上,認(rèn)知增強(qiáng)是腦機(jī)接口未來可能探索的方向之一,但當(dāng)前的研究重點(diǎn)仍集中于幫助患有重大疾病或存在功能缺失的人群恢復(fù)部分生理或認(rèn)知功能。未來認(rèn)知增強(qiáng)技術(shù)的發(fā)展路徑,需要在實(shí)踐中不斷評(píng)估校正,并借助法律與倫理框架約束。?
應(yīng)該說,任何新興技術(shù)都難免引發(fā)對(duì)未知風(fēng)險(xiǎn)的擔(dān)憂,應(yīng)通過科學(xué)規(guī)范的手段引導(dǎo)和管控,可以參考人工智能等領(lǐng)域的倫理規(guī)范經(jīng)驗(yàn),提早布局相關(guān)法規(guī)制定。?
段偉文:不能簡(jiǎn)單認(rèn)為治療的目的就合理、增強(qiáng)的目的就不合理。例如治療健忘似乎具有目的上的正當(dāng)性,但當(dāng)前人類對(duì)記憶與認(rèn)知的理解仍非常有限,部署相關(guān)技術(shù)一定要考慮安全性。安全是倫理的第一要義。?
一個(gè)需要警惕的情況是,人工智能、大模型,以及腦機(jī)接口等技術(shù)工具,如同人類的“義肢”,應(yīng)該成為延伸人類能力邊界、彌補(bǔ)認(rèn)知局限的支撐,而非取代人類主體地位的替代者。但現(xiàn)在人工智能的介入正在改變?nèi)祟愓J(rèn)知的基本原則,AI輔助決策可能削弱人的自主判斷能力,這種情況比較突出。
應(yīng)當(dāng)說,技術(shù)并非天然崇高,它需要像人體跟“義肢”的磨合一樣,與社會(huì)、法律與倫理等磨合,甚至是排異和修復(fù)。經(jīng)過實(shí)際操作層面的持續(xù)調(diào)試,有利于技術(shù)真正服務(wù)于人。?
具體到腦機(jī)接口技術(shù),它也需要與社會(huì)層面磨合。特別是要將倫理價(jià)值觀嵌入技術(shù)研發(fā)的全流程,不是空談原則,而是通過機(jī)制設(shè)計(jì)體現(xiàn)向善導(dǎo)向。?
值得指出的是,中國科技發(fā)展進(jìn)步巨大,在不少領(lǐng)域已經(jīng)從“跟跑”轉(zhuǎn)向“并跑”,甚至是“領(lǐng)跑”。這也意味著中國的科技發(fā)展關(guān)系到全球命運(yùn),構(gòu)建與之匹配的科技文化至關(guān)重要。對(duì)科技進(jìn)行有效治理,不能僅依賴剛性的法律,也要借助倫理這類“軟法”形成約束。?
《瞭望》:對(duì)做好腦機(jī)接口倫理治理有何思考??
段偉文:腦機(jī)接口技術(shù)涵蓋多個(gè)層面,其倫理問題也需根據(jù)不同類型區(qū)別對(duì)待。可考慮將其劃分為三大領(lǐng)域進(jìn)行差異化治理。
在醫(yī)療應(yīng)用領(lǐng)域,應(yīng)恪守生命倫理,強(qiáng)化長(zhǎng)期責(zé)任。例如在神經(jīng)疾病治療等醫(yī)療應(yīng)用中,腦機(jī)接口技術(shù)必須遵循尊重自主、不傷害、有利、公正等生命醫(yī)學(xué)倫理原則以及我國科技倫理原則。同時(shí),需高度重視其特殊性——它可能對(duì)患者人格、認(rèn)知產(chǎn)生長(zhǎng)期且深刻的影響。因此,除短期療效外,必須加強(qiáng)對(duì)患者長(zhǎng)期生理、心理及生活質(zhì)量的追蹤研究,建立完善的責(zé)任與問責(zé)機(jī)制,體現(xiàn)技術(shù)應(yīng)用的審慎與負(fù)責(zé)。?
在探索性研究領(lǐng)域,應(yīng)聚焦數(shù)據(jù)與隱私前瞻風(fēng)險(xiǎn)。對(duì)認(rèn)知增強(qiáng)等探索性研究,需特別關(guān)注神經(jīng)數(shù)據(jù)安全和精神隱私保護(hù)等前沿倫理挑戰(zhàn)。應(yīng)警惕神經(jīng)數(shù)據(jù)被用于社會(huì)分級(jí)、歧視或操控等不當(dāng)用途的可能性。倫理審查不應(yīng)是靜態(tài)的“清單核對(duì)”,而應(yīng)是動(dòng)態(tài)的、嵌入研究全過程的。換言之,要在實(shí)踐中及時(shí)發(fā)現(xiàn)由技術(shù)引發(fā)的新問題,并參照倫理指引權(quán)衡。這需要深入理解技術(shù),并平衡不同群體的利益。?
對(duì)意識(shí)上傳等遠(yuǎn)期科幻議題,從治理層面應(yīng)明確將其界定為學(xué)術(shù)思想探討范疇。這類議題雖能激發(fā)重要的倫理前瞻思考,但當(dāng)前技術(shù)遠(yuǎn)未成熟。治理的重點(diǎn)在于務(wù)實(shí)地將此類前瞻性倫理問題與可操作的科學(xué)研究、臨床應(yīng)用清晰區(qū)分開來,避免概念混淆,從而將有限的研究力量和資源集中于解決更具現(xiàn)實(shí)緊迫性的問題上。?
在全球尚未對(duì)腦機(jī)接口技術(shù)的倫理達(dá)成共識(shí)的背景下,我們更應(yīng)穩(wěn)步推進(jìn)技術(shù),構(gòu)建與中國科技實(shí)力相匹配的倫理治理體系,避免陷入“先發(fā)展后治理”的陷阱。?
技術(shù)創(chuàng)新如同文明的“油門”,我們不能只顧加速,還需備好倫理責(zé)任等的“剎車”,以最大限度減少潛在傷害。否則按當(dāng)前技術(shù)的發(fā)展速度,有過數(shù)千年文明歷史的人類,其韌性是否足以支撐下一個(gè)數(shù)千年,就可能打上問號(hào)。
來源?《瞭望》新聞周刊記者?張冉燃?董雪?2025年12月8日
https://h.xinhuaxmt.com/vh512/share/12859986?docid=12859986&newstype=1001&d=1350245&channel=weixin
附件下載: