“未來生命研究所”近日發(fā)起的公開聲明,猶如一記重錘,敲響了智能時代的警鐘。這份聲明由人工智能(AI)先驅杰弗里·辛頓、蘋果聯合創(chuàng)始人史蒂夫·沃茲尼亞克等超3000名海內外科技領袖聯署,呼吁在科學界達成“安全可控開發(fā)超級智能的廣泛共識”前,暫停開發(fā)超越人類控制的“超級智能”。這一行動,不僅是對技術狂飆突進的深刻反思,更是對人類文明未來命運的集體叩問。它向世界傳遞出一個清晰信號:人工智能的安全發(fā)展,已不再是某個國家或群體的內部事務,而是全人類共同的責任與使命。
長期以來,以美國科技巨頭為代表的“技術決定論”思潮深刻影響著AI的發(fā)展路徑。他們信奉“先發(fā)展、后治理”的邏輯,不惜以犧牲安全、倫理和社會共識為代價追求技術領先。這種放任風險、追求壟斷的霸權思維,不僅加劇了全球AI治理的碎片化與對抗性,更將整個人類文明置于不可控的系統性風險之中。深度偽造技術擾亂世界、算法歧視加劇社會不公,在人類做好準備,形成對技術的有效控制機制前,若出現具備自主目標設定能力的超級智能,將可能威脅人類的主體地位。
面對“發(fā)展優(yōu)先”、鼓勵技術創(chuàng)新以搶占未來制高點的主張,另一方則堅持“安全至上”,呼吁在風險未明、控制機制缺失時對高風險研發(fā)按下“暫停鍵”。此次聯署正是后一立場的集中體現,其背后是以“不傷害優(yōu)先”為核心的倫理邏輯,值得全人類深思。
然而,僅靠“暫停”無法解決根本問題,真正的出路在于構建一個開放、包容、公平的全球治理體系。這要求各國摒棄零和博弈的冷戰(zhàn)思維,放棄以“小圈子”規(guī)則排斥異己的狹隘路徑,真正站在人類共同命運的高度,攜手應對挑戰(zhàn)。人工智能的治理,不能由少數精英或大國博弈主導,而應建立在廣泛科學共識與公眾參與之上。要推動在聯合國等多邊框架下建立全球性治理公約,制定透明標準與風險評估機制,盡快開展國際安全合作與倫理對話,共同應對可能的威脅。同時,也要幫助發(fā)展中國家跨越“智能鴻溝”,避免技術壟斷加劇全球不平等。唯有如此,才能確保AI的發(fā)展成果由世界人民共享,而非成為少數國家操控世界的工具。
中國始終是負責任的人工智能大國。我們深刻認識到,發(fā)展是第一要務,創(chuàng)新是核心動力。在中國,AI作為引領新一輪科技革命和產業(yè)變革的戰(zhàn)略性技術,已成為培育新質生產力的關鍵引擎。從智能制造到智慧農業(yè),從醫(yī)療診斷到城市治理,借助海量數據資源、豐富應用場景和完整產業(yè)體系,中國AI產業(yè)正以前所未有的深度重塑經濟社會結構,在大模型、計算機視覺、自然語言處理等前沿領域也已作出諸多探索與貢獻。在賦能千行百業(yè)之外,AI更將服務于人的全面發(fā)展,實現解放生產力、發(fā)展生產力。因此,中國應堅定不移推進核心技術攻關,支持原創(chuàng)性、引領性創(chuàng)新,在智能體等前沿方向保持戰(zhàn)略投入,在全球科技創(chuàng)新中勇立潮頭。
另一邊,中國始終堅持安全底線要求,絕不以犧牲底線安全作為發(fā)展的代價。隨著AI系統日益復雜,潛在風險已從局部性、可逆問題轉向系統性、不可逆挑戰(zhàn)。中國始終秉持“以人為本、智能向善”理念,一貫主張統籌發(fā)展和安全,既不因噎廢食,也不盲目冒進,構建動態(tài)平衡、協同演進的治理范式。例如按風險等級分類監(jiān)管——對自主武器、大規(guī)模社會評分等高風險系統執(zhí)行嚴格準入與全程監(jiān)控,對中低風險應用鼓勵試點、包容審慎;比如推動倫理先行,完善全周期倫理審查,將公平、透明、可解釋性原則嵌入研發(fā)過程,強化科研人員社會責任……
中國的發(fā)展路徑,一直秉持敞開大門的態(tài)度,愿與世界各國攜手,以“統籌發(fā)展和安全”辯證的東方智慧,為全球AI治理貢獻中國智慧與中國方案。中國支持推動建立的多邊、民主、透明的國際AI治理體系,不是單極主導的規(guī)則輸出,也不是各自為政的碎片化監(jiān)管,而是各國平等參與、共享成果、共擔責任的命運共同體。
站在今天的歷史節(jié)點,人類與世界將往何處去,是一張攸關全人類命運的共同考卷。要共同走向未來,我們需要挺膺擔當,攜手全人類通過這場智能時代的“入門測驗”,讓人工智能真正成為推動人類文明進步的“普羅米修斯之火”,而非吞噬一切的“潘多拉魔盒”。(作者是國家行政學院馬克思主義學院教師、習近平新時代中國特色社會主義思想研究中心研究員)








