<li id="44aaa"><tt id="44aaa"></tt></li>
<li id="44aaa"></li>
  • <li id="44aaa"></li><li id="44aaa"></li> <li id="44aaa"></li>
  • 分享到:
    鏈接已復制

    LANGUAGES

    新聞

    新聞直播 要聞 國際 軍事 政協 政務 圖片 視頻

    財經

    財經 金融 證券 汽車 科技 消費 能源 地產 農業

    觀點

    觀點 理論 智庫 中國3分鐘 中國訪談 中國網評 中國關鍵詞

    文化

    文化 文創 藝術 時尚 旅游 鐵路 悅讀 民藏 中醫 中國瓷

    國情

    國情 助殘 一帶一路 海洋 草原 灣區 聯盟 心理 老年

    首頁> 中國發展門戶網> 本網獨家>

    鄭永年:人工智能時代的社會秩序

    2025-05-27 11:27

    來源:中國網·中國發展門戶網

    分享到:
    鏈接已復制
    字體:

     經濟基礎決定上層建筑,經濟基礎也決定社會秩序。在漫長的傳統農業社會,社會秩序歷經數千年,但因沒有革命性技術的產生,社會秩序只有量變,而沒有質變。近代以來,技術革命不斷導致經濟革命,經濟革命不斷導致社會秩序的變遷,從工業社會秩序到后工業社會秩序再到信息社會秩序。今天,人類開始進入人工智能時代,人工智能對經濟、社會、政治甚至國際政治的影響,越來越成為學術界和政策界的研究對象。無論是對人工智能技術本身的研究,還是對人工智能這一技術所產生的方方面面的影響已經成為顯學。

    盡管人工智能依然處于急速發展過程之中,但人們的共識是人工智能在賦能社會的同時也威脅著現存社會秩序。人工智能對勞動就業、稅收、社會公平等方面的影響已經引起人們廣泛的注意,但對人工智能的“去智力化”的功能還沒有引起人們足夠的警惕。人工智能是人類智力的產物,其崛起代表著人類智能達到了一個新的頂峰,隨著人工智能深入社會的各個領域,其廣泛地應用在賦能人類的同時也在導致人類智力的衰變甚至衰落,這里存在著一種本文稱之為“人工智殘”(artificial ignorance)的現象。較之人工智能所產生的其他各種不平等現象和問題,“人工智殘”對社會秩序的影響更為深刻。這種現象還處于生成階段,但人類沒有任何理由去忽視它。這是一個極其嚴肅的問題?;粮裨谒倪z著《創世紀:人工智能、希望和人類精神》中指出,人工智能時代也許不僅無法推動人類進步,反而可能引發一種對不可解釋的權威的前現代式接受?簡言之,我們是否正站在人類認知大逆轉——“黑暗啟蒙”的懸崖邊上?可以肯定地說,如果基辛格所說的“黑暗啟蒙”發生了,那么人類不得不面對一個“人工智殘”的世界。

    “人工智殘”現象

    簡單地說,“人工智殘”指的是一種當今越來越普遍的現象:在人工智能時代,由于廣泛和毫無節制地使用(無論是主動使用還是被動使用)人工智能相關的工具(尤其是基于互聯網的各種社交媒體)所導致的人類自我智力傷害。需要強調的是,這不是人們日常所說的“智障”(智力障礙),因為很多“智障”是由于大腦受到器質性的損害,或是由于腦發育不完全造成認識活動的持續障礙及心理障礙,具有先天性和不可避免性質,人們對這部分不幸的同胞報以同情心,也在不斷尋找醫治方法。但“智殘”則是人為的,既可以源自對工具的過度和不當使用,也可以源自人類所創造的工具對人類自身的影響。技術樂觀主義者相信,正如人類幾次工業革命所創造的技術一樣,人工智能也會是一種造福人類的有效工具。必須指出的是,人工智能和此前所有人類所創造的工具很不一樣,因為人工智能正在反過來影響人類本身的智能。盡管討論“人工智殘”這一問題有些敏感,但鑒于其快速的發展勢頭及其對人類智力的巨大負面影響,人們還是需要直面這個問題,并找到有效的糾正方法。本文并非要針對這個問題找出一個確切的解答方案,因為這個問題很復雜,這里只是提出問題以進行一些初步的討論和思考。

    我們不妨借用英國作家奧爾德斯·赫胥黎(Aldous Huxley)所著《美麗新世界》的概念,來形容人工智能所能導向的一種充滿不確定的社會秩序。筆者有3個理由:盡管人工智能及其相關工具已經迅速成為第四次工業革命的核心,各國也在千方百計地發展和使用這一技術,以期通過在這一技術領域占據主導地位來主導下一波工業革命,但是對人類社會來說,這一技術還是新生事物,它給人類所帶來的無疑是一個“新世界”。赫胥黎在《美麗新世界》一書中,探討的是技術應用對人類社會的影響,無論是正面的還是負面的。新技術的出現大多是人類使用理性的結果,其目的是影響人類社會。對人類來說,既要受惠于技術的進步,也要減少甚至避免技術對人類造成的負面影響。更為重要的是本文想借討論人工智能來更新和修正一下筆者對這個問題的看法。對技術和社會之間的關系,筆者一直抱有濃厚的興趣,多年來一直在觀察和研究技術對社會變遷的影響。2014年,筆者在《技術賦權:中國的互聯網、國家和社會》一書,結合中國的案例,探討了互聯網對國家和社會的影響。當時還處于博客時代,但互聯網已經對人類社會的方方面面產生了深刻的影響。盡管當時的互聯網對國家和社會的影響也表現為正、負兩方面,但筆者的結論比較樂觀,認為作為技術工具的互聯網具有普遍賦權的功能,既賦能政府,也賦能社會的各個群體。但是,至少就今天的現狀來說,普遍賦權這一觀點需要得到修正了。高科技發展到人工智能的階段,其賦權的能量的確越來越巨大,但其賦權表現為絕對的不平等和不均衡,這種不平等和不均衡不僅表現在一國之內,更表現在國家之間。正如下文分析到的,在一國之內,人工智能對國家、對公司、對個人的賦能呈現極度失衡狀態;對國家間來說,人工智能僅僅分布在少數幾個大國,大多數國家并沒有能力擁有人工智能。

    迄今,人們對人工智能所造成的不平等主要聚焦在就業、收入、技術的可得性等方面。但筆者認為,這些不平等不僅存在,而且還會加劇,這些不平等也已經成為人類揮之不去的噩夢,但從目前的發展趨勢而言,人工智能及其相關工具所產生的最大也是最具有危害性的不平等是人類智慧上的不平等。這種智力上的不平等并不是由人們日常所說的“技術不可得性”造成的。關于新興科技對社會的影響,一種普遍的觀點是,只有那些能夠得到這種高科技的社會群體才可以享受新興科技所能帶來的好處,而那些難以得到新興科技的社會群體則難以得到科技帶來的好處。但是,就人工智能及其工具對人類智力的影響來說,結局是恰恰相反的,即是說,這種高科技越具有可得性,使用頻率越高,使用者的智力受到的損害和傷害就越大。

    人工智能的技術結構特性

    本文從2種結構性因素來分析“人工智殘”是如何形成的。本節將在第1個層面分析人工智能時代高科技所呈現的結構性因素,以及這些看似互相矛盾的因素對社會群體所能構成的傷害。簡單地說,人工智能時代高科技呈現4個技術結構特性。

    技術能力的高度集中性(highly concentrated)。即人工智能的技術能力是高度集中的,集中在少數幾個大國的幾家大公司。就世界范圍內看,中美兩國擁有大部分人工智能技術能力,其他國家也擁有一些,但難以與中美兩大國匹敵。再者,就中美兩國來說,美國目前擁有更多的技術能力。今天,盡管美國公司一直在宣揚中國在人工智能領域對美國公司構成了巨大的競爭壓力,但是無論從理論還是經驗層面看,人工智能領域有意義的競爭都發生在美國的幾家大公司之間,而非中美之間。從技術端到數據端,從大模型到應用,中國和美國的差異依然巨大。盡管最近中國DeepSeek的崛起打破了美國之前所處的幾乎壟斷地位,但需要意識到DeepSeek是基于開源的基礎之上產生的,誰都不能保證DeepSeek何時會被再超越。再進一步,即使在中美兩國內部,人工智能技術的也僅僅在少數幾個地區分布。在美國,大量核心的人工智能技術主要分布在2個區域:西邊從加利福尼亞州硅谷到得克薩斯的狹長地帶、東北部的波士頓—紐約區域。在中國,人工智能技術與企業則主要分布在3個區域:粵港澳大灣區、長三角地區、北京地區。一種技術的集中性到達如此的高度是近代以來所少見的。人類的第一、第二和第三次產業革命均表現為分散性,但人工智能產業的發展迄今卻趨向于高度集中性。在西方發達國家和地區,對基于傳統技術之上的產業的反壟斷已有一套成熟的方法。一般都是通過分解一個企業以防止其取得壟斷地位,從而為創新和新企業的產生創造制度條件。但是,對高科技企業如何反壟斷迄今依然是一個巨大的問題。傳統分解企業的方法可行性不高,因為高科技企業都基于互聯網之上,如果分解,就不符合信息產業的發展邏輯。從針對微軟公司的反壟斷案來看,現在針對高科技企業的反壟斷基本上采用以“開放”替代傳統分解的辦法。但問題在于,這種“開放”替代的實際效果反而使得這些信息產業變得更加龐大。就人工智能產業來說,美國如今的發展已經達到了相當發達的程度,但至今還沒有聯邦層面的任何監管體系,只有一些沒有多大約束力的總統行政命令??梢哉f,如果找不到有效的反壟斷機制,那么這個產業的集中度只會越來越高。實際上,特朗普再次執政之后,對人工智能領域采取“去監管”的政策,而這種“去監管”的政策會進一步把人工智能產業發展的集中度推到一個新的高度。

    管控的高度集權性(highly centralized)。就是說,管控人工智能使用能力的角色是各國政府或各大公司(即平臺)。由于基于互聯網之上的人工智能涉及國家間的關系,涉及2種相關但又不同的安全問題:技術本身和技術使用的安全(safety)問題、國家間的安全(security)問題,即一個國家對另一個國家是否構成威脅的問題?;趯Π踩男枰?,管控的高度集權性不可避免。這也就是為什么互聯網產生以來人們對互聯網主權的討論從來沒有終止過的原因。盡管互聯網主權很難實現,但各國還是千方百計地來掌控互聯網,使其體現出一定程度的“主權性”。再者,國家之間的互聯互通僅僅通過一個國家一個接口或者幾個接口的方式進行,這種關聯方式也為高度集權性創造了技術條件。此外,這種集權性也可以表現為企業形式。盡管在內部事務上,一些美國企業擁有了某種程度的對抗國家的權力,但在國際層面,無論是主動的還是被動的,企業便是國家的代理人。

    商用者的高度壟斷性(highly monopolized)。如同前面所討論的邏輯,無論商用者是政府還是企業,都很容易趨向于高度壟斷性。經驗地看,即便使用者是個人,對于人工智能的使用也呈現出高度壟斷性質。舉例來說,無論在哪里,今天的互聯網和社交媒體領域都被各個領域的“大V”(網紅)或者“大V”所構成的小團體所壟斷。這些“大V”及其團體往往集聚和壟斷了大部分資源,享有物質意義上和話語權意義上的不相稱的權力。他們往往被視為是各個領域的“精英”,任何東西(宗教、思想、價值觀、謊言、謠言等),一旦具有了“商用”價值(即只要有人信),他們便會趨之若鶩,毫無底線地追求流量,把某一事物的商用價值推到極端。

    使用者高度分散性(highly diffused)。即最底端的互聯網使用者?;ヂ摼W可以說是迄今為止最具有民主性質的技術。因為人是會說話的動物,人們必須溝通。這也就是基于互聯網之上的社交媒體今天如此普遍的一個原因。但是,這種技術的可得性也導致了個人的“原子化”。哲學家漢娜·阿倫特(Hannah Arendt)曾經對西方極權體制下的個人“原子化”做過深刻的討論。但是,今天的情況已經發生了巨大的變化。今天被視為高度“民主化”的互聯網技術導致了個人的極端“原子化”。在社交媒體中,人們看似通過網絡產生了互聯性,但這是虛擬的互聯,因為他們之間并沒有真正的溝通。在年輕群體中,很多人實際上已經失去了語言的溝通能力,他們之間的溝通往往發生在一個人的拇指與另一個人的拇指之間。更為重要的是,他們往往僅是“大V”們的商用對象,“大V”們對他們來說具有“邪教般”或者“鴉片般”的吸引力。在行為上,他們往往表現為現代版本的“烏合之眾”,表現出從眾、非理性、輕信、自我頌揚、自我愚昧等特征。

    人工智能對治理結構特征

    人工智能高科技的這種技術結構特征在很大程度上也決定了第2個層面的高度等級化,即治理結構的高度等級化。盡管社交媒體看似呈現出高度的扁平化,但實質上則是越來越等級化,一種可以稱之為“牧民社會”的治理結構正在快速形成和崛起。自從人類有意識地去發明和創造技術以來,一個總的趨勢是:機器越來越像人,而人則越來越像機器。因為人是根據自己的人性來塑造機器的,機器便有了最終征服和奴役人類的機會。

    實際上,世界不同的文明都有“牧民”的說法,西方的《圣經》講“牧民”,中國的《管子》也講“牧民”。這里的“牧民”指的是統治者對老百姓的統治,需要善待老百姓。正如意大利精英政治學派(如莫斯卡、柏雷托等)所強調的,不管是民主的還是非民主的,任何社會都可以分為2個階層,即統治者與被統治者,前者是精英,后者是普通人。統治者—被統治者的治理結構便是牧民社會結構。在其《政黨》(Political Parties)一書中,德國出生的意大利社會學家米切爾斯(Robert Michels)更是論證了即使是以追求民主為目標的政黨或者表現為最民主形式的政黨最終也逃避不了“寡頭政治鐵律。

    英國作家喬治·奧威爾1949年出版的小說《一九八四》更是以豐富的想象力展示出“牧民”的可能結局。實際上,自從社交媒體產生以來,“1984社會”已經不再僅僅是小說中的想象,而是已經成為現實。而人工智能的出現又在加速促成人類社會從“1984社會”向“牧羊社會”轉型。

    “牧羊社會”由3部分角色組成,即牧羊人、牧羊犬和羊群。今天,就人工智能的發展水平來說,它已經有能力扮演或者已經在扮演著“牧羊犬”的角色。馬斯克在其“星鏈”達成第7 000顆衛星部署后,曾在社交媒體平臺X發文稱:“星鏈”現在構成所有現役地球(軌道)衛星的約2/3。有能力思考的人們需要看到這一發展趨勢背后的含義?!靶擎湣庇媱澗唧w是由美國太空探索技術公司實施的,它具備政府所具有的公共性,馬斯克擁有絕對的權力。

    人工智能之所以能夠扮演“牧羊犬”的角色,主要有3個原因。

    人工智能技術本身的快速進步。盡管人類已經在各個方面感受到了人工智能對社會造成的沖擊,但人工智能依然處于快速發展過程之中,并且越來越像人類本身。

    這里所說的人類的自我愚昧進程加快。對絕少數人來說,人工智能是智能,而對大多數人而言,是“人工智殘”。這里尤其需要強調一個知識界的“異化”現象,因為近代以來知識界一直被視為是理性的最重要的來源。如同其他領域,今天在知識和智慧領域也出現了“劣幣驅逐良幣”的現象。美國學者霍夫斯塔特(Richard Hufstadter)20世紀60年代的作品《美國生活中的反智主義》這幾年在很多國家再次流行開來并不難理解,因為追流量、反理性、說假話幾乎已經成為全球性現象。不過,應當指出的是,今天知識所面臨挑戰的嚴峻程度并非霍夫斯塔特的“反智主義”這一概念所能形容的。在霍夫斯塔特的描述中,反智主體是傳統的宗教、政治、商業和教育體制等;但在今天,除了這些主體之外,知識界本身不僅也加入了反智浪潮,更是趨向于成為反智主體。應當強調的是,在知識領域,“劣幣驅逐良幣”對“劣幣”來說絕對不是好消息。如本文前面所討論的,迄今人們只關注人工智能所能造成的物質和制度層面的不平等,但實際上,人工智能對人類最大的沖擊是智慧的不平等。人類利用人工智能自我傷害的趨勢繼續下去,最終的結果必然是重返“奴隸式依賴”。

    人工智能在快速摧毀此前保障人類生活正常進行的所有體制。2024年9月5日《紐約時報》刊發的《對人工智能的癡迷可能導致民主的終結》指出,“隨著技術使信息傳播變得比以往任何時候都更容易,注意力成了一種稀缺資源,隨之而來的注意力爭奪戰導致了有害信息泛濫。但戰線正從注意力轉向親密。新的生成式人工智能不僅能生成文本、圖像和視頻,還能與我們直接交談,假裝人類”。實際的情況可能比該文章描述得更為糟糕。在很大程度上,人工智能賦能的社交媒體已經導致美國傳統民主形式的死亡。民主是否能夠在人工智能賦能的社交媒體時代得以生存和發展是一個很大的問題。不僅僅是選舉制度,所有其他制度都經歷著嚴峻的考驗。而一旦失去這些傳統制度的保護,人類無疑將處于一個極度“個體化”的原子狀態。人們可以說,舊制度的消亡是必然的。的確,任何制度必須與時俱進,否則就會消亡。人工智能已經顯示出其強大的制度毀滅能力,但人們仍未發現其制度建設能力。在新制度確立遙遙無期的情況下,個人的“原子化”趨于加快和加劇。

    不難理解,當今社會的“牧民”特征越來越明顯。盡管在社交媒體上,每個人都可以說話,都可以各抒己見,但就其本質而言,社交媒體已經出現個人匯總成為“會說話的羊群”的局面。人性最光輝的一面——理性逐漸消失了,而最丑陋的一面——非理性得到張揚。這在很大程度上已經威脅到人類的生存和發展。人工智能時代正在惡化2種不平等——國家內部各社會階層之間的不平等和國家之間的不平等。應該說,很多國際組織和國家政府正在為如何解決這些不平等冥思苦想,也在作不同的努力來控制和減少這些不平等。但在社交媒體上呈現的則是另外一番景象。各種基于社交媒體之上的群體張揚的是階層階級之間的仇恨、民族種族之間的仇恨和國家之間的仇恨,“商用民粹主義”“商用愛國主義”和“商用民族主義”情緒深入到了社交媒體的各個角落。更為嚴峻的是,對那些“大V”來說,他們這樣做的目的是“商用”,即由流量產生的利益,但對很多他們的追隨者(也就是“羊群”)來說,則是信仰、是行動。仇官、仇富、仇(不同的)宗教、仇(不同的)價值和仇外國人已經從線上轉到線下,造成了一些群體的生命危機。

    技術進步對社會的影響是一個永恒的話題。必須明確意識到,技術的進步并不表明人類的進步。人類既要充分受惠于技術的進步,又要防止和減少技術對社會進步的負面影響。20世紀出現的“反烏托邦三部曲”,即前面引用的《美麗新世界》和《一九八四》,再加上蘇聯作家葉·扎米亞京的《我們》,便是用文學方式向世人提出的“未來警告”。但很可惜的是,這些作家所想象的這些早已經不是烏托邦,而是存在于今天人們的日常生活中了。更值得關注的是,在這些作家的作品中,他們只是強調了“政府”,即掌權者,在監控和操縱社會過程中發揮的作用,但今天的情況已經變得異常復雜,越來越多的角色,包括資本、資本操縱的機構、受利益驅動的“大V”等,都加入了“愚民”的過程。在這種情形下,越來越多的個體和群體在不知不覺快樂的情形下實現著自我愚昧化。同樣糟糕的是,今天已經沒有了“烏托邦三部曲”那樣的思想者了,知識分子不僅已經失去了教育社會的責任,更是紛紛加入了“愚民”的進程。

    現在留給人們的問題只剩下:人工智能能否最終超越“牧羊犬”的角色而成為“牧羊人”?或者說,“牧羊人”最終反而被“牧羊犬”所主宰呢?

    政府與人工智能社會秩序的塑造

    人工智能扮演“牧羊犬”的角色,通過自身的快速進步不斷加快人類自我愚昧化的進程、摧毀現行的體制,這種趨勢如果不能加以改變,人類的生存環境就會不斷惡化。如何阻止人工智能時代“人工智殘”的趨勢繼續?對世界各國來說,都是一個嚴峻的挑戰。

    從今天的情況看,有4個方面的事情是必須做的,也是可以做的。

    確立和強化政府的責任。對公眾來說,需要重新認識政府在虛擬現實空間治理中的角色和責任。英國思想家托馬斯·霍布斯于1651年出版的《利維坦》為政府確立其在現實世界中的權力和權威提供了最強有力的哲學論證。也正是確立了政府在現實世界的秩序之后,人類才逃離了原先的無政府狀態。之后才會有洛克和密爾那樣的自由主義者論述這一現實秩序可以是“不專制的”或者“自由的”。今天的虛擬世界秩序或許也要經歷一個先確立“利維坦”然后再民主化的過程。盡管人們可以討論“企業的社會責任”,但是企業的主要目標并非公共利益,而是私人利益。亞當·斯密認為,私人利益可以導向公共利益,但從經驗看,如果沒有政府對企業行為的規范,那么對私人利益的過度追求必然對社會整體產生極其負面甚至毀滅性的影響。作為公共利益的主體,政府在管控人工智能方面具有不可推卸的責任。對政府本身來說,迫切需要對人工智能所能導致的2個安全問題進行系統的梳理,并制定同樣系統的有效應對舉措:技術本身的安全問題,即safety;技術的應用所能產生的安全問題,即security。就第1個安全問題,不僅人工智能本身會出現各種技術故障,而且其也正在生產出越來越多的生成數據(信息),這些都會對人類的智力構成威脅。就第2個安全問題,人工智能的不當使用和濫用不僅有效損害著社會群體間或者國家間的傳統信任,而且也正在制造大量仇恨甚至暴力。盡管這些現象在互聯網時代已經產生,但人工智能正在極大惡化這些現象。因此,政府需要針對互聯網非理性言論的蔓延,采取一系列強化監管與反制措施,以確保網絡環境的安全和穩定。這里,完善法律法規體系是第一位的。政府需建立健全與非理性言論相關的法律法規,明確界定什么構成非理性言論、仇恨言論以及網絡暴力等行為。同時,加強對現有法律的執行力度,確保相關法規能夠有效應對網絡中的不當言論,維護虛擬空間的社會秩序。

    需要確立和加大網絡平臺的責任。一方面是平臺的自我責任?;ヂ摼W平臺作為信息傳播的重要載體,必須承擔起對內容的審核和管理責任?!捌髽I的社會責任”概念或者目前流行的ESG(環境、社會和公司治理)概念也可以適用于平臺。另一方面是政府對平臺的監管。平臺為利益驅使,如果沒有外在的壓力,很難確立自己的責任。鑒于平臺中社會個體因為“原子化”而顯得軟弱不堪的局面,政府在監管平臺上需要負起主要責任。實際上,如今平臺越來越趨向于“私人化”,而政府盡管也會犯錯誤,但無論是與平臺還是“大V”比較,政府呈現出來的公共性彌足珍貴。類似韓國某平臺所發生的侵犯女性人權的案例在全世界不勝枚舉,而這些案例僅靠平臺自我監管是絕對無法杜絕的,因此,盡管政府的部分監管措施時常被視為不利于平臺發展的,但要對這些平臺進行監管還必須訴諸政府。各國政府需要制定明確的政策,要求平臺建立完善的內容審核機制,及時刪除或屏蔽非理性言論,并對傳播惡劣內容的用戶施加處罰。此外,政府也可以通過評估和獎勵機制,鼓勵平臺在內容治理方面表現優異。

    政府和平臺需要加強網絡監測與情報收集。通過各種技術手段,政府可以通過和平臺的合作,建立高效的網絡監測系統,實時跟蹤和分析網絡上非理性言論的動態。結合大數據和人工智能技術,迅速識別潛在的危害,及時采取應對措施,防止非理性言論的進一步傳播和蔓延。這里,政府尤其需要克制和避免人們所說的“選擇性監管”傾向性。盡管任何政府都具有傾向性,尤其在意識形態日益高漲的今天,但如果政府不能避免“選擇性監管”,那么就會對極端觀點推波助瀾,造成更大的惡果。政府需要在公眾的“言論自由”和“極端言論”之間作出理性的判斷,在保護“言論自由”的同時有效監控“極端言論”。

    人工智能時代需要重塑教育,重塑人類理性。理性是人的現代性的本質,是教育的產物,來之不易。要防止“人工智殘”的趨勢繼續,就必須通過激進的教育改革,重塑公眾的理性思考能力。無論是政府還是社會組織,即刻可以做的包括:開展公共活動和媒體宣傳,鼓勵公眾在面對信息時進行理性思考;通過引導公眾學會分辨信息的真實性、客觀性,減少對情緒化和片面言論的盲目接受;可以組織工作坊、講座等形式的活動,培養公眾的批判性思維能力,使他們能夠獨立判斷非理性言論的影響與后果。但從長遠來說,各國需要的是根本的教育改革。人類已經進入人工智能時代,但各國的教育系統依然停留在前人工智能時代,因此教育與社會發展嚴重脫節。正如教育在近代以來的3次工業革命進程中所發揮的關鍵作用,在人工智能時代,一個國家的未來,無論是內部發展還是其在國際舞臺所處的位置,都取決于其教育改革。

    (作者:鄭永年,香港中文大學(深圳)前海國際事務研究院?!吨袊茖W院院刊》供稿)

    【責任編輯:殷曉霞】
    返回頂部
    午夜无码福利18禁网站