算法,已然成為一股深刻改變世界、重塑未來的核心力量。生成式人工智能的崛起正以前所未有的速度幫助我們提升效率、釋放創造潛能。算法推薦系統則通過精準推送與數據分析,悄然改變著我們的社交行為與信息獲取方式。算法這只無形的手正在悄然滲透進我們日常生活的各個環節。


4月20日至4月27日,三聯書店舉辦了第七季“三聯·新知大會”,以“算法的尺度:智能時代的共生法則”為主題,帶領公眾深入理解算法背后的本質及其對社會的多維影響。從“算法的本質”“算法與社會”“算法與法律”“算法與經濟”四個維度展開的四場跨界論壇,匯聚了計算機技術、社會學、法律、經濟等領域的十三位頂尖專家,共同分享前沿研究成果和見解。


值得一提的是,本屆新知大會的主題源自三聯書店即將推出的算法系列叢書。該系列包括四本專著,分別從法律、社會、技術和經濟等角度全面解讀算法對日常生活的多元影響。


“這套叢書是國內首次系統性探討算法與社會各領域互動關系的學術普及讀物”,三聯書店編輯介紹道,“我們邀請了包括這次參與活動的一線學者撰寫,通過嚴謹而生動的分析,幫助讀者理解算法時代的挑戰與機遇,促進公眾理性認知技術變革,探索智能時代人與技術的和諧共處之道。”


經主辦方授權,下文整理發布四場活動的相關報道。


整理撰文|李永博


AI時代的法律與治理,

需要更多的“分寸感”


圖片

“未來契約:AI時代的法律刻度”活動現場。


在算法決策日益滲透的時代浪潮下,法律如何找準自身定位,界定人與機器交互的邊界?4月20日下午,在主題為“未來契約:AI時代的法律刻度”的首場活動上,中國社科院文化法制研究中心研究員周輝、北大法學院副教授戴昕、清華大學公共管理學院副教授陳天昊和對外經濟貿易大學法學院教授張欣從多元視角剖析了人工智能時代的法治問題。


很多人都會關心的一個問題是,在算法遍布的日常生活中,法律究竟扮演著什么樣的角色?中國社科院文化法制研究中心研究員周輝指出,法律關注的是社會關系的調整,而無論是數字時代還是人工智能時代,算法使得人與人的連接更加廣泛,并由此產生區別于物理空間的線上空間的新型聯系。算法在商業模型發揮的巨大作用已經無需贅言,從法律的視角來看,我們還期待算法在社會問題的治理中可以發揮相應積極的作用。對于公共信息的傳播、觸達以及應急事件的處理等社會治理問題,社交平臺如何快速地傳達給相應用戶,這背后其實也需要算法的計算和資源的匹配。同時,隨著生成式人工智能的興起,算法“黑箱”及結果的不確定性造成的問題日益凸顯。這使得我們不得不追問算法決策背后的邏輯,以及它對個體權益和公共利益可能帶來的負面影響。


算法“黑箱”的背后,直指算法治理的核心問題之一:算法的透明性。對外經濟貿易大學法學院教授張欣犀利地指出,盡管算法“黑箱”常被詬病,但人類大腦的決策過程才是更難解釋的“黑箱”。我們之所以信任醫生、律師、法官的判斷,在于其背后有信譽機制和權力制衡的保障。然而,面對算法決策,傳統的信任基礎和制約機制面臨失效的風險。


在算法決策中,“誰掌握了過去,誰就掌握了未來。”通過對“盧米斯訴威斯康辛案”的分析,張欣提出算法透明并非簡單的技術公開,而是建立一種機制,讓用戶能夠理解、評估并干預影響自身利益的算法決策。雖然實現完全透明面臨技術復雜性、商業秘密保護等重重挑戰,但追求“有意義和負責任的算法透明”對于構建系統與用戶之間的信任至關重要。


圍繞“智能趨勢下AI對齊和治理”,清華大學公共管理學院副教授陳天昊在活動中分享了自己的前沿思考。從技術演進的視角,陳天昊分析了AI大模型從“越大越強”到“小而精”的發展趨勢,以及未來模型本地化部署、多模態交互和與大平臺深度融合的可能性。在這層意義上,“AI對齊”就是讓模型與人對上話,不僅是技術層面的頻道對接,更是價值層面的深度契合。陳天昊舉例,若大模型誤解了用戶意圖,這可能導致決策偏差,甚至繞過規則“說謊”。因此,陳天昊建議法律為個人使用AI設定行為底線、明確智能體(Agent)的責任歸屬,以及強化人工智能應用生態的綜合治理。正如烏爾里希·貝克在《風險社會》所指出的,現代性是一座巨大的火山,我們在享受人工智能帶來的便捷時,感受不到地下不斷噴涌、隨時可能爆發的巖漿,治理者的責任就在于嘗試讓其放慢速度,為社會適應和制度調整爭取寶貴的時間。


最后,北京大學法學院副教授戴昕從法律議題的連續性角度,呈現了AI治理中的重要考量。戴昕回憶道,30年前的《互聯網法》早已涉及隱私與公平問題,今天的AI法律挑戰不過是舊題新解。問題的關鍵在于,在新的技術條件下,我們對安全、公平、效率等價值的期望和容忍度發生了變化。


通過自動駕駛的安全標準、司法領域的智能應用以及算法中的偏見與歧視等案例,戴昕闡釋了法律如何在不確定性中尋求新的平衡。AI的普及正在賦能個體,使得許多曾是精英專屬的能力變得普惠化,這必然引發社會預期的變化,進而推動法律規范的重構,例如著作權、信譽機制以及個人助理帶來的法律挑戰。因此,理解技術對法律的影響,不僅要關注技術的進步,更要理解人類自身在技術發展中的需求變化與自我認知。


在隨后的跨界對談中,專家們就算法帶來的社會問題是技術本身造成還是社會原有問題在數字空間的投射展開討論,并探討了在算法治理中政府與平臺的角色分工與協同。如戴昕所言,新的技術常常是反思傳統法律問題的契機,面對算法帶來的不確定性,法律需要掌握微妙的“分寸感”,而非僵化的明確規則。


化解信息繭房焦慮,

首先要提升算法透明度


圖片

“算法煉金術:當代社會的隱形架構師”活動現場。


算法是否在制造“信息繭房”?平臺又如何應對網絡暴力與謠言?4月23日晚,在第二場主題為“算法煉金術:當代社會的隱形架構師”的活動上,中國人民大學新聞學院副教授董晨宇和抖音內容策略運營經理李曉涵圍繞這些話題,揭開算法在社會生活中的運作機制。


去年,網絡主播已經成為一個我國認可的新興職業分類。對于數量龐大的平臺創作者,他們是如何看待算法的呢?中國人民大學新聞學院副教授董晨宇結合自己團隊多年來對網紅的田野調查,給出了出乎意料的答案。根據對頭部和腰部網紅的訪談,董晨宇發現,平臺創作者關注的不是變幻莫測的算法規則,而是如何“伺候好觀眾老爺”,以及如何踩準社會情緒的節點。網紅口中的“流量”是一個具有本土色彩的概念,并非簡單等同于算法分配。實際上,流量的來源可以分解為基礎流(粉絲數)、算法流、事件流和購買流,在實際運作中,算法流的權重并非壓倒性的。相對于算法本身,我們更應關注的是算法的透明性,以及如何讓更多社會主體參與到算法的治理協商之中。


算法是否有可能帶來“信息繭房”問題?董晨宇從學術研究的角度指出,信息繭房的概念在學術界已存在爭議,實際上真正的“繭房”更多源于用戶自身的信息獲取習慣和對公共事務的低興趣度。最后,董晨宇總結道,“算法從來不是黑箱,算法是樂高積木”,讓公眾了解和認識算法的外部形態和搭建邏輯,可能是我們未來要努力的方向。


從行業實踐的維度,抖音內容策略運營經理李曉涵帶來了“平臺視角下的算法”的分享。李曉涵認為,算法的廣泛應用是信息爆炸時代的必然產物,推薦算法的核心在于提高信息分發效率和用戶體驗。平臺追求的是用戶的“長期價值”,而非短期的停留時長或點擊量,這決定了算法需要平衡精準推薦與內容多樣性之間的關系。


李曉涵坦承,算法也存在被濫用的風險,如“騙互動”和“炒作爭議話題”的行為,平臺需要通過內容治理算法設置護欄,識別和抑制不良流量。她以紅樓夢解讀長視頻的爆火為例,說明平臺正努力通過算法扶持優質的中長篇內容,并鼓勵用戶通過搜索、興趣設置和負反饋等方式,主動參與算法導航,實現社區共治。


圖片

抖音平臺的紅樓夢解讀長視頻。


算法是道法自然的產物

像數學般蘊含美感


圖片

“道法自然:人工智能背后的算法賦能”活動現場。


神經網絡如何模擬人腦學習?大模型用什么“語言”思考?4月25日晚,中國科學院計算機網絡信息中心的廖方宇首席科學家、香港科技大學(廣州)協理副校長熊輝、中國科學院計算所高級工程師尹芷儀等技術專家深入淺出地解析AI背后的算法原理。


“算法是道法自然的產物,像數學一樣蘊含美感”。香港科技大學(廣州)協理副校長熊輝以充滿哲思的方式開場,他通過“快慢學習”模型,解釋了對抗生成學習算法如何融合人類兩種學習方式的優點,實現人臉生成等實際應用。熊輝教授進一步將算法原理與《易經》的易理相比較,闡釋了監督式學習算法捕捉事物的“不易”、聚類算法實現信息的“簡易”,以及強化學習在“探索”(exploration)與“利用”(exploitation)之間取得平衡,應對世界的“變易”。他還以乾卦為例,將模型訓練與人生學習過程相類比,指出在欠擬合與過擬合之間尋求平衡的“中庸之道”同樣適用于算法。


AI與人類思維有何本質差異?中國科學院計算技術研究所高級工程師尹芷儀帶來了關于“人工智能與人類思維的異構共生”的分享。自1956年達特茅斯會議上的討論開始,人工智能的本質是通過數學建模與計算模擬,賦予機器感知、決策、執行等類人或超人的能力。在信息處理方式、模式識別和學習遷移上,人工智能與人類思維還是有顯著差異:目前的機器缺乏情感和意識,其決策完全由預設程序和訓練數據驅動,而人類擁有豐富的經驗和情感,能夠進行長期目標驅動的規劃。盡管如此,尹芷儀主張,人類依舊需要學習如何與機器協作、共進,因為在未來,人機共存是必然趨勢,并將實現認知、行為、社會結構層面的深度融合,即“人機物三元融合”。


與早期確定性的算法不同,人工智能算法通過學習人類知識和文化,開始體現出人文主義的色彩。中國科學院計算機網絡信息中心首席科學家廖方宇在活動中指出,開發者在算法中注入自身的理解、偏好和文化背景,這使得算法并非完全中立,可能對文化多樣性產生影響。人工智能算法的出現,標志著技術與人文主義的真正交匯,它以一種新的途徑認識物理世界,并可能產生新的知識。因此,在算法研發過程中,我們應注重語料的包容性和正向性,以引導算法向善發展。

在隨后的討論環節,專家們就推薦算法如何理解內容、算法的價值導向等問題展開了熱烈交流。熊輝認為,推薦算法的核心在于精準匹配,通過了解用戶和內容的需求,提高匹配效率。尹芷儀補充道,算法通過學習用戶行為和內容特征來理解和匹配,但完全精準理解內容代價巨大,更多是基于向量空間的計算。廖方宇強調,算法的價值導向與開發者的選擇有關,語料的正向性對算法的學習結果至關重要。


談及如何引導算法向善時,嘉賓們認為,除了立法監管和平臺治理,對AI從業者進行科技向善教育,從小培養孩子利用AI、與AI差異化共存及創新的能力,是應對未來挑戰的關鍵。熊輝特別指出,DeepSeek的開源模式降低了AI應用的門檻,為各國發展AI應用提供了巨大機遇,中國應抓住這一新質生產力發展的機會,推動AI賦能千行萬業。


算法“引擎”如何

驅動數字經濟發展?


圖片

“算法引擎:數字智能與經濟發展活動”活動現場。


算法如何影響市場機制和商業模式,從而與我們的日常生活發生關系?這些影響和變革對就業和財富發展會產生什么樣的影響?4月27日晚,在第四場“算法引擎:數字智能與經濟發展活動”上,中國社科院研究員李勇堅、中央財經大學教授歐陽日輝與抖音應用算法負責人冉蛟深入探討算法對經濟的深遠影響。


抖音應用算法負責人冉蛟從互聯網企業一線帶來了算法賦能商業創新的案例。從通過推薦技術徹底改變短視頻分發邏輯的抖音,到將推薦技術引入小說行業并重塑商業模式的番茄小說,再到基于內容推薦構建全新電商業態,冉蛟回顧了字節跳動在算法應用上的探索歷程。


冉蛟認為,算法的核心在于提高信息匹配效率,這不僅為用戶帶來了更個性化的體驗,更為海量內容的創作者提供了被發現的機會,打破了傳統中心化的分發模式。冉蛟以《我與地壇》《被討厭的勇氣》等書籍在抖音上的爆火為例,指出算法實現了個性化書單的推薦,為傳統出版行業提供了新的圖書宣發渠道。


中國社科院財經戰略研究院研究員李勇堅從宏觀經濟學視角深入分析了算法對經濟發展的雙重作用。在推動增量增長上,亞馬遜等平臺的案例和數據證明了算法在提高庫存周轉率、降低空駛率、縮短等待時間等方面具有的巨大價值。李勇堅特別指出,算法帶來的消費者福利和企業營銷成本下降并未完全體現在GDP中,算法對經濟發展的貢獻仍然被大多數人低估。


另外,李勇堅認為社會不應過度放大對算法替代就業的焦慮,因為技術進步往往伴隨就業結構的調整,雖然算法因為提高了效率而導致一部分人失業,但算法也給社會帶來了一系列的新工作,因此效率提高并不一定帶來就業的消失。有中等技能的人可以用新技術武裝自己,甚至可以承擔專家的任務。


中央財經大學中國互聯網經濟研究院教授歐陽日輝從經濟治理的視角對算法的健康發展提出了自己的見解。歐陽日輝比較了國內外算法治理實踐,指出歐盟采取“規則先行”策略,而美國更傾向于“分散和多元治理相結合”,中國則在發展與治理之間尋求動態平衡,并更多依靠部門規章進行管理。


歐陽日輝進一步指出,算法治理應采取技術與規則的“雙輪驅動”模式,協同推進技術創新和規則完善。此外,算法治理需要構建“共建、共治、共享”的新格局,政府、企業、行業協會和公眾都應積極參與同時杜絕“一刀切”的算法治理邏輯,倡導采取更加柔性的分級管理方式。


在互動討論環節,嘉賓們就信息繭房的成因與破解、優質內容的算法分發、算法定價與歧視以及算法對勞動者權益的影響等熱點問題進行了深入探討。在算法定價問題上,嘉賓們認為適度的價格不一致可能存在,但也存在一定商業合理性,這取決于平臺能否把握好尺度,并在治理中引入價值觀的考量。李勇堅則強調算法設計應融入人文關懷。我們仍然需要不斷思考的是:提升效率是否也會加大對勞動者的剝削?比如外賣小哥的過勞,零工經濟下的勞動保護和基本福利的缺失。“當算法本身具備判斷和決策能力的時候,我們需要教算法價值觀。這些問題需要嵌入到算法當中,這是未來一條特別重要的路。”


本文經主辦方授權整理發布。

整理撰文/李永博

校對/楊利