Sheshin Notes

人類是否還有未來?——從被操控的注意力看AI時代的人類價值與危機

·#注意力經濟#監視資本主義#演算法操縱#數位素養#AI 倫理

引言:被演算法俘虜的注意力——我們還能自由思考嗎?

人工智慧(AI)的浪潮正以前所未有的速度席捲全球,它不僅僅是一項技術革新,更是一股深刻重塑人類生存狀態的力量,迫使我們不得不面對一個根本性的詰問:人類是否還有未來?此一問題並非杞人憂天,而是源於AI對人類社會結構、個體價值乃至心靈自由的潛在顛覆。

我們的注意力,這個通往意識、思考與決策的閘口,正日益成為演算法競逐的獵物。數位革命帶來了資訊的爆炸性增長,AI驅動的內容策展無孔不入,其結果是人類的注意力被極度碎片化 。更令人警惕的是,「注意力商品化」的趨勢,即說服人們花時間觀看某些事物本身就能創造利潤,無論這些事物是否具有真實價值,甚至可能帶來負面影響 。這不僅僅是分心那麼簡單,它關乎人類能動性與感知的根本性轉變。

一個更深層的現象是「注意力奴役的常態化」。持續不斷的資訊轟炸與演算法的精妙引導 ,不僅切割了我們的專注力,更在潛移默化中馴化個體,使其習慣於被動地接受注意力的指引,而非主動地掌控。當我們的目光習慣於被演算法牽引,當個人化的內容推送被視為理所當然的便利,我們可能在不知不覺中降低了對資訊操縱的警覺,重新校準了何謂「正常」的資訊消費模式。這種常態化使得被演算法引導成為一種自然狀態,而自主的深度專注反而成為一種費力的偏離。其廣泛的意涵是,個體掌控自身注意力資源的內在動機遭到侵蝕,整個社會因此更容易受到大規模操縱的影響。

第一章:注意力牢籠——AI如何編織控制之網

在AI日益普及的今天,人類的注意力正陷入一個精心編織的牢籠。這個牢籠並非由鋼筋水泥構成,而是由複雜的演算法、龐大的數據以及由此衍生的商業模式所構建。它以無形的方式影響著我們的所見、所思、所感,甚至塑造著我們的慾望。

1.1. 注意力經濟的崛起:人類目光的商品化

「注意力經濟」的崛起,標誌著人類的目光本身已成為一種稀缺且可被高度貨幣化的商品 。諾貝爾獎得主赫伯特·西蒙(Herbert A. Simon)的洞見——「資訊的富裕造成了注意力的貧乏」——在今天得到了淋漓盡致的體現 。AI驅動的平台,如TikTok、Instagram和YouTube,正是這場注意力爭奪戰的核心參與者。它們利用強化學習演算法,以最大化用戶的停留時間和互動為目標,有效地製造出微小的成癮行為 。這種設計的意圖性極強,其核心在於捕獲並鎖定用戶的注意力。

更進一步,「注意力商品化」形成了一套系統,其核心誘因是創造能夠吸引眼球的內容,而不論其內在價值,甚至可以是負面或誤導性的內容,只要能讓人們短暫駐足即可 。這種機制將人類的意識轉化為可供開採的資源,為大規模的操縱鋪平了道路。其影響深遠,不僅導致資訊品質的下降,更使得真正有價值的深度內容被淹沒在無盡的感官刺激之中。

1.2. 演算法的無形之手:過濾氣泡、同溫層與認知僵化

演算法作為注意力經濟的「無形之手」,透過推薦系統為每個人量身打造了個人化的資訊環境 。然而,這種個人化往往伴隨著「過濾氣泡」(filter bubbles)和「同溫層」(echo chambers)的形成。所謂「同溫層」,是指用戶主要接觸到強化其既有觀點的資訊,同時過濾掉相反意見的環境,這不僅加劇了社會的兩極分化,甚至成為極端思想的溫床,並助長虛假新聞的傳播 。

「過濾氣泡」則是由偏好設定演算法所導致的智識孤立狀態 。研究指出,這種孤立並非單純由演算法造成,而是源於用戶既有信念、認知特徵與平台介面之間的複雜互動,最終可能導致「認知僵化」——即個體固守自身信念,拒絕或貶低與之相悖的證據 。這揭示了AI利用了人類心理上的脆弱性。這些機制共同限制了人們接觸多元觀點的機會,阻礙了批判性思維的發展,並因強化既有偏見而使個體更容易受到操縱。

1.3. 「為你推薦」的代價:非意願選擇與自主性的侵蝕

在諸如TikTok等平台上,「為你推薦」的內容流持續不斷地推送,最大限度地減少了用戶的主動選擇。媒體推薦演算法(MRAs)在此扮演了核心角色,它們強調的是一種「非意願選擇」(non-deliberate choice),從而削弱了用戶進行自主決策的動機 。演算法根據用戶過往的互動數據(如觀看時長、點讚、分享)進行自我調整,以期最大限度地延長用戶的停留時間,這種機制威脅著個體的「程序獨立性」(procedural independence)——即在不受不當影響的情況下進行批判性反思的能力。

更值得注意的是,這些平台上的社交環境本身也可能阻礙用戶脫離。對許多人而言,活躍於社交平台是維持社交連結、避免錯過潮流的必要手段,這種無形的社會壓力進一步強化了演算法的控制力,形成了一個難以掙脫的強制循環 。其結果是,用戶逐漸從資訊的主動篩選者淪為被動的接收者,個人能動性與批判反思能力在潛移默化中遭到侵蝕。

警示:我們必須認識到,演算法系統不僅僅是展示符合用戶既有偏好的內容,更在持續地塑造這些偏好。正如一些分析所指出的,AI實際上在「塑造其聲稱僅僅在分析的偏好本身」。所謂的「非意願選擇」循環,並非簡單滿足已有的慾望,而是在將慾望引導至演算法認為有利可圖的方向。持續被動地接觸特定類型的內容,即便最初並非刻意選擇,也可能透過重複暴露效應和習慣養成,逐漸培養甚至強化對該類內容的喜好。倘若演算法為了提升參與度而持續推送例如更具情緒煽動性或更簡化的內容,用戶可能會在不知不覺中「習慣」這類資訊食糧,即便這並非其最初的傾向。這意味著「過濾氣泡」不僅僅是使用者的鏡像反映,更是一個由演算法作為主導夥伴共同建構的產物,它定義了使用者的資訊乃至情感景觀。這種操縱的層次更為隱蔽和深刻,我們的慾望本身就可能在不知不覺中被巧妙地設計,使得真正的自主性變得更加遙不可及。更令人憂慮的是,這種對注意力控制機制的廣泛且長期的暴露 ,可能導致整個社會在持續、深度專注能力上的普遍衰退。認知能力如同肌肉,用進廢退。如果主流的資訊消費模式變為快速、碎片化且受外部引導,那麼用於深度、自主思考的認知「肌肉」便可能萎縮。一個注意力控制能力減弱的群體,將更難以批判性地分析複雜議題,辨別細緻的論證,或抵制充滿情緒但過於簡單化的敘事。這為那些企圖大規模操縱公眾輿論的勢力創造了沃土,例如在選舉干預中所見到的情況 。其更廣泛的意涵是,民主社會的韌性可能因此削弱,資訊戰的風險加劇,而其主要武器正是對集體注意力的精密操縱。這不僅是個體的困境,更是系統性的社會脆弱性,足以引發深切的恐懼。

第二章:權力與資本的盛宴——誰在AI時代的陰影下獲利?

AI時代的降臨,不僅帶來了技術的飛躍,更催生了新型態的權力結構與資本積累模式。在這場變革的盛宴中,少數巨頭憑藉對數據和演算法的掌控,正在悄然攫取巨大的利益,而個體的經驗與自主性則可能淪為其盤中餐。

2.1. 監視資本主義的降臨:人類經驗淪為免費的生產原料

哈佛大學教授肖莎娜·祖博夫(Shoshana Zuboff)提出的「監視資本主義」(surveillance capitalism)概念,深刻揭示了這一新興經濟邏輯 。其核心在於,人類的日常經驗被單方面地宣稱為「免費的生產原料」,轉化為「行為數據」。這些數據隨後被宣告為專有的「行為剩餘」(behavioural surplus),投入被稱為「機器智能」的先進製造流程,最終被製造成「預測產品」(prediction products),用於預測我們現在、即將以及未來會做什麼 。Google等科技巨頭被視為這一模式的先驅,它們利用這種模式以前所未有的方式剝削人類本性 。

在此模式下,使用者在網路上的每一次點擊、每一次搜尋、每一次互動,都成為被收集的數據點。使用者在不知不覺中扮演了「數據勞工」(data laborer)的角色 ,無償地貢獻著建構監視資本主義大廈的磚瓦。正如一些研究指出的,私人實體「系統性地剝奪我們的個人數據並宣稱對其擁有所有權」。這不僅僅是關於技術的進步,更是一種全新的、具有高度榨取性的資本積累邏輯 。

2.2. 數據販賣與數據殖民:無形的新型態剝削

與監視資本主義相伴而生的是「數據販賣」(data mongering)的盛行。這指的是個人資訊被廣泛地、且往往在缺乏有效監管的情況下被收集、分析和出售 。數據販賣被視為「對隱私和個人自主權的無聲AI威脅」,個人數據在此過程中徹底淪為商品 。令人擔憂的是,全球僅有約10%的數位數據受到全面數據保護法的規範,這使得大規模的數據濫用成為可能 。

學者尼克·庫爾德利(Nick Couldry)和烏利塞斯·梅希亞斯(Ulises Mejias)進一步提出了「數據殖民」(data colonialism)的概念,將當代數據榨取行為與歷史上的殖民主義相提並論 。他們認為,數據殖民主義是透過量化手段佔有和挪用人類生活,以便從中持續榨取利潤,這與歷史殖民主義佔有土地、身體和資源以榨取價值的方式如出一轍。這種觀點強調,數據殖民並非隱喻,而是榨取方法論的直接延續,它加劇了既有的不平等,使得利益不成比例地流向已然強大的群體 。

2.3. 科技寡頭的崛起與演算法黑箱:權力集中與透明度的喪失

數據的集中以及AI演算法的複雜性,共同催生了「科技寡頭」(tech oligarchies)的崛起 。少數大型科技公司,如亞馬遜、蘋果、Google、Meta和微軟,掌控了全球大部分的數位基礎設施、海量的用戶數據以及塑造我們數位體驗的關鍵演算法 。這種高度集中的市場力量,賦予了它們對線上存取和資訊流的巨大控制權 ,甚至可能被用於推進特定的政治和社會目標。

與此同時,「演算法黑箱」(algorithmic black box)問題日益凸顯 。許多AI系統,特別是基於深度學習的模型,其決策過程極其複雜且不透明,即使是開發者也難以完全理解其內部運作邏輯 。正如法蘭克·帕斯誇萊(Frank Pasquale)在其著作《黑箱社會》中所指出的,這種不透明性損害了個人自由和市場公平 。當AI被用於金融、醫療、執法等高風險決策領域時,缺乏透明度和問責機制將嚴重侵蝕公眾信任 。儘管目前已有如LIME和SHAP等可解釋性工具,但它們在揭示複雜模型內部機制方面仍存在局限性 。這種權力的高度集中與決策過程的隱秘性,對民主程序和個體自主構成了根本性的威脅。

警示:監視資本主義的核心不僅在於銷售廣告,更在於創造和交易關於人類行為的預測 。這些「預測產品」在所謂的「行為期貨市場」中流通,其價值取決於預測的準確性 。為了提高預測的確定性,平台運營商有強烈的經濟動機去微妙地引導或塑造用戶行為,使其朝向預測的結果發展。這意味著從被動觀察轉向了主動干預。透過個人化內容、選擇架構設計以及第一章所討論的其他演算法操縱手段,用戶行為被「微調」。其結果是一個系統,在其中,人類不僅是數據的來源,更日益成為被管理和「引導」的對象,以滿足經濟上的需求,整個社會彷彿變成了一個巨大的斯金納箱,這是一個自由意志受到嚴重削弱的令人不寒而慄的前景。此外,數據殖民 正在全球範圍內複製並深化歷史性的不公正。它從全球個體的「數據化」生活中榨取價值,並將這些價值集中到少數強大的實體(通常位於全球北方)手中,從而可能創造出新的依附形式和剝削關係,這些關係反映並加劇了歷史上的殖民權力動態。正如分析所指出的,數據殖民「與歷史殖民主義遺留的嚴重不平等相互作用,使得利益流向已然強大的群體,而傷害則降臨到本已無權無勢的人們身上」。全球範圍內提取的原始數據(data),其處理和價值生成所需的「機器智能」 和基礎設施 卻高度集中在少數技術主導的國家和企業。這造成了一種全球性的失衡,發展中國家可能淪為原始數據的提供者,對數據的使用幾乎沒有控制權,也無法分享利潤,這與歷史上的資源開採如出一轍。更有甚者,主要基於主流文化數據訓練的AI系統,可能會將偏見固化並強加不適宜的模型於其他地區 ,進一步加劇全球不平等和數位屈從的風險,使廣大人口被進一步邊緣化。這凸顯了系統性的、全球規模的不公正,足以引發深層的恐懼。

表:AI驅動權力集中的支柱

概念核心機制主要行動者/理論家主要社會風險
監視資本主義榨取行為剩餘,創造預測產品Google/Facebook/祖博夫侵蝕自主性/隱私,行為被預測與引導
數據販賣不受管制的個人數據交易數據經紀商喪失對個人數據的控制,隱私洩露
數據殖民透過量化手段佔有並榨取人類生活價值庫爾德利與梅希亞斯/大型科技公司強化既有不平等,形成新的全球剝削關係
演算法黑箱不透明、難以解釋的AI決策過程AI開發者/帕斯誇萊缺乏問責性與信任,決策不公,難以糾錯
科技寡頭壟斷控制數位基礎設施、數據與關鍵演算法大型科技公司(如GAFAM)不民主的權力集中,資訊流被操縱,創新受阻

第三章:人類的黃昏?——被邊緣化的危機與存在的焦慮

AI的迅速崛起不僅改變了我們的生活方式,更對人類在社會結構中的角色以及個體存在的意義提出了嚴峻的挑戰。從工作機會的流失,到人類技能的潛在退化,再到瀰漫性的AI焦慮,一幅人類可能被邊緣化的圖景正徐徐展開,引發了深刻的存在性不安。

3.1. 工作場域的變革:我們是否註定被淘汰?

AI驅動的自動化對勞動力市場的衝擊已是不爭的事實。根據牛津大學的一項研究,美國高達47%的工作崗位面臨被自動化取代的風險,而麥肯錫等機構的報告也預測,到2030年,美國可能有高達30%的工作在某種程度上受到AI的影響 。首當其衝的是那些涉及重複性、規則性任務的崗位,例如數據輸入員、電話行銷員、客服代表等 。

然而,更全面的分析指出,AI的影響更多地體現為工作性質的轉變,而非單純的崗位消滅。麥肯錫的研究表明,雖然約有一半的現有工作活動可能被自動化,但完全可以被自動化的職業比例低於5%。這意味著大多數職業將會發生深刻的變革,而非徹底消失 。這些變革預計在未來數十年內逐步顯現,可能在2055年左右達到一個高峰,但也可能因各種因素提前或推遲20年 。儘管如此,這種轉變對個體而言仍然是巨大的挑戰,許多人可能難以適應新的技能需求,從而面臨被邊緣化的風險。

3.2. 人類技能的退化:去技術化、批判性思維的削弱與對AI的過度依賴

對AI的過度依賴,潛藏著人類核心技能退化的隱憂。伊隆大學數位未來中心(Elon University's Imagining the Digital Future Center)的報告指出,多數科技專家預測,到2035年,AI的普及將對人類「深入思考複雜概念的能力和意願」、「社交與情感智能」、「後設認知能力」以及「能動性感知」等多個方面產生負面影響 。專家們甚至擔憂可能出現因過度依賴AI導致認知能力萎縮而引發的「自我造成的AI失智症」。

生成式AI的便捷性,也可能導致學生繞過傳統的研究和批判性思考過程,直接將AI生成的內容作為捷徑,從而阻礙了這些關鍵能力的培養 。更糟的是,AI的輸出內容可能存在謬誤、偏見甚至「幻覺」(hallucinations),缺乏批判性思維的使用者很可能不加辨別地全盤接受 。這種「去技術化」的趨勢,指向一個人類能力可能日益萎縮、依賴性日益增強的未來,這是人類被邊緣化的重要面向。

3.3. AI焦慮症候群:預期性焦慮與存在性毀滅感

AI的崛起在心理層面也引發了廣泛的焦慮。一項研究明確指出了兩種主要的AI焦慮類型:「預期性焦慮」(anticipatory anxiety),源於對未來潛在顛覆(如失業、倫理困境)的恐懼;以及「毀滅性焦慮」(annihilation anxiety),反映了在AI面前人類身份和自主性受到侵蝕的深層存在性恐懼 。該研究還發現,AI使用與AI焦慮之間存在U型關係:適度使用有助於減輕焦慮,而過少或過度使用則會加劇焦慮 。

另一項研究則將社交焦慮與行為問題聯繫起來,並指出AI的使用,尤其是在高頻率使用的情況下,可能會調節甚至強化這種關聯 。這些研究表明,AI焦慮並非空穴來風,而是一種可測量的、具有真實後果的心理現象,它反映了人類在面對一個不確定的、可能由非人智能主導的未來時的集體不安。

3.4. 界線的模糊:AI伴侶、深度偽造與真實及身份的危機

AI技術的發展正以前所未有的方式模糊著現實與虛構、人類與機器、真實與偽造之間的界線,對我們的身份認同和現實感知構成了嚴峻挑戰。專家們擔憂,隨著AI日益融入日常生活,我們可能難以分辨真實的人類與高度擬人化的AI,甚至可能需要「人類證明」來區分彼此 。AI伴侶的出現,雖然可能滿足部分情感需求,但也可能削弱甚至取代需要付出努力和妥協的真實人際連結 。

深度偽造(Deepfakes)技術的濫用,則直接衝擊著我們對資訊真實性的信任。無論是偽造烏克蘭總統澤倫斯基的投降影片,還是在英國脫歐公投、2016年美國總統大選等事件中被用於散播虛假資訊和操縱輿論,都顯示了AI在製造和傳播謊言方面的巨大潛力 。此外,在藝術創作等領域,AI也對原創性和作者身份等傳統觀念提出了挑戰,使創作者陷入「創作雙重困境」——既渴望擁抱AI的潛力,又擔心被其取代,從而影響其身份認同和使命感 。當我們賴以生存的關係、對真相的判斷以及自我認知都開始動搖,人類經驗的根基便受到了前所未有的侵蝕。

警示:一個令人憂慮的循環可能正在形成:隨著人類因過度依賴AI處理認知任務而導致自身技能萎縮 ,個體可能會對自身能力愈發缺乏信心,從而更加信任和依賴AI。這種「AI引致的失能」進而強化了對AI的依賴,形成了一個技能不斷退化、依賴性不斷加深的惡性循環。如果個人持續將認知努力外包給AI,其相關的內在技能自然會減弱。面對這種能力的下降,看似理性的反應便是更嚴重地依賴那個能高效完成任務的AI工具,從而進一步加深依賴。其潛在的後果是,AI從最初的輔助工具演變為必需的拐杖,最終成為不可或缺的存在,整個社會可能陷入一種「習得性無助」的狀態,個體的能動性和能力在不知不覺中被蠶食。更深層次來看,前述的「毀滅性焦慮」,即對人類身份認同被侵蝕的恐懼,其根源不僅僅在於AI在某些任務上變得比人類「更聰明」。它更與整個經濟體系對真實人類經驗、情感和連結的系統性貶低緊密相關。這些經濟模式優先考慮參與度指標、數據提取和模擬互動(例如AI伴侶 ),而非真正的人類深度。如果人類的互動、創造力乃至情感,越來越多地被媒介化、被量化,並根據其數據生成潛力或參與度指標來衡量價值 ,那麼那些難以量化的、內在的人類價值感就可能被貶低。AI伴侶「完美校準以滿足個體心理需求」的出現 ,雖然可能提供膚淺的滿足感,卻可能進一步貶低真實人際關係中所固有的努力和妥協。當社會經濟體系含蓄或明確地暗示,可量化的、AI媒介的或AI生成的經驗比混亂、複雜、真實的人類經驗更有效率或更值得追求時,這就在助長一種核心的「人性」正在變得過時或不那麼重要的感覺。這是一種根深蒂固的恐懼——我們內在的本質正被我們親手創造的系統所系統性地瓦解。

表:專家預測2035年AI對人類特質的影響

人類特質/能力2035年預期變化主要專家擔憂/期望與邊緣化/焦慮的關聯
社交與情感智能主要為負面人際理解與互動能力下降削弱人際連結能力,增加孤立感
深入/複雜概念思考能力主要為負面「自我造成的AI失智症」,思考淺薄化降低解決複雜問題能力,對未來感到無力
對普世規範與價值的信任主要為負面社會凝聚力基礎受侵蝕價值觀混亂,對社會秩序感到不安
對自身原生能力的信心主要為負面AI超越人類能力導致自信下降自我效能感降低,更容易接受被動角色
同理心與道德判斷應用主要為負面道德感與共情能力可能退化人際關係冷漠化,對社會不公的敏感度下降
心理健康福祉主要為負面AI帶來的壓力與不確定性影響心理健康普遍焦慮感上升,幸福感下降
能動性感知主要為負面個體控制感與獨立性降低感覺被AI主導,失去對生活的掌控
身份認同與目標感主要為負面對「我是誰」、「人生意義何在」的理解可能負面改變存在意義危機,對自身價值感到迷茫
後設認知(對自身思維的認知)主要為負面自我反思與思維監控能力減弱難以察覺認知偏誤,更容易被操縱
好奇心與學習能力主要為正面AI可能激發探索與知識獲取慾望(正面影響)
決策與問題解決能力主要為正面AI工具可能提升決策效率與解決複雜問題的能力(正面影響,但需警惕過度依賴導致的自主決策能力下降)
創新思維與創造力主要為正面AI可能刺激新想法,提升創意產出(正面影響,但需區分AI輔助的創造與真正源於人類情感體驗的原創性,後者可能受威脅 )
現實與虛構的界線模糊影響深遠需要「人類證明」,AI伴侶可能取代真實連結,深度偽造氾濫對現實的信任瓦解,人際關係虛擬化,身份認同混淆

第四章:重燃人性火花——在AI無法企及的價值

面對AI浪潮帶來的種種憂思與潛在危機,我們更需要回歸人類自身,重新審視並肯定那些AI難以複製、甚至無法企及的獨特價值。正是這些價值,構成了我們作為「人」的基石,也可能是在未來世界中重燃希望、指引方向的火花。

4.1. 意識的奧秘:人類獨特的主觀經驗與內在世界

人類意識的奧秘,至今仍是科學與哲學探索的終極疆域之一。儘管AI在模擬人類認知功能方面取得了長足進展,但它是否能擁有與人類相同的主觀經驗,則是一個巨大的問號。認知科學的觀點指出,即使AI未來可能發展出某種「機器意識」,那也將是其「自身的意識類型」,而非人類所體驗到的、充滿豐富內涵的現象意識和主觀覺知 。我們內心的聲音、複雜的情感光譜、對「存在」本身的感知,這些構成了人類獨特的內在世界,是目前任何演算法都難以企及的。有論者更直言,當前的AI研究試圖創造心智,卻「忽視了是什麼讓心智變得有趣」,我們距離真正理解意識以至於能人工複製它,還非常遙遠 。

4.2. 創造力、情感深度與文化感知力:人性的溫度

AI在內容生成方面的能力令人驚嘆,但真正的創造力遠不止於模式識別和數據重組。人類的創造力往往源於深邃的情感體驗、豐富的文化積澱以及對生命奧秘的獨特感悟。有觀點認為,「雖然AI可以生成內容,但它無法複製那種將創作轉化為真正能夠溝通的藝術所必需的內在人類觸感……人類賦予藝術的情感深度、文化意識和批判性思維,使其能夠引發思考、喚起情感並激發行動」。真正的創造力需要「人類的覺知、情感以及那神秘的靈感火花」,這些是機器僅憑數據處理難以偽造的 。人類設計師憑藉個人經驗、文化洞察和情感智能進行創作,其作品往往帶有與觀眾在情感和文化層面產生共鳴的個人印記,這是AI目前難以企及的「人性溫度」。儘管部分專家預期AI能提升創新思維 ,但與生活經驗緊密相連的深層次、本質性的人類創造力依然獨一無二。

4.3. 同理心與道德羅盤:超越演算法的倫理判斷

同理心,即理解並分享他人感受的能力,以及基於此進行複雜道德推理的能力,是人類社會得以維繫的重要基石。研究顯示,在道德困境中,人們對AI和人類行動者的道德判斷標準存在差異,這暗示著AI尚未被視為一個完整的道德主體 。例如,在某些情況下,人們可能對AI的道德決策(尤其涉及人類生命時)持更嚴苛的態度,這或許源於對AI缺乏類人道德理解的擔憂。

更有趣的是,即使AI能夠生成看似充滿同理心的回應,但一旦標註其「AI身份」,這種同理心的感知效果便會大打折扣,人們仍然感覺從人類那裡更能獲得真正的傾聽與理解 。這突顯了在同理心的傳遞中,感知到的真實性至關重要。儘管專家預測AI的普及可能對人類的「同理心與道德判斷應用」產生負面影響 ,這反而從反面印證了這些特質是需要積極培養的人類固有能力,也是AI難以真正複製的。植根於共享的人類經驗和價值觀之上的真誠同理心與細膩的道德決策,是演算法難以企及的高度。

4.4. 批判性思維與哲學探問的永恆價值

在AI生成內容日益氾濫、真假資訊混雜的時代,人類的批判性思維和哲學探問能力顯得尤為珍貴。過度依賴AI作為獲取知識和解決問題的捷徑,可能削弱我們獨立思考和深度研究的能力 。人類必須具備評估AI(時常存在缺陷的)輸出的能力。人文學科強調的「細緻的、多層次的闡釋——這是AI難以複製的」,以及培養質疑和將資訊置於特定脈絡中理解的分析技能,在此刻變得至關重要 。質疑的能力、探求深層意義的慾望以及批判性地評估資訊的習慣,是人類應對複雜世界的基本素養,在AI時代更是不可或缺。

啟示:當我們努力界定AI無法做到的事情時 ,我們實際上也在無意中被迫更清晰地認識和欣賞那些使我們之所以為人的獨特之處。AI在模仿人類特質方面的嘗試,反而突顯了這些特質的深邃複雜性。例如,當AI生成「藝術」,它促使我們反思藝術的真正本質以及人類經驗在其中的核心作用。當AI提供「同理心」,其人工斧鑿的痕跡反而可能使我們更加珍視真誠的人際連結。AI決策過程的「黑箱」特性,與人類(理想中)所具備的理性解釋和內省能力形成了鮮明對比。這個比較過程如同鏡子一般,映照出那些至少在目前仍為人類所獨有的品質。這可以引導我們重新聚焦於培養這些品質,將AI的崛起不僅視為威脅,更視為一次人類自我重新定義和價值重估的契機。進一步而言,認識到這些獨特的人類價值,不應僅僅停留在被動的觀察,而應轉化為一種積極的策略:有意識地優先發展、教育普及並建立能夠獎勵這些「AI難以取代」的人類品質(如同理心、批判性思維、創造力、倫理推理)的社會結構。這可以成為確保人類在AI主導的未來中保持其能動性和福祉的有力途徑。如果AI擅長計算任務和模式識別,那麼人類的比較優勢就在於AI難以勝任的領域。因此,教育體系、文化機構乃至經濟激勵機制,都可以進行重新設計,以明確地培育這些人類特有的技能和價值觀。這不僅僅是「保存」人類價值,更是將其作為人類在AI負責許多工具性任務的世界中,貢獻和尋找意義的核心,進行策略性的培養。這種積極主動的姿態,將人類從不可避免被邊緣化的敘事中解放出來,轉向有意識的適應和人類目標的重新定義,這本身就是一種鼓舞人心的行動呼籲。

表:重申人類價值:AI與人類能力的詳細比較

核心人類屬性人類體現當前AI能力/局限
主觀意識/現象意識自我覺知,豐富的內在生命體驗,質性感受(qualia)模擬反應,缺乏真實的質性感受和第一人稱主觀性
深刻的情感體驗與生活經驗緊密相連的愛、悲傷、喜悅等複雜情感處理情感數據,識別情感標籤,但自身不「感受」情感
細緻的道德推理在複雜情境下權衡衝突的倫理原則,運用同情心和直覺進行判斷基於規則的決策,難以處理新穎的、情境高度依賴的倫理困境,缺乏真正的道德理解
真誠的同理心理解他人未言明的需求和感受,建立基於信任和理解的真實連結模仿同理心語言,但「AI標籤」會削弱其感知效果,缺乏情感共鳴的真實基礎
源於內在的抽象創造力從獨特的生活洞察、情感衝動和文化感悟中產生原創藝術、思想和解決方案從大量數據中生成新穎模式和組合,但缺乏內在動機、主觀意圖和深層文化理解,其「創造」更多是模仿與重組
批判性哲學探問質疑既有假設,探求存在的意義和價值,進行超越經驗層面的抽象思考處理和分析資訊,但本身不具備自發的、對目標或存在的根本性質疑和好奇心

第五章:尋找出路——在AI時代重塑人類的未來

面對AI時代的嚴峻挑戰與潛在危機,人類並非只能束手無策。透過倫理的自覺、治理的智慧、個體的賦能以及人文精神的重振,我們完全有可能尋找到一條與AI共存共榮,並最終重塑人類價值與未來的道路。這需要全球性的努力和深刻的社會變革。

5.1. 設計倫理AI:透明、公平與問責的基石

AI的發展必須植根於堅實的倫理基礎。這意味著在AI系統的設計之初,就應將倫理考量置於核心地位,而非事後補救。「倫理AI設計」(Ethical AI by Design)的核心原則包括:透明度與可解釋性,致力於從「黑箱」AI走向「白箱」AI,使其決策過程可被理解和追溯;公平性與偏見緩解,透過使用多樣化和具代表性的數據集、持續監測等手段,解決AI因訓練數據偏見而導致的歧視問題;問責制與責任劃分,明確AI行為的責任歸屬,確保開發者、組織和監管機構各負其責;隱私與數據保護,嚴格遵守如歐盟《通用數據保護條例》(GDPR)等法規,保障個人數據權益;以及必要的人類監督與自主權維護 。例如,在醫療等高風險領域,確保AI決策的公正性、透明度、患者知情同意以及問責機制至關重要 。許多AI系統因其「黑箱」特性而引發焦慮,因此建立信任的關鍵在於提升其透明度、控制性、準確性和問責性 。

5.2. 治理的迫切性:全球視野下的監管、政策與合作

鑑於AI技術的快速發展和全球影響,建立健全的AI治理框架已刻不容緩。這需要各國政府、國際組織以及多方利益相關者的共同努力。目前,全球範圍內已出現多種AI治理嘗試:歐盟的《AI法案》(EU AI Act)採用了基於風險的分類管理方法,對不可接受風險的AI應用予以禁止,對高風險AI則施加嚴格的監管要求,並對生成式AI(如ChatGPT)提出了透明度要求,例如披露內容由AI生成、公佈用於訓練的受版權保護數據摘要等 。美國則在聯邦層面推動多項AI法案,同時部分州(如科羅拉多州)已率先頒布全面性的AI法規,關注安全、歧視、隱私等議題 。其他國家和地區如英國、中國、加拿大、澳大利亞等,以及諸如歐洲委員會、G7、非洲聯盟等國際組織,也都在積極探索符合自身情況的AI治理路徑 。

世界銀行的報告指出,AI治理可採取產業自律、軟法、監管沙盒和硬法等多種途徑,並強調應採取多方利益相關者參與的方式,以及加強國際合作 。公民社會組織也呼籲建立具有法律約束力的「紅線」,對高風險或不可控的AI系統進行限制,並強制要求進行獨立的第三方審計,以及保障公民社會在治理中的實質性參與 。此外,針對「數據販賣」等問題,加強數據改革和監管監督也迫在眉睫 。一個強健、具適應性且全球協調的治理體系,是減輕AI風險、確保其向善發展的關鍵。

5.3. 賦能個體:教育、媒體素養與數位批判力的培養

面對AI可能帶來的操縱與誤導,提升個體的數位素養和批判性思維能力至關重要。教育體系應積極應對,教導學生倫理地使用AI,理解深度偽造、AI幻覺、演算法偏見等概念,並培養其辨別資訊真偽的能力 。研究表明,透過提供反饋和教育,可以顯著提高人們識別圖像操縱的能力 。學校可以成立由學生主導的AI倫理委員會,共同探討AI專案和應用的倫理問題,促進持續的對話和學習 。教育者應強調原創性思考和批判性探究的價值,避免學生過度依賴AI而忽略自身能力的培養 。一個資訊靈通、具備批判能力的公民群體,是抵禦AI操縱和濫用的第一道防線。

5.4. 人文與藝術的復興:在AI時代捍衛人類價值

在一個日益由數據和演算法驅動的時代,人文學科與藝術的價值不僅沒有削弱,反而愈發凸顯。人文學科強調細緻入微的闡釋、對文本的深度理解、對倫理困境的思辨以及對人類經驗的共情,這些都是AI目前難以企及的 。透過學習人文學科,人們可以培養批判性思維,質疑和情境化AI生成的資訊,而非被動接受。人文學科還能幫助我們理解並應對AI帶來的道德挑戰,促進同理心,並為解決超越純科學方法的生存性問題提供框架 。在AI時代,人文與藝術的復興,有助於我們捍衛以人為本的價值觀,確保AI成為人類智慧的補充,而非替代。

5.5. AI的民主化:公眾參與和以人為本的發展路徑

AI的發展方向和倫理邊界,不應僅僅由技術專家和大型科技公司決定,而應廣泛吸納公眾的意見和參與。實現「AI的民主化」,確保其發展路徑以人為本,需要建立有效的公眾參與機制。這可能包括透過公民集會(如抽籤選拔代表)等方式,確保治理過程的包容性和代表性,並建立結構化的審議平台,讓公民與AI專家能夠就偏見、透明度、問責制等議題進行協作 。IBM等機構也強調,AI治理需要廣泛利益相關者(包括開發者、使用者、政策制定者、倫理學家等)的參與,以確保AI與社會價值觀保持一致,例如設立AI倫理委員會等 。公民社會組織,特別是來自全球南方的聲音,應在AI治理的議程設定、專家小組和監督過程中發揮強有力的作用 。唯有如此,AI的發展才能真正回應社會的整體需求,獲得民主的合法性。

結論:擁抱挑戰,定義未來——人類的選擇

人工智慧的雙刃劍特性已昭然若揭:它既潛藏著操控注意力、集中權力、邊緣化個體的巨大風險,也蘊含著提升效率、解決難題、拓展人類能力的無限潛能。此刻,人類正站在一個關鍵的十字路口,我們當下所做的每一個選擇,都將深刻地塑造未來的樣貌 。