國戰會論壇

國戰會論壇/蔡鎤銘》全球為何害怕中國AI ? –媒體的偏見

中國人工智慧公司DeepSeek正式發布其多模態AI系統,路透社隨即以「生成式AI技術再突破」為題進行專題報導,引發1月27日以來美國股市大幅波動。

文/蔡鎤銘

中國人工智慧公司DeepSeek正式發布其多模態AI系統,路透社隨即以「生成式AI技術再突破」為題進行專題報導,引發1月27日以來美國股市大幅波動,同時引起全球科技界的廣泛討論。此事件再次凸顯科技傳播的核心矛盾:在即時化的全球資訊網路中,媒體既是技術知識的傳遞者,也是公眾認知的架構制定者。

本文透過近三年人工智慧領域的關鍵案例,結合OECD(經濟合作暨發展組織)2023年技術傳播研究報告,解析媒體如何通過三種核心機制(架構設定、風險放大、議題建構)影響公眾認知,並探討這種認知反饋如何重塑技術發展路徑。

媒體對科技產品的報導架構,往往在技術問世初期便形成「認知定錨效應」(Anchoring Effect)。以OpenAI的GPT系列發展歷程為例,2020年GPT-3發布時,《連線》雜誌統計顯示,超過80%英語媒體使用「革命性突破」作為標題關鍵詞,這種敘事直接影響公眾對AI技術的期待值。皮尤研究中心(Pew Research Center)2021年調查證實,62%美國民眾認為「AI將在十年內取代多數人類工作」,較2019年同類調查上升22個百分點。

在地緣政治方面,媒體敘事差異更加顯著。《自然》期刊2022年研究指出,西方媒體報導中國科技企業時,45%內容涉及「國家安全疑慮」,這個比例是報導美國同類企業的3.2倍。典型案例可見於自動駕駛領域:美國Waymo在加州進行道路測試時,媒體多聚焦「技術成熟度」;而百度Apollo在北京測試的同類技術,報導重點則轉向「數據跨境流動風險」。這種差異直接反映在市場估值上,麥肯錫2023年報告顯示,中美自動駕駛企業在技術指標相近的情況下,北美公司平均估值高出亞洲同業41%。

專業術語的傳播轉譯則是另一關鍵機制。麻省理工學院(MIT)2023年實驗發現,當媒體使用「神經網路」表述時,公眾理解準確率僅37%,改用「智慧學習系統」後提升至68%。這種語言策略的實際影響可見於歐盟《人工智慧法案》立法過程:2021年草案採用「高風險AI系統」分類時,引發業界強烈反彈;2023年12月通過的最終版本改採「應用場景分級管制」,使企業合規成本估算下降19億歐元。

公眾認知對技術發展的影響,首先體現在市場機制層面。根據PitchBook數據,2022年全球AI新創企業融資總額約為135億美元,較2021年歷史高點減少約18%,此變化與同期媒體集中報導AI倫理爭議存在時間相關性。典型案例是Meta於2021年11月宣布停用人臉辨識系統,該決策發生在《紐約時報》揭露技術存在種族識別偏差後的第五個月。中國市場同樣存在此類反饋,2023年8月《生成式人工智慧服務管理暫行辦法》實施後,多家券商報告指出,國內AI企業的市場推廣策略普遍增加「合規性聲明」比重。

此外,台灣行政院於2025年2月3日宣布,基於資安考量,全面禁止公務機關使用中國新創公司DeepSeek的人工智慧(AI)服務。行政院長卓榮泰在政務會議中指出,DeepSeek的AI系統可能涉及資料來源取得違反著作權法,並在語言模型訓練上存在思想審查與資料偏異問題。此外,該服務的運作機制可能導致使用者數據上傳至中國,增加資安風險,甚至違反個人資料保護法。這項決策與數位發展部的事前警示一致,顯示台灣對於中國科技產品的高度警戒,特別是在兩岸政治關係緊張的背景下,公眾認知已影響政策制定,進一步塑造AI技術的應用環境。

這類政策制定層面的民意壓力並非台灣獨有。在全球範圍內,南韓、法國、義大利和愛爾蘭等國家也正在審查DeepSeek對個人資料的處理方式,顯示對該AI服務的關注不僅限於台灣。美國參議院2023年《人工智慧安全框架法案》聽證會記錄顯示,58%質詢問題引用《華盛頓郵報》的深度調查報導。歐盟委員會數位政策專員維斯塔格(Margrethe Vestager)在2022年演講中坦言:「每篇關於AI倫理的頭條新聞,都在加速我們的立法進程。」這種壓力具象化為具體政策工具,例如中國大陸監管部門要求生成式AI訓練數據需通過「合規性來源認證」,該條款被普遍認為是回應媒體廣泛報導的數據濫用案例。

科技報導的專業門檻構成首要挑戰。路透研究院(Reuters Institute)2023年調查顯示,僅31%科技記者具備STEM(科學、技術、工程、數學)學科背景,這導致報導準確性存在結構性風險。典型案例是英國《金融時報》2022年誤報「量子計算實用化突破」,將理論上的量子優勢(quantum advantage)曲解為商業化進展,造成納斯達克量子概念股單日波動率達12%。為應對此問題,《科學》期刊自2023年起實施「技術報導雙盲審查」制度,要求重大科技新聞發布前需經兩名領域專家背書。

知情權邊界的界定同樣引發爭議。2023年6月,當DeepSeek研究人員在arXiv平台發布新型演算法時,部分媒體以「技術潛在風險未明」為由延遲報導,此舉引發學界對「資訊過濾權」的激烈辯論。加州大學柏克萊分校資訊學院院長法里德(Hany Farid)指出:「當技術影響具全球性時,傳統媒體倫理框架需要根本性重構。」類似矛盾在生物科技領域更為尖銳,2021年《麻省理工科技評論》披露CRISPR專利漏洞後,被批評「可能加劇生物安全風險」。

全球化傳播中的在地化障礙則是更深層挑戰。日本經濟新聞2023年研究顯示,東南亞受眾對「AI倫理」的認知53%源自影視作品情節,這種認知基礎導致政策討論失焦。新加坡資訊通信媒體發展局(IMDA)的應對策略具有參考價值:2022年推出「AI本土化詞典」,將技術術語轉譯為包含馬來語、泰米爾語等六種本地語言。南非案例更具啟發性,當地媒體將AI技術類比為「數位巫醫」,此敘事使農村地區技術接受度提升37%。

當DeepSeek工程師在2025年1月調試完成演算法時,他們編寫的不只是程式代碼,更是社會認知網路的交互節點。從GPT-4的倫理審查爭議到AlphaFold的科研範式突破,每個技術里程碑都伴隨著媒體敘事的重新校準。如今,台灣政府的政策決策顯示,AI技術不僅是市場競爭的產物,更是國家安全與社會信任體系的一部分。台灣、南韓、歐盟等地對DeepSeek的審查,反映出全球範圍內對於AI資安、數據合規與認知影響的持續關切。

在生成式AI加速進化的2025年,我們亟需建立新型傳播契約:媒體應扮演「技術轉譯者」角色,將專業知識轉化為公共討論的建設性素材;科技企業則需認知到,公眾疑慮並非發展阻礙,而是技術演進的校準參照系。同時,政府政策也應在資安風險與科技創新之間尋求平衡,避免因過度限制而抑制技術發展潛力。唯有在專業性與普及性間找到動態平衡,才能在全球化的技術浪潮中構建真正包容的創新生態。

(作者蔡鎤銘為淡江大學財務金融學系兼任教授,國戰會專稿,本文授權與洞傳媒國戰會論壇、中時新聞網言論頻道、中天新聞網同步刊登)

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *