客觀日本

G科學學術會議建言:「先進技術與數據安全」「永續發展的移民」「氣候變化對策與健康韌性」

2025年06月09日 政策

由日本學術會議等G7各國科學院組成的G科學學術會議5月13日發表了一份面向G7峰會的科學政策建言:應創建類似CERN(歐洲核子研究組織)AI版的機構,以保障全球研究者可廣泛公平地獲取計算資源、構建數據集,同時支持世界各國研究者間的多向學習。本次會議由加拿大皇家學會科學院擔任主席,會議主要討論了三個主題:「先進技術與數據安全」「永續發展的移民」「氣候變化對策與健康韌性」。

title

在「先進技術與數據安全」的議題中討論了「AI領域的CERN(CERN for AI)創設」。

建言首先指出,為保護在新技術催生的各種機會和影響中受到不利影響的人群,並確保伴隨這些技術而來的經濟和政治權力不會進一步集中並加劇現有的不平等現象,治理與監管不可或缺。

建言指出了其中的難點。例如,在防止意料之外的數據洩漏與確保數據的質量方面,歐盟的《人工智慧法》等法案雖推薦通過數據假名化防止意外泄漏,但隱私專家指出:「這種方法往往不夠,需要採用差分隱私等更有力的措施。」此外,用於進行有效推斷的學習數據,其人口學分佈需與目標總體一致,但目前尚未找到在不侵犯數據機密性的前提下實現這一點的方法。

政策制定者要消除這些差距,需要通過與專家和公眾的雙向溝通,將法律制度轉化為技術要求。例如,為避免不平等現象進一步加劇,調查對象的抽樣需切實反映語言、年齡、種族、性別等人口屬性,數據需得到安全管理,為開發便於從業者遵守的法規、監管機構妥善執法的技術,研究者需明確優先探索的方向。

此外,建言還指出了AI應用導致的歧視問題、特定漏洞引發的挑戰,以及監管機構需要自行培養專業素養及能力,需要明確監管機構的職責等事項。在此基礎上,建言提出,儘管認識到先進技術可能引發國家安全方面的擔憂,但考慮全球人類與環境利益才是學術機構和政府的責任,為實現和平與全球安全的合作不可或缺,提議創建「AI領域的CERN」。此舉旨在確保全球研究者可以廣泛公平地獲取計算資源、構建數據集,同時支持「全球北方」和「全球南方」研究者間的多向學習。

由於培養具備資質的監管執行專家存在難度,政策制定者應鼓勵通過開源模型推進工作。作為手段,建議以開源社區能夠維護軟體及其完整性的專項資金和資源分配的形式提供支持。然而,有關允許或限制以強大的AI系統為開源的決定應在民主監督下做出,適用於商用系統的安全規制也必須同樣適用於開源系統。

由於生成式AI模型可以創造高質量的媒體,因此也被用於欺詐和欺騙。此類模型可能將錯誤資訊大量注入網際網路,而錯誤資訊又可能被AI模型反複利用,導致模型劣化並催生更多的錯誤資訊。水印(電子水印)雖是一種解決方案,但機制脆弱。政策制定者應鼓勵開發各種可驗證數據來源的技術。

大規模語言模型(LLM)等基於雲的AI技術會因電力消耗對全球氣候問題產生直接影響。例如,通過ChatGPT進行提問所產生的能源消耗量,遠高於普通網頁搜尋的能耗。憑藉「能源消耗量的增長將激勵人們加速向可持續電力來源轉型」這種缺乏證據的主張無法解決問題。數據及其處理的治理與監管,應尋求與環境和能源的永續發展政策保持協調。

原文:《科學新聞》
翻譯:JST客觀日本編輯部