歐盟人工智慧法首階段上路 禁以AI給人分類
2025年2月2日(德國之聲中文網)歐盟去年五月通過了規範人工智慧(AI)應用的《人工智慧法》,采分階段實施,其中一部分規定自本月開始生效,預計整部法律將於2027年8月正式生效。根據歐盟的說法,新法規的目的不僅是保護消費者權益,也希望能確保用戶負責任地使用人工智慧。
自本周日(2月2日)起,開發或使用人工智慧的公司必須評估其系統的風險水準,並採取適當措施滿足法律要求。用於高風險領域的人工智慧系統必須滿足各種標準,包括透明度、準確性、網路安全和訓練數據品質。
禁止以AI進行社會分類
新規要求此類系統在進入歐盟市場必須獲得監管機構的認證批准,系統提供商也必須保留某些技術文檔以供審計。歐盟的「人工智慧辦公室」將監督整個歐盟區的執法工作。
其他規定還包括:禁止使用人工智慧程序評估社會行為,即不可借著人工智慧技術對人們進行分類評比,並以此進行獎勵或懲罰。
保留例外情況
另外,原則上也不允許通過公共場所監控錄像進行人臉識別。但也有例外:應允許警察和其他安全機構使用這種技術作為某些罪行的調查手段,如人口販賣和恐怖主義等。除此之外,人工智慧生成的內容,包含圖像、聲音或文本等也必須進行標記,以防止誤導性深度偽造材料。
根據《人工智慧法》規定,將人工智慧系統用於特定禁止用途的最高罰款為3500萬歐元,或公司年收入的7%。而向監管機構提供不正確訊息的最高罰款可達公司年收入1.5%。
歐盟表示,採用人工智慧系統具有「帶來社會效益、經濟增長和增強歐盟創新和全球競爭力的巨大潛力」;但同時也會產生「與用戶安全(包括人身安全和基本權利)相關的新風險」。歐盟警告,目前廣泛使用的某些強大人工智慧模型「甚至可能帶來系統性風險」。
行業代表擔心機密外洩
不過,總部位於華盛頓的智庫「歐洲政策分析中心」(CEPA)周五發布的一篇文章寫道,歐盟的《人工智慧法》進展沒有想像中順利。文章提到,人工智慧辦公室正在起草一份業務守則,其中概述了合規的實用指南。然而一些利益相關者認為,保留給他們提供反饋的時間過於緊迫。
此外,部分行業代表也質疑:人工智慧開發者是否真有必要向第三方評估者開放他們的模型。業務守則中還規範,開發者需要提供有關其訓練數據的詳細訊息,包括數據是否合法獲取。作者拉格克蘭茨(Oona Lagercrantz)指出,這讓一些公司擔心商業機密可能受到威脅,而且歐盟對合法獲取數據的定義也存在爭議。
(德新社、歐洲政策分析中心)
© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。