商傳媒|記者許方達/綜合報導
歐盟《人工智慧法案(EU AI Act)》8月1日正式生效,這是全球首部明確規範AI技術開發和應用,以確保其安全性、透明度和問責性的法律。新法上路後,全球企業一旦違反《人工智慧法案》,最高恐被處以3500萬歐元(約新台幣12.4億)或其全球年收入7%(以較高金額為準)的鉅額罰款。
至於執法方面,每個歐盟國將設立自己的AI監管機構,民眾如果認為自己成為法規下的受害者,可提出申訴;另外,歐盟還將建立一個負責執行和監督通用AI系統法律的AI辦公室。歐盟《人工智慧法案》採用基於風險的方法來監管AI,這意味該技術的不同應用,會根據其對社會造成的風險程度而受到不同程度的監管。
該法律還全面禁止任何被認為風險等級「不可接受」的AI應用,包括「社會評分」系統,該系統是根據數據的匯總和分析、預測性警務,以及在工作場所或學校中使用「情緒識別技術」對公民進行排名。
出於監管方面的考慮,臉書母公司Meta本月稍早表示,不會在歐盟提供其LLaMa模型,理由是該模型是否符合歐盟《一般資料保護規範(GDPR)》存在不確定性。軟體公司Appian高級副總裁湯普森(Charlie Thompson)認為,《人工智慧法案》上路後的影響將遠遠超出歐盟範圍,它適用於在歐盟有任何業務或影響的任何組織,將對科技巨頭在歐盟市場的運作產生巨大影響。
學者認為,這項法案將對中國企業形成巨大挑戰。首先,中企必須遵守嚴格的「數據隱私與安全標準」,以符合歐盟規範,這將對在歐洲的中企無形之中增加許多合規成本的支出;另外,AI法案重視系統的透明度與數據安全,高風險AI系統將被要求提供詳細的資訊數據。例如:抖音(TikTok)透過「演算法」分析用戶行為及偏好,或是透過深偽技術混淆受眾的認知行為和相關誤導性內容,均會受到嚴密監管。