欧州連合(EU)の執行機関である欧州委員会は4月21日(現地時間)、AIの利用に関する規制案を発表した。AIに関する包括的な規制は世界で初としている。AI採用の顔認証などをEU地域で利用する際、事前審査を行うなどの規則が含まれる。違反すれば最高3000万ユーロ(約39億円)あるいは違反した企業の売上高の6%の罰金を科す。

【その他の画像】

 すべてのAIを禁止するわけではなく、AIのリスクの高さを4段階(受け入れられない、ハイリスク、限られたリスク、最小限のリスク)のカテゴリに分け、「AIシステムの大部分は最小限のリスクに分類される」としている。

 受け入れられないカテゴリーの説明は「政府による社会的スコアリングから子供の危険な行動を助長する音声を使ったおもちゃまで、明らかな脅威とみなされるものすべて」となっている。

 ハイリスクカテゴリーには、ローン審査や人材採用でのAIによるスコアリング、渡航文書の信憑性検証、ロボットによる手術によるAI採用などが挙がっている。このカテゴリーのAIについては、リリース前にEUによる評価を受ける必要がある。

 欧州委員会のコミッショナー、マルグレッタ・ヴェスタヤー氏は発表文で「AIの信用を確実にするため、EUはこの画期的な規制案により、国際標準の策定をリードする」と語った。

 欧州委員会委員長ウルズラ・フォン・デア・ライエン氏は、「われわれは企業やイノベーターがAIを開発することを支援する。同時にEUの人々がAIを安心して使えることを望む」と語った。