強制力なき「ソフトロー」で進む日本のAI規制
講演ではまず、生成AIそのものの仕組み、ビジネスでの活用とリスクなど、その全体像を概観したうえで、日本と世界の規制当局の動向に焦点が当てられた。
日本における生成AI規制は「ソフトロー」の位置づけで運用されている。具体的には、既存の法令を解釈し、それを生成AIにも適用し、AIの特別法を作らず、法的な強制力がないガイドラインにより規律する運用だ。AIに関したソフトローの代表例としては、「AI事業者ガイドライン[1]」がある。
直近では、2025年5月に「AI新法[2](AI関連技術の研究開発・活用推進法案)」が成立した。とはいえ、この新法でも強制力や制裁は設けられておらず、引き続きソフトローとしてのアプローチを維持しながら、生成AIの利活用促進とリスク対応を両立させる構えとなっている。リスクの高い利用については、政府からの情報提供要請や注意喚起などの対応が想定されている。
欧米中、それぞれのAI規制の違い

一方、AI規制における制度設計が最も進んでいるのはEUである。2024年に成立した「AI法」では、AIをリスクに応じて4つのカテゴリに分類し、それぞれに異なる義務を課している。
たとえば、「許容できないリスク」に分類されるサブリミナル技術や職場などにおける感情認識技術の使用は既に全面禁止されている。また、既存のEU整合法令で第三者適合性評価が要求されるような、製品の安全コンポーネントであるAIシステムやAI法が定める一定の類型のAIシステム(例:人材の募集や選抜に使用されるAIシステム)などの「ハイリスクAI」には、リスク管理・データ品質・透明性・適合性評価(CEマーキング取得[3])などの厳格な要件が定められており、原則として2026年8月に規制が適用開始となる。
さらに、2025年8月からはChatGPTのような汎用AIモデルについての規制も適用開始となり、開発者には技術文書の作成、EU著作権法を意識した対応、透明性の確保などが義務づけられる。違反時には、最大で世界全体における売上総額の7%か、3,500万ユーロのいずれか高い金額という巨額の制裁金が科される可能性もあり、その規制姿勢は厳格と言える。一方で、実務面での過剰規制を懸念する声もある。いずれにせよ、現在は、Code of Practice(実務規範/CoP)などの策定が行われている段階だ。
米国では、バイデン政権下で信頼性・透明性を重視した大統領令が発出されたほか、OpenAIやMicrosoftなど大手各社との自主規制合意を形成し、NIST(米国標準技術研究所)によるフレームワークも整備された。
しかし、トランプ政権になり、最新の動きとしては、連邦議会の下院では連邦・州政府によるAI規制を10年間原則禁止するという文言の含まれた歳出税制法案が通過した。
ただし、上院を通過するには、制度上ハードルは高そうであり、情勢は不透明と言える。
州法では、カリフォルニア州やコロラド州において、採用プロセスにおけるAI利用、ディープフェイク対策などを目的とした個別法制化が実際に進んでおり、州ごとに多様な規制が並立している状況にある。
なお、他にも、2025年5月にはTake it Down Actという法案が連邦法として通過しており、SNS上にAIで生成されたディープフェイクを含むリベンジポルノをアップロードすることを禁止し、また、プラットフォームには削除する義務を課した。
中国は他国に先駆けてAI規制の枠組みを整備しており、「生成AIサービス管理暫定弁法」などを通じて、国家のイデオロギーや安全保障を起点とした強固なガバナンスを構築している。社会主義的価値観を害する生成物の禁止が特徴である。また、中国には、上記の管理暫定弁法とは別に、アルゴリズム推薦に関する規制やディープフェイクに対する規制が存在している。
[1]経済産業省『AI事業者ガイドライン』(2025年3月28日)
[2]衆議院『人工知能関連技術の研究開発及び活用の推進に関する法律案』
[3]CEマーキング:EU(欧州連合)で販売される指定製品がEUの安全基準や品質基準に適合していることを示すマークのこと