経産省のチェックリストを活用した、生成AIの利用規約の作り方

次に焦点が当てられたのは、AIサービスを提供したり、利用したりする企業の「利用規約」である。田中氏は経済産業省が公開している「チェックリスト[4]」を紹介した。これは生成AIの利用に際して留意すべき契約上のポイントを網羅的に整理したものであり、業務への導入を検討する企業にとって、実務上の有力な出発点となる資料だ。
たとえば、生成AIを利用する場合には、生成コンテンツに関して「AIによって作成された旨の明記」が求められるかどうか、著作権の帰属が認められるか、あるいは商用利用に制限が設けられているかといった点は、生成AIのツール選定時に必ず精査すべき項目である。
他にも、それぞれの生成AIツールには利用禁止事項が定められており、たとえば、「法律アドバイスの提供」を標榜するツールを提供する場合には、弁護士法に抵触する可能性があるなど、業法規制との関係、利用規約の禁止事項に触れないかも検討する必要がある。さらに、前述のとおりの情報管理の懸念との関係で、データの利用範囲、目的外使用の有無、守秘義務に関する条項なども、重要なチェックポイントとなる。
もちろん、複数のAIツールを組み合わせて活用する場合、それぞれ異なる規約が適用されることから、条件間の整合性を確認することが必要だ。
自社の「生成AIの利用ガイドライン」を整備する
田中氏は社内体制、特に社内ルールの策定にも言及した。そこで紹介されたのが、日本ディープラーニング協会が策定した「生成AIの利用ガイドライン[5]」だ。このガイドラインでは、生成AI活用時にリスクが発生する可能性がある「入力」と「出力」フェーズにおける注意点が整理されており、社内ルールの土台・出発点として有益だ。
先に挙げたとおり、入力データには、個人情報や機密情報、著作物、商標、肖像権に関わる情報が含まれる可能性があり、慎重な取り扱いが求められる。一方、出力に関しても、虚偽情報の生成や他者の権利侵害、不適切な内容の拡散といったリスクを念頭に置いた運用設計が不可欠である。
もっとも、このガイドラインはあくまで出発点としての雛形に過ぎず、どちらかといえば保守的に作られている。実際には企業の業種・部門・業務内容に応じてカスタマイズをすることが前提となり、雛形をそのまま導入してしまえば良いというわけではない。「禁止・許可」といった単純な二元論では対応しきれない場面も多く、田中氏は柔軟性を持たせた設計が現実的であると強調した。
その手始めとして、判断の難しいケースに備えて社内に相談窓口を設けることが効果的だ。また、ルールが守られているかをモニタリングし、守られていない実態があれば通報してもらい、どこに課題があるのかを検討して、必要に応じて対応策を講じることが考えられる。
たとえば、AI生成物による出力である旨を明記する対応策を考えたとする。後にそれが、AI生成物であることを認識しないまま、重要な経営判断に用いられてしまわないために、必要な対策であることは明白であろう。
生成AIの利活用に備える過程では、既存の「情報管理規程」や「著作権・商標管理ルール」の見直しが喫緊の課題となることもある。現場で形骸化しているルールや、実態と乖離した情報区分がそのまま放置されていたケースがある。AIの導入を契機に、このような事象についても見直しを図るべきだ。
田中氏は最後に、ルール策定は一度きりの作業ではなく、技術の進展や利用実態の変化にあわせて継続的にアップデートしていく姿勢が不可欠だと語った。変化の著しいAI技術の領域においては、「まず試行し、運用の中でルールを磨いていく」といった段階的なアプローチこそが、持続可能な活用を支える基盤となるのだ。
[4]経済産業省『「AIの利用・開発に関する契約チェックリスト」を取りまとめました』(2025年2月)
[5]一般社団法人日本ディープラーニング協会『生成AIの利用ガイドライン』