ハルシネーションなど生成AI利活用におけるリスク管理の視点

続いて田中氏は、日本におけるAI活用時の留意点を解説した。特に、AI利活用におけるリスク管理の出発点として、「入力」と「出力」の2つの観点を持つことの重要性が強調された。
まず「入力」に関しては、個人情報や営業秘密などをAIに入力して良いか、個人情報保護法や営業秘密該当性の喪失/機密保持義務違反などの観点から問題となる。入力をする場合には、生成AIのサービス提供者と一定の契約上の手当をしたうえで、入力に関するユーザー向けのルールを作っておく必要がある。
他にも入力されるデータ自体にバイアスが潜んでいれば、それがAIの出力結果にも反映され、最終的には、不公正な判断につながるリスクも存在する。バイアスのリスクはAIのアルゴリズム自体のみに存在している訳ではなく、AIに入力するデータのなかにも存在するということになる。このような問題を回避するには、「この情報をAIに入力して良いのか」という判断力が実務上求められ、教育していくことも必要である。
一方、「出力」に関しては、ハルシネーション以外にも、AIモデルを作った時点の情報が古いまま出力されるリスク、AIの出力を過信する「自動化バイアス」も見逃せない。AIの出力をそのまま社内資料に用いてしまえば、誤った経営判断に至り、企業として重大な影響を被るといった事例も想定されうるのだ。
あくまで人間を中心に考え、利用者自身がAIの限界を見極める必要がある。そのため、AIの仕組みと基礎知識、AIをツールとして使う思想など、社内でのリテラシー教育を積極的に行い、浸透させる必要があると田中氏は語る。
AIガバナンスやプライバシーポリシーの整備をどう進めるか
さらに、AIが生成した出力が知的財産権やプライバシー権を侵害する可能性もある。他にも名誉毀損や差別的な発言、不法行為に該当するような内容が含まれた場合、法的責任や企業のレピュテーションリスクへと発展する恐れがある。こうした事態を防ぐためには、情報発信のプロセスにおける確認体制の構築と、従業員それぞれの情報リテラシー向上が不可欠である。
著作権についても重要な留意点がある。著作権法上、著作物とは「人間による創作」が前提であり、AIが自律的に生成したコンテンツには原則として著作権は認められない。したがって、著作権を保持する必要がある場合は、AIをあくまでツールとして使用し、生成物に対する人間の創作的寄与があると言えるようにしておく運用が求められる。
加えて、ステークホルダーに対し、AIの使用実態に関する透明性を確保することが肝要だ。具体的には、「AIがどのように使用され、どのような判断に寄与しているか」を可視化し、アカウンタビリティを果たせる体制づくりが必要とされる。
上記の考え方は、AIを従業員向けに社内で活用する場合も、社外に対してAIを組み込んだサービスを展開する場合も基本的に変わらないと田中氏は言う。