SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

おすすめのイベント

Biz/Zineセミナーレポート

「生成AI×企業法務」の新常識 導入時の実務的リスクとガイドラインの作り方とは?

講演者:森・濱田松本法律事務所外国法共同事業 パートナー弁護士 田中浩之氏

  • Facebook
  • X
  • Pocket

ハルシネーションなど生成AI利活用におけるリスク管理の視点

AI governance

 続いて田中氏は、日本におけるAI活用時の留意点を解説した。特に、AI利活用におけるリスク管理の出発点として、「入力」と「出力」の2つの観点を持つことの重要性が強調された。

 まず「入力」に関しては、個人情報や営業秘密などをAIに入力して良いか、個人情報保護法や営業秘密該当性の喪失/機密保持義務違反などの観点から問題となる。入力をする場合には、生成AIのサービス提供者と一定の契約上の手当をしたうえで、入力に関するユーザー向けのルールを作っておく必要がある。

 他にも入力されるデータ自体にバイアスが潜んでいれば、それがAIの出力結果にも反映され、最終的には、不公正な判断につながるリスクも存在する。バイアスのリスクはAIのアルゴリズム自体のみに存在している訳ではなく、AIに入力するデータのなかにも存在するということになる。このような問題を回避するには、「この情報をAIに入力して良いのか」という判断力が実務上求められ、教育していくことも必要である。

 一方、「出力」に関しては、ハルシネーション以外にも、AIモデルを作った時点の情報が古いまま出力されるリスク、AIの出力を過信する「自動化バイアス」も見逃せない。AIの出力をそのまま社内資料に用いてしまえば、誤った経営判断に至り、企業として重大な影響を被るといった事例も想定されうるのだ。

 あくまで人間を中心に考え、利用者自身がAIの限界を見極める必要がある。そのため、AIの仕組みと基礎知識、AIをツールとして使う思想など、社内でのリテラシー教育を積極的に行い、浸透させる必要があると田中氏は語る。

AIガバナンスやプライバシーポリシーの整備をどう進めるか

 さらに、AIが生成した出力が知的財産権やプライバシー権を侵害する可能性もある。他にも名誉毀損や差別的な発言、不法行為に該当するような内容が含まれた場合、法的責任や企業のレピュテーションリスクへと発展する恐れがある。こうした事態を防ぐためには、情報発信のプロセスにおける確認体制の構築と、従業員それぞれの情報リテラシー向上が不可欠である。

 著作権についても重要な留意点がある。著作権法上、著作物とは「人間による創作」が前提であり、AIが自律的に生成したコンテンツには原則として著作権は認められない。したがって、著作権を保持する必要がある場合は、AIをあくまでツールとして使用し、生成物に対する人間の創作的寄与があると言えるようにしておく運用が求められる。

 加えて、ステークホルダーに対し、AIの使用実態に関する透明性を確保することが肝要だ。具体的には、「AIがどのように使用され、どのような判断に寄与しているか」を可視化し、アカウンタビリティを果たせる体制づくりが必要とされる。

 上記の考え方は、AIを従業員向けに社内で活用する場合も、社外に対してAIを組み込んだサービスを展開する場合も基本的に変わらないと田中氏は言う。

次のページ
経産省のチェックリストを活用した、生成AIの利用規約の作り方

この記事は参考になりましたか?

  • Facebook
  • X
  • Pocket
Biz/Zineセミナーレポート連載記事一覧

もっと読む

この記事の著者

雨宮 進(アメミヤ ススム)

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • Facebook
  • X
  • Pocket

Special Contents

PR

Job Board

PR

おすすめ

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング