ブレーキではなく、ガードレールとしてAIの安全性を考える
歴史を振り返ると、2010年代には、当時のAIブームに応じて「AI原則」が作られている。これには、安全性、セキュリティ、プライバシー、公平性、透明性、説明可能性などが含まれているが、ChatGPTなどの現行のモデルでは透明性や説明可能性については担保が難しい。こういった背景から、生成AI時代に適応したAIガバナンスの必要性が再度高まってきているのだという。
こうしたなか、世界において日本は国家としてもリーダーシップを取ってきたと村上氏は指摘する。昨年のG7では、「広島AIプロセス」として議論を主導したほか、OECD原則の策改定や、人間中心の「責任あるAI」の開発・利用を実現するための組織「GPAI」の創設にも貢献しているのだ。今後も技術的および実装レベルでの枠組みの整備に積極的に貢献していくことが重要だと同氏は話す。