開発スピードと安全性の両立。「憲法AI」と社会実装のリアル
関:「信頼できるAI」をどう実装するのか。NECは自社を「クライアントゼロ」として先行実証していますが、早く出すことと安全に出すことの間で何か犠牲になってはいなかったでしょうか。
森田:今の段階では、何かを犠牲にしたということはありません。我々は2022年頃、最初のGPU(A100)約1,000基に対し数百億円の投資を行いました。当時、研究者から「このGPUを入れなければ2〜3週間かかるが、入れれば1日足らずで成果が出る」と提案されたのが契機です。その後、ChatGPTが話題になった際も、我々の研究者は数ヵ月で同じようなものを作ってしまいました。
現在、社内の様々な業務にAIを使っていますが、基盤モデル単体ではビジネスに使えません。セキュアなクラウド環境、AIレディなデータ、業務プロセス、そしてガバナンスが揃って初めて実装が可能になる。最初から社会実装を見据えて進めてきたからこそ、AnthropicさんともWin-Winの関係が築けると考えています。
関:Anthropicは「Constitutional AI(憲法AI)」などの仕組みを組み込んでいますが、商業競争の中でその安全性重視の姿勢は機能していますか。
東條:「Constitutional AI」とは、モデル開発時に原理原則(憲法)をあらかじめ定め、その枠組みの中で学習させる手法です。強化学習の前に大前提としてこの憲法が効いていることが、安全なアウトプットに不可欠です。
さらに我々は、内部のブラックボックスを解明する「Interpretability(解釈性)」の領域にも莫大なリソースを投じており、弊社ウェブサイトでも取り組みを公開しています。なぜその回答になったのか説明できなければ安心して使えません。内部の様子がわかればハルシネーションの抑制にもつながります。常にフロンティアでトップを走っているからこそ、我々の安全への提言が受け入れられ、商業的にも成り立っているのだと思います。

経済安全保障とAI。国産モデルによる「プランB」の重要性
関:続いて経済安全保障のコンテキストから伺います。森田さんは「ナショナルセキュリティに関わる領域ではバイアスのない自律的なAIが必要」と指摘されていました。
森田:今はテクノロジーと国家安全保障を切り離せない時代です。重要なのは2点です。1つ目は「バイアスや変な情報に汚染されていない」こと。AIのトレーニングにどのようなデータを使ったかは技術の核心であり、なかなか開示されません。外側からの検証だけでは100%の保証は難しく、国の文化の核や機微に触れる領域では自律性が問われます。
2つ目はデジタルインフラのコアとしての「プランB」の必要性です。現在、優れた基盤モデルは同盟国アメリカから提供されていますが、これが永遠に提供され続ける保証は誰も持っていません。万が一、自由な選択が確保されなくなったときのために「プランB」を発動する。国の安全保障を担保するためには、一定範囲での国産AIがどうしても必要になるのです。
関:グローバル企業であるAnthropicとして、日本市場が抱える「海外企業にデータを預ける不安」にはどうお答えになりますか。
東條:安全保障の観点やプランBとしてのソブリンAI(主権AI)のニーズは非常によく理解できますし、そうすべきだと思います。一方で、大量のデータと計算資源で作られた我々のようなグローバルモデルはインテリジェントかつ安価であり、企業での「普段使い」には極めて理にかなっています。
日本の皆様のデータに関しても、クラウド経由で我々のサービスをご利用いただく場合、国内のデータセンターに閉じて推論処理を行うことが可能です。データが海外に出ることなく国内で完結し、暗号化キーをお客様自身で管理できる機能もあります。純粋な国産ではなくとも、日本でしっかり管理可能な十分安全なモデルとなっています。

