性能が向上し続けるAIの“問題”
八田真行氏(以下、八田):日本では「Signal」に馴染みのある方は多くないかと思います。Signalはどのようなアプリなのか、テレグラム等機密性が高いといわれる他アプリとの違いを含め教えてください。
Meredith Whittaker氏(以下、Whittaker):Signalアプリには、LINE、WhatsApp、テレグラムなど他のメッセンジャーアプリとの間に表面上の違いはありません。しかし、Signalでは通信を完全に暗号化しています。運営元であるSignal社自身もメッセージの内容を見ることはできず、政府当局やハッカーもそれらを知ることはできません。また、メッセージの内容だけでなくメタデータそのものも暗号化している点が特徴です。メタデータとは、送受信者の名前、グループ内のメンバー構成といった情報を意味します。
テレグラムも秘匿性が高いと謳っていますが、それは必ずしも実体に沿っているわけではありません。メッセージ内容をサーバーで保管しているほか、暗号化がデフォルトで設定されているわけではないといった問題があります。WhatsAppでもSignalプロトコルを使ってコンテンツを暗号化していますが、メタデータまでは暗号化されていません。メタデータは様々なことに活用でき、たとえばメタデータをFacebookなどの情報と組み合わせることで、ユーザーのプロファイリングが可能となってしまいます。
八田:Whittakerさんは元々、ニューヨーク大学や政府機関でAIに関する活動を行ってきました。人工知能が政治・経済にどういう影響を与えているのか、また、AIによって可能となってしまう監視技術など、Whittakerさんが懸念されていることについて教えてください。
Whittaker:私が大学を卒業してGoogleに入社した2006年当時は、IT産業はまだ小さく、GoogleもYahoo!よりも規模の小さいサービスでした。その後、IT産業が大規模産業に育っていく姿を当事者として目にしてきました。
最近のAIのトレンドは、2012年にAlexNet(ディープラーニングアルゴリズム)などが知られるようになってから始まりました。このようなアーキテクチャは、大量のデータ、画像データなどを処理しAIを支えます。インフラの巨大化や大規模なデータの活用がAIの性能向上につながりました。
そしてAIに必要なデータやリソースは、ほんの数社に集められてきました。これらの企業が展開する広告収入型のインターネットビジネスモデルは、監視機能そのものであり、監視で得たデータを広告主に売るというビジネスモデルです。GoogleやFacebookなどでは、ユーザーはデータを提供する代わりにシステムの恩恵を無料で享受している状態です。このモデルを通じて、データ市場のシェアを一部の大企業が独占的に握るという状況が形成されました。
このような視点から見ると、AIは監視モデルの延長で生まれたといえます。機械学習については、権力集中的であると懸念しています。AIの開発、展開などの各段階においても、リソースを握る大企業が支配しています。そして、大企業を動かしているのは“収益性”であり、彼らは必ずしも社会課題を解決するという視点には立っていないことが問題なのです。