2025年11月5日、ソニーAIはコンピュータービジョン分野の公平性評価を目的とした画像データセット「Fair Human-Centric Image Benchmark(FHIBE、フィービー)」の公開を発表した。本発表は「Nature」誌にも掲載されている。

近年、AIモデルが特定の属性やグループに対し不公平な判断を下す「バイアス」問題が社会課題となっている。既存のデータセットは多様性不足や同意の不備により、倫理面や信頼性に課題があった。FHIBEはこうした従来の課題を解消し、責任あるAI開発のために設計されている。
FHIBEは、グローバルに多様かつ同意を得た人物画像1,981人分、10,318枚の画像から構成されている。収集対象は世界81以上の国・地域で、年齢・性別・人種など多様な属性を網羅。各画像には詳細な注釈情報が付与されているため、人口統計属性や身体的特徴、環境要因、撮影条件など多角的な分析が可能である。
このデータセットの特徴は、「インフォームド・コンセント(説明に基づく同意)」や公正な報酬など、倫理的プロトコルの徹底にある。被写体は自身の個人情報への管理権を持ち、いつでも同意撤回が可能。それに伴う報酬の減額も行われない。データセットは同意撤回時に画像が削除されるが、代替データの追加により多様性と一貫性の維持を図る。
FHIBEは顔検出や姿勢推定、視覚的質問応答など、多様なコンピュータービジョンタスクで活用できる。活用例では「She/Her/Hers」の代名詞を使う個人に対して、一部AIモデルの精度が髪型の多様性によって低下する現象や、画像内職業推定で人口統計グループに対する固定観念を助長する問題など、従来見落とされてきたバイアスの傾向も特定できるとしている。
同プロジェクトは倫理性・透明性・説明責任を重視し、国際的なベンチマークとして今後も拡張予定である。AI開発、データガバナンス、組織のコンプライアンス体制強化を目指す企業にとって、FHIBEはバイアスリスク評価の新たな基準となりうる。
FHIBEデータセットは本日より公開され、研究者や開発者が無料で利用できる。今後のAIモデル開発や公平性検証において、業界全体の倫理レベル向上に寄与することが期待される。
【関連記事】
・FRONTEO、経済安全保障AIシステム「KIBIT Seizu Analysis」をアップデート
・テラデータ、エージェントAIの本番運用を支援する「Teradata AI Services」を発表
・Salesforce、AIマネジメントシステムの新国際規格「ISO 42001認証」を取得
