SHOEISHA iD

※旧SEメンバーシップ会員の方は、同じ登録情報(メールアドレス&パスワード)でログインいただけます

おすすめのイベント

Biz/Zineニュース

ソニーAI、公平性評価の新データセット「FHIBE」を国際公開

  • Facebook
  • X

 2025年11月5日、ソニーAIはコンピュータービジョン分野の公平性評価を目的とした画像データセット「Fair Human-Centric Image Benchmark(FHIBE、フィービー)」の公開を発表した。本発表は「Nature」誌にも掲載されている。

「Fair Human-Centric Image Benchmark(FHIBE、フィービー)」

 近年、AIモデルが特定の属性やグループに対し不公平な判断を下す「バイアス」問題が社会課題となっている。既存のデータセットは多様性不足や同意の不備により、倫理面や信頼性に課題があった。FHIBEはこうした従来の課題を解消し、責任あるAI開発のために設計されている。

 FHIBEは、グローバルに多様かつ同意を得た人物画像1,981人分、10,318枚の画像から構成されている。収集対象は世界81以上の国・地域で、年齢・性別・人種など多様な属性を網羅。各画像には詳細な注釈情報が付与されているため、人口統計属性や身体的特徴、環境要因、撮影条件など多角的な分析が可能である。

 このデータセットの特徴は、「インフォームド・コンセント(説明に基づく同意)」や公正な報酬など、倫理的プロトコルの徹底にある。被写体は自身の個人情報への管理権を持ち、いつでも同意撤回が可能。それに伴う報酬の減額も行われない。データセットは同意撤回時に画像が削除されるが、代替データの追加により多様性と一貫性の維持を図る。

 FHIBEは顔検出や姿勢推定、視覚的質問応答など、多様なコンピュータービジョンタスクで活用できる。活用例では「She/Her/Hers」の代名詞を使う個人に対して、一部AIモデルの精度が髪型の多様性によって低下する現象や、画像内職業推定で人口統計グループに対する固定観念を助長する問題など、従来見落とされてきたバイアスの傾向も特定できるとしている。

 同プロジェクトは倫理性・透明性・説明責任を重視し、国際的なベンチマークとして今後も拡張予定である。AI開発、データガバナンス、組織のコンプライアンス体制強化を目指す企業にとって、FHIBEはバイアスリスク評価の新たな基準となりうる。

 FHIBEデータセットは本日より公開され、研究者や開発者が無料で利用できる。今後のAIモデル開発や公平性検証において、業界全体の倫理レベル向上に寄与することが期待される。

【関連記事】
FRONTEO、経済安全保障AIシステム「KIBIT Seizu Analysis」をアップデート
テラデータ、エージェントAIの本番運用を支援する「Teradata AI Services」を発表
Salesforce、AIマネジメントシステムの新国際規格「ISO 42001認証」を取得

この記事は参考になりましたか?

  • Facebook
  • X
関連リンク
この記事の著者

Biz/Zine編集部(ビズジンヘンシュウブ)

※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です

この記事は参考になりましたか?

この記事をシェア

  • Facebook
  • X

Special Contents

PR

Job Board

PR

おすすめ

新規会員登録無料のご案内

  • ・全ての過去記事が閲覧できます
  • ・会員限定メルマガを受信できます

メールバックナンバー

アクセスランキング

アクセスランキング