ソニーAI、「AIの公正性」への解決策を提示 – 世界初の公正性データセット「FHIBE」を公開
インテリジェンスの偏向は技術ではなく倫理の問題です。 人工知能(AI)が人間の判断を代替する時代が到来しています。スマートフォンカメラの顔認識から自動運転車、医療診断、採用評価まで、AIはすでに人々の生活に深く入り込んでいます。しかし、AIの判断が常に公正とは限りません。開発者でさえ意識していない「データ偏向」が特定の性別や人種、年齢層に不利な結果をもたらす事例が続いています。 この問題の根本的な原因は技術ではなく「データ」にあります。AIは学習データを基に世界を理解します。しかし、そのデータが偏っていたり、同意なしに収集された場合、結果も歪められることは避けられません。この問題を解決するために、日本のソニーグループの研究機関であるソニーAI(Sony AI)が新しい基準を提案しました。 5日(現地時間)、ソニーAIは人工知能偏向問題を解決するための世界初の「公正性データセット」である公正な人間中心イメージベンチマーク(Fair Human-Centric Image Benchmark, FHIBE・フィビー)を公式に発表しました。FHIBEはAIが人の顔や身体を認識する過程で発生する差別的なエラーを点検し、改善できるように設計された新しい基準です。 Fair Human-Centric Image Benchmark, FHIBE·피비 (写真=ソニーAI) 世界初の「同意基盤・グローバル多様性」データセット FHIBEはこれまで公開されたどのデータセットよりも徹底的に倫理的手続きを経ました。まずすべての写真は参加者の明確な同意の下で撮影されました。81カ国から1,981人が参加し、合計10,318枚の画像を提供しました。彼らは人種、性別、年齢、髪型、肌の色、文化圏など多様な背景を持つ人物たちです。 ソニーAIは単純に顔写真を集めるだけでなく、各写真には撮影環境、照明、カメラ設定など細部の条件が綿密に記録されました。研究者たちはこのデータを利用してAIモデルが特定の条件でどのような偏向を示すのかを精密に分析できます。例えば、照明が暗い環境で特定の肌色を認識できない場合や、長髪の人より短髪の人をより正確に認識するかどうかなどを把握できます。 FHIBEの開発過程は科学専門ジャーナル『ネイチャー(Nature)』にも掲載されました。該当論文はFHIBEが既存の偏向検証データセットよりもはるかに詳細で実証的な分析を可能にすると評価しました。 81個国から1,981人が参加し、合計10,318枚の画像を提供(写真=ソニーAI) 「AIは人の想像力を拡張すべきであり、偏見を拡大してはならない」 ソニーグループのAIガバナンス総括でソニーAIのAI倫理責任研究員であるアリス・シャン(Alice Xiang)は今回のプロジェクトを「AI倫理の転換点」と表現しました。 彼は「AI産業は長い間、同意なしに収集された非多様的なデータを使用してきた」とし、「その結果、AIが社会の不平等をそのまま再現したり、深化させたりする問題が生じた」と指摘しました。そして「FHIBEは責任あるデータ収集が実際に可能であることを証明した事例」とし、「情報提供同意、個人情報保護、公正な報酬、安全性、多様性などすべての倫理原則を実際に適用した」と述べました。 ソニーAIのマイケル・シュプランガー(Michael ...
Read more