A Fair Model is Not Fair in a Biased Environment
Abstract
顔画像には肌の色などのセンシティブ属性が含まれており、顔認識における入力からこれらを排除することは容易ではない。また、入力データには撮影時の環境の影響も含まれるため、肌の色と環境要因の相互作用によって,センシティブ属性間の公平性に影響を与える場合がある。そこで、テストデータに摂動を与えることで擬似的に環境要因を変化させ、各属性の公平性の変動を評価した。その結果、偏った環境要因が属性間の公平性を悪化させることも明らかにした。また、モデルのアーキテクチャや学習データセットによって、偏った環境下で不公平な属性が異なることを示した。