プロキシが作る偽りの影 代理指標が世界を歪める時 2025年12月
AIは与えられたデータから世界を読み解こうとするが、その中に本来使うべきではない代理指標が紛れ込むと、現実を誤った形で再構成してしまう。これがプロキシバイアスである。本来なら犯罪傾向を測定する指標として使用すべきは犯罪そのものに関する直接的情報だが、実際には逮捕歴や警察との接触回数といった近似データが用いられることが多い。すると、歴史的に治安維持の対象とされてきた特定人種や地域の人々が統計的により頻繁に逮捕されていたという過去の偏りをそのまま学習し、AIはそれを未来の予測へと持ち込んでしまう。
米国の再犯予測システムCOMPASの事例はこの問題の象徴である。研究機関ProPublicaの調査によれば、黒人の被告人は白人と比較して、実際には再犯しなくても高いリスクと判定されやすかった。これは、逮捕歴を犯罪リスクの代理とした結果、過去の治安政策が生んだ構造的偏りをAIが拡大してしまったためである。
プロキシバイアスは金融スコアリングや保険料算定、求人マッチングなど多くの領域で発生している。例えば郵便番号を信用リスクの代理として使うと、地域の歴史的格差が数値化され不利益を受ける住民が固定される。医療分野では医療費支出を健康需要の代理としたアルゴリズムが人種間格差を悪化させた例もある。
EUのAI ActやOECDのAI原則では、データの関連性や因果的妥当性が重視され、不適切な代理指標の使用が重大なリスクとして扱われている。プロキシバイアスの本質はデータではなく指標選択の誤りにあり、どの概念を測定し何を指標とするのかが倫理的にも技術的にも中心課題となる。
No comments:
Post a Comment