アルゴリズムによる「差別」をなくすには?—公平かつ正確なアルゴリズムの設計に向けて

海外論文サーベイ(経済セミナー)| 2022.09.30
 雑誌『経済セミナー』の "海外論文Survey" からの転載です.

(奇数月下旬更新予定)

Liang, A., Lu, J. and Mu, X. “Algorithmic Design: Fairness Versus Accuracy,” Proceedings of the 23rd ACM Conference on Economics and Computation, 2022: 58-59.

$\def\t#1{\text{#1}}\def\dfrac#1#2{\displaystyle\frac{#1}{#2}}\def\bs#1{\boldsymbol{#1}}$

奥村恭平

アルゴリズムの公平性に対する需要の高まり

アルゴリズムによる意思決定がますます盛んになってきている。動画やニュースなどのコンテンツ配信、ソーシャルメディアや EC における広告配信はもちろんのこと、金融、裁判、監視にいたるまで、アルゴリズムによる予測や分類を用いた意思決定が爆発的に広がっている。

そのような状況の中、アルゴリズムが一部の集団に属する人々に対し「不公平」な決定をしている可能性が指摘され始め、政府・企業・大学など (以下、「為政者」と呼ぶ) は対応を求められている。2016 年には、保釈を認めるか否かの決定の指針としてアメリカの一部の州で用いられていた再犯予測アルゴリズムにおいて、黒人の被告人の偽陽性率 (将来の犯罪のリスクが高いと誤って分類すること) が白人の被告人の 2 倍であることが指摘され議論を呼んだ (Angwin et al. 2016)。

このコンテンツを閲覧するにはログインが必要です。→ . 会員登録(無料)はお済みですか? 会員について