「AIによる差別」の可能性とどう向き合うべきか。Apple Cardと東大特任准教授発言問題から考える
Apple Cardの利用限度額決定アルゴリズムが男女差別との疑惑
その後、スティーヴ・ウォズニアック氏も、同じことが起きているとツイートした。The @AppleCard is such a fucking sexist program. My wife and I filed joint tax returns, live in a community-property state, and have been married for a long time. Yet Apple’s black box algorithm thinks I deserve 20x the credit limit she does. No appeals work.
— DHH (@dhh) November 7, 2019
この件はニュースになって瞬く間に広がった。そしてネット上の炎上では終わらず、ニューヨーク州金融監督局が調査をおこなうことになった(参照:BBCニュース 、 WIRED.jp 、CNET Japan)。 アップルはこの事態に対して、明快な説明をしなかった。Goldman Sachs は、利用限度額に関する決定において、性別が要素となっていることを否定した。しかし性別を直接参照しなくても、性別の代わりになる要素はいくらでもある。それらの情報を元に、結果的に差別が発生したのであれば、それは問題だ。 AIやアルゴリズム、プログラムは、その作り手や入力したデータによって出力が変わる。差別の存在する社会が入力データになれば、現実社会を反映したり、より誇張した結果が出力される可能性がある。The same thing happened to us. I got 10x the credit limit. We have no separate bank or credit card accounts or any separate assets. Hard to get to a human for a correction though. It's big tech in 2019.
— Steve Wozniak (@stevewoz) November 10, 2019
AIを隠れ蓑にした統計的差別
1
2
ハッシュタグ