「AIによる差別」の可能性とどう向き合うべきか。Apple Cardと東大特任准教授発言問題から考える

1930年代のアメリカにあった「レッドライニングの問題」

 人を分類するアルゴリズムによる差別は、AI時代以前からある。Apple Card のニュースを見た時に、アメリカのレッドライニングの問題を思い出した。人種や民族に基づいて、特定の地域の居住者が、不利益をこうむった問題だ。  1930年代、政府の調査員は、239の都市の近隣を格付けして、緑、青、黄色、赤で色分けした。文字どおり赤線で囲まれた地区の人々は、危険区域の人間として、まともな融資を受けられなかった。政府が担保する住宅ローンは、差別的貸付制度となった。こうした行為を禁止する法律は、1977年に可決された(参照:InvestopediaThe Washington Post)。  レッドラインでは地図に赤線が引かれた。AIやアルゴリズム、プログラムは、ビッグデータの中に、見えない線を引いていく可能性がある。

ビッグデータとAIが、社会の差別を固定化する危険性

 AIもアルゴリズムもプログラムも、複雑なことを安いコストで実現してくれる。膨大なデータから、一定の法則に基づく結論を、高速に導き出してくれる。なぜこうした情報技術がもてはやされるかというと、それがこれまでの方法よりも圧倒的に低コストだからだ。  しかし、差別を防ぎ、社会を望ましい方向に変えていくには、監視と是正というコストが必要だ。そして、その内容が正しいかを絶えず検証することが求められる。  Apple Card の出来事は、見えないルールにより差別が起きることを人々に気付かせた。機械による思考が差別の助長に繋がらないように、企業や個人はコストを払わなければならない。運用する人間は、見えないコストに目を向けるべきだと思う。 <文/柳井政和>
やない まさかず。クロノス・クラウン合同会社の代表社員。ゲームやアプリの開発、プログラミング系技術書や記事、マンガの執筆をおこなう。2001年オンラインソフト大賞に入賞した『めもりーくりーなー』は、累計500万ダウンロード以上。2016年、第23回松本清張賞応募作『バックドア』が最終候補となり、改題した『裏切りのプログラム ハッカー探偵 鹿敷堂桂馬』にて文藝春秋から小説家デビュー。近著は新潮社『レトロゲームファクトリー』。2019年12月に Nintendo Switch で、個人で開発した『Little Bit War(リトルビットウォー)』を出した。2021年2月には、SBクリエイティブから『JavaScript[完全]入門』、4月にはエムディエヌコーポレーションから『プロフェッショナルWebプログラミング JavaScript』が出版された。
1
2