米民主党は企業のアルゴリズム偏向を抑止する法案を提出
アルゴリズムは公正ではない。間違いを含むこともあるし、長期的な視野でその人にとって好ましくないケースもある。
そもそも特定のアルゴリズムには、その導入の理由がある。Twitterの場合は、人手で確認するコストを減らすためだ。Googleの場合は、広告の収益を最大化するためだ。これらは経済的な目的であって、正しさを求めているわけではない。
もちろん、正しさを求めればよいというわけでもない。正しさとは何かという問題が発生する。誰かの正義は、他の誰かにとっての悪であるかもしれないからだ。
2019年の4月にアメリカの民主党の議員たちが、巨大テクノロジー企業のアルゴリズムによる偏向(algorithmic biases、アルゴリズミックバイアス)を抑止する法案を提出した(
TechCrunch Japan)。この法案「Algorithmic Accountability Act(アルゴリズム説明責任法)」では、正確性、公平性、偏り、差別、プライバシー、セキュリティーなどを問題としている。
アルゴリズムは、人の人間関係を壊したり、人生の選択や思考を誤らせる危険を持つ。
こうした計算手法やその適用方法の問題は、インターネットが普及してから登場したものではない。それ以前からも存在している。そうしたことを端的に伝える記事が、マサチューセッツ工科大学(MIT)のメディアラボ所長・伊藤穰一氏によって書かれている(
WIRED.jp)。
この記事で取り上げられているのは、1967年の米国での人種暴動と、保険会社による統計的手法だ。当時の保険会社は、貧困層が住むエリアを特定警戒地区指定とした。保険を引き受けるにはリスクが高すぎるとして、地図上を赤い線で囲んだ。こうした行為は
レッドライニングと呼ばれる(
Wikipedia)。保険会社は、この措置を正当化するために「統計的リスク」という言い訳を使った。
計算手法とその適用により、差別の助長や、貧困の再生産が加速する。インターネット上のアルゴリズムも、容易にそうした社会問題を誘発する。
現在、プログラムやAIは様々な場所で利用されている。ひとつのシナリオを考えてみよう。雇用の一次選考を機械的におこなった場合どうなるか。
性別、出身、学歴等、様々な指標を総合的に判断して選考する。その基準に、差別的な内容は含まれていないだろうか? 過去の実績からAIに選別させる。その元になったデータには、
過去の差別のバイアスが含まれているのではないか?
人間は社会を発展させていく上で、それまで自然だった振る舞いを、意識の改革や法の整備で修正してきた。当たり前のようにおこなわれていた差別を禁止し、放っておくと拡大し続ける格差を是正しようと努力し続けてきた。
自動化処理は、何も対策をしなければ過去の追認になりかねない。それに、そもそも大量の誤判定を含むものだ。
コスト削減や利益の最大化といった経済的な理由だけに支配された自動化処理は、社会の道を誤らせる危険がある。そうでなくても、大規模データに対するアルゴリズムは、全体の利益を上げるためのものであり、個人を手厚く扱うものではない。ベストの策ではなく、ベターな策でしかないことを理解するべきだろう。
社会との接点の多くがIT経由になっている。これから先、その傾向はさらに加速していくだろう。そうした際に、人間関係や人生の選択において様々な問題が起きると想像できる。
全体の問題解決も重要だが、個人の問題解決も同じぐらい大切だ。個別の問題が発生した場合に、迅速にその修正をおこなう窓口と仕組みの整備が、大手のIT企業には必要だろう。アルゴリズムによる自動化は、間違いを修正するシステムと対になって進められるべきだ。人生や思考を左右する大企業には、そうした姿勢が求められる。
◆シリーズ連載:ゲーム開発者が見たギークニュース
<文/柳井政和>
やない まさかず。クロノス・クラウン合同会社の代表社員。ゲームやアプリの開発、プログラミング系技術書や記事、マンガの執筆をおこなう。2001年オンラインソフト大賞に入賞した『めもりーくりーなー』は、累計500万ダウンロード以上。2016年、第23回松本清張賞応募作『バックドア』が最終候補となり、改題した『
裏切りのプログラム ハッカー探偵 鹿敷堂桂馬』にて文藝春秋から小説家デビュー。近著は新潮社『
レトロゲームファクトリー』。