コンピューターの目は簡単に欺かれる。AI認識を誤作動させるさまざまな手法

存在しない物体をご認識させる

via the University of Michigan | Adversarial Sensor Attack on LiDAR-based Perception in Autonomous Driving by Yulong Cao, Chaowei Xiao, Benjamin Cyr, Yimeng Zhou, Won Park, Sara Rampazzi, Qi Alfred Chen, Kevin Fu, and Z. Morley Mao

自動運転車のセンサーを誤動作させる攻撃手法

 9月の下旬にCnet Japanが「実在しない障害物の情報で自動運転車を混乱させる対LiDAR攻撃」という記事を公開した。LiDAR(ライダー、ライダ; Light Detection and Ranging 光検出と測距)は、簡単に言うと、電波を使うレーダーに対してレーザー光を使うものである。電波よりも波長が短い光を使うことで、細かなものを検出できる。また、多くの物体で反射される波長帯を使うので認識できるものが多い。この技術は、大気中のエアロゾルの調査などに用いられるだけでなく、近年は自動運転車用のセンサーのひとつとしても用いられている。  今回の方法は、ミシガン大学の研究チームが考案したものだ。LiDAR を欺いて、偽の障害物を認識させて急ブレーキを掛けさせる。また、赤信号で停まっている車を、青信号後も停車させ続ける。  攻撃手法は2つある。ひとつはセンサーに向けて光信号を送信する方法だ。この方法では、存在しない障害物があるように見せることができる。もうひとつは、機械学習モデルに対する攻撃だ。細心の注意を払って作成したノイズパターンを利用することで、機械学習による検出を制御できる。これはランダムなノイズでは駄目だそうだ。  こうした自動運転車を騙す方法は、LiDAR に向けたものだけでない。光学的なカメラに対してもおこなわれている。ここでの改竄対象は、道路にある標識だ。機械学習アルゴリズムを騙すカモフラージュを使い、ある標識を別の標識と誤認させる。  自動運転車を騙すのは、なかなか難しい。車は動き、カメラから入る映像は絶えず変わる。その全てで破綻なく騙さなければならないからだ。しかし、人間には気付かせずに、機械のみを欺くことは現実に可能になっている。

顔認識を防止するグラス、メイク

 コンピュータが普及して以降、世の中には機械の目が増えた。それらは人間とは違う方法で入力を処理するため、機械に特化した騙しのテクニックが使える。  顔認識という分野がある。狭義には、画像や映像の中から人の顔を検出する。広義には、それが誰かをデータベースから照合することまで含む。この技術を使うと、監視カメラや動画のデータから、誰がいるのか突き止められる。こうした技術が元で起きるトラブルについては、昔『顔貌売人』という小説で書いたことがある。  この顔認識を防ぎたいと願う人もいる。プライバシーを守りたい人。あるいは政府による監視を逃れたい人。「何となくいや」という消極的な理由もあるだろう。  国立情報学研究所(NII)では、「かけるだけで顔認識ができなくなるサングラス」を開発している。「プライバシーバイザー」と呼ばれるもので、商品化されている。  回避する仕組みは、バイザーに貼り付けられた素材にある。可視光を反射・吸収する素材を利用することで、目の周りの明暗の特徴をなくして、顔認識のアルゴリズムを回避する。  こうした顔認識を欺くものは他にもある。HyperFace では、顔認識をおこなう OpenCV を混乱させる布地や衣服を作っている。  OpenCV は、インテルが開発して公開した、オープンソースのライブラリだ。画像処理から始まり、パターン認識や機械学習までおこなえる。画像を扱う分野ではよく用いられ、顔認識でもよく利用される。  HyperFace は、OpenCV が顔と誤認する模様を多数用意することで、本当の顔を埋没させる。  また本物の顔を、顔と認識されにくいように加工するアプローチもある。CV Dazzle という、ヘアメイクやメーキャップでは、本来の顔の特徴を変えることで顔認識を欺く。  肌とは対照的な色をのせる。コントラストを不自然にする。境界を不明瞭にする。左右を不均衡にする。こうした方法を用いて、顔として検出されなくする(参照:ASCII.jp)。
次のページ 
「指紋盗撮」を防ぐ技術も
1
2