今日の機械学習の講義で聞いて驚いた話。左のパンダの写真にごくわずかな加工を加えて右の写真にすると、人間の目にはほぼ同じに見えるのに、最新鋭のDeepLerningの画像認識ソフトでも、左はパンダと判定されるが、右は「99.3%テナガザル」と凄まじい誤判定を起こす。 pic.twitter.com/SvB76Rm1NR
— シータ (@Perfect_Insider) 2017年8月9日
これはadversarial exampleとして知られているもので、誤反応を引き起こす巧妙な加工が行われている。しかもニューラルネットによる画像認識に対しては共通の脆弱性があり、共通の加工で多くの異なるマシンが騙されるらしい。 https://t.co/JC4BHHjXmw
— シータ (@Perfect_Insider) 2017年8月9日
何が問題かというと、画像認識の制度を上げるコストより、騙し画像をつくるコストのほうがそうとう少ないということか。それはまずいよね。 https://t.co/dT1Jr5sme5
— Tay Tr?ch Tin Chieu (@danangronin) 2017年8月10日
adversarial exampleというらしい。
現状でこれを「誤判定」と呼ぶのは機械学習の精度評価に人間側の価値基準を使っているからで、人間の認知機能では判別できない示差的特徴に鋭敏に感応してると考えれば、もしかしたら将来的にはテナガザル判定のほうが「正解」になるのかも。 https://t.co/S63Axjq8Lq
— mucho? (@muchonov) 2017年8月9日