このプロジェクトは人の偏った認知バイアスを機械学習等で学ばせ、逆張りもしくは別のバイアスを道具に実装し「公平な社会を目指す」その是非と方法について問います。私たちは一体どのようにそれをデザインし実装してゆくべきなのでしょうか?叩き台としてアメリカの「Black lives matter」活動を反映した「Alt Bias Gun」を提案します。この銃は「非武装で警察に銃殺された黒人」の過去数年のデータから殺されやすい人を学習判別をし、条件にあった場合は銃の引き金を数秒止めます。(2018 July)

What if we install an algorithm that works as a counter to human false cognitive biases, by using tools that learn the current biases using deep learning and similar technologies? This project questions how we should design “the fair society” using technologies, and whether this is the right or wrong direction to go. As a speculative draft, I exhibit an “Anti-Bias Gun” that reflects the “Black Lives Matter” activist movement. This gun locks the trigger for a few seconds depends on the target image. The gun has learned the concept of unarmed black people who were killed by police, based on the last few years of data.
I would like to portrait the bias of this case, in the other word facial image of victim tendency. Collect the victims face image and use deep learning to extract the attribute of the who were tend to be killed by police without arms.
正義について、公平性について

誤って殺す方も殺される方も嬉しく無い。もしかしたら撃つ警察官も自分が殺されるかもしれないという恐怖の中で、文化的に刷り込まれたバイアスが暴発して反射的にトリガーを引いたのかもしれない。最近では"Neurolaw"という言葉や分野が出てき始めた。これについてざっくりまとめると、もし彼らが脳神経科学的に責任を持てなかったと証明してしまった時、法の現場はどのように対処すべきかを研究する側面も含まれている。
この不幸を止めるためにこういった道具の導入は正しいのだろうか?何秒引き金を引けなくするのが妥当なのか?引き金を止めずとも「バイアスで撃とうとしていませんか?」とアラートをだすだけでも、そこでもし効果的に死傷者の数が変わるのならばそれは公平なのだろうか?もしこのシステムを悪用され警察が撃たれたら、この製造者は責任をとらされるのだろうか?
どこから線引きをするのが公平なのかを考えた時に過去の被害者たちの顔から傾向や特徴を出したとしたら、説得力があるのだろうか。
ここで導き出される議論は警察の死傷者数の問題にもなる。一年にどのぐらい彼らは無罪の人を殺し、どのぐらいの数の警察が死ぬのか?この銃を社会に投入するとき問いは警察の命か、無罪の一般市民の命か?に行き着き、問題の根本は社会が犯罪者を作り出すというシステムであり、アメリカに於いてはドキュメンタリー映画13thにまとめられているように、解放された奴隷をどのようにまた奴隷化するのかという、憲法修正第13条にまで遡るものでもある。
カナダの警察の動画がyoutube上にある、銃を持った、既に発砲もしていた犯人を銃を使わずに確保したものだ。そういった意味では、警察がすぐに人を殺すという方向性以外の方向でも努力することができるのではないか?
とすると、このプロジェクトから見えてきた次の問いは、社会システムの改善、警察に対するバイアスクレンジング教育に関わるテクノロジーは何か?かもしれない。

公平性をテクノロジーで取得するには
自由意志と法
過去の実験から導かれる結論
因果関係の話
方法論
次の方向性:脳について
どこまでするべきか?



Data and Tutorials 
The Washington Post
https://www.washingtonpost.com/graphics/national/police-shootings-2017/
https://github.com/washingtonpost/data-police-shootings
https://mappingpoliceviolence.org/
For the deep-learning
https://susanqq.github.io/UTKFace/
http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
https://github.com/BoyuanJiang/Age-Gender-Estimate-TF
Articles and Books
Machine Bias –There’s software used across the country to predict future criminals. And it’s biased against blacks.- https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
AIとバイアスについて書かれたもの2016年。アメリカでは裁判所が罪人の刑期を決めるのに公平性を欠く情報によったアルゴリズムで決めている。それらのループにより黒人たちは社会の底辺に留められている。

以下の3つの研究は優生学、監視社会、プライバシー(アウティング等)の問題に関わる。​​​​​​​
Responses to Critiques on Machine Learning of Criminality Perceptions(犯罪認識の機械学習における批判への対応)(実質はID写真から犯罪者と一般市民の顔の傾向を探る方法に見える)https://arxiv.org/pdf/1611.04135v3.pdf
DEEP NEURAL NETWORKS CAN DETECT SEXUAL ORIENTATION FROM FACES (ディープニューラルネットワークをつかって顔から性的方向を検出した)https://www.gsb.stanford.edu/sites/gsb/files/publication-pdf/wang_kosinski.pdf
Predicting First Impressions with Deep Learning(ディープ・ラーニングによる第一印象の予測)https://arxiv.org/pdf/1610.08119.pdf
Special Thanks 
Technical support: Yuri Aisaka
JST ERATO Kawahara Project
Back to Top