読者です 読者をやめる 読者になる 読者になる

AIはいつかだれかを守るために銃をとるのか?

対話

Googleやその他のITの巨人たちが徐々にらAI分野への研究を加速させている。


まずはこの記事を見ていただきたい。

Googleの自動走行車、AI運転中に接触事故を起こす | TechCrunch Japan



これからもAIはこういったトライアンドエラーを繰り返していくなかで学習を重ね、わたしたちの生活をより良いものにしていくだろう。こういった自動運転技術もそう遠くない未来に実現すると思う。


もし、対向車が飛び出してきて、それを避けようとした先に人が立っていたら、AIはどう判断するのか?合理的に考えて、避けようとした先の人にぶつかったほうが、トータルの被害は抑えられたとしよう。


では、対向車に乗っていたドライバーが居眠りや酒酔い運転だったならどうだろう?暴走運転だったら?そして、AIの自動車に乗車している人間は損害の責任を追うのだろうか?


話は変わって、世の中で危険の伴う仕事はどんどん機械化が進んでいる。こういった分野もいつかAIの技術が活用されるときがくるだろう。例えば、ガードマンなどの防犯システムにAIが採用されたとする。そのガードマンのAIは誰かが襲ってきたとき、ガードマンを依頼した依頼主を守るために銃をとって戦うかもしれない。


依頼主がたとえ、連続殺人の犯人で、人質をとってビルに立てこもっていたとしても、AIは襲ってきた特殊部隊を相手に攻撃をするかもしれないのではないか?わたしはAIによって世の中が快適で安全な毎日になること自体には賛成派だ。


だが、AIが「倫理観」というものを完璧に学習したとしても、究極の選択で完璧な判断をすることはできないと思う。世の中は、一つの思想観で物事がきまるのではなく、一方では良い事だが、裏を返せば悪い事とも捉えられる事が往々にしてある。


皆さんは、AIがいつかだれかを守るために銃をとるとしたら、それを賛成しますか?反対しますか?より安全な毎日を皆が迎えることは、悪い人たちも安全な毎日を送ることかも知れません。


ひろく意見を募集します。