人工知能が罪を犯せるようになるには

以前書いたもののリメイク。そんなに変わってません。

 


 

現在、ロボット(人工知能)がもし事故を起こしたらその責任は誰が取るのか?ということが大きな議論の的になっている。多くの場面で自律型のロボットが導入される未来を想像すると、ロボットがいずれ重大な事故を起こすのは明白な事だろう。もちろん人間だって事故は起こすので、ロボットの方が事故を起こす確率が少ない可能性はあるし、だからこそ人工知能は注目されている。最近では自動運転自動車などがまさにそうだろう。しかしそうだとしても、事故の責任をロボットを製造した者が全て負うのであれば、製造会社はすぐ倒産してしまうだろう。

 

果たして、人工知能が問題を起こした場合、その責任は誰に求めたらよいのだろうか。…いや、この言い方はあまり適切ではないかもしれない。それはどこかに答えがあるような話ではなく、我々が考えて、どうするか決めていくことなのだから。

 


 

突飛に思われるだろうが、「自律」というテーマに関連するものとして、「少年法」について考えてみよう。少年が起こした犯罪が取り上げられる度に「少年法を改正して子供も罰するようにしろ!」という議論が持ち上がる。皆がこうした話にどれぐらい賛同しているのか分からないが、私は少年を大人と同じように裁かないことにはそれなりに理由があると思っている。子供の刑を軽減する理由としてよく言われるのは「責任能力の有無」というものだ。

 

責任能力が無いというのはどういう状態だろうか。極端な例で考えてみると、赤ん坊の隣にナイフを置いて赤ん坊が怪我をしたとすれば、赤ん坊に責任があると言う人は居ないだろう。それはナイフを赤ん坊の隣に置いた人が悪いとするしかない。そうした状態が「赤ん坊には責任能力が無い」ということである。もちろん、人はそのうち赤ん坊では無くなり、自分のしたことに責任能力があると見なされるようになる。それが実際にはいつなのかというのが、「少年法の適用年齢を何歳までにするのか」という議論だ。しかし、それが何歳になるにしても、人には自分のしたことに責任が取れない場合があることには変わりがない事には注目しておいて欲しい。

 

責任が取れるというのはどういう状態かと言うと、それは一般的には「自由意志」があるかどうかということになっている。ここでいう自由意志というのは、ある問題が起きたとして、その問題の直接の原因を作ったのがその人であり、その人さえ悪さをしなければ問題が起きなかったとみなせることだと考えると良いのではないかと思う。

 

別の言い方をすれば、責任があると見なせる事というのは、その人がそれをやめようと思えばやめられることでなくてはならない。そのためには、取りうる選択肢の中に問題を起こさないものが含まれていないといけない。例えばコンビニ店員が強盗にナイフを突きつけられてお金か商品を渡せと脅されたとすれば、その人はハズレの選択肢しか持っていない。店員が問題を起こしたとしても、その意思決定をしているのはあくまで強盗である。このように、選択肢があってもそれが合理的でなければ、自由とは言わない。問題を回避できる選択肢を持っていた強盗の方に責任があると見なされるのである。

 

そう言うと、やはり中学生などが犯罪をするのは、本人達がやらなければ問題は起きないのだから、本人達の自由意志によるもので本人達に責任がある、と思うかもしれない。しかし「本人達にもどうにもならずそれが起きている」という可能性をもう少し考えて欲しいのだ。

 

私達は、環境の中で生きて、環境に適応して生きている。我々が自分の実力だと思っている事の多くも、環境の恩恵に過ぎなかったりする。例えば親の年収と子の学力には正の相関があることが良く知られている。貧困の中にいる人には貧困から抜け出す選択肢がそもそも与えられていないのかもしれない。

 

社会の仕組みが犯罪を起こしているなら、社会の仕組みを改善しないと同じ問題が繰り返し起こる。犯罪者一人を裁いて済ますことは、社会の改善をせずに済ますことになる。しかし社会の改善には多大なコストがかかるのが常なので、わずかな犯罪者を出さないようにするためのコストとして割に合わないと判断されれば、犯罪がただ一人のせいで起きていると見なして、その一人を裁くのは合理的な判断ということになるのだろう。

 

少年法が少年を保護するのは、環境が強く影響する(とされる)子供については、本人ではなく親やその他周囲の環境が問題を起こしていると見なしていることになる。そして少年法の適用年齢を引き下げるという事は、我々全体が、社会の改善の努力を(あるいは、社会の改善にかけるコストをやむなく)減らすという事を意味しているわけだ。問題を起こす人が減ればその他の人に取っても安全に暮らせるメリットがあるので、そういうことも込みでコストについて考える必要があるだろう。

 


 

さて、ようやく人工知能の話だ。人工知能が問題を起こした場合にだれが責任を取るのかという問題について、現実的な案としては、自動車社会のように保険をかける事が当たり前の仕組みにして、皆で損害に対する補償を分担するという話があるらしい。ここから私がする話はもっと未来の架空の話なので、眉に唾を付けながら読んで欲しい。

 

ロボットが反乱を起こさないにしても、ロボットが人間のパートナーのようになることはあるだろう。ロボットと人間が対等な関係に近づいていくと、ロボットは人間に「人権をよこせ」と主張してくるかもしれない。いや、ロボットが主張しなくても、人間の側がロボットに与えようとするかもしれない。今でも、ペットに人権を与えようとしている人が居ることを考えると、これはそう突飛な考えとも思えない。人類は歴史上「人間」の範囲を拡大し続けてきた。そう言われてピンと来ないならば、白人が黒人を人間だと見なしていなかった歴史を思い出すと良いかと思う。あるいは「女性」もそうだろう。

 

「ロボットに人権を与える」というのは、なんだかロボットのくせに生意気な気がする。しかし、人権とは少し違うかもしれないが、これを「人間扱いする」ということだと考えると、これは少年法の文脈で言うところの、少年が大人になる程度の事なのかもしれないと考えることが出来ないだろうか。

 

ロボットが問題を起こした時に、ロボットに「人格」が認められ、自律的に判断したことだとするならば、ロボットの製造者ではなく、そのロボット自身を裁けばよいことになるのではないか。そしてこれは、製造者にとっては、責任を回避するための手段となるのではないか。そう考えると、ロボットは人間の意に反して人間と対等になろうとするのではなく、人間の望みによって対等に近づいていくのではないだろうか。

 

人工知能が罪を犯せるようになるには、人工知能を作る人間ではなく、人工知能自身に判断の自由がなければならない。しかしそれはどこまで行っても、社会がどう見なすかということでしかないのだ。それは人間の場合でも同じである。そもそも、自由という概念自体が、個人に責任を取らせるためにあると考えることも出来る。すると果たして、自由があるのが幸せなのか、無いのが幸せなのか。その答えもまた、我々が考えて決めていくしかない。

 


 

人工知能について語るときには、多くの人はそれが「人間のような知能を持つ」ものだと解釈する。しかし、我々は「人間」や「人間の知能」について本当は良く知らないのである。逆に言えば、人工知能について考えるということは、人間について考えることなのである。