人工知能が罪を犯せるようになるには

(新ブログに、少しだけ改定したリメイクがあります。)


人工知能が罪を犯した場合、罪に問われるのは人工知能の作成者ということになるのでしょうか。人工知能が自立して、そして自律していく時、その考えはいつまで有効なのでしょうか。




よく「少年法を改正して子供も罰するようにしろ!」という話がありますが、まあ実際何歳がいいのかというのは議論があると思うのですが、子供というものを罪に問わないのにはそれなりの理由があると思う訳です。子供を罪に問わない理由としてよく言われるのは「責任能力の有無」というものです。子供は「責任が取れない」と見なされるわけですね。では責任が取れるというのはどういう状態なのでしょうか。それは「自由」があるかどうかということになります。


ここでいう自由というのは、ある問題が起きたとして、その問題の直接の原因を作ったのがその人であり、その人さえ悪さをしなければ問題が起きなかったとみなせることだと考えると良いのではないかと思います。


そう言うと、やっぱり中学生などが犯罪をするのは、本人達がやらなければ問題は起きないのだから、本人達の自由意志によるもので本人達に責任がある、となりそうな気もするかもしれません。しかし「本人達にもどうにもならずそれが起きている」という可能性をもう少し考えて欲しいのです。


私達は、環境の中で生きて、環境に適応して生きています。我々が自分の実力だと思っている事の多くも、環境の恩恵に過ぎなかったりします。例えば、親の平均年収と国立大学への進学率の相関の高さなどは良く知られたことです。他にも例えば紛争地域で暮らす子供(大人もでしょうか)に、日本の我々の倫理観など通用しないことなども分かるでしょう。(分からない人も居るとも思います)


私は男なので、少なくともオトコノコには、オトコノコの集団の中で、「男らしさ」とか「仲間意識の保持」みたいなもののために、社会の倫理とは逸脱した行動をせざるを得ない場面というものがあることは強く感じています。少し前まではお酒の一気飲みなどがどれほど肯定されていたか、考えてみてください。私は、自分がそういうものに抗ってきたと思っていますが、「普通の人」がどれほど抗えないかという事を良く知っているつもりです。私だって、目の前に絶対的な暴力があったら、言われるがままに犯罪をすることはあるだろうと思います。


社会の仕組みが犯罪を起こしているなら、社会の仕組みを改善しないと、同じ問題が繰り返し起こります。犯罪者一人を裁いて済ますことは、社会の改善をせずに済ますことになります。しかしほとんどの人にとって問題無い環境条件であると見なせて、わずかな犯罪者を出さないようにするのに多大なコストがかかるとしたら、犯罪がただ一人のせいで起きていると見なして、その一人を裁くのは合理的な判断でしょう。*1


しかし少年法というものが実際にあり、ここでは少年の責任能力がないと見なして、監督義務を持つ親を裁くとしています。これは、環境の方を裁いているわけです。環境が強く影響する(とされる)子供については、本人ではなく環境を裁くべきであるという考えがあるわけです(私がそう思っているだけなので、違うなら教えてください)。そして少年法の適用年齢を引き下げるという事は、我々全体が、社会の改善の努力を(あるいは、社会の改善にかけるコストをやむなく)減らすという事を意味しているわけです。




さて、ようやく人工知能の話です。そして、ここからは与太話です。現在、ロボット(人工知能)がもし事故を起こしたらその責任は誰が取るのか?ということが大きな議論の的になっています。多くの場面で自律型のロボットが導入される未来を想像すると、ロボットがいずれ重大な事故を起こすのは明白な事でしょう。それが、人間の場合より少ない可能性はあるにしてもです。そうなると、その責任をロボットの製造者が全て負うのでは、製造会社はすぐ潰れてしまうでしょう。


この問題について、現実的な案としては、自動車社会のように、保険をかける事が当たり前の仕組みにして、皆で損害に対する補償を分担するという話があるらしいです。…これから私が話すのはもっとアホな話です。


ロボットが反乱を起こさないにしても、ロボットが人間のパートナーのようになることはあるでしょう。そうした時に、ロボットが「人権をよこせ」と主張してきたとします。いや、ロボットが主張しなくても、人間の側がロボットに与えようとするかもしれません。今でも、ペットに人権を与えようとしている人がいるぐらいですから。その話を馬鹿なと思うなら、白人が黒人を人間だと見なしていなかった歴史を思い出すと良いかと思います。


「ロボットに人権を与える」というのは、なんだかロボットのくせに生意気な気がします。しかし、人権思想の意味での人権とは少し違うかもしれませんが、これを「人間扱いする」ということだと考えると、もしかすると、これは少年法の意味で、少年が大人になる程度の事なのかもしれないと思ったのです。


ロボットが問題を起こした時に、ロボットに「人格」が認められ、自律的に判断したことだとするならば、ロボットの製造者ではなく、そのロボット自身を裁けばよいことにならないでしょうか。そしてこれは、製造者にとっては、責任を回避できる手段となるのではないでしょうか。そう考えるとさらに、ロボットが人権を持つということは、意外に現実的なことのような気がしてこないでしょうか。


…なんかイマイチ落ちて無い気がしますが、人工知能は人間の意に反して権利を拡大してくるのではなく、人間の望みによって権利を拡大してくるのではないか、そしてそれは人工知能にとっても大変なことではないか、みたいなお話でした。

*1:この、「社会がまともであればあるほど、犯罪を犯す人の自己責任が問われる」ということが、まさしく、現代では犯罪が減っているのに、「凶悪犯罪」が「増えている」、と認識される事に繋がっていると思われます。社会がまともであれば、普通の人には犯罪を犯す動機が無いからです。