近い未来、社会の中心にいるのは人工知能だろう。
すでに人工知能の活用は始まっている。自動車の自動運転は代表的な例であり、すでにアメリカの運輸省は自動運転車の運転手を「人工知能」とみなす見解を示している。
では、もし人工知能がバグを起こして、自動運転車が暴走してしまった場合、それは一体誰の過失になるのだろうか?
人工知能? それとも製造者? もしかしたら乗っていた人間?
もし、人工知能を搭載したロボットが罪を犯した場合、誰の責任になるのかという問題は、自動運転車に限った話ではない。
スタンフォード大学で人工知能が及ぼす影響と知能について教鞭を取る、ジェリー・カプラン氏は 『人間さまお断り』(三省堂刊)の中で、私たちに一つの解を授ける。
■罪に問えるかどうかの基準になる「道徳的行為者性」
まずカプラン氏は、中世において、動物が「道徳的行為者性」を持っていると信じられており、裁判にかけられていたことがあるという事例を持ち出す。
この「道徳的行為者」であるためには、ふたつの能力が必要とされている。
1つは、自分の行為が及ぼす道徳的な影響を認識する能力。もう1つは、それに応じて自分の行為を選択する能力である。
この2つの条件はどちらも、主観的に善悪を感じているかどうかに依存するものではない。
つまり、「善悪を感じるかどうか」が問題ではなく、推定できる道徳的な基準に照らし合わせて、自分の行為がどのような影響を及ぼすか評価できることが必要だと言っているのである。
もっと簡単に言えば、罪に問うためにその対象が感情を持っているかどうかは関係ない。独自に決めて行動できるのであれば、問うことができるのである。
■法律上、ロボットと奴隷は同じ扱いになる?
とはいえ、もしロボットが事故を起こした時に、その所有者が責任を負わないわけにはいかない。ロボットはその所有者の「代理」として動いていたわけだから、その所有者に責任があるのではないか? と考えられるだろう。
一方、その所有者は、ロボットの設計を信頼して購入した。なおかつ本来の用途に応じて使っているのだから、この事件の責任はロボットを販売した会社だと訴えるかもしれない。
この責任を問うための前例はどこにあるのか?
カプラン氏が取り出すのは、17世紀から18世紀、南北戦争以前の「奴隷条例」である。南北戦争以前は州ごとに奴隷の扱いや法的立場や責任を定めていたが、ほとんどの場合、奴隷は所有物とみなされていた。
それにも関わらず、奴隷が罪を犯したときは例外なく、所有者でなくその奴隷が法的に有罪とされていたのである。