米運輸省道路交通安全局(NHTSA)は16年2月、グーグルからの問い合わせに対して、人工知能(AI)も人間と同様のドライバーとみなすことが可能だと答え、「ドライバーレス」へと一歩前進した。さらに、米運輸省は同年9月、自動運転の安全性を確保するため、システムが故障した場合の対応など15の審査項目を含めた独自の指針を発表した。
ただ、いくら安全性確保に向けた指針が示されたとしても、自動運転車が100%安全だとはいいきれない。完全な技術などありえないからだ。実際、16年5月、米テスラモーターズの電気自動車(EV)「モデルS」は運転支援システム「オートパイロット」を作動中に衝突事故を起こした。
となると、自動運転における損害賠償責任が明確にならなければ、怖くて自動運転車に乗ることはできないだろう。「ドライバーレス」の自動運転が、にわかに現実味を帯びるなかで、事故の責任を誰が負うのか。
自動運転をめぐる法整備は、自動運転が健全な発展を遂げるに当たっての待ったなしの課題といえる。
自動運転における損害賠償責任
自動運転技術の導入と並行して考えなければいけないのは、法令の見直しである。自動運転車が事故を起こした場合、いったい誰が責任をとるのか。とりわけ、事故被害者の救済を確実にするには、法令を大幅につくり直す必要がある。
日本の自動運転をめぐる法的事情をみてみよう。自動運転にかかわる主要な法律は、警察庁が所管する「道路交通法(道交法)」と自動車保険制度の根幹となる「自動車損害賠償保障法(自賠法)」の2つであるが、どちらも「ドライバーレス」を想定してつくられたものではない。
政府は、自動運転について4段階のレベルを設定している。「加速・操舵・制動のいずれかをシステムが行うレベル1」、「加速・操舵・制動のうち複数の操作をシステムが行うレベル2」、「加速・操舵・制動をすべてシステムが行い、システムが要請したときはドライバーが対応するレベル3」、「加速・操舵・制動をすべてシステムが行い、ドライバーがまったく関与しないレベル4」である。
自動運転車の事故を現行法に基づいて考えると、「レベル3」までは、自動運転中であっても、ドライバーはいつでも運転に介入できることから、自賠法の「運行供用者責任」の考え方を適用できるとされている。対物事故についても、現行の考え方を適用できるとされる。