テスラに新たな事故 トヨタが「運転支援システム」と呼んでいるわけ
2018年2月12日 07:40
テスラの車が新たな事故を起こした。停車中の車に後ろから追突する事故で、この類は特に珍しいものではないが、「半自動運転中の事故」であるため注目されている。テスラの「半自動運転車」は、「大きな赤い消防車を発見できずに」追突したのだ。人間が運転していれば起きなかった可能性が大きいため、衝撃が走った。現代の「運転支援システム」の限界を示しており、現状でのこのプログラムの使用が適切であるのか検証する必要性があるだろう。
【こちらも】【テスラ死亡事故】37分走行中わずか25秒しかハンドル握らず 自動運転への過信
テスラのマニュアルによれば、「半自動運転で前車を追尾しているとき、前車がいなくなったとたんに静止した車などが前方に現れたとき、急ブレーキをかけられないことがある」と警告がある。こうした場面でこそ緊急ブレーキが必要な時であり、これに対応できないと除外することは「危険」でもあるといえる。こうした状態でも「実用レベルにある」と判断すること自体に問題はないのか?どうも「ソフトウエア開発者」は「マニュアルで警告しておけばよい」と判断しているが、これはとんでもないことだ。
「実用化」の概念を定義しておくことが必要な事態であろう。ソフトウエア開発者は、このプログラム・システムには「人命」がかかっているとの認識が薄いようだ。「安全」を確保するのが基準とならねばならないが、「システムの面白さ」に見とれて、「万が一」の場合人命が奪われる危険があるとの認識にかけている。自動車には「重要保安部品」という区分があるが、「半自動運転プログラム」は、まさに「重要保安部品」だ。間違いは許されないのだ。
パソコンのWindowsのようにフリーズしてよいものではない。修正したり、注意喚起したりすればよいものでもない。確実でなければならない。テスラのイーロン・マスクCEOに、この点がかけているように見える。自動運転の難しさを検証してみる必要がある。
トヨタは、現在のレベルの半自動運転システムを「自動運転」とは呼ばずに「運転支援システム」と呼んできたが、それでもこのレベルでは「販売すべきではない」システムではないのか、一度検証が必要だろう。(記事:kenzoogata・記事一覧を見る)