テスラ「モデルX」の死亡事故 オートパイロット作動 運転警告無視 ブラックボックスの必要性
テスラ(Tesla)は3月30日、カリフォルニア州で23日に起きた同社の自動車による死亡事故で、運転支援機能「オートパイロット」が作動していたことを確認した。
この種の車の安全性に対する懸念が高まりそうだ。
テスラは30日夜、自社ブログで、事故車を運転していた男性(38)がオートパイロットを作動させていたことを公表する一方、この男性は数回の警告を無視していたと説明した。
地元紙サンノゼ・マーキュリー・ニュースによると、運転していたのは米アップル(Apple)のエンジニアで、搬送先の病院で死亡した。当車両は中央分離帯に衝突し、その後ほかの車両2台と接触し、炎上していた。
テスラはブログで「運転手は事故発生前の走行中、ハンドルを握るよう促す視覚的な警告を数回、聴覚的な警告を1回受けていたが、衝突までの6秒間、ハンドルに手が触れたことは感知されなかった」と説明している。
また「運転手は中央分離帯に衝突するまで約5秒間、150メートルにわたり、衝突衝撃緩衝具付きの破損していたコンクリート製の中央分離帯をはっきり視認できる状況にあったが、車両記録には何らかの行動を起こした形跡はなかった」とした。
テスラは、多目的スポーツ車(SUV)「モデルX(Model X)」が、今回ほど激しく壊れた事故は前例がなかったとし、その理由として以前の事故で破損していた中央分離帯が交換されていなかったことを挙げた。
米国では3月18日にも、アリゾナ州で米配車アプリ大手ウーバー(Uber)の自動運転車にはねられた歩行者が死亡する事故が発生し、ウーバーは自動運転車の走行試験を停止している。
テスラ車は、2016年にもフロリダ州で、オートパイロット機能を使用中の「モデルS(Model S)」が死亡事故を起こしたが、米運輸省は2017年1月、自動車の「安全性に関する欠陥」が事故原因ではなかったとして調査を終了していた。
以上、AFP参照
オートパイロットは、まだ完成品ではない。そのため、運転手は常にハンドルを持つ状態にしておくことが求められている。しかし、求められていても応じなかった場合は、今回のようなことが生じる。ただ、これもテスラ側の一方的な弁明であり、実際はどうであったか不明。自動運転車にもブラックボックスが必要なのかもしれない。
中央分離帯に問題があったとしても人の運転では問題はなく、オートパイロットが何も認識して衝突したのか問題だらけ。
突然のパンクによるタイヤ破裂など発生したら、人の介添えがなければ自動運転車は何も対応できないだろう。
ベンツなどは大丈夫だろうか。