2018年4月4日水曜日

自動運転はまだまだ奥が深くて普通の人の標準レベルにまでは届かない

UberだけでなくTESLAも再び死亡事故を起こしてしまいました。

Uberの実験の場合は二車種のうち一車種にあのボルボXC90が使われていたようですが、この場合ボルボの安全運転システムは完全にLiderに乗っ取られている状態でオフになっていたようです。

そもそもUberの実験のほうは人間が「万一の場合」に備えて乗っていたにもかかわらず、のんびりと構えていて、全くリスクに備える気配なし。多分この人契約違反で訴えられそうですが・・・。

基本的に、この車が走っていたラインは完全に自動車専用のラインだったようで、メインのLiderシステム自体が起動されていなかった可能性もあります。Liderシステム自体はものすごく電気を食うようなので、常時オンではなかったのかもしれません。
そういう意味では今後、この事故がどのような経緯で起きたのかを知ることは大変重要な事なのではないかと思います。

問題なのはTESLA・・・。
この前の逆光下での死亡事故に続いて今回のバリアへの突っ込み死亡事故はいくらマシン側が警告音を出し続けていても、TESLA側が言い訳を出来るような事故なんでしょうか。
今、わたしが一番危惧するのはこの運転の自動化における「万一」のインシデントにおけるコンピューター側の処理のバリエーションの幅です。

人間が異常な状況に接すると通常アクセルをオフにするyぴう最善かつナチュラルなオプションがありますが、AIには今の時点でそれがデフォルトになっていない。この点が最大の問題だと私自身は思っています。

私の車もボルボですが、仕事の都合でほかの車で同じような安全システムがついていないタイプのものに乗り換えて運転する時はそれこそ「気合」を入れて運転せねばなりません。w

理由は簡単。マシン側が提供する安全装置は人の運転を油断させる方向に持ってくるのが当然なのです。
自分で運転していてわかるのは、安全に対するマージンがでかいシステムを使っていると、それが無いシステムに乗っている時は大変緊張するものなのです。

そういう意味では「もし」自動運転システムが進んだ状態、かつ未だに完全でないようなTESLAのような車に乗った人は今の時点では死亡事故を起こすようなことがまだまだこれからも起きる可能性があるのではないかと危惧します。

0 件のコメント: