本と科学と尊みと

本のこととか科学技術のこととか趣味のこととか書きます

AIの不完全性を認識して利用すべきよね。Uberの自動運転車による死亡事故から考えた。

2018年3月に起こった、Uberの自動運転車による死亡事故について、事故当時の自動運転車がどのように状況を見ていたか、すこしずつ分かってきました。

 

事故の原因について

jp.techcrunch.com

 

以上の記事やツイートでも触れていますが、センサは被害者を見つけていたのだけれど、でも、それを何らかのアルゴリズムで誤検知だとしてしまっていたようです。

 

自動運転システムのどこが悪かったのか

上記のTechCrunchの記事から一部引用します。

事故の原因として考えられることとして、以下のAとBを挙げています。

A:オブジェクト認識システムの欠陥。それが、Herzbergと彼女の自転車を歩行者と認識することに失敗した。自転車や人間はそのシステムがもっとも有能に識別できるべきものに属しているはずだから、これはありえないと思われる。


B: 車の上位ロジックの欠陥。それは、どのオブジェクトに注意を払い、それらに関して何をするかを決める。たとえば路肩に自転車が駐輪していたら、徐行する必要はない。しかし車の前面のレーンに自転車が入り込んできたら、車は直ちに反応するべきだ。これ〔このロジック〕は人間の注意力と意思決定を模倣して、車が新しいオブジェクトを検出したときうろたえないようにする。

今回の状況では、(おそらく)Aの部分で被害者を検知できていたのでしょう。

となると、Bのほうがどういう構成になっていたか、ということが気になります。

 

ちなみに、Aの部分については、画像認識などで、ディープラーニング等のAIが使われている分野ですね。

Bの部分も、AIが使われ始めているようです。

 

Uberはどのようにして自動運転を実現していたか

以下の記事(英語)には、どのようにUberの自動運転車が周囲をセンシングしているか、ということについて書いてあります。

techcrunch.com

 

この記事からわかることは、この自動運転車は、Lidar、レーダー、光学カメラで周囲の状況を検知して、それを統合して周囲の状況を判断していたはず、ということ。Lidarについては、1秒に数回スキャンしているとのこと。

 

ということは、たぶん、少なくともLidarには、それなりの大きさのものが近づいている、ということが数回以上、見えていたはずなのですよね。

 

なお、この記事には、前述のBの部分に関する情報はあまり無いです。

 

そこの統合判断がどうなっていたのかは、よくわかりません。

 

仮に、ぜんぶAI任せだとすると、危うい実装かなぁと思う

もし、そのあたりの判断もすべてAI任せで、強制的にルールベースで割り込むような処理がなかったのだとすると、安全性、という意味では、疑問符が付くような気がします。

 

よく言われることに、現行のAI、特にディープラーニングは、良い結果は出るけどどうしてそうなっているかわからない、ブラックボックスだ、ということがあります。

 

また、AIは、学習していないようなシチュエーションについては、正しい答え(例えばハンドル操作)を導いてくれるとは限りません。

 

だから、AIに頼り切ってしまって、全てAIで実装してしまう、というのは、とくに人命がかかる場面では適切ではないです。

 

一方、Lidarの出力だけ見て、明らかにある程度の大きさのものが一定より近くにあれば、ブレーキを踏んだり回避したりする、というルールベース処理をすることは、難しくはないはずです。

 

 

 

まとめ

人間がやるより事故率が低ければいいじゃない、という考え方は実はあります。

まあ、今の所、事故率、という意味で人間と比較してどうなるのかはよくわからないのですが・・・。

 

今回のUberの自動運転車の事故率だとか、判断アルゴリズムだとかが、どうなっていたかはよくわかりませんが、最低限、メーカーとしては、そういうところをAIに頼り切ることは、避けるべきだろう、と考えます。

すくなくとも、いまのAIは100%の正解を叩き出すものではないのです。

 

最後の砦としての、ルールベース処理を、何かしら入れておかないと、いかんのだと考えます。

 

(ルールベース処理が入っていたのなら、そのロジックが甘かったのでしょうね・・・。アルゴリズムの開発としてはとっても難しいところではありますが。) 

 

AI vs. 教科書が読めない子どもたち

AI vs. 教科書が読めない子どもたち