
自動運転を巡るニュースがありました。
焦点:「エッジケース」で思考停止も、完全自動運転は結局無理か | ロイター
https://jp.reuters.com/article/autos-autonomous-technology-idJPKBN2QE0FO
タイトルを見ただけで「そりゃそうだろうよ」って思う話です。以前このブログでも書きましたけど、
合法的に飲酒運転出来るレベルのクルマが出来上がったら教えてください…っていう話ですね。
ハンドルやペダル類も持たない完全自動運転車となると、自分の命を完全にそのクルマに預ける事になります。何らかのエラーによって事故を起こしかねないようなレベルなら話になりません。それこそ「絶対に安全」だと保証されていなければ安心して乗れません。
自分で運転して事故を起こした場合はドライバーの責任が問われますが、完全自動運転車のエラーで事故になったら誰が責任を取るのでしょうか?
︙
自分らの業界では「医療安全」…Medical Risk Management (MRM) と称して安全管理・危機管理を頑張っている人達がいます。
MRMの人達は、現場から挙げられた数々のインシデント・アクシデントの報告を元に様々な対策を立てたりしますが、様々な事案が積み上がるとその数だけ新たな「規制」「ルール」が設けられ、現場の職員はその「規制」や「ルール」を覚えきれなくなり、あるいは業務効率の悪化などにより蔑ろにされたりして、再度同じような事案の発生が繰り返される事になります。
MRMの人達の立場として、再発防止のための「完璧な」ルールを作らなければならない事情はわかりますが、「絶対に安全」を保証するような「完璧な」ルールを作る事は不可能です。
人間は時としてミスを犯しますし、機械類は故障する事もあります。「ガイドライン」「マニュアル」などと呼ばれる様々なシステムやルールには必ずピットフォールが存在します。
大切なのは人間がミスしたり、機械がエラーを発したり、ガイドラインやマニュアルが想定していなかった事態が発生した場合に、互いがそれらを補完しあって可能な限り高いレベルの安全を達成しようという心掛けです。
どれか一つに全面的に依存してしまうのは誤りです。まずは自分がミスを犯さないように最大限の努力をし、それでも発生し得るエラーに対しての対策を取るというのが正しい安全管理のあり方です。
「ヒューマンエラーを完全に防止することは出来ない」というのは1977年に発生した
「テネリフェ空港ジャンボ機衝突事故」の教訓です。パイロットの指導教官まで務めていたKLMオランダ航空のベテランパイロットがやらかしてしまったことが主原因となったこの事故の教訓から、「人間は時にはミスを犯すもの」というのが安全管理の大前提となっています。
だからこそ人間がミスをしてもカバーできるような対策作りをするわけですが、そのような対策を取ったからといって人間がミスをしないように修練したり努力する事を否定するものではありません。
逆に様々な対策を取ったことで「これで完璧」「絶対に安全」と思った時から人間の慢心が始まり、危険な状況へと退化していきます。人間も「絶対に安全」という神の領域に一歩でも近付くべく不断の努力が必要です。
これは「絶対に安全」を求められる医療行為にしても航空機の操縦にしても自動車の運転にしても、あるいは原子力発電にしても皆同じです。
自動車の完全自動運転を現状で達成しようなんて話が無謀過ぎるのは考えるまでもありません。
1980年代の米国の特撮ドラマ「ナイトライダー」に登場する「ナイト2000(Knight Industries Two Thousand、K.I.T.T.)」をご存知の方もいらっしゃるかと思いますが、あのようなクルマを夢見て不可能と思われるような技術に挑戦するというのは悪い話ではありません。
夢に投資するのは結構ですが、奇跡を信じさせてお金を貢がせるのは怪しい新興宗教と同じです。
Posted at 2022/09/19 12:03:24 | |
トラックバック(0)