借金ナシ副業大家きりたろう

副業で現金を増やして不動産を全額現金一括買い

自動運転のAIは1人の命と引き換えに5人の命を救うことを選ぶのか? 伊藤穰一氏「教養としてのテクノロジー」より

書籍

伊藤穰一さんのこの本を読んで、自動運転の本当の課題は技術面ではなく倫理面だというところが、非常に考えさせられたので書いてみる。

教養としてのテクノロジー―AI、仮想通貨、ブロックチェーン (NHK出版新書 545)

トロッコ問題的な思考実験

倫理学で有名なトロッコ問題と類似の状況が自動運転で起きたと考えてみる。

自動運転で走行中、信号を無視した歩行者5人が突然目の前に現れた。ブレーキを踏んでも間に合わないほど近い。このままでは彼らは轢き殺されてしまう。
この時自動運転AIがハンドルを切れば5人は確実に助かる。しかしハンドルを切れる方向には別の歩行者1人が歩いており、5人の代わりにこの1人が轢かれて確実に死ぬ。
または、歩行者と反対側にはコンクリートの壁がある。こちらに向かってハンドルを切れば歩行者は全員助かるが運転席の1人は確実に死ぬ。
この時、自動運転AIはハンドルを切るべきか?

このような状況になったとき、コンピューターはどのような選択をするようにプログラムされているべきだろうか?

犠牲者に優先順位をつける?

5人を助けるために、1人がいるほうへハンドルを切ることは、「5人を救う」選択をすると同時に「1人を殺す」選択をしたことになる
あるいは、1人のほうがまだ幼い子どもだったらハンドルを切るべきかどうか判断を変えるべきなのか?
歩行者の数が2人の大人と2人の親子だったらどちらにハンドルを切るのか?
これは、「犠牲者に優先順位をつける」ということに他ならない。
自動運転の車だけが存在する世界ならばこのような事態は避けられるかもしれない。
しかし、歩行者も混在したとき、このような選択が現実に迫られる可能性は大いに有り得ると思う。
こんなとき、どうすべきか?これは技術ではなく倫理の問題だ

「これからの正義の話をしようか」

トロッコ問題を用いてマイケル・サンデル著の書籍で様々な思想が紹介されている。
これからの「正義」の話をしよう (ハヤカワ・ノンフィクション文庫)

例えば、5人を救うために1人を犠牲にすることを選ぶ考え方を「功利主義」と言う、など。
少し古い本だが、自動運転の倫理を考えるときに改めて読みたい本だ。

事故の責任はどこに?

自動運転で事故が起きた場合に、責任がどこにあるか?というのは自動車メーカーによって異なるそうだ。
自動運転の電気自動車を開発しているアメリカのテスラは、運転者に責任があると定めており、乗車時に「我々の責任ではなく、あなたのリスクで使っています。了承しますか?」という確認が出るそうだ。
一方、ドイツのフォルクスワーゲン、BMWは「こちらに責任がある」と言っているようで、このあたりについては統一見解がないのが現状だ

自動運転というと、事故が起きた事例など技術面の不安が指摘されることもあるが、それは時間とともに解決されていくし、最初はなんでもそんなもんだろう。
伊藤穰一さんが指摘するように、自動運転の本当の課題は技術ではなく倫理なのかもしれない。

Tagged ,

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です