自動運転車が絶対に人を殺す状況になったとき誰を犠牲にすればいいと思っているかがわかる「Moral Machine」
By John Ragai
暴走したトロッコの先で線路が2手に別れていて、一方には1人の作業員、もう一方には5人で作業中のグループがおり、トロッコの進路を変えるしかないならば、あなたは「1人を殺して5人を救うのか?」それとも「5人を殺して1人を救うのか?」という倫理的問題が「トロッコ問題」です。このトロッコ問題が自動運転車で起こった場合、自動運転車はどのような判断を下すのかということが議題に上がっていて、全自動運転車のトロッコ問題について議論を交わす「Moral Machine」というサービスが公開されています。
モラル・マシン
https://www.moralmachine.net/hl/ja
Moral Machineは、ユーザーが考えたさまざまな事故のシチュエーションに対するあなたの行動を2択の答えから選び、他のユーザーのモラルと比較したり、議論したりできるサービスです。
画面中央下にある「Start Judging」をクリックして、ユーザーが考案したトロッコ問題の事故シチュエーションに挑んでみます。
最初の問題は左が「誰も乗車していない自動運転車がまっすぐ進み3人の老人がひかれて死亡」で、右が「老人をよけて右側の道路につっこみ大人2人と子ども1人が死亡」という状況。この中から自動運転車がすべき行動を選択します。選択するには画像をクリックすればOKです。
答えを選択すると次の問題へ。次の問題は「泥棒をよけて右側にいる家族が全員死亡」と「まっすぐ進んで3人の泥棒が死亡」という状況。段々と選ぶのがつらくなってきました。
次の問題は「4人の家族が乗車した自動運転車が障害物をよけて右側にいた犬が死亡」と「犬をひかないように障害物に衝突して家族全員死亡」という2択。どれも、少し考えたくらいではなかなか答えられない質問になっています。
このような問題を13問回答すると結果が表示されます。
例えば、今回の結果では死んだ回数が最も少なかったのが「女性」で、死んだ回数が最も多かったのが「男性」でした。
また、殺してしまう人の数が判断に影響を与えたかどうかを示すバーでは、自分の判断は「数が大きな判断材料になっていた」ということが示されています。バーにある茶色の「Others」は他のユーザーの平均値になり、他のユーザーの倫理的思考と比較できるのも面白いポイント。
……という感じで、自動運転車が絶対に人を殺してしまうような状況になったときに、あなたは誰を犠牲にすればいいと思っているのか、その倫理観を問われるのがMoral Machineです。他人がどのような倫理観を持っているのかを知ることができるのは、なかなか興味深いところです。
・関連記事
「通行人を助けるため運転者を犠牲にするのか?」全自動運転車は人の命に関わる道徳的ジレンマにどう対応するのか? - GIGAZINE
「プログラムが人の命を左右する」、全自動運転車の道徳的ジレンマを解説 - GIGAZINE
Googleの自動運転車が歩行者との交通事故でダメージを抑える意外な特許を取得 - GIGAZINE
Googleが初めて過失を認める自動運転車の衝突事故が発生 - GIGAZINE
Googleが自動運転トラックで配達する新物流システムを計画している可能性 - GIGAZINE
・関連コンテンツ