人間が操作する半自動運転の協調実験における
社会互恵性行動の形成と消滅
本研究は筆頭著者である白戸宏和(CMU)とChristakis, N(イェール大学)、ソニーCSLの研究者である笠原俊一の共同プロジェクトです。笠原研究員はCybernetic Humanityの研究の一環として、このプロジェクトを実施しています。
要旨
シンプルな形から複雑な形態まで、機械知能が人間の集団の中で与える影響は大きくなっています。集団行動問題の観点からみると、このような関与はかえって意図せずして、協力などの人間の既存の有益な社会規範を抑制してしまう可能性があります。我々は、オンライン参加者(N = 2人1組で150組の計300人)が参加する協調ゲームにおいて遠隔操作でロボット車両を運転するという新しいサイバーフィジカル室内実験を行い、理論的な予測を検証しました。その結果、自動ブレーキアシストが他者に道を譲るなどの人間の利他的な行動を増やし、またコミュニケーションが相互の譲歩を促進させることがわかっています。一方で、自動操縦アシスト機能は自己利益の最大化を優先させ、人々の相互利益の形成を完全に阻害してしまいました。興味深いことに、この社会的影響は、アシストシステムが使用されなくなった後も観測されました。また、コミュニケーション機能を導入しても、自動操縦アシストがある条件では人々はほとんどコミュニケーションを取らないため、互恵性行動の現象は緩和されませんでした。我々の発見は、積極的な安全支援装置(AIによる単純な操縦アシスト)が、個人の安全と社会的互恵性の間のトレードオフに影響を与えることを含め、人々の間の社会的協調のダイナミクスを変化させる可能性があることを示唆しています。自動ブレーキと自動操縦の違いは、社会的協調のジレンマの中でAI支援技術が人間の主体性を保持しつつ支援するのか、あるいは完全に代替するのかに関係があるようです。人間は集団の課題に対処するために互恵性行動の規範を発展させてきましたが、AIを含む機械知能が規範を持たずに人間の意思決定に関与する状況では、そのような黙示の了解が崩れる可能性があることを示唆しています。
論文
Shirado, Hirokazu, Shunichi Kasahara, and Nicholas A. Christakis. 2023. "Emergence and Collapse of Reciprocity in Semiautomatic Driving Coordination Experiments with Humans." PNAS, Proceedings of the National Academy of Sciences of the United States of America 120 (51): e2307804120.
https://www.pnas.org/doi/10.1073/pnas.2307804120
このプロジェクトは、人間と機械を組み合わせたハイブリッドシステムにおける社会規範に関するものです。コンピュータによるアシストが社会規範にどのような影響を与えるかを調査するため、リアルタイムのビデオ・ストリーミングを備えたサイバーフィジカル室内実験システムを作り、協力ゲームの中でオンラインでの参加者が遠隔操作で物理的なロボット車両を運転します。(N = 2人1組で150組の計300人)
(A) 実験設定 (A) 物理的な協調空間。2台の自動車ロボットが1本の道路上で向かい合っている。プレイヤーはインターネット上でロボットを遠隔操作し、速度や、道路上を走行するかしないかを操作する。(B) 片側の黄色い車のみが曲がる一連の動作。。衝突を避けるには少なくともどちらかのプレイヤーが道を譲る必要があるが、その場合走行速度は75%低下する(報酬も低下する)。(C) 運転システムの実験的処理。デフォルトの手動運転に加えて、自動ブレーキ付きの車は警告とともに自動的に一旦停止し、自動操舵付きの車は直前に自動的にハンドルを切る。
自動ブレーキのアシストによって、道を譲り相互に譲歩するなどといった人間の利他的な行動が高まることが示されました。しかし、自動操舵支援は人と人との間の互恵性を完全に抑制してしまいます。下記の動画は互恵性がないパターンの例。
双方の車両が曲がるのをラウンドごとに俯瞰した映像。このサンプルセッションは、通信機能付きの自動操舵の条件下で行われた。上記のアニメーションは、車両の動き、参加者のコミュニケーションメッセージとそのタイミング(ただしこの例では参加者はメッセージを送信していない)、アシストシステムの作動タイミング(警告と自律緊急操舵アシスト等)など分析に使用した記録情報を示している。ロボット車両はラウンドの合間に自動的にスタート位置に戻った。
互恵性パターンと非互恵性パターンの違いは、社会的協調のジレンマにおいてテクノロジーが「人間の主体性」をサポートするか代替するかによると見受けられます。これはハイブリッドシステムにおける主体性が社会的協調に影響を与えうることを示唆しています。 下記の動画は互恵性パターン
片側の車両のみが曲がるのをラウンドごとに俯瞰した映像。このサンプルセッションは、通信機能付きの手動条件下で行われた。上記のアニメーションは、車両の動き、参加者のコミュニケーションメッセージとそのタイミング、アシストシステムの作動タイミング(注:この例の参加者は警告システムを作動させなかった)など、分析に使用した記録情報を示している。ロボット車両は、ラウンドの合間に自動的にスタート位置に戻った。
Emergence and collapse of reciprocity in semiautomatic driving coordination experiments with humans
This project is about social norms in hybrid systems of humans and machines. To investigate how computer assistance will impact on social norms, we build a cyber-physical lab experiment system with real-time video streaming where online participants drive physical robotic vehicles remotely in a coordination game.(N = 300 in 150 dyads)
The collaboration project with the lead author Hirokazu Shirado (CMU) and Christakis, N (Yale University) and Sony CSL researcher Shunichi Kasahara. Dr. Kasahara conducts this project as part of his research for Cybernetic Humanity.
Abstract
Forms of both simple and complex machine intelligence are increasingly acting within human groups in order to affect collective outcomes. Considering the nature of collective action problems, however, such involvement could paradoxically and unintentionally suppress existing beneficial social norms in humans, such as those involving cooperation. Here, we test theoretical predictions about such an effect using a unique cyber-physical lab experiment where online participants (N = 300 in 150 dyads) drive robotic vehicles remotely in a coordination game. We show that autobraking assistance increases human altruism, such as giving way to others, and that communication helps people to make mutual concessions. On the other hand, autosteering assistance completely inhibits the emergence of reciprocity between people in favor of self-interest maximization. The negative social repercussions persist even after the assistance system is deactivated. Furthermore, adding communication capabilities does not relieve this inhibition of reciprocity because people rarely communicate in the presence of autosteering assistance. Our findings suggest that active safety assistance (a form of simple AI support) can alter the dynamics of social coordination between people, including by affecting the trade-off between individual safety and social reciprocity. The difference between autobraking and autosteering assistance appears to relate to whether the assistive technology supports or replaces human agency in social coordination dilemmas. Humans have developed norms of reciprocity to address collective challenges, but such tacit understandings could break down in situations where machine intelligence is involved in human decision-making without having any normative commitments.
Paper
Shirado, Hirokazu, Shunichi Kasahara, and Nicholas A. Christakis. 2023. "Emergence and Collapse of Reciprocity in Semiautomatic Driving Coordination Experiments with Humans." PNAS, Proceedings of the National Academy of Sciences of the United States of America 120 (51): e2307804120.
https://www.pnas.org/doi/10.1073/pnas.2307804120
Experiment setup. (A) The physical coordination space. Two car robots face each other on a single road. Players remotely drive the robots over the Internet to control the speed and whether to drive on or off the road. (B) A sequence of a unilateral turns by the yellow car. To avoid a crash, at least one of the players needs to give way to their counterpart, but this reduces their driving speed by 75% (and thus their payoff). (C) Experimental treatments for the driving system. In addition to the default (i.e., manual driving), cars with autobraking automatically stop once with a warning, while those with autosteering automatically swerve at the last moment.
We show that autobraking assistance increases human altruism, such as giving way to others and making mutual concessions. BUT, autosteering assistance completely inhibits the emergence of reciprocity between people. gif = example of non-reciprocity pattern.
Bird's-eye-view footage of bilateral turns across the rounds. This example session is in the auto-steering condition with communication capabilities. The parallel animation shows the recorded information used for the analysis, such as the trajectories of vehicle motion, the participants' communication messages and timing (although this example's participants never sent messages), and the assist system's activation timing (i.e., warning and autonomous emergency steering assistance). The robotic vehicles automatically went into the start positions between rounds.
The diff between Reciprocity and non-Reciprocity patterns appears to relate to whether the technology supports or replaces "human agency" in social coordination dilemmas, suggesting that agency in hybrid systems can impact social coordination. gif = Reciprocity pattern
Bird's-eye-view footage of reciprocal unilateral turns across the rounds. This example session is in the manual condition with communication capabilities. The parallel animation shows the recorded information used for the analysis, such as the trajectories of vehicle motion, the participants' communication messages and timing, and the assist system's activation timing (i.e., warning; although this example’s participants never activated the warning system). The robotic vehicles automatically went into the start positions between rounds.