- 自閉症を持つ人は職場でどのように友人を作ることができますか?
- 自閉症の人々に対してAIチャットボットはどの程度有益ですか?
- 自閉症を持つ人々の視点を取り入れた技術開発はどのように行われるべきですか?
米カーネギーメロン大学の新しい研究では、自閉症を持つ人々が職場で直面する問題に対処する際に、ChatGPTや類似の人工知能ツールをどのように利用しているかを調べました。
この研究は、コンピュータ科学部のアンドリュー・ベゲル教授が率いるチームによって行われましたが、彼らはこのようなシステムがときに疑問をもってしまうようなアドバイスを出すことも発見しました。
さらに、自閉症コミュニティの中では、チャットボットの使用が本当に良い考えなのかについて意見が分かれています。
ベゲル教授はこう言います。
「私たちが見つけたことは、自閉症を持つ人々がすでにChatGPTに質問をしていることです。
たとえば、『職場でどうやって友達を作ればいいですか』といった質問です。
ChatGPTの回答はそれに部分的に適しているとも、適していないとも思います」
ベゲル教授は、障害を持つ人々や神経多様性を持つ人々も含めて、すべての人が成功できる職場環境の開発を目指すVariAbility Labを率いています。
自閉症を持つ多くの大人にとって、失業や非雇用は大きな問題であり、多くの職場は社会的またはコミュニケーションの問題に直面した際に、自閉症の従業員やその同僚を支援するためのリソースを持っていないか、それを優先していません。
この問題をより深く理解するために、ベゲルと彼のチームは自閉症を持つ11人を募集し、OpenAIのGPT-4に基づいたチャットボットと、参加者には別のチャットボットのように見える実際には人間であるアドバイザーからのオンラインアドバイスを評価しました。
その結果意外にも、ユーザーは偽装した人間よりも本物のチャットボットを圧倒的に好みました。
ベゲルによると、チャットボットがより良いアドバイスをしたわけではなく、そのアドバイスの提供方法が好まれたとのことです。
「参加者は、迅速で理解しやすい回答を優先しました」
チャットボットは、繊細さに欠ける黒白の回答を、たいてい箇条書きで提供しました。
一方、カウンセラーは何をしたいのか、なぜそれをしたいのかについてよく質問しました。
ほとんどのユーザーはそのようなやり取りを好まなかったとベゲルは言います。
参加者はチャットボットのコンセプトを気に入っており、ある人はこう言います。
「正直に言うと、私の職場で…チャットボットだけが信用できると思います。すべての会社や仕事が包括的なわけではありませんから」
しかし、自閉症を持つ求職者をサポートする専門家が回答を評価したところ、ChatGPTの回答の一部は役に立たなかったと判断されました。
たとえば、友達の作り方についてのアドバイスを求めたユーザーに対して、チャットボットは人に近づいて話を始めることを提案しました。
しかし、自閉症を持つ人にとって、それは通常、快適に感じられることではないとベゲルは述べています。
この研究の成果は、先月ホノルルで開催されたコンピューティング機構協会の人間とコンピュータの相互作用に関する会議(CHI 2024)で、HCIIの博士課程学生であるジウォン(ジュン)ジャンが発表しました。
ベゲルとジャンの他に、共著者にはHCIIの博士課程学生サニカ・モハラナと、HCIIの助教パトリック・キャリントンがいます。
ベゲルによると、自閉症を持つ人々の問題に特化して訓練されたチャットボットなら、悪いアドバイスを避けることができるかもしれません。
しかし、自閉症コミュニティの全員がそれを受け入れるわけではありません。
一部の人々は、それを自閉症を持つ労働者を支援する実用的なツールと見なすかもしれませんが、他の人々は、多くの人々と異なる脳の働きを持つ人々に対し、他の人に合わせようとする新たな方法のように捉えています。
「私たちは誰の視点を優先するかという大きな議論をしています。
いろいろな人と交流せずに技術を開発していると、定型発達の人の視点を優先してしまいませんか?
つまり、「私の前では、自閉症を持つ人はこんな風に振る舞ってほしい」と考えてしまいませんか?
自閉症を持つ人の願いを考えることができていますか?
つまり、「私の前では、自分のありのままの姿で振る舞ってほしい」、
それとも、「周りに好かれ仲良くできるように、嫌われないようにしてほしい」と考えますか?」
根本的には、自閉症を持つ人々が彼らを助けることを目的とした研究に意見を述べる機会が与えられているかどうかという問題です。
これはまた、米カリフォルニア大学のナバ・リズビと他の研究者たちと共同で著した別のCHIの論文で探求されています。
その研究では、2016年から2022年の間に発表された自閉症の人々を助けるためのロボット開発に関する142の論文を分析しました。
その結果、この人間とロボットの相互作用研究の90%が自閉症を持つ人々の視点を含んでいないことがわかりました。
ベゲルによると、その結果として、自閉症を持つ人々が必ずしも望んでいない支援技術が多く開発され、一部のニーズは無視されたとのことです。
「たとえば、自閉症の人々のために設計されたほとんどの対話型ロボットが、恐竜や犬などの非人間型であったことに気付きました。
自閉症を持つ人々が自身の人間性において何らかの欠如があるために、人型ロボットは適切でないと考えた結果だと考えられませんか?」
ベゲルは自閉症のある人々とない人々の間の会話を分析するプロジェクトにも取り組んでいます。
このAIは、冗談が通じなかったり、誰かが不正直であるという誤解を招く可能性のある理解のギャップを特定するのに役立ちます。
また、この技術は会話の問題を防ぐか、修復するのにも役立ちます。
べゲルたちは多くの自閉症の人々から、彼らがどのような支援を望んでいるかについての意見を求めています。
自閉症アドバイザリーボードを設立して、自閉症を持つ人々が彼の研究室が追求すべきプロジェクトについて意見を述べることを保証しています。
「たとえば、開発しているAIビデオ会話システムには、『すみません、聞こえませんでした。もう一度質問してもらえますか?』と言うのが苦手な人は、そう言わずに押せばいいボタン、または、『わかりません』というボタンや、あるいは、『最初の議題に戻りたいのですが』と言ったときに参加者を方向転換できるように、会議の議題を要約できるようにしています」
(出典:米カーネギーメロン大学)(画像:たーとるうぃず)
「どうしたら友だちができるの?」
「それは、友だちに聞いてみてください」
これでは、困ってしまいます。たしかに、ChatGPTのすごく丁寧な対応の結果、してしまいそうな回答です…
- 『聞こえませんでした。もう一度質問してもらえますか?』ボタン
- 『わかりません』ボタン
- 『最初の議題に戻りたいのですが』と言ったときに参加者を方向転換できるように、会議の議題を要約
最後に出てきたこんなテレビ会議システムは、自閉症の方にかぎらず多くの方に便利そうです。
ある困難をかかえる方に向けて開発したものが、当初想像していなかった方たちにも便利で広く使われていくことはよくあります。
なので、より広く、多くの方にとっても助かるものだから、ある困難をかかえる方に向けて開発を進めるという考えがさらに一般的になってほしいと思います。
たーとるうぃずの「絵カード作成」「ぬり絵作成」ChatGPT GPTs
(チャーリー)