- メールやテキストの中で伝わる「温かみ」とは何か?
- AIと人とのコミュニケーションにおいて、どのような違いがあると感じるか?
- コンピュータプログラムが個人のメッセージを送信する際の配慮すべき点は何か?
米パデュー大学の助教授、ルア・メア・ウィリアムズは自閉症と診断されています。
ある共同研究者に電子メールを送ったところ、メールに「温かみ」がないと、これはAIが送ったメールだと非難される出来事がありました。
37歳のウィリアムズはコンピュータサイエンスの博士号を取得していますが、発達障害をもつ人や、英語を母国語としない人たちのメールが、AIによるものだと誤解される危険性があると警告しています。
「子どもの頃は、私がロボットのように話すとからかわれました。
自閉症の子どもには、よくある体験です」
こうした誤認が、障害を持つ誰にでも起こりうることを示すために、この出来事についてTwitterで共有しました。
メールを送った研究者は、研究者はウィリアムズの電子メールに対してこう反応しました。
「よくできたAIのメールですね、しかし、温かみがありません。
私は、人とメールをしたいのです」
ウィリアムズはこう答えました。
「AIによるメールではありません。
自閉症の私が送ったメールです」
初めて「AIとみなされた」瞬間でした。
ウィリアムズは大学では、ユーザーエクスペリエンスデザインプログラムで教鞭を取っています。
新しい最先端技術のデザインに焦点を当てながら、学術界や科学コミュニティの他の研究の審査を行っています。
ウィリアムズがこの出来事をツイートしてから、約1000万回閲覧されています。
「Chat GPTや他のAIボットの普及以来、共同研究者たちが全ての学生の作業に「疑いの目」を向けています。
私のパデュー大学も他のどことも同じです。
Chat GPTを使って学生全員が不正を行っているかもしれないと、教授陣の間には多くの不安があります」
しかし、ウィリアムズは発達障害をかかえる学生や、英語を母国語としない学生への配慮が十分でないと指摘し、同僚の教授たちには、明確な証拠なしに学生たちを不正行為で非難することに用心する必要があると警告します。
自閉症など発達障害をもつ人を、不正行為をしていると誤認してしまうリスクについて、共有しなければならないと言います。
さらには、正式には発達障害と診断されていないものの、困難をかかえる学生たちや、他の人々とは異なるコミュニケーションをしている可能性を大学システムの中で示すことができない学生たち、のことをとても心配しています。
「彼らは反論することも難しいはずです。
AIがますます知能を高めるにつれて、AIを使って不正行為をする学生と障害によって特定の方法でのコミュニケーションになる学生を区別することがますます困難になることを、みんな予想しています」
(出典:米NEW YORK POST)(画像:AIにより作成)
発達障害などでない人のメールであっても、AIが作ったものとの区別は既に難しいです。
AIを使ったものを単純に「不正」とし、それを判別しようとしても、それはそれは無理ゲーになっていくはずです。
また、伝えることに困難をかかえている方が、AIによって伝えたいことが伝えられたのなら、それは絶対に「不正」としてはならないはずです。
(チャーリー)