- 1. 自閉症の人が話す音のデータを収集することは、どのように言語の発達を理解するのに役立つのか?
- 2. 最小言語能力者に焦点を当てる研究では、どのような結果が得られる可能性があるのか?
- 3. AIシステムを使用して最小言語能力者の音声を分析する際、どのような困難が予想されるか?
言葉をほとんど発しない自閉症の人のなかで、より多く言葉を話す人は、「l」のような、一般的には発達の遅い段階で生じる音を使用していることがわかりました。
この発見は、音の多様性も言葉の発達とともに拡大するという考えを裏付けるものです。
この研究は、言葉をほとんど発しない自閉症の人8人の発声を4~64週間にわたって縦断的に収集した7077件を含む音のデータを用いました。
「m」や「h」などの音は、このデータの中にもよくありますが、「b」「p」「n」などの音は、そうではありません。
そう、米マサチューセッツ工科大学(MIT)の感情コンピューティング研究グループのクリスティーナ・ジョンソン教授は言います。
不満の表現に関連する発声や母音は、他の要求の表現に関連するものよりも一貫して長く、発声の種類によって定量的な違いがあることが示唆されました。
また、タブレットや食べ物を要求するような要求発声は、より大きな言語構造を示すようでした。
ジョンソン研究員はこう言います。
「言葉をほとんど発しない人は身振り、手話、補聴器、絵カードなど、さまざまな手段を使ってコミュニケーションをとっています。
しかし、『うーん』『あー』『あー!あー!』
などの非言語的発声も普遍的なコミュニケーション方法の一つです」
話し言葉がほとんどない、あるいは全くない人たちは、様々な音素、あるいは音の単位を生み出し、それらは、発達の指標や支援のターゲットになるかもしれないと、研究者は言います。
ジョンソン教授の研究室では、話す単語が20個以下の人を、最小言語能力者と定義しています。
「私たちの目標は、このような人たちの子音レパートリーを最終的に発展させることです。
そして、私は言語が、このような人たちを把握するための指標になると考えています」
2020年、ジョンソン教授は最小言語者の非発声音声を収集し、ラベル付け、分類、翻訳するシステム「Commalla」を開発しています。
このシステムは、襟に装着したマイクで自宅での発声をキャプチャし、介護者にリアルタイムで「喜び」「制御不能」「欲求不満」「社会的」「要求」「自己表現」などに分類するように促します。
この研究を行っている米ハーバード大学大学院生アマンダ・オブライエンはこう言います。
「これらの分析に用いられた音声は、従来の運動評価のように促したり模倣したりしたものではなく、自然なコミュニケーションから収集したものなので、とても価値があります。
表現に制限のある人を理解する上で最大の課題の一つは、唯一の評価方法がさまざまな表現の反復や模倣してもらうことが必要となることです。
それを行ってもらうのは、とても困難なことです」
MITのトーマス・クオティエリは、Commallaのデータを使って、19歳の言葉をほとんど発しない自閉症の男性が見せる、調節障害、要求、喜びなどの表現を分析しています。
研究チームは、最終的にAIによって、発声を自動的に認識することを目指しています。
ジョンソン教授は、最小限の言語しか話さない自閉症の息子の音声を使用して、実証しています。
「基本的に、AIの機械学習では、抽出された特徴量の中から、与えられたラベルと一致するパターンを探します。
そして、その学習段階で見たことのないデータをどれだけうまく分類できるかをテストすることで、AIの性能を評価します」
より多くのデータを使うことで、研究チームは、最小限の言語能力を持つ人々が、発達上の共通点を共有しているかどうかを見つけたいと考えています。
ジョンソン教授は、「100人程度の人のデータがあれば、共通性を見出すことができると思います」と述べています。
(出典:米SPECTRUM)
私もAIシステムの開発をしていたりします。
なので、うちの子の限ってであれば、話せないうちの子の簡単な翻訳機というか、バウリンガル、感情メーターみたいなものは作れそうなのですが、そんなものがなくても理解できている今の私の理解を超えるとも思えないので、、手を着けていません。
広く多くの方が利用できるものが、MITで作られるのであれば期待したいですね。
(チャーリー)
HOBEECのiPhone/iPad向けAIアプリ 話すカメラ