1. Home
  2. 広報活動
  3. お知らせ
  4. お知らせ 2024

2024年10月8日

理化学研究所

理化学研究所 科学講演会2024~研究者の“わくわく”が未来を紡ぐ~ 「AIでひらく未来への扉」を開催しました

2024年8月24日(土)、「理化学研究所 科学講演会2024 ~研究者の“わくわく”が未来を紡ぐ~」を開催しました。46回目となる今回は「AIでひらく未来への扉」をテーマに、東京お台場にある日本科学未来館での現地開催と、YouTubeライブ配信のハイブリッド形式で実施しました。現地会場には約100名が来場し、YouTube視聴回数は延べ1,296回でした。

会場からの質問に答える研究者たちの写真 会場からの質問に答える研究者たち

五神 真 理事長の開会挨拶の後、理研の3名の研究者が順に登壇し、自身の取り組む研究を紹介。吉井 和佳 チームリーダー(革新知能統合研究センター 目的指向基盤技術研究グループ 音響情景理解チーム)は「スマートグラスによる人間拡張」、神田 元紀 上級研究員(生命機能科学研究センター バイオコンピューティング研究チーム)は「AI・ロボットによる科学の自動化と次世代化」、下郡 智美 チームリーダー(脳神経科学研究センター 脳発達分子メカニズム研究チーム)は「AIと子供の脳発達~可能性と課題~」と題して講演しました。

吉井 和佳 チームリーダーの写真 吉井 和佳 チームリーダー
神田 元紀 上級研究員の写真 神田 元紀 上級研究員
下郡 智美 チームリーダーの写真 下郡 智美 チームリーダー
会場全体の様子の写真 会場全体の様子

続いて、津村 育子 高度研究支援専門職(革新知能統合研究センター)の進行のもと、来場者と3名の研究者とのディスカッションを行いました。会場からは多くの質問が寄せられ、和やかな雰囲気の中、研究者たちは研究の道へ進むことになったきっかけや今後の目標などについて語りました。

アンケートには、「専門的な知識を持った方々にたくさん質問することができ、とても有意義な時間を過ごせた」(10代・女性)、「未来の研究が今後どのようになるか、どのようなものが開発されていくのかを想像していく中で、ますます変化のスピードが速くなっていく、かつ人間の適応力が問われていくのだろうなと実感しました」(20代・女性)、「AIを開発する側と利用する側の両方の観点を知ることができ、興味深かった」(20代・男性)といった声が集まりました。

なお、当日回答できなかった一部の質問への回答を掲載しています。
あわせてご覧ください。

当日に答えられなかった質問の回答

吉井チームリーダー

Q. 混合信号を、教師なし学習(クラスタリングなど)で分離したもの(分離信号1,2)を正解学習データとして、DNNを学習もしくは適応学習された、という理解で正しいでしょうか。 正しい場合、分離信号1,2は、同時に学習させたのか、あるいは、2つ別の教師データとして学習されたのか、ご教示くださいますと幸いです。
A. ご理解は正しいです。適応を行うには、混合音から目的音声をブラインド音源分離法(教師なし学習)で推定し、そのペアデータを用いて教師あり学習したモデルを更新します。講演中では、ブラインド音源分離の一般的な例として、二話者の混合音の分離のデモをお見せしました。
Q. 女性の声の明瞭化するのであれば、周波数フィルタを用いればよいような気がしますが。また、テレビの声を聞こえやすくする機器も販売されていますが、AIを使うとどう違うのでしょうか。
A. 音声強調の目的は、混合音を入力すると音声のみを通過する「フィルタ」を推定することです。そのフィルタは単純な周波数フィルタ(例えば市販のイコライザ)ではなく、複数のマイク間の位相差(音の到達時間差)を手がかりにして分離を行います。このとき、特定の方向を強調しつつ、別の方向を抑圧することができます。これを「適応フィルタ」と呼び、データ(音声や雑音)の特性に合わせて自動推定される点が重要です。
Q. 声や音を強調するという技術について、どのように対象を選択することができるのでしょうか。
A. 指さしや視線の方向を推定することで、対象を選択することができます。
Q. ご講演のなかでは、元の音源を入力して適切な出力が出るようにさまざまな工夫をしていましたが、入力する情報は音以外にもあるのでしょうか。
A. 実際には、カメラ画像を同時に使用しています。画像から話者の方向を推定することができ、音声強調の精度向上に役立てることができます。
Q. スマートグラスでデータをどこまで残すことが可能なのでしょうか。音声や映像、画像以外にも、生体反応や湿度、温度、各種その他の信号も残す予定でしょうか。
A. 実際には、カメラ画像を同時に使用しています。画像から話者の方向を推定することができ、音声強調の精度向上に役立てることができます。
Q. ご講演のなかでは、元の音源を入力して適切な出力が出るようにさまざまな工夫をしていましたが、入力する情報は音以外にもあるのでしょうか。
A. センサが小型化・省電力化すれば、心拍や脳波などの生体信号を取得し、リアルタイム解析することで、より適切な支援や制御が可能になります。それらのデータを日々蓄積することで、健康モニタリングなどの応用が考えられます。
Q. この研究にどの程度の期間を研究しどの程度の量の情報を読み込んで学習させているのかを教えてほしいです。
A. プロジェクトを開始して、3年程度です。チームメンバーは2~3名程度で少しずつ開発を進めています。音声強調モデル用の学習データは15時間程度です。
Q. ユーザーとともに成長するAIとは利用する人自身がデータとしてプログラミングしなければいけないのでしょうか。
A. いいえ。システムが自律的に学習し、適応・成長していくことを想定しています。そのためには、ユーザーとシステムとのインタラクションについての研究が必要になります。
Q. 現在はある程度の大きさがあるヘッドセットにおいて音声強調・認識等しておられるとのことですが、将来的に現在人間がかけているメガネほどにまで小型化することは可能なのでしょうか。
A. 可能です。例えば、Meta社のスマートグラス(Ray-Ban社のサングラスを素体としたプロトタイプ)では、デバイス上で簡単な音声強調・認識が動作しています。ただし、モデルの学習・適応を小型デバイス上で行うのは現状では難しく、ハード・ソフト両面での発展が必要になります。
Q. 加齢とともに記憶力や計算能力の低下を感じます。先生の研究は、低下しているものを補い発展できるものなのでしょうか。
A. もちろんです。低下した知覚・認識の能力を補完することで、健康寿命を増進することを目指しています。
Q. 同時通訳がコンパクトな形に変わり、誰でも使用可能になった場合、学校で他国の言語学習はなくなるのでしょうか。また、なくなる場合、代わりにどのような学習が行われると考えますか。
A. 語学の授業がどうなるかは分かりません。しかし、支援を受けず、自らの能力で外国語コミュニケーションをしたいという欲求はなくならないと思います。これは、車ができたからといって、早く走りたいという欲求がなくならないのと同じだと思います。
Q. チャットGPTが小学校の読書感想文に使われてしまう事例があるように、学生がスマートグラスを学校の宿題に使ってしまい、学習の妨げになってしまうのではないのでしょうか。
A. 語学力や走力と同様、自らの学力を向上させたい、この世界の成り立ちを知りたいという欲求はなくならないと思います。むしろ学習を促進させる使い方が見出される期待を持っています。

神田上級研究員

Q. 論文やデータを食わせるシステムにはマテリアルズ・インフォマティクスという技術がありますが、今回開発されたAIシステムはそれと同じようなものでしょうか?違いや特徴があればお聞きしたいです。
A. マテリアルズ・インフォマティクスは情報科学を用いてさまざまな材料開発の効率化を目指す取り組みです。私たちの取り組みは、ロボットとAIを用いて生命科学研究を効率化するものであり、AIやロボットを使うという大きな点では共通しています。一方で、使用するアルゴリズムや求められるロボットの要件などが異なります。
Q. 実験を自動化する「まほろ」の周辺機器のセッティングに時間がかかりそうな気がしますが、どうでしょうか。
A. セッティングにかかる時間は実験内容や条件によって異なります。私たちの経験では、一般的にそこまで多くの時間はかかりません。
Q. 実験ロボットの維持コスト<実験する人間の人件費になるまでに、どれくらい時間がかかりそうでしょうか。
A. 多数の実験を高い再現性でこなすことは人間にはそもそも難しいため、現時点では人件費の代替というよりも、人間には難しい実験をロボットに任せています。
Q. 粘性が高かったり、気泡が入るチップ操作にも対応しているのですか。
A. 私たちの経験では、粘性が高い液体や気泡が入る場合でも、吸引速度や吐出速度などのパラメータを調整することで、うまく取り扱うことができました。
Q. 「まほろ」を一体買うのにいくらくらいかかるのでしょうか。
A. 価格については、具体的な仕様やオプションに依存するため、詳細はメーカーにお問い合わせいただくのが正確であると考えております。
Q. 最終的に試薬や廃液をロボットの周辺でセット、排除する仕事が人間に残りそうな気がしますが、その物流すらロボットに任せられるようになるのでしょうか。
A. 現在、試薬のセットや廃液の処理は一部人間が担当していますが、さまざまな研究機関やメーカーがこの部分の自動化システムの研究開発を進めています。将来にはロボットがこれらを担当するようになるかもしれません。
Q. 人間ができない実験をロボットで可能にするのはとても良いと思います。しかし、そのようなロボットを作るのにたくさんのコストがかかるのであれば、発展途上の国などでは普及しづらいのではないでしょか。
A. ロボット実験センターの実現は、世界中からアクセスできる実験環境を提供することにつながります。このような取り組みが進めば、技術の普及がより広範に可能になると考えています。
Q. 「ロボット実験センター」の場所は必ずしも地上だけではなく、より過酷な環境にも分館を作れるのでしょうか。例えば、月面とか、海中、放射線があるところなど。
A. 設置よりも運用の点、例えば、ロボットの修理・メンテナンス、試薬の配送、通信の整備など、さまざまなサポートをどのように手配できるかが課題になるかもしれません。
Q. 料理は科学です!私は管理栄養士に興味を持っています。管理栄養士は医師から出された調査書を元に献立を立てます。その際、AIやロボットを使い少しでも負担を減らせられるのでしょうか?メニュー案の提示など!
A. 既にそのようなAIサービスはあるのでは?と思って検索してみると、いくつか見つかりました。さまざまな分野での活用が始まっているようです。
Q. Sakana AIから、AI Scientistというものも出てきましたが、論文調査・構想・執筆もAIが行い、実験もAIが行うようになった場合、人間の役割はどうなるのでしょうか。
Q. 実験や研究が自動化される世界になると、人間である研究者は、どのようなことをすることになりますか?これから人間はどのようなスキルを磨けば良いのでしょうか?
A. AIがどこまで研究者の仕事を担うのか、現時点では明確な判断が難しいです。どのような方向性であったとしても、AIと共に新しい価値を生み出すことは人間の新たな役割のひとつになると思いますので、ロボットやAIの原理を適切に身につけることが、より重要になってくると考えています。
Q. 私は人間とAIの共存について探求しています。実験をする際、匠の技を持つ科学者がいてその人だけができるよりロボットにもできるようにすればより患者を救えます。逆に人間にしかできずロボットやAIにできないものは何だと思いますか。
A. 一例ですが、ロボットやAIは高度な作業をこなすことができますが、自分たちだけで自分たちを保守することは現在の技術では到達しきれていません。私たちの実験においても、人間の技術者がロボットの支援をすることで全体のシステムを調整している例があります。さまざまな抜けている部分を人間が「気を利かせて」調整していたことは、今後の技術開発や人間の役割のヒントになるのではないかと思っています。
Q. 教育分野を学んでいる大学2年生です。夏休みの自由研究でロボットを使う、という案(今はまだ現実的な案ではないのかもしれませんが)小さい子どもたちにロボットを操作できるとは考えにくいのですが、現状として、子供たちでも操作できるような仕組みにはなっているのでしょうか?教育現場からはどうアプローチできますか。
A. 将来的には、子供たちでも自然言語で「これをやって」と指示するだけで、ロボットがその意図を汲んで動作を実行してくれる時代が来るかもしれません。現在も自然言語を使ってロボットを操作する技術が進展しており、今後の教育現場でも、より直感的にロボットとやりとりできるシステムが普及することが期待されます。
Q. AIとロボットの発展は、ロボットのメンテナンスやプログラミングにかかる費用、二酸化炭素の排出量の問題、そして人間の職不足による貧困問題以上の利点はあるのでしょうか。
A. AIとロボットの発展は、環境負荷や経済的課題を伴うこともありますが、一方で社会全体の効率化や新しい仕事の創出といった利点が大きいことも事実です。問題と利点のバランスを見ながら、技術を適切に活用することが人間の重要な役割のひとつであると考えています。
Q. 自動化しているからプロセスの途中に起こる現象を人間がモニタリングできないし、慣れると研究者自身が気付ける知識経験を失いそうに感じてしまいました。
A. 私たちの事例では、自動化されているからこそ、研究者が観察に集中し、不具合を早い段階で発見できたことがあります。自分が操作しないからこそ、より客観的にプロセスを監視できたことが要因と考えています。このように、従来とは異なる視点からの気づきや知識が、今後ますます重要になると考えています。

下郡チームリーダー

Q. 臨界期とは脳の領域でのニューロンの発達終了を示すものでしょうか。それともシナプスの変化などを示すものでしょうか。
A. 臨界期中は神経細胞の樹状突起の形態変化や軸索の接続再編などの大きな回路形成変化が起きていると考えられます(シナプスの変化ももちろん起きています)。臨界期後はシナプスの変化が絶えず起きており、大人の可塑性と言われるこの変化は臨界期と異なってこのような小さな変化であると考えられています。
Q. 可塑性のある時期におけるインプットは、母親と父親のどちらがよいか、とか、親ではない第三者だとどうなのか、とか、コミュニケーションの量、などについて何かわかっていることはありますでしょうか?
A. 動物実験ではマウスのように母親しか育児をしないなど、種間での違いが大きいため、一概に母親、父親のインプットの違いを研究することは難しいのが現状です。ただ、マウスを使った研究でも母子分離実験という、1日3時間程度母親から隔離した状態で飼育した仔ネズミは成長後にさまざまな行動異常が出ることが明らかとなっています。代理母に育ててもらった場合にはこのような行動異常は出ないことも知られているので、第3者であっても十分なインプットがあれば正常な発達が進みます。
母親と父親からのインプットの違いに関する研究は、マーモセットのようにヒトの家族性に類似した行動をする動物を利用することによって明らかになってくると期待しております。引き続き私たちの研究をサポートしていただけると幸いです!
Q. ヒトにおいて「思考」や「認知」と「言語」はどのように関わっていると考えられているのでしょうか。例えば、虹の色数は言語によっては7色だったり3色だったりします。また、日本語と英語では主語と動詞と順番が違っています。このような言語体系の違いは思考や認知にどのように影響を与えているのでしょうか。
A. ある言語では虹が3色に分けられ、別の言語では7色に分けられるというのは、色を認識する際のカテゴリー化が言語によって異なるためです。このように、言語が色の認識や思考の枠組みに影響を与える可能性があります。一方で、思考や認知にはある程度の普遍性があると考える研究者もいます。これは、人間の認知能力が言語の違いを超えて共通しているとする立場です。例えば、虹の色が7色か3色かというのは、文化や言語による分類の違いであって、色を視覚的に認識する基本的な能力自体には大きな違いはないとされています。以上のことを考えると、言語は単なるコミュニケーションの手段ではなく、思考や認知の枠組みに深く関わっていると考えられます。言語の構造や習慣が、私たちの認知的プロセスや世界の理解の仕方に影響を与える可能性がただ、その影響の範囲や程度については、まさしく研究が進みつつあるところと思います。
Q. ツバメや鳩などの鳥は別の場所で暮らしていても、生まれた所に飛んで戻ることがありますが、マーモセットも人によって育てられても、生まれた地に帰るのでしょうか。
A. フィールドワークを行なってみないと正確にはわかりませんが、ペットで飼われているマーモセットは自分の家を認識している(と知人より伺いました)ようですので、ある程度の帰巣本能はあるようです。しかし、生まれたところまで認識できているかは分かりません。
Q. 人間がバイリンガルになるように、ネズミもアクセントの異なる鳴き声(言語)を複数身につけることができるのでしょうか?
A. 研究室で利用している種類のマウスは言語学習しないことが明らかになっています。
Q. シジュウカラなど言語をかなり解析している研究があったかと思いますが、そういった生物を使って同様の研究をした例はありますか。
A. 鳥類ではキンカ鳥のオスの雛鳥は大人のオスから歌を学んで自分のオリジナルの歌を作ることが知られており、脳研究も行われております。ではなぜこれらの研究だけではいけないのかと言うと、鳥類と哺乳類の脳の構造が大きく異なっているため、ヒトの言語発達の理解に直接応用できないからです。その点マーモセットとヒトでは同じ哺乳類というだけでなく同じ霊長類のため類似点が多く研究しやすいモデル動物と言えます。
Q. 子を亡くした大人マーモセットと人工保育マーモセットを遠隔で対話させる研究はないですか。
A. 実験施設内で遠隔でのやりとりはあまりうまく行った例がないため行なっていませんが、現在AIボイスチェンジャーで育てているマーモセットと親飼育で育った個体がどのような鳴き交わしを行うのか、同じケージで飼育してデータ収集する予定です。
Q. チャットGPTなどのように、マーモセットの親子の会話を学習させて、親AIを作る、ということはなされているのでしょうか。
A. 将来的にそのような研究をしたいと考えていますが、まず通常の親子の鳴き交わしパターンが発達とともにどのように変化し、その時にどのような行動を行っているのかというデータを多く集める必要があります。AIを教育するためのデータはヒトのデータと比べるとマーモセットは圧倒的に足りないのです!
Q. 最終的には、人(言語発達)へのフィードバックを目指した研究かと思いましたが、逆に、AIを使うことで動物とのコミュニケーションへとつながるような未来につながるのでしょうか。
A. 十分にその可能性はあると思います。虐待を受けて心に傷を持った保護動物のケアなど、さまざまな用途が考えられます。
Q. 人との実験が難しいのは分かりますが、動物の実験でも倫理面を注意する必要があるのではないでしょうか。
A. 十分に気を付ける必要があります。理研では動物実験のための倫理委員会があり、全ての動物実験はこの委員会で承認されたものだけしか行うことができません。非常に細かい規定が含まれており、理研のウェブサイトにも掲示されております。

関連リンク

2024年8月24日イベント「理化学研究所 科学講演会2024~研究者の“わくわく”が未来を紡ぐ~「AIでひらく未来への扉」

Top