脳型情報処理機械論#6-1:生物脳における知能の数学的理論

はじめに

今回は、脳的情報処理機械論の第6回目の講義だ。テーマは「生物の脳における知能の数学的理論」だった。講師は理化学研究所の磯村拓哉さんだ。講義に先立って、恥ずかしながら自分のブログの紹介をさせて頂いた。また、これは11月7日の朝に奈良で宿泊したB&Bのベッドの中で周辺の寺院巡りの前に投稿したものだけど、第9回の講義で講師をしていただける北海道大学の吉田正俊特任准教授がTwitterで宣伝して頂いていた。アクセス数が急増している理由が分かった。多くの方に読まれると思うと気の引き締まる思いだ(笑)。

脳型情報処理機械論は難解だけど幅広く奥が深くて面白い。これまでの受講メモです。

オンライン授業なので、学生の表情や反応を確認できなかったのが残念だったけど、チャットには英語で簡単な主旨とURLを書き、説明は日本語でさせてもらった。講義を受けていて基本的な部分や用語などで止まっている人(=自分)を想定して記述しているので、少しでも参考になれば嬉しいと思う。今回も内容が非常に広くて深くて難解なため、とても1回では解説できないので4回に分けて解説したい。今回はその1として全体の概要だ。

その1:生物脳における知能の数学的理論の概要(今回の投稿)
その2:ニューラルネットワークの基本的事項(次回の投稿
その3:バリアブルベイズの等価性の基本的事項(次々回の投稿
その4:自然淘汰から生まれる知性の基本的事項(次々々回の投稿

講師紹介

略歴

講師の磯村拓哉さんは、1988年に愛知県で生まれ、2008年から2012年までで東京大学工学部精密工学科を卒業。東京大学大学院新領域創成科学研究科人間環境学専攻に進学し、2017年3月に東京大学大学院で学位博士(科学)を取得。さらに凄いのは、修士課程の論文も博士課程の論文も研究科長賞を受賞されている。現在は、特定国立研究開発法人理化学研究所(以下「理研」) 脳神経科学研究センター脳型知能理論研究ユニットのユニットリーダーとして、知能情報学の人工知能や理論神経科学などを研究されている。理研での研究に加えて、京都大学大学院情報学研究科非常勤講師も担当されている。

(出典:講義のテキストより抜粋)

研究内容

理研のホームページには、磯村博士の研究内容として、次のように記載されている。生物の知能の優れている点を数理的に理解するというのが凄いと思う。

当研究ユニットは、脳の知能の普遍的な特性を数学的に記述する理論の構築を行なっています。生物は、脳内の生成モデル(内部モデル)を最適化することで感覚入力の背後にあるダイナミクスや原因を推論し、自らの行動戦略を周囲の環境に適応させることができると考えられています。我々は、神経回路やシナプス可塑性がこれらの能力をどのように実現しているのかを明らかにするため数理手法を用いた研究を行なっています。特に、既存の人工知能に対して生物の知能が優れている点を数理的に理解することを目指します(出典:理研)。

2つの疑問

講義に先立って、次のような2つのクエスチョンが示された。

① 生物学的知性の原理とは何か?
(What is the principle of biological intelligence?)
② 生物学的知性と機械的知性の違いは何ですか?
(What is the difference between biological intelligence and machine intelligence?)

テキストでは、次に示すように「ニューラルネットワークとバリアブルベイズの等価性」と「自然淘汰から生まれる知性」の2つ側面から解説されていた。

概要

「ニューラルネットワークとバリアブルベイズの等価性」と「自然淘汰から生まれる知性」の概要については次のようにサマリーされていた。ただし、テキストは英語なので、日本語が不適切な場合には自分の不学・無知によるものだ。これだけで理解できる人はいるのだろうか?個人的に意味の分からない専門用語を赤字で示し、これらについては、その2もしくはその3で取り上げたい。それぞれのキーワードの意味することや背景を理解できれば、この結論の意味の理解も深まるだろう。

概要1:ニューラルネットワークとバリアブルベイズの等価性

共通のコスト関数を最小化する正統なニューラル・ネットワークのダイナミクスは、変分自由エネルギーの最小化とみなすことができる。コスト関数を最小化するニューラルネットワークのダイナミクスは、変分自由エネルギーの最小化とみなすことができる。したがって、自由エネルギー原理で説明するのが適切である。この等価性はヘッブの可塑性の遅れた変調(発火の適応)があることを示している。この等価性は、発火閾値の適応を伴うヘブの可塑性の遅延変調が、ベイズ推論と制御を達成するための十分な神経基盤であることを示している。この理論は、感覚情報を吸収する生体外培養(in vitro)神経回路の自己組織化を予測することができる。感覚情報を吸収する生体内ネットワークの自己組織化を予測できる。この理論は、ベイズ推論と制御の観点から、ニューラルネットワークの普遍的な特性を提供する。ベイズ推論の観点から神経ネットワークの普遍的な特徴を示し、感覚的な行動の基盤となるニューロンのメカニズムについての洞察を与える。

概要2:自然淘汰から生まれる知性

勾配降下法と選択とクロスオーバー法の組み合わせは最適なクロスオーバー・バイアスを用いた選択とクロスオーバー・アルゴリズムの組み合わせにより素朴な勾配降下法とは対照的に、大域的な探索を高速化する。他者との相互作用がない場合、このようなアルゴリズムを採用したエージェントは、他者との相互作用がない場合、必然的に自己組織化(進化)し、それによって感覚的な行動が感覚的な行動が自然に現れる。原理的には、人間や動物の知能の一般的な特性は人間や動物の知能の一般的な特性は、暗黙的にベイズ推論を行うアルゴリズムで説明できるかもしれない。このアルゴリズムは、同種の生物との社会的相互作用を通じて生まれ、機械の知能でも再現可能であることを意味している。

まとめ

講義も6回目なので、ベイズの定理など過去の講義で出てきたキーワードなどが時々出てきて、なんとなく嬉しいけど、自由エネルギーの原理やヘッブ可塑性など、復習が必要なキーワードも多い。テキストをそのまま開示するのはNGなので、講義で習ったことをベースに、個人的に気になるコンセプトなどをネットで復習して、理解したことをまとめるというスタイルを今回もこれからも継続したいと思う。

以上

最後まで読んで頂きありがとうございました。

(追伸)磯村先生から用語について教えてもらいました。正しくはこちらの日本語です。

Variational Bayes = 変分ベイズ
Hebbian plasticity = ヘッブ可塑性
in vitro neural network = 生体外培養神経回路
in silico neural network = (生体由来のネットワークに対して)シミュレーションしたニューラルネットワーク
Bayesian inference = ベイズ推論
selection and crossover algorithm = 選択と交叉アルゴリズム
Posterior distribution = 事後分布
Prior distribution = 事前分布
variational free energy = 変分自由エネルギー
最新情報をチェックしよう!