CATEGORY

大学院

米倉誠一郎教授のイノベーションにかける想いは熱い。(前半)

米倉教授の授業は、法政大学経営大学院のMBA(IMコース)でもダントツに面白く、刺激的だ。企業の経営者に次の1手を学生がプレゼンするという無謀なチャレンジを何度もした。これは本当に貴重な経験となったと思う。そんな米倉教授の最初の授業を受けた時の投稿を再現した。

月刊「技術士」2021年11月号、私の小論文が掲載されました。

日本技術士会が発行する月刊「技術士(PE)」の2021年11月号に筆者の小論文が掲載された。自分の作品が世に出るのは正直嬉しいものだ。ただ、これがゴールではいけない。これをステップとして、技術士の人々が活き活きと輝き、社会の課題を解決して、国民も社会もハッピーになる三方良しに向かうには更なる精進が必要だ。

脳型情報処理機械論#6-4:生物脳における知能の数学的理論

磯村博士の授業はこれを含めて4回に分けて投稿した。崇高な創発理論やハミルトン力学、勾配降下法、KL距離など講義の内容から多少外れつつも、興味深いキーワードを紐解いたつもりだが、これで最初の投稿の結論を理解できるようになったかと言えば、まだまだ道は遠い(汗)。

脳型情報処理機械論#6-3:生物脳における知能の数学的理論

磯村博士の講義を理解するためのキーワードについての解説を前回に続いてトライした。次の投稿で区切りにするが、調べるほどに分からない用語がどんどんと増えてくるが、さらに調べるとだんだん分かった気になる。本当に理解したのか、ただ理解したつもりなのかは確かではない。

脳型情報処理機械論#6-1:生物脳における知能の数学的理論

今回の講師は磯村拓哉博士(科学)だ。生物脳における知能の数学的理論を理研で研究されている。脳や知性の仕組みを数学的なモデルで説明するものだ。自由エネルギーの原理や、ヘブリアン可塑性、可変ベイズ法など難解なキーワードも頻出するが、これらはその2やその3で詳しく取り上げたい。

脳型情報処理機械論#5-2:神経回路網と脳の確率的力学的理論

脳型情報処理機械論の5回目の講義については先に投稿すみだが、2つの論点を理解するための基礎知識などを深掘りした。個々の神経細胞が発する信号は本来バラバラのはずだけどネットワークを経由することでまとまり、揺らぎに収斂されるという見方は面白いと思った。

脳型情報処理機械論は難解だけど幅広く奥が深くて面白い。前半6回の受講メモです。

10月8日から始まった脳型情報処理機械論もすでに6回まで終えた。個人のメモのつもりだったが、國吉教授から学生に共有してほしいと依頼を受けた。國吉教授に加えて、東京大学中島教授、中部大学津田教授、京都大学寺前教授、京都大学磯村教授など脳科学の最前線で研究を進める教授陣からの講義は刺激的だ。参考となる部分があれば幸甚だ。

脳型情報処理機械論#5-1:神経回路網と脳の確率的力学的理論

脳型情報処理機械論の5回目の講義を受けた。今回は京都大学の寺前准教授だ。脳回路のエキスパートだ。分かりやすく説明して貰えるが、自分の理解度と知識が決定的に不足している。揺らぎを確率的に捉えて数式モデルに適用して解析している。素晴らしい。

MBA名授業:Rを使いこなす基礎練習(クラスター分析)

データ分析ツールといえば、PhythonとRが有名だ。今回は、MBAの授業で習ったRをベースに、クラスター分析についてまとめた。個人的には、データを似たもので集めて整理するデンドログラム分析が好きだ。難しい処理もRを使えば簡単に答えが出る。最近はExcelでもできるようだけど覚えておいて損はしないだろう。