AIの機能を強化し、結論に至った理由を説明できるXAI(ザイ)に期待が高まる。

  • 2022年1月29日
  • 2022年3月25日
  • XAI
  • , ,
  • 144view
XAI

 はじめに

人工知能(AI)の最初のブームは1950年代だった。当時はまだコンピュータの黎明期であり、1970年代になっても計算機のメモリーはキロバイトオーダだった。2度目のブームは1970年代後半で現実的な問題を専門家に成り代わって解決するエキスパートシステムだ。ただし、どのようなロジックで判断するのかというルールを一つづつ入力する必要があり、本格的な導入には至らなかった。現在のAIブームは深層学習による部分が大きい。コンピュータやインターネットの性能も格段に改善したものも大きい。深層学習は機械学習の中の一つの方式だけど、ルールを個別に設定しなくても、大量のデータからルールを生成する点が秀逸だ。

(出典:salesanalytics

説明可能なAI

現在の深層学習によるAIは、前述の通り大量のデータを分析して、答えを出してくれる。しかし、なぜそのような結論に至ったのかを説明することができない。世の中の政治家や経営者、医者など責任ある立場の人は、何かを決断するときに、その決断にいたった理由を説明する責任がある。いわゆるアカウンタビリティだ。このため、どのような理由から結論を出したのかを説明可能なAIが求められているし、これを説明可能なAI=XAI(Explainable AI)と呼んでいる。

(出典:kbc3

判断理由を示すAI=XAI

XAIは通常「ザイ」と呼んでいる。大量のデータを分析してある結論を出した場合にその理由が示されれば、XAIの活用範囲は格段に広がる。XAIには2つのアプローチがあり、一つは答えを導く時の注目点を特定する方法だ。もう一つのアプローチは、XAIが行う作業を細分化し、人間が理解できるようにする方法だ。例えば、故障分析の処理でも、異常点を抽出するフェーズと、異常点の原因を分析するフェーズと、最適な対策を抽出するフェーズに分けたりすると、それぞれのフェーズでの処理の理由の見える化が可能となる。人工知能に頼るのではなく、人工知能が人間をサポートするイメージなのかもしれない。

(出典:mohno-pump

人工知能の世界市場

人工知能の世界市場は、2024年には111億ドルまで拡大すると予測されている。これは米調査会社Tractica 社による調査であり、2015年の2.25億ドルだったので、10年ほどで49倍の予測だ。年率で換算すると47.7%の増なので、ほぼ毎年1.5倍のペースだ。市場を牽引する分野は、専門エンジニアサ ービスやハードウェアなどの比率が高い。エリア別にはアジアが最も大きな比率を占めている。

(出典:jetro

AI利用の世界比較

総務省の調査結果によると、AIを最も利用しているのは中国の85%だ。これに比較すると日本は一部の業務をAIに置き換えていると一部の業務でパイロット運用しているの合計が39%と、中国の半分以下だ。以前、アイリスオーヤマの大山会長からお話を直接聞くことができた(出典)。ここで聞いたのは、中国では工場で自由に利用できる汎用ろぼっとがストックされていて、社員は自由にそれを活用することができる。ロボットを活用して生産性を高めると賃金がアップする仕組みなので、どんどん生産性が高まる。結果として人件費比率を下げながら賃金を上げるというウルトラCを実践していると伺った。このような取り組みはロボットだけではなく、AIに対しても同様の取り組みをしているのだろうと思う。

(出典:総務省

AIとXAI

人間であれば、1〜2歳頃には目にするものを「何?」と聞きたがらう命名期がある。その次には「なぜ?」を連発する質問期に突入する。現在のAIコンピュータは、まだまだ黎明期を脱していないのかもしれない。XAIと呼ばれるコンピュータは質問期に成長するといえる。
(出典:darpa

AI対IA

AIは人工知能だ。一方のIAは知識増幅(intelligence augmentation)知識支援(Intelligent Assistance)もしくは知識拡張(Intelligent Amplifier)とされる。いずれのIAも、コンピュータの強みと人間の強みを組み合わせることで全体としての知能を増幅しようという考え方だ。AIとIAをセットにしたカンファレンスなども開催されている。今後、その動向から目を離せないコンセプトだ。

(出典:aixia

XAIゴール

XAIのプロジェクトでのゴールは、下の図の右上のグラフで言えば、横軸の説明可能な度合いと、縦軸の学習の性能で見ると、説明可能性の向上だろう。

(出典:note

まとめ

AIは大量のデータから知見を分析して、結論が出るが、なぜその結論に行き着いたのかの理由を説明することが苦手だった。XAIでは、そのプロセスを説明可能な機能を強化するものだ。結論を導き出すプロセスが見える化されれば、例えば医療の現場や経営の現場、政治の現場においても利用が進むだろう。なぜなら、最終責任を持つのはAIではなく、決断を下した人間であるためだ。個人的には、例えば、3つの解決策を抽出して、それぞれの長短を示した上で、理由を列挙して結論を出すようなことができれば、前提条件を変更したり、解決案を修正したりして人間が納得できる解決策をシミュレーションすることも可能だろう。

以上

最後まで読んで頂きありがとうございます。

 

広告
最新情報をチェックしよう!