スティーヴン・ウルフラムによるChatGPTの仕組みの解説。Mathematicaを開発した理論物理学者の巨匠がどのように教えてくれるのかに興味をもったので読んでみた。
新書サイズの少ないページ数のなかで、難しいところが多いとはいえ、AI技術の基本を解説してくれている。わからないなりに読み進めていくと、ChatGPTの中心になっているLLM(大規模言語モデル)が何をしているのかがなんとなく理解できるような気になるのはさすがだなという感じ。AIには統計的手法、記号的手法の2つがあることをおさせておくと、より効果的な解答を得られるようになるということだ。ChatGPTが取り入れているのは統計的手法によるニューラルネットワークとなる。
ChaptGPTのような生成AIと呼ばれる技術がやっているのは、基本的には次にくるそれっぽい言葉が何かを決めているという案外単純なことだったりする。肝になる要素を正しく与えてあげれば、出力結果の正しさの精度は上がる。簡単なプログラムを作ってもらったり、素朴な疑問の相談に乗ってもらうユーザーの一人としては、より良い付き合いができそうなヒントを得られた気がする。
さて、AI技術は今後どのような進歩を見せるのか、とても興味深い。
