AIの二つの思考パターンに見る、これからのAIシステム

Substackにて最新記事を配信してますので、
よろしければご購読ください!


10月10日にWeights & Biasesが年次開催しているユーザーサミット、「Fully Connected Tokyo 2024」が開催されました。本イベントでは、生成AIや製造、ヘルスケアなど、多岐にわたる分野で深層学習の実課題への応用に第一線で取り組むAIリサーチャー・エンジニアが登壇しました。中でも注目を浴びたのが、最近話題になることの多いSakana AIのCTOであるLlion Jones(ライオン・ジョーンズ)氏の講演です。「今日はそこまで技術的に深い話をするつもりはないんですが、大きな視点からなぜ今がAIの歴史にとって最も重要なタイミングなのかをしっかりお話ししたいと思います」とJones氏は語り始めました。

AI開発の目標が常に変わる問題

「AI研究の問題は、目標が常に変わることです。進展を遂げるたびに、人々はすぐに『それは本当の知能ではない』と言うようになるという歴史を繰り返してきました」- 初期のコンピュータが算術をこなせるようになったとき、それは知能と見なされていましたが、技術が進歩するにつれ日常的なものと捉えられるようになります。チェスや囲碁といったゲームも、一時は知能の代名詞と考えられいましたが、それがAIによって攻略されると「これはまだ本当の知能ではない」となります。このような目標の変化が、AIの進歩に対する評価基準を常に押し上げています。

システム1とシステム2:AIの二つの思考パターン

「そもそもコンピュータープログラミングは私たちが脳の中の『システム2』と呼ぶものをリバースエンジニアリングするために生まれたものです。」

Llionが講演で特に強調したのが、人間の認知プロセスをモデルにした「システム1」と「システム2」の理論です。この理論は、心理学者ダニエル・カーネマンによって提唱され、彼の著書『ファスト&スロー』でも詳細に説明されています。

システム1とは?

システム1は、人間の思考プロセスの中で「直感的」かつ「自動的」な部分を担当します。私たちが普段意識することなく行っているような判断や行動、例えば物体の識別、顔の認識、日常的な意思決定などは、すべてシステム1によって処理されています。これらの判断は、非常に迅速に行われますが、その反面、論理的な裏付けや深い考察に基づいているわけではありません。直感的な反応に頼るため、時には誤った判断をすることもあります。

AIの世界でシステム1に対応するものが、ディープラーニングや大規模言語モデル(LLM)のような技術です。これらの技術は、人間の脳のように膨大なデータを基にパターンを認識し、非常に複雑な問題に対して直感的に解を出すことができます。たとえば、画像認識技術は、システム1的なプロセスを模倣しており、膨大なデータから学習し、瞬時に物体や顔を識別することが可能です。

しかし、システム1的なプログラムには限界もあります。システム1は直感的で迅速ですが、データに基づくパターン認識に依存しているため、誤りを起こすことがよくあります。AIにおける「ハルシネーション」も、このシステム1的な動作が原因の一つと考えられます。

システム2とは?

一方、システム2は「ゆっくりとした合理的な思考」を担当します。これは、論理的に深く考えたり、複雑な問題を分析して解決したりする際に活躍するプロセスです。システム2の典型的な例は、数式を解いたり、戦略的な意思決定を行ったり、問題の深い理解を必要とする作業です。このプロセスは時間がかかり、エネルギーを消費しますが、判断の精度が高いのが特徴です。

従来AIと呼ばれていたものは、システム2のように明示的な論理やルールに基づいてプログラムされており、合理的で論理的な問題解決には長けていました。しかし、これでは直感的な判断や柔軟な適応能力を持つシステム1のような思考が欠けていました。以前のAI研究では、決定論的に構築されるコンピュータープログラムに人間的な振る舞いをさせるためにファジィロジックというアプローチが研究されていた歴史があります。 80年代後半から90年代にかけて、市販製品への応用も試みられましたが、根本的にはルールベースのシステムで、その柔軟性は実用性には欠け、また曖昧性は逆に信頼性の低さととらわれる傾向にありました。

システム1とシステム2の統合:AIの未来

「今誰もが注目している研究が、システム2をシステム1の上に乗せて正しく動かす方法です。これが『エージェント』の研究ですが、始めてみると想像していたよりも実現するのが難しいということがわかってきました」

なぜ難しいのでしょうか?忘れられがちですが、ニューラルネットワークはそれ自体プログラムです。機械学習が複雑なのは、開発者はこのプログラムを作るためのプログラムを作っているということです。そして、モデルが間違った振る舞いをした場合、それはプログラムの問題なのか、プログラムを書くために書いたプログラムなのか、はっきりしません。

そして、エージェントシステムを考えると、これはプログラム(学習のためのプログラム)が書いたプログラム(モデル)を使うプログラム(エージェントシステム)ということになります。そしてプログラム(モデル)はそれ自体別のプログラムを生成することができ、この連鎖はさらに深くなっていきます。「このようなシステムの中で、どこに問題があって、どこを向上すれば良いのかを特定することは非常に難しく、これがエージェントの研究の難しさなのです」

AIにAIが作れるのか?AIに「研究」ができるのか

Sakana AIで最近行われた研究の一つがが、AIに自らを進化させる研究です。AIが自分自身の学習を最適化するための損失関数を自ら設計します。『システム1』の性能を向上させるための方法を、『システム2』的プログラムが学習します。これにより、これまでにLLMの学習のために使われてきたどの損失関数よりも優れた損失関数を見つけることができたと言います。「コンピューターは概して人間よりも辛抱強いので、機械学習によるアプローチはいつも人間よりも優れた結果をもたらします」とLlionは指摘しました。

AIにAIの開発を助けさせる試みは、AIにこれまでよりも複雑な課題を解決させようとする取り組みの一つといえます。この後、Llionは他にも、「AIに自動的に研究させ、論文を書かせる研究」の試みについても紹介してくれました。現時点では、ほとんどの論文が自らによってボツにされてしまうというレベルのアウトプットですが、中には興味深い自律的行動も観察され、エージェント型AIの深い可能性を示唆しています。

AI開発のこれからのフロンティア

Llion Jonesの講演とわずか数日差で、Sequoia Capitalからリリースされたブログ “Generative AI’s Act o1” では、ここまでの話と驚くほど近い主張が書かれています。特にOpenAI社が先月リリースしたo1モデルを例に出し、全体としてより「人間らしい」推論構造を持っていると指摘しています。Inference-time Computeと呼ばれるようになったこのアプローチでは、事前学習によって巨大で聡明なモデルを作るだけでなく、推論時により時間をかけて問題について「熟考させる」ことによってより優れた結果を得ようとするものです。

「多くの問題の解決はSystem 1だけで十分です。ブータンの首都がどこであるかというような問題について、深く考えてもあまり意味がありません。知っているか知らないかの問題です。しかし、数学や生物学における革新的な問題の解決には、直感的な解答法は不十分です。そのような問題の解決には深い思考、創造的な課題解決、そして長い時間を要するからです。」

Generative AI’s Act o1より転載

このように、これまでの「事前学習による巨大モデルの構築」の競争から、推論時により深く考えさせることによってより良い解答を得ようとする試みが、これからの「新たなスケール則」であると本ブログでは指摘しています。

ビジネス戦略へのインパクトは?

AI開発・提供をする各企業の戦略にも重大な影響があります。引き続き大規模汎用モデルの開発においては激しい競争が続き、新参企業はますます参入障壁が高まる上、トークン単価はこれまで以上に価格競争が激化すると考えられます。

一方で、これらのモデルは、そのままではミッションクリティカルなアプリケーションレベルでは十分な成功を収めているとはいえない状況です。現実世界の問題は複雑で、基盤モデルの優秀な研究者たちが、あらゆる分野におけるエンドツーエンドのワークフローを理解することは到底かないません。

抽象的には「システム1とシステム2の融合」と捉えられるエージェント型AIシステムの開発方法論は現在進行形で大きく発展しており、今後、個別具体の課題に対応するためには基盤モデルやファインチューニイングなどのモデル開発以上に付加価値を生み出しやすい領域になっていくと考えられます。