AIの賢さと意思決定について【代表コラム】

エッセイ 代表コラム リサーチテック・AI コラム 新着情報
AIの賢さと意思決定について【代表コラム】

代表コラムです。少し暑さが盛り返してきたような。。。一方で8月下旬なので僅かですが夕方には秋の気配も感じる今日このごろですね。会社の情報発信強化としてセミナーを開催することになりました。ぜひ聞いていただけるとありがたいです。

——

先日、オフィスでAIエンジニアがGPT-5のモデルの良し悪しを話していた。先日登場したGPT-5にはAPI向けにはGPT-5-miniとGPT-5-nanoといった小型でローコストで実行可能なモデルが有る(※1)のだが、それぞれの特性について試した結果を共有している。その中でAIが「賢い」という言葉を使っていたことを実に興味深く感じた。
※1 [API プラットフォーム | OpenAI

確かに、最近のAIは少し前のAIに比べたらかなり「賢い」と感じられるのは私の中に実感として存在する。しかしほんの数年前までまるで人間と対等に会話ができる機械は存在しなかったわけで、そういう機械的存在に対してあたかも人間を評価するように「賢い」という表現が使えることに少し時代がシフトしたような感慨がある。

どういうAIが「賢い」って言えるんだろうってふと考えてみたくなる。AIエンジニアのトークの文脈では例えばCodistで提供しているような自由回答の分類のように、人間がその作業をした場合の結果がある種の正解として存在しており、その正解に対して近いふるまいを行った場合に「賢い」と言えるのだろう。正解との一致率を競うことで知性を計測するのは大学入試を代表とするペーパーテストが典型例である。つまりこれは今日のAIの評価構造は大学入試のような正答を競い合う問題構造を持っているということなのだろう。

逆に言えば、正解がわからないタイプの問題、(機械学習的文脈で言い換えれば教師が存在しづらいタイプの問題)における賢さとはどのように考えられるのだろうか。日本語としては「賢さ」というより「優秀さ」という言い方のほうが近いようにも感じられる。

社内でVibeCodingにハマってるエンジニアに言わせると、しばしばそれは意思決定の連続になるという。つまりVibeCodingの実践では「〇〇で✕✕な機能を満たすプログラミングを実施してほしい。」という命令をAIに出すわけだが、その際になるべく具体的かつわかりやすくやってほしいことを記載するのが重要である。いわゆるアジャイル用語で言う「受け入れ条件」を満たすようにAIがコーディングしてくれるわけだが、その受け入れ条件の具体性が100%ということはあまり現実的ではない。AIが提案するコードがこちらが想定していた受け入れ条件を超えた提案(だいたい余計なことが多いが。。)をしてくることもあるだろうし、少し誤解してAIが提案することもあるだろう。そのあたりの業務的な不確実性に対して、このコードを受け入れて次のステップに進むべきか、別の指示を出して作り直しをさせるか、そういう意思決定の連続がVibeCodingに求められることになる。

受け入れ条件が100%決まっている状態、つまりテスト駆動開発的に満たすべきテストが完全に書かれている状態であれば、確実に正解が定義されていると言えるだろうが、人間が行うプログラミングにおいて、そのようなことは必ずしも期待できない。常に一定の方向性は持ちつつ、その方向で実際に着地できるか、その着地は次のステップにとって十分な礎となりうるのか?という点では一定の不確実性を折り込みつつ人間が責任をとっていく判断、つまり意思決定が求められているということなのだろう。

そういった「意思決定」が求められる環境において、AIの紡ぐ統計的トークンの羅列は人間の意思決定を代替しうるものなのか、どうか。もっともすでに#keep4Oで露呈した人類のAI依存を考えると、AIによる意思決定を受け入れていく人類が一定数存在する可能性は十分にある。そんな社会における人間や市民の意思というものは果たして社会的にどのように還元されていくべきなのだろうか。興味は尽きない。