生成AIについて思うこと

 生成AIの変遷と今後

 2023年は生成AI元年と言われる年であり、企業の業務効率化手段の1つとして、IT企業を中心にリファレンス実装が盛んな年であったと考える。驚くほどの自然会話をチャットボットの形式で実現できるため、目を見張るものがあったことを覚えている。

 2024年に入り、企業内で管理される情報(以降ではローカル情報と称する。)の効果的な検索拡張生成(RAG)に注目が集まり、企業における生成AIの実用性を高めることになった。RAGの特徴は、大規模自然言語モデル(LLM)では考慮されていないローカル情報を加味した会話を実現できる点にある。LLMは生成AIの要となるもので、グローバルに公開された情報を事前に学習して構成されている。そのため、非公開の情報に関する質問をされた場合は、「でたらめ」の回答をしてしまう可能性多高い。所謂、ハルシネーションが弱点であった。それを解決手段として、ローカル情報をもってLLMの追加学習(ファインチューニング)をする手もあるが、学習コストが掛かりすぎる。また、ローカル情報が外部にも使われてしまうことも危惧される。そこで、ユーザの質問に加えて、その質問の意図に近いローカル情報を検索し、両者をLLMに引き渡して回答を生成させることで、精度の高い回答を生成させる方法論が編み出された訳である。コールセンター業務でのユーザ対応の効率化をはじめ、生成AIの現実的な用途が盛んに議論されたことを覚えている。筆者が取引先企業からの依頼を受け、LLMそのものを社内環境にローディングして利用する、「ローカルLLM」の活用研究に取り組んだ年も、2024年からであった。研究を継続する中で、多くの用途で使えるかもしれないとの期待をもつことができた。

 この間、LLMにも磨きがかかり、生成AIの回答生成能力(推論能力)は飛躍的に改善されてきたことは、ChatGPTやGemini、Copilot等のサービスを利用するユーザであれば認めることであろう。このような状況を背景に、2025年は「AIエージェント元年」になるとの記事を見かける。AIエージェントの特徴は、ユーザの勘弁な指示に基づいて、生成AIが目的を達成するためのタスクの割り出しと実行順を計画し、それぞれのタスクを実現する具体的な処理を実行して、回答を導き出す点にある。似たような技術に「ワークフロー」というものがある。ワークフローは、人がタスクと実行順を事前に定義する形態を採る。そこがAIエージェントとは異なるので注意しなければならない。当然のことながら、指示の目的を達成するためのタスクが複雑になった場合は、複数のAIエージェントが協調して回答を作り出すことが必要になる。よって、マルチエージェントの実装が盛んになることが容易に想像できる。いずれにせよ、生成AI業界は、2025年以降も活動が盛んであることは間違いないだろう。

生成AIの回答を信じていいのか?

 結論を先に言うと、「生成AIの回答は、完全には信じてはいけない!」となるだろう。

 従来のコンピュータシステムは、「入力」に対して「出力」が「正しく定まる」である。その理由は、人が入力に対する正しい処理を事前にプログラミングしているからである。

 ところが、生成AIの回答の作り方は、簡単に言うと回答文章の「穴埋め」を確率的に判断している。例えば、「明日の天気は、●●」という文章があったしよう。仮にLLMがいろいろな天気予報を学習していたとすれば、●●に当てはまる言葉は、確率的に「晴れ」なのか「曇り」なのか・・・を判断できる。生成AIはその結果を●●に当てはめて回答しているに過ぎない。これを考えれば、100%正しいとは言い切れないことは、誰しもが理解できるのではないだろうか?

 試しに、以下の数値の合計値を計算して!と指示してみて欲しい。

 1.03、0.94、1.19、0.82、1.25、1.05、1.10、0.78、0.96、1.02、1.14、0.91、1.08、

 1.00、1.03、1.21、0.88、0.97、0.99、1.17、0.85、1.03、0.77、1.04、0.93、1.26、

 1.06、0.90、1.00、0.95

 正解は「30.31」であるが、筆者がCopilotで実験してみると「29.82」となった。


 <Copilotでの数値合計の計算結果>

 正しい結果に近い回答は得ることはできたが、明らかに間違っていることをお分かり頂けるだろう。つまり、生成AIは人や従来のコンピュータシステムのように、計算ロジックを組んで計算している訳ではないことを理解できるかと思う。

 このようなことから、冒頭の結論にたどり着く。

 尚、生成AIへの指示(プロンプト)を工夫することで、正しい回答を得る可能性は高まることを補足しておく。但し、プロンプトエンジニアリングという領域となるため、具体的なプロンプトの記載については割愛する。また、AIエージェントを適用することで、正しい回答を得る確率は高まると期待できるが、他での解説に譲ることにする。

生成AIの導入ステップはどうなるか?

 生成AIを別な言い方にすると、「確率的意思決定技術」になるのではないだろうか?確率的意思決定支援技術を応用したものには、「天気予報」や「需要予測」がある。あるいは、物流の「配車計画の最適化システム」等も該当するだろう。これらは皆、数学的に100%の正解精度を保証するものではないが、社会実装されている。共通する点は、ある程度の「尤度」(もっともらしさ)をもって人が最終的な意思決定している点にあり、うまく結果を活用している。換言すれば、当たらなくても遠からず」の出力があれば、人の判断を介入させた意思決定の仕組みとなっている。このことを考えれば、生成AIの導入は、以下のようなステップを踏むことが重要と思われる。

 【生成AIの導入ステップ】(例)

 (1)生成AIを適用する業務(モデル)を考える

 (2)プロトタイプの開発と尤度を評価するための検証実験を実施する

 (3)実験結果に基づくフェールセーフな業務モデルへの見直しと機能設計を行う

 これらのステップは、新規の情報処理システムを導入する際に適用される概念検証(POC)になる。注意する点は、一般的な情報処理システムのPOCよりも入念に実施し、生成AIをうまく使いこなすための自信をつけることが重要である。できれば、現行の業務と新システムを使った業務を平行稼働させても良いかもしれない。そして、クリティカルな影響に及ぶ部分への適用がある場合は、人の最終判断を仰ぐための機能(人協調機能)を盛り込むことを忘れないようにすることが大切だと考える。

 こう考えると、POCの実施にはそれなりの費用を要することになる。つまりは、経営者の生成AIの特性理解と導入の覚悟、出口戦略も大切になるであろう。「生成AIは賢いんだから、なんでもでききるだろう!」と思っているならば、「動かいないコンピュータ」を作り出す可能性が高まるため注意してもらえれば幸いである

 生成AIの良いところだけに着目したニュースもあるが、どんな技術にも制約や特定の条件下での課題はつきものと認識し、うまく利活用することを考えて行きたい。

(終)

コメント

このブログの人気の投稿

自民党の新総裁に期待|インボイス特例の恒常化を!