2026.02.09

ローカルSLM(RAG編)

ローカルLLMにした理由は「速さ」より「主導権」

MacでSarashinaを動かしてみて、最初に強く感じたのは「速い」よりも、主導権を自分(自社)で握れるという価値でした。

クラウドLLMは便利です。けれど、業務で本当に使おうとすると、

  • どこまで入力していいのか(情報の線引き)
  • 社内ルールや運用の責任は誰が持つのか
  • 結局、現場が“怖くて使えない”にならないか

この3つがずっと残ります。

ローカルLLMは、この「怖さ」をゼロにする魔法ではないけど、少なくとも
“自分たちで決められる範囲”が増える。ここが大きいです。


生成AIは「賢さ」より「運用が勝つ」

精度を求めると、モデルの性能に目がいきがちです。
でも実務で大事なのは、賢いかどうか以前に

  • どの情報を根拠にするか
  • どんな口調・形式で返すか
  • 不明点は質問に戻せるか
  • 誤答した時に直せる仕組みがあるか

みたいな運用の設計でした。

つまり、生成AIは「モデルの勝負」ではなくて、
運用(型・ルール・データ整備)の勝負になりやすい。

だからこそ、最初の一歩として「ローカルで小さく始める」は理にかなっていました。


RAGは“賢くする”技術じゃなくて、“ブレさせない”技術

自分の中でRAGは、精度を上げるというより
回答の拠り所を固定する装置です。

LLMは、うまく話せる代わりに、根拠がない話もそれっぽく作れます。
それを業務で使うと、「便利だけど信用できない」になりやすい。

そこでRAGを入れると、目指せる状態が変わります。

  • 知らないなら「資料にない」と言える
  • 答えるなら「資料のこの部分」を根拠にできる
  • 根拠が間違ってたら、直すのはモデルではなく“資料”

つまり、RAGはAIの知能を上げるより、
組織の知識を“参照できる形”に整えるための仕組みだと思っています。


docs整理は「AIのため」じゃなく「人のため」

RAGの下準備としてdocsを集め始めて気づいたのは、
これはAIのためというより、人間のための整理だということです。

社内の情報って、多くの場合

  • どこにあるか分からない
  • 最新がどれか分からない
  • 誰に聞けばいいか分からない

この「分からない」がボトルネックになります。

AIを入れることは、実はこの問題の答えではなくて、
この問題を“見える化”する強烈なきっかけになる。

「AIに読ませたい」と思った瞬間から、
資料の散らばりや古さが一気に顕在化するんですよね。


「社内AI」はシステムより“文化”が先

社内AIを作る、というとシステムを思い浮かべますが、
実際には文化(運用)が先に必要になります。

  • 入れていい情報/ダメな情報の線引き
  • それを誰が決めて、どう周知するか
  • 使い方のテンプレ(例:質問の型、出力の型)
  • 間違いが出た時にどう直し、どう共有するか

ここがないと、AIは“導入しただけの置物”になります。

逆に言えば、ローカルで小さく始めるのは、
文化を作るための実験としてちょうどいい。


今の自分の結論:小さく作って、使い方を固める

今の段階での結論は、これです。

  • まずは用途を絞って「これなら任せられる」を作る
  • docsを整えて「根拠がある回答」を増やす
  • ルールとテンプレで「安心して使える形」にする

モデルの性能は大事だけど、業務で使えるかどうかは、
それ以上に運用の設計で決まる。


次回予告:運用テンプレ(プロンプト)を公開する

次回は、思想を実装に落とす回として、

  • 根拠がない時は「ない」と返すテンプレ
  • 回答形式(結論→根拠→確認質問)のテンプレ
  • docsの書き方テンプレ(冒頭要点・例外・更新日など)

このあたりを実例つきでまとめます。


必要なら、この思想パートに合わせて「締めの一文」だけ、雰囲気別に3案出します。どんなトーンにします?
(例:淡々/熱量高め/やさしい)

上部へスクロール