スポンサーリンク
IT全般

システム保守でAIを使いたい。OllamaとNotebookLM、どちらを選ぶべきか?

IT全般
この記事は約4分で読めます。

システム保守をしていると、こんな要望が日常的に発生します。

  • 既存プログラムの 改善要望 が来たので、中身を読んで整理したい
  • ソースコードから設計書を起こしてほしい と言われた
  • ユーザーからの 仕様問い合わせ・挙動確認 に素早く答えたい

最近は生成AIを使えば、このあたりの作業をかなり効率化できそうです。
そこで候補に上がるのが OllamaNotebookLM

どちらも「AIに考えさせる」ツールですが、
システム保守という観点では向き・不向きがはっきり分かれます。

結論:システム保守用途なら Ollama が本命

最初に結論です。

👉 ソースコードを解析して改善提案をしてほしい
👉 プログラムから設計書を作りたい
👉 ユーザー問い合わせに根拠付きで答えたい

この3つをやりたい場合、
NotebookLMではなく Ollama を選ぶのが正解です。

なぜそう言い切れるのか、具体的に見ていきます。

NotebookLMは「資料を理解するAI」

まず NotebookLM から。

NotebookLMの得意分野

NotebookLM は Google が提供している
「アップロードした資料を理解させるAIノート」 です。

得意なのは例えば:

  • 既存の 仕様書・設計書の要約
  • 複数資料を横断した 比較・論点整理
  • 「この資料には何が書いてある?」という Q&A

つまり、

📘 すでに存在するドキュメントを読む・整理する用途

にはとても強いです。

でも、保守でやりたいことには弱い

一方で、システム保守目線では弱点があります。

  • ソースコード全体の構造理解が苦手
  • 関数間・モジュール間の依存関係を追えない
  • 「どの行が原因か」「どこを直すべきか」を特定しにくい
  • API連携やIDE連携ができない
  • クラウドサービスなので 機密コードを上げづらい

つまり、

コードを“一次情報”として扱う保守作業には向いていない

というのが正直なところです。

Ollamaは「コードを理解させて使うAI」

次に Ollama です。

Ollamaとは?

Ollama は、

🖥 LLM(生成AI)をローカル環境で動かすためのツール

です。

  • 自分のPCでAIモデルを動かせる
  • ソースコードを外部に送らない
  • API / VS Code / スクリプトから自由に呼び出せる

この特徴が、保守業務と非常に相性が良いです。

保守業務 × Ollama でできること

① 改善要望に対する「コード解析+提案」

ソースコードを読み込ませた上で、

  • 可読性が低い箇所
  • 処理が重複しているロジック
  • 影響範囲が広い修正ポイント
  • テストが不足している箇所

などを 根拠付きで洗い出すことができます。

「なぜここを直したほうがいいのか」
「直すならどこから手を付けるべきか」

という 保守SEが一番欲しい視点を出させられるのが強みです。

② プログラムから設計書を自動生成

Ollama にコードを読ませることで、

  • 処理概要
  • 入出力仕様
  • 依存関係
  • ビジネスルール
  • 例外・エラー処理

といった内容を 設計書として文章化できます。

「設計書がない古いシステム」
「仕様がコードにしか存在しないシステム」

③ ユーザー問い合わせへの回答支援

ユーザーからよく来る質問:

  • 「この条件の時どうなる?」
  • 「前回と挙動が変わった理由は?」
  • 「この項目はどこで計算されている?」

こういった問いに対し、

  • 該当コードを引用しながら
  • 仕様として説明文を組み立てる

という形で 回答案を作ることができます。

Ollamaをおすすめする最大の理由

✅ ソースコードを外に出さなくていい

これが一番大きいです。

保守しているシステムのコードは、

  • 顧客資産
  • 社外秘
  • 契約上、外部サービスにアップロード不可

というケースがほとんど。

Ollama は ローカル完結なので、この問題を回避できます。

使い分けの現実解

用途おすすめ
ソースコード解析✅ Ollama
改善提案✅ Ollama
設計書生成✅ Ollama
問い合わせ回答✅ Ollama
既存ドキュメント要約△ NotebookLM
会議資料整理△ NotebookLM

メインは Ollama、NotebookLM は補助的
というスタンスが一番しっくりきます。

まとめ

  • システム保守でAIを使いたいなら、Ollamaが最適
  • NotebookLMは「資料読み専用」
  • コード起点の作業(解析・設計・回答)は Ollama 一択
  • ローカル実行なのでセキュリティ面も安心

次回予告:Ollama × VS Code 環境を作ってみる

次回は、

Ollama を使って、VS Code 上で
ソースコードを解析・質問・設計書生成できる環境を作る

というテーマで書く予定です。

  • Ollama のインストール
  • VS Code 拡張(Continue など)の設定
  • 実際にコードを読ませて質問してみる

「本当に使えるの?」を実演ベースで紹介します。

コメント

タイトルとURLをコピーしました