システム保守をしていると、こんな要望が日常的に発生します。
- 既存プログラムの 改善要望 が来たので、中身を読んで整理したい
- ソースコードから設計書を起こしてほしい と言われた
- ユーザーからの 仕様問い合わせ・挙動確認 に素早く答えたい
最近は生成AIを使えば、このあたりの作業をかなり効率化できそうです。
そこで候補に上がるのが Ollama と NotebookLM。
どちらも「AIに考えさせる」ツールですが、
システム保守という観点では向き・不向きがはっきり分かれます。
結論:システム保守用途なら Ollama が本命
最初に結論です。
👉 ソースコードを解析して改善提案をしてほしい
👉 プログラムから設計書を作りたい
👉 ユーザー問い合わせに根拠付きで答えたい
この3つをやりたい場合、
NotebookLMではなく Ollama を選ぶのが正解です。
なぜそう言い切れるのか、具体的に見ていきます。
NotebookLMは「資料を理解するAI」
まず NotebookLM から。
NotebookLMの得意分野
NotebookLM は Google が提供している
「アップロードした資料を理解させるAIノート」 です。
得意なのは例えば:
- 既存の 仕様書・設計書の要約
- 複数資料を横断した 比較・論点整理
- 「この資料には何が書いてある?」という Q&A
つまり、
📘 すでに存在するドキュメントを読む・整理する用途
にはとても強いです。
でも、保守でやりたいことには弱い
一方で、システム保守目線では弱点があります。
- ソースコード全体の構造理解が苦手
- 関数間・モジュール間の依存関係を追えない
- 「どの行が原因か」「どこを直すべきか」を特定しにくい
- API連携やIDE連携ができない
- クラウドサービスなので 機密コードを上げづらい
つまり、
❌ コードを“一次情報”として扱う保守作業には向いていない
というのが正直なところです。
Ollamaは「コードを理解させて使うAI」
次に Ollama です。
Ollamaとは?
Ollama は、
🖥 LLM(生成AI)をローカル環境で動かすためのツール
です。
- 自分のPCでAIモデルを動かせる
- ソースコードを外部に送らない
- API / VS Code / スクリプトから自由に呼び出せる
この特徴が、保守業務と非常に相性が良いです。
保守業務 × Ollama でできること
① 改善要望に対する「コード解析+提案」
ソースコードを読み込ませた上で、
- 可読性が低い箇所
- 処理が重複しているロジック
- 影響範囲が広い修正ポイント
- テストが不足している箇所
などを 根拠付きで洗い出すことができます。
「なぜここを直したほうがいいのか」
「直すならどこから手を付けるべきか」
という 保守SEが一番欲しい視点を出させられるのが強みです。
② プログラムから設計書を自動生成
Ollama にコードを読ませることで、
- 処理概要
- 入出力仕様
- 依存関係
- ビジネスルール
- 例外・エラー処理
といった内容を 設計書として文章化できます。
「設計書がない古いシステム」
「仕様がコードにしか存在しないシステム」
③ ユーザー問い合わせへの回答支援
ユーザーからよく来る質問:
- 「この条件の時どうなる?」
- 「前回と挙動が変わった理由は?」
- 「この項目はどこで計算されている?」
こういった問いに対し、
- 該当コードを引用しながら
- 仕様として説明文を組み立てる
という形で 回答案を作ることができます。
Ollamaをおすすめする最大の理由
✅ ソースコードを外に出さなくていい
これが一番大きいです。
保守しているシステムのコードは、
- 顧客資産
- 社外秘
- 契約上、外部サービスにアップロード不可
というケースがほとんど。
Ollama は ローカル完結なので、この問題を回避できます。
使い分けの現実解
| 用途 | おすすめ |
|---|---|
| ソースコード解析 | ✅ Ollama |
| 改善提案 | ✅ Ollama |
| 設計書生成 | ✅ Ollama |
| 問い合わせ回答 | ✅ Ollama |
| 既存ドキュメント要約 | △ NotebookLM |
| 会議資料整理 | △ NotebookLM |
メインは Ollama、NotebookLM は補助的
というスタンスが一番しっくりきます。
まとめ
- システム保守でAIを使いたいなら、Ollamaが最適
- NotebookLMは「資料読み専用」
- コード起点の作業(解析・設計・回答)は Ollama 一択
- ローカル実行なのでセキュリティ面も安心
次回予告:Ollama × VS Code 環境を作ってみる
次回は、
Ollama を使って、VS Code 上で
ソースコードを解析・質問・設計書生成できる環境を作る
というテーマで書く予定です。
- Ollama のインストール
- VS Code 拡張(Continue など)の設定
- 実際にコードを読ませて質問してみる
「本当に使えるの?」を実演ベースで紹介します。


コメント