1. はじめに:眠れる獅子を呼び覚ます —— 旧型PCを最新AIサーバーへ
「10年前のPCだから、もう使い道がない」 そう思って棚の奥で眠っていたPCがありました。
【改良前のスペック】
CPU:Intel Core i5-4460
メモリ:8GB
グラボ:なし
SSD:120GB
OS:Windows10
【改良後スペック】
CPU:Intel Core i5-4460
メモリ:24GB(手持ちの8GBメモリ2枚、4GBメモリ2枚挿しに)
グラボ:GeForce RTX 2060 8GBメモリ(中古で18,000円くらい)
SSD:120GB
OS:Ubuntu(Linux)
なぜ今、あえて「ローカルAI」なのか
世の中はChatGPTなどの便利なクラウド型AIで溢れていますが、あえて自宅(自社)にローカルAI環境を持つことには、圧倒的な2つのメリットがあります。
鉄壁のプライバシーとセキュリティ クラウドAIに業務データや機密情報を入力することに抵抗を感じる方は少なくありません。ローカル環境であれば、入力したプロンプトやデータが外部のサーバーに送信されることは一切なく、完全にクローズドな環境でAIとの対話が完結します。
ランニングコストからの解放 月額20ドル(約3,000円)以上のサブスクリプション料金を払い続ける必要はありません。一度構築してしまえば、かかるのは電気代だけ。回数制限やトークン制限を気にすることなく、24時間365日、心ゆくまでAIを使い倒すことができます。
目指したのは「いつでも、どこからでも」
今回の構築でこだわったのは、単に家で動かすだけではなく、「自分専用のAI」を外出先からも自由に呼び出せる環境にすることです。
Ubuntuをベースに、モデル実行エンジンの「Ollama」、直感的な操作が可能な「Open WebUI」、そして安全な経路を確保する「NordVPN」を組み合わせることで、スマホ一つあればカフェからでも自宅のAIサーバーにアクセスし、最新情報の検索や複雑なデータ分析を依頼できる体制を整えました。
それでは、古いPCに新しい命を吹き込み、自分だけのAIアシスタントを作り上げるまでの全工程をご紹介します。
ただ、その工程は多岐にわたるため1記事で納めることが難しく、複数回に分けるつもりでいます。
1. 最初の壁:GTX 750Ti との死闘
当初、私のAIサーバー計画は難航を極めました。手元にあったのはメモリ12GB、グラフィックボードには「GTX 750Ti(ビデオメモリ2GB)」を搭載したPC。とりあえずUbuntuをインストールし、AIエンジンである「Ollama」を動かそうとしましたが、あえなく撃沈。

特に苦労したのは以下の点です。
NVIDIAドライバーの泥沼: 古いグラボとUbuntuのバージョン相性問題。
モデルの制限: ビデオメモリが2GBでは、まともなLLM(大規模言語モデル)をロードできず、頻繁にクラッシュ。
Ollamaのバージョン問題: 当時利用していた環境とモデルの依存関係が噛み合わず、解決に多大な時間を費やしました。
この経験で学んだのは「AI環境において、ビデオメモリ(VRAM)は命である」という教訓です。
2. 再挑戦:スペックアップによる「スムーズな再始動」
教訓を活かし、PCを大幅に強化しました。
メモリ: 12GB → 24GB
グラボ: GTX 750Ti → RTX 2060 (8GB)
この変更は劇的でした。Ubuntuをクリーンインストールし直したところ、以前あんなに苦労したNVIDIAドライバーの認識も、一撃で完了。
まさに「餅は餅屋」ならぬ「AIはハードウェア次第」を体感した瞬間です。
3. リモート運用への第一歩:SSH接続の確立
物理的なサーバー(旧型PC)をクローゼットやデスクの端に置いても操作できるように、別のPCから遠隔操作(SSH)ができるように設定します。
# SSHサーバーのインストール
sudo apt update
sudo apt install openssh-server
# ステータスの確認
sudo systemctl status ssh
これで、手元のメインPCから ssh user@your-server-ip と打つだけで、Ubuntuマシンの操作が可能になります。
4. マシンパフォーマンスの確認
Ubuntuをインストールした後、正しくグラフィックボード(RTX 2060)が認識されているか、メモリが正しく割り当てられているかを確認します。
CPU/メモリ確認
free -h # メモリ使用量の確認 lscpu # CPU情報の確認GPU(RTX 2060)の状態確認: NVIDIAのドライバーが正しく動作しているか確認するために、以下のコマンドを多用することになります。
nvidia-smi
このコマンドを打った際に、現在搭載しているグラフィックボードの名前と、メモリ(VRAM)の空き容量が正しく表示されれば、AIを動かすための「土台」は完全に完成です。
5. Ollama の導入とQwen3:8bの起動
土台が整ったところで、AIのエンジンである「Ollama」をインストールします。
curl -fsSL https://ollama.com/install.sh | sh
インストール後、いよいよモデルを動かします。
※qwenは最近の情報ではqwen3.5と言われていますが、まだスモールモデルが見つからなかったのでqwen3にしています
ollama run qwen3:8b
コマンド一つでモデルがダウンロードされ、ターミナル上で対話が可能になります。
GTX 750Tiの頃とは比較にならないレスポンスでAIが回答を生成するのを見ると、スペックアップの価値を実感しました。
ハードウェアの刷新とUbuntuのセットアップ、そしてリモート運用のためのSSH設定までが完了しました。これで、いつでもコマンド操作ができる「AIサーバー」になりました。
次回(第2回)は、ブラウザからChatGPTのように使えるGUIインターフェース「Open WebUI」を導入し、さらに「Web検索」との連携設定を行っていきます。
いよいよローカルAIが「ただの回答マシン」から「最新情報に精通したアシスタント」へ進化します。
記事閲覧数:1
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。
コメント