古いPCでもAIは動くのか? Debianで Bonsai-1.7B を試してみました

最近は、パソコンの中だけで動く「ローカルAI」に注目が集まっています。インターネットにつながなくても使えることや、自分の環境で試せることから、興味を持つ方も増えているように感じます。

今回は、古いパソコンで、実際にローカルAIがどのくらい動くのかを試してみました。使ったのは Bonsai-1.7B という比較的軽量なモデルです。

結論から言うと、一応動きました。
ただし、速度・快適さ・実用性はかなり厳しいというのが正直な感想です。

今回試した環境

今回使ったパソコンの構成は次の通りです。

  • CPU:Core i7(第4世代)
  • メモリ:8GB
  • OS:Debian
  • GPU:なし

最近の高性能なパソコンではなく、グラフィックボードはありませんが、10年前なら結構ハイスペックな構成に近い環境です。「このくらいのPCでもAIは動くのだろうか」という目線で試しました。

なぜLM Studioではなく、別の方法を選んだのか

ローカルAIを試す方法としては、LM Studioのような使いやすいアプリもあります。ただ、今回の環境では、できるだけ軽い方法を選びたかったため、GUIではなく llama.cpp を使う形にしました。

見た目のわかりやすさよりも、まずはなるべく余計な負荷を減らして、本当に動くか確かめることを優先した形です。

実際に行った手順

大まかな流れは次の通りです。

1. 必要なものを入れる

sudo apt update
sudo apt install -y git cmake build-essential libopenblas-dev pkg-config python3-venv

このコマンドは、ローカルでAIを動かすための環境構築です。

具体的には、まず、GitHubからプログラムをダウンロードするための準備。
次に、そのプログラムを自分のパソコンで動く形に変換する(ビルドする)ための準備。
さらに、そのときに必要になる基本的な開発ツール一式。

そして、AIの計算を少しでも速くするための数値計算ライブラリ。
加えて、それらのライブラリを正しく見つけて使うための補助ツール。

最後に、Pythonの環境を安全に分けて使うための仕組み(仮想環境)も入れています。

まとめると、

「ダウンロード → ビルド → 実行 → Python環境」までを一通りできるようにする準備」

というイメージです。

2. llama.cpp を取得する

git clone https://github.com/PrismML-Eng/llama.cpp.git
cd llama.cpp

llama.cpp は、大規模言語モデルを手元のPCで動かすための実行エンジンです。
Bonsai本体 :AIの頭脳、モデルデータ
llama.cpp =:その頭脳を実際に動かすための土台

みたいなことです。なので、Bonsaiを入れる前にllama.cppを準備しておく必要があります。

llama.cppでできること

① CLIで直接動かす
👉 llama-cli で、ターミナルからそのまま質問できる

② ローカルサーバーとして動かす
👉 llama-server で、ブラウザや他のアプリから使える

③ GGUF形式のモデルを扱う
👉 GGUFという形式のAIモデルを読み込んで動かせる

3. ビルドする

cmake -B build -DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS
cmake --build build -j2

4. Pythonの仮想環境を用意する

Debian本体のpythonに影響が出ないように、念のためpythonの仮想環境を作って作業を行います。

python3 -m venv .venv
source .venv/bin/activate
python -m pip install -U pip
python -m pip install "huggingface_hub[cli]"

5. モデルをダウンロードする

mkdir -p models
hf download prism-ml/Bonsai-1.7B-gguf Bonsai-1.7B.gguf --local-dir models

6. 実際に起動する

./build/bin/llama-cli \
  -m models/Bonsai-1.7B.gguf \
  -p "こんにちは" \
  -n 24 \
  -c 256

-n と -c とは何か

ローカルAIを動かすときに、少しわかりにくいのが -n-c です。今回はこの2つを小さめに設定して、できるだけ軽く動かしました。

-n とは

-n は、AIがどのくらいの長さまで答えるかを決める設定です。

数字が大きいほど長い文章を返しやすくなりますが、その分だけ時間もかかります。

  • -n 10 … とても短い返答
  • -n 24 … 今回試した軽量設定
  • -n 50 … 少し説明できる長さ
  • -n 100 … 長めの返答になるが重くなりやすい

たとえば、-p "AIとは何ですか?" と聞いたとき、

-n 10 なら、

AIとは人工知能のことです。

-n 50 なら、

AIとは人工知能のことで、人間のように学習や判断を行う技術です。
機械学習やディープラーニングなどが含まれます。

というように、答えの長さが変わります。

-c とは

-c は、どのくらい前の文章まで覚えていられるかを決める設定です。

数字が大きいほど、長い会話や長文の指示を扱いやすくなりますが、その分だけ重くなります。

  • -c 128 … とても短い文脈向け
  • -c 256 … 今回試した軽量設定
  • -c 512 … 少し余裕がある
  • -c 1024 以上 … 長めの文脈を扱えるが重くなりやすい

-c とは

-c は、AIがどのくらい前の文章まで覚えていられるかを決める設定です。
数字が大きいほど、長い指示や会話の流れを保ちやすくなりますが、その分だけ処理は重くなります。

たとえば、

  • 最初に「100文字以内で答えてください」と指示する
  • 次に「ローカルAIとは何ですか?」と質問する

という流れがあるとします。

-c が小さすぎると、最初の「100文字以内で」という指示をうまく保てず、長く答えてしまうことがあります。
反対に -c を大きくすると、前の指示も踏まえて答えやすくなります。

ただし、今回のような古めのPCでは、-c を大きくするとそのぶん動作が重くなりました。

今回の設定が小さい理由

今回の環境は非力なため重くなり、待ち時間も長くなりました。そのため、まずは

-n 24
-c 256

という軽量設定で試しました。

つまり、

  • -n = どれだけ話させるか
  • -c = どれだけ覚えさせるか

がそのまま処理の重さに結びつきます。

実際に使ってみた感想

今回の検証では、古めのPCでも一応ローカルAIを動かすことはできました。ただし、速度や快適さの面ではかなり厳しく、日常的に使うには難しいというのが正直な感想です。

ひとまず、私が人柱になっておきましたので、スペックが低いPCでは無理をせず、ブラウザで使える一般的な生成AIを素直に使った方がよさそうです。😅

とはいえ、今回のような環境でも「一応動いた」ことを考えると、技術の進化はやはり速いと感じます。モデルの軽量化や実行環境の改善が進めば、今は厳しい構成でも、今後はもう少し気軽に動かせるようになるかもしれません。

その意味では、今回の結果は「まだ早かった」というだけで、ローカルAIそのものに可能性がないという話ではないと思います。これから先、古いPCでももう少し実用的に動く時代が来るのか、引き続き楽しみに見ていきたいところです。

動作

一応動きました。

AIとしての返答は返ってきます。まったく起動しない、ということはありませんでした。

速度

かなり厳しいです。

軽めの設定にしても、反応は遅く感じました。気軽に会話するというより、「待ちながら試す」感覚に近いです。

快適さ

快適とは言えません、むしろしんどい(w

ブラウザで開く形も試しましたが、こちらはさらに重く感じました。見た目はわかりやすくても、今回の環境ではあまり向いていませんでした。

実用性

日常的に使うには厳しい印象です。

「とりあえず動くか試したい」という目的ならよいのですが、これを普段の作業にそのまま使うのは難しいと感じました。

なぜここまで重く感じたのか

理由はいくつかあります。

  • GPUがなく、CPUだけで動かしている
  • CPUが古めである
  • メモリが8GBである
  • 文脈を長く取ると負荷が大きくなる
  • ブラウザ表示ではさらに重くなる

つまり、動くことと、快適に使えることは別ということがよくわかりました(w

今回の評価

項目評価
動作一応動く
速度×
快適さ×
実用性×

まとめ

今回は、Core i7 第4世代・メモリ8GB・Debian という、少し古めのPCでローカルAIを試してみました。

結果として、Bonsai-1.7Bは一応動きました。
ただし、速度や使いやすさの面ではかなり厳しく、このまま常用するのは難しいというのが正直なところです。

それでも、こうした試行錯誤を通して、

  • AIはどんな環境でどのくらい動くのか
  • 軽量モデルとはいえ、実際にはどの程度の性能が必要なのか
  • 見た目の便利さより、土台の性能が大切なこと

など、学べることは多くありました。

つくば高等学院では、こうした情報技術も、単に「流行っているもの」として見るのではなく、実際に試してみて、考えてみることを大切にしています。

これからも、身近な機材や環境で試せることを、少しずつ発信していければと思います。