GPU63,980円のMiniPCがAIマシンに!GPU外付けでローカルAI環境を構築

中国製のコスパのいいMiniPCをすでに5台購入している中で、2024年9月に購入したRyzen9 6900HX, RAM:32GBの機種をローカルAI用として活用しています。OSはLinuxMint 22.1です。

メモリーが32GBありRyzen9の高性能CPUということで、7B~14Bクラスの高性能モデルをローカルで動かすことができているのですが、余っているグラフィックスボードの有効活用ということで、さらにGPUを活用することで高速化を図ります。

このMini PCにはOculinkのポートがあり、手持ちのグラフィックスボード”GeForce RTX4060″を利用できるようにします。

Oculink:PCIe 4.0 x4で最大64Gbpsの帯域幅を提供し、Thunderbolt 4(40Gbps)よりも高速です

記事の内容

NVIDIAのドライバーとCUDA Toolkitの追加インストール

GeForce RTX 4060の性能をローカルAIで最大限に活用するためには、NVIDIAのドライバーとCUDA Toolkitの追加インストールが必須となりますが、正しく設定することでとても強力なローカルAI環境を構築することができます。

CUDAをインストールする意味

今回使用するMin PCの頭脳(CPU)はAMD製ですが、ローカルAIの計算を爆速化してくれる腕力(GPU)としてNVIDIA製のRTX 4060を追加する、という構成です。

AIソフトウェア(Ollama, LM Studioなど)がNVIDIAのGPUに計算を命令するためには、両者の間に「通訳」が必要です。この通訳の役割を果たすのが以下の2つです。

  1. NVIDIA ドライバー: OS(Linux)がRTX 4060というハードウェアを正しく認識し、制御するための基本的なソフトウェアです。
  2. CUDA Toolkit: AIの計算(専門的には並列計算)の命令を、ドライバーを通じてGPUに伝達するためのライブラリや開発ツールのセットです。

これらをインストールしないと、AIソフトウェアは高性能なRTX 4060の存在に気づけず、計算はすべてCPU(Ryzen 9 6900HX)で行われてしまいます。せっかくのグラフィックスボードが無駄になってしまうため、設定は不可欠なものとなります。

LinuxMintでの設定手順

ステップ1: eGPUの物理接続と認識確認

まず、PCの電源がオフの状態でOCuLink経由でRTX 4060を接続し、電源を入れます。 Linuxが起動したら、ターミナルを開いて以下のコマンドを実行し、システムがNVIDIAのカードをハードウェアとして認識しているか確認します。

lspci | grep -i nvidia

このコマンドで、NVIDIA Corporation を含む行が表示されれば、ハードウェアとしては正しく認識されています。

ステップ2: NVIDIAドライバーのインストール

次にドライバーをインストールします。ターミナルで以下のコマンドを実行します。
これにより、ハードウェアに最適な推奨ドライバーが自動でインストールされます。

sudo ubuntu-drivers autoinstall

インストールが完了したら、必ずPCを再起動します。

ステップ3: CUDA Toolkitのインストール

ドライバーのインストール後、CUDA Toolkitをインストールします。これもUbuntu系のパッケージマネージャー(apt)からインストールするのが簡単です。

sudo apt update
sudo apt install nvidia-cuda-toolkit

これにより、AIソフトウェアが必要とするCUDAのライブラリなどがシステムに導入されます。

ステップ4: 最終確認(最重要)

すべてのインストールと再起動が完了したら、ターミナルで以下のコマンドを実行します。

nvidia-smi

このコマンドで以下のような情報が表示されれば、セットアップは完璧です。

確認すべきポイント

  • GPU Name: 「NVIDIA GeForce RTX 4060」と表示されていること。
  • Driver Version: ドライバーのバージョンが表示されていること。
  • CUDA Version: CUDAのバージョンが表示されていること。

この画面が表示されて、Linux PCはRTX 4060をAIのために使う準備が整いました。

あとは、OllamaLM Studioなどのツールを用いてローカルAIを利用します。

GPUが使われているか確認する

次のコマンドでGPUの稼働状況を1秒ごとに更新して表示してくれます。

watch -n 1 nvidia-smi

この画像の例では、8GB搭載されているVRAMを、LM Stuidoで約1.8GB, Ollamaで約2.3GB使用してしている状況を示しています。

これにより、GPUが正しく稼働していることがわかります。

LM StudioでGPUの負担割合を調整

LM Studioでは、GPUの負担する割合を調整することができます。

LM Studioの上部の青紫のバーにAIモデル名が表示される左横のギアアイコンをクリック

「GPU Offload」の数値を大きくすることで、GPUの負担を高めることになります。

以上で、体感的にかなりローカルAIのレスポンスが速くなりました。

今回使用した機材

AOOSTAR MiniPC
AMD ryzen9 6900hx(8コア/16スレッド、周波数3.3GHz-4.9GHz)プロセッサー、AMD Radeon 680M 12コア RDNA3グラフィックス、zen3+ GPUアーキテクチャ。GEM12シリーズMINI PCはデュアルメモリチャンネルにアップグレードした。大容量デュアルDDR5(16Gx2)4800HMzメモリ、1TB充実したストレージ搭載され、二つM.2 2280 NVME PCle 4.0x 4スロットは最大4TBx2拡張できます。WIFI6/Bluetooth5.2対応、USB4 x1 Oculink x1 USB3.2 Gen 2(10GPBS)x2 USB2.0 x2 LAN(2.5G)x2 3.5mm音声 x1 DP1.4 x1 フル機能 Type-C x1 HDMI2.1 x1豊富インサーフェス搭載

アマゾンで当時割引で63,980円という格安で購入しました。

ちなみにMini PCとGPUとの接続はOculinkケーブル1本でつなぐだけです。

画像出力についてはMiniPC本体のHDMIケーブルでモニターに接続することで、画面表示を行います。

さいごに

まずは手持ちの機材でLinuxMintの環境で、Nvidiaドライバー、CUDA Toolkitを導入することでローカルAIをレスポンス良く利用できる環境の構築が可能であることが、改めて確認できました。

Intel Core i5/7の第8世代以降、PCのマシンスペックにはほとんど気にせずに来たのですが、久しぶりに高性能なマシンスペックを追い求めることになりそうで、ヤバいです。

よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

情報環境コミュニケーションズ 代表
企業、団体のITコンサル、サポート、システム構築/管理、大学の招聘研究員として大規模調査の設計、集計の効率化、解析などを行っています。
最近ではAI開発環境の構築のサポートも行うようになってきました。
<著書>2008年〜2015年、テクニカルライターとして、週間アスキー、Ubuntuマガジン、Linux 100%, Mac 100%, Mr.PCなど多数のIT系雑誌に寄稿。

コメント

コメントする

記事の内容