数百万円かけずに、ローカルAI環境を作るという選択

はじめに

大規模言語モデル(以下、LLM)を業務で活用するにあたり、
社内文書や機密情報も安全に取り扱える環境を整えたいというニーズから、
ローカルAI環境を社内に構築し検証を行うことになりました。

AIの実行環境は高価になりがちですが、
LLMや生成AIの実行に特化した場合はMinisforum MS-S1 MAXが有効で費用を抑えられたので記事にします。

高めの買い物に心躍り、開封の儀を楽しんでました。
あと、ごちゃごちゃしたワークベンチに小型ワークステーションは映えますね!!

機器選定

当初は複数GPU構成のマシンを自作する案を検討していました。
しかし試算してみると、

  • ある程度しっかり構成(120Bクラス)  約200万円
  • 最低限のお試し構成(20Bクラス)    約50万円

という見積もりになり、検証用途としては少し重たい投資だと感じていました。
(※2025/10の話です)

一方で、今回どうしても試してみたかったのが、
gpt-oss-120bのようなパラメータ数の多いLLMです。
「できるだけコストを抑えつつ、このクラスのモデルを動かせないか?」
と検討していたところで出会ったのがMinisforum MS-S1 MAXでした。
https://www.minisforum.jp/products/ms-s1-max

Minisforum MS-S1 MAXについて

このMinisforum MS-S1 MAX(以下、MS-S1)は、
価格帯を考えると少し変わった構成のワークステーションですが、
LLMの検証用途という観点では非常にバランスの取れた選択肢だと感じています。

gpt-oss-120bのような大規模モデルを実行する場合、
ボトルネックになりやすいのはGPUの演算性能よりもGPU側で利用できるメモリ容量です。

MS-S1は特殊なメモリ構成を採用しており、
GPU側に最大96GB程度のメモリを割り当てて利用することが可能です。
その結果、gpt-oss-120bのようなモデルも
検証用途としては十分現実的な速度で実行できる環境を構築することができました。

なお、MS-S1の詳細な構成や各種ベンチマーク結果など、
技術的な内容については次の記事であらためて紹介したいと思います。

今後やりたいこと

今後はクラウドサービスでは試しづらいことや、
コストや情報管理の観点で踏み込みにくかった領域についても、
ローカル環境だからこそ気軽に試行錯誤できることを重視してこの環境を利用していきます。

現時点では検証フェーズですが「最新技術を使うこと」そのものが目的ではなく、
業務にどう活かせるか・どう価値に変えられるか、を考えていきたいです。

最後に

  • 社内にあるデータを活かしてAIを使ってみたい
  • 生成AIに興味はあるが、何から始めればいいかわからない
  • クラウド利用に不安があり、ローカルでの検証を検討している
  • PoCや検証フェーズを一緒に考えてくれるパートナーを探している

といったお悩みやご相談がありましたら、ぜひお気軽に当社までお声がけください。

今回のような検証環境の構築から、
業務への適用を見据えた技術検討まで、
一緒に考え、試し、形にしていくことができればと思っています。

Follow me!

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です