毎月、ChatGPTやClaudeのようなAIサービスにサブスクリプション料金を払っているなら、一度は耳にしたくなるニュースが出てきた。
8年前には1枚1億ウォンをはるかに超えていたデータセンター向けの高級グラフィックカードが、中古市場で14万ウォン前後まで下がり始めた。一般家庭用PCに挿して、ChatGPTに近い水準のAIを直接動かせる価格帯だ。
海外のYouTubeチャンネル「Hardware Haven」は最近、NVIDIAのデータセンター向けグラフィックカードであるV100を14万ウォンで入手し、自分のPCに接続する実験を公開した。
16ギガバイト(GB)モデルだ。いったん買っておけば、毎月引き落とされていたAIのサブスクリプション料金をもう払わなくてよいという点で、意味は小さくない。
データセンターから家庭用デスクへ降りてきた高級GPU
V100は2017年にNVIDIAが発売したデータセンター専用グラフィックカードだ。発売当時の価格は1万ドル(約1,400万ウォン)を超えていた。ChatGPTのような巨大AIモデルの学習に使われる核心部品だった。
8年が過ぎた今、このカードは米国の中古取引サイトeBayで100ドル(約14万ウォン)前後で取引されている。新型データセンターGPUが相次いで登場し、企業が旧型V100を大量に処分する流れが生まれた。その結果として価格が下がった。
問題は、買って挿せば終わりではないことだ。V100には2種類ある。ひとつは一般PCにそのまま挿せる形で、もうひとつはデータセンターサーバー専用に作られた「SXM2」という特殊規格だ。14万ウォンまで下がったのは、このSXM2モデルだ。一般PCとは接続方式そのものが異なる。
この問題を解決するのが「SXM2-PCIeアダプター」という変換ボードだ。データセンター用カードを家庭用マザーボードに接続できるようにする橋渡し役となる。価格は約14万ウォンだ。さらに、カードが過熱しないよう冷却ファンと3Dプリンターで作ったカバーを加えると、総費用は約33万ウォンになる。
ゲーム用として人気のあるNVIDIA RTX 3060(12GB)グラフィックカードが新品基準で40万〜50万ウォン台であることを考えると、同程度かそれより安い水準だ。しかもAI作業性能はRTX 3060より高かったという点が核心だ。
「自分のコンピューターでChatGPTを動かす」…ローカルAIが注目される理由
Hardware Havenが公開したベンチマーク結果は、米IT専門メディアのTom’s HardwareとVideoCardzが引用報道し、話題になった。
無料のAI実行ツール「Ollama」を使って測定した結果、V100はOpenAIが公開した200億パラメータのモデル「GPT-oss-20b」を毎秒130トークンの速度で処理した。
同じ条件では、新型グラフィックカードのRadeon RX 7800 XTは毎秒90トークンを生成するにとどまった。別のモデル「Gemma 4 E4B」のテストでは、V100が毎秒108トークン、RTX 3060(12GB)が毎秒76トークンを記録した。
わかりやすく言えば、1万ウォンのラーメンを作るのに50万ウォンのIH調理器と30万ウォンのガスコンロがあると仮定してみよう。ガスコンロのほうがより速く沸かせる状況が起きたわけだ。値段はより安いのに性能はより良い、逆転現象である。
こうした流れが注目される背景には、「ローカルAI」という新しい使い方がある。これまでChatGPT、Claude、GeminiのようなAIサービスはすべて、インターネットを通じて遠くのデータセンターに接続する方式だった。毎月利用料を払い、企業のサーバーに質問を送り、答えが返ってくる構造だ。
ローカルAIは正反対だ。AIモデルを自分のPCに直接入れておき、インターネット接続なしで使う。一度設置すれば追加費用はかからない。質問内容が外部企業のサーバーに流れないので、プライバシーも守れる。AI会社が特定の質問への回答を拒む検閲方針からも自由だ。
企業にとっても魅力的だ。顧客データを外部に送らず、社内で処理できるからだ。医療、法律、金融のように情報流出が致命的な分野ほど、ローカルAIの必要性はさらに高まる。
消費者が知っておくべき現実的な限界と代案
バラ色の展望だけではない。韓国国内でV100を手に入れようとすると、ほとんど海外直送に頼ることになる。米国eBayでSXM2カードとアダプターを別々に購入して持ち込む方法が一般的だ。関税や送料、交換・返品の難しさまで考えると、実際の費用はさらに上がる。
技術的な参入障壁も無視できない。アダプターボードの取り付け、3Dプリンターでの冷却カバー製作、OSドライバーの設定、AIモデルのダウンロードと実行まで、非専門家には容易ではない作業だ。
カード自体の消費電力も大きい。動作時は250ワット(W)を使い、つけっぱなしにするだけでもかなり電力を消費する。24時間稼働させれば、1か月の電気代は少なくない額に増える可能性がある。
解決策は段階的なアプローチだ。最初からV100級で始める必要はない。Raspberry Piのような手のひらサイズの小型コンピューターでも、小規模なAIモデルなら十分に動かせる。速度は遅いが、費用は10万ウォン台で始められる。
インストール手順を簡素化する無料プログラムも増えている。「Ollama」や「LM Studio」のようなツールは、数回のクリックでオープンソースAIモデルをPCにインストールしてくれる。コマンド入力なしで、一般的なソフトを入れるように進められる。韓国語に対応するオープンソースモデルも徐々に増える傾向にある。
価格バブルが剥がれた今こそ参入の好機…長期的に見れば「投資」
専門家たちは、V100の価格が今の水準で長くとどまるとは見ていない。ローカルAI需要が増え、中古データセンターGPUへの関心が高まり、在庫が急速に消化される流れが見られるからだ。市場がこの裁定機会を認識した瞬間、価格は再び上昇する可能性が高い。
こうした点から、今が参入の好機だという評価が出ている。ChatGPT Plusのような有料AIサービスの年額利用料が約30万ウォン水準であることを考えると、V100ベースのPC1台で1〜2年あれば元が取れるという計算になる。その後は実質的に「無料AI」になるわけだ。
もちろん、クラウドAIの強みも明確だ。最新モデルをすぐ使え、ハードウェア管理の負担がなく、どこからでもアクセスできる。ローカルAIはそのすべての利便性を手放す代わりに、コントロール権とコスト削減を選ぶ道だ。
重要なのは「選択肢が増えた」という事実だ。AI時代に毎月利用料を払うのか、一度投資して長く使うのか、あるいは両方を併用するのかを、消費者が自分で決められる環境が整いつつある。
ローカルAIはもはや一部の開発者だけの領域ではない。10万ウォン台の中古部品と少しの時間があれば、誰でも自分だけのAIを持てる時代に入っている。