Googleは、スマートフォン、ノートブック、タブレットなどの一般消費者デバイスで実行できる超軽量AIモデル「Gemma 3n」を公開しました。このモデルは特別なクラウド接続なしで2GBメモリで動作可能で、AI技術の大衆化を加速させる技術として注目されています。
「Gemma 3n」は、Googleが最近開催した年次開発者イベントGoogle I/O 2025で発表されました。テキストだけでなく、画像、音声、将来的には動画までも処理できるマルチモーダル機能を備えています。特に、スマートフォンレベルの仕様でも動作可能なのが最大の特徴です。

今回のモデルは、Google DeepMindが開発した「層別埋め込み(Per-Layer Embedding)」技術を適用し、大規模モデルが要求するメモリ使用量を飛躍的に削減しました。これにより、5億から8億個に及ぶAIパラメータを持ちながらも23GBのメモリだけで動作可能です。
また、「Gemma 3n」はひとつのモデル内に小さなモデルを内蔵する構造である「MatFormer」アーキテクチャを使用しています。これにより、状況に応じてより小さなモデルだけを実行することで、エネルギー効率と反応速度の両方を確保しました。
AI実行に必要なリソースを最小限に抑えたおかげで、従来の大型AIモデルが必要としていた高性能グラフィックカード(GPU)なしでも、ほとんどの機能が動作します。例えば、テキストベースのモデルのひとつは、一般的なPCメモリレベルである861MBだけでも実行可能です。
「Gemma 3n」は画像認識、リアルタイム音声認識、言語翻訳、オーディオ分析など多様な機能をサポートし、これらをすべてデバイス内で処理できるように設計されています。Googleはこのモデルがプライバシー保護、遅延のない反応速度など、従来のクラウドベースAIが抱える制限を補完できると期待しています。
また、韓国語を含む多言語処理能力も強化されました。画像解析性能も向上し、256×256から最大で768×768の解像度の視覚情報まで処理可能です。