長年にわたり、人工知能(AI)の発展は、ますます大きな規模、より多くのデータ、より多くのパラメーター、そしてより大きな計算力に関連付けられています。
したがって、大型言語モデル(LLM)は、クラウドコンピューティングと専用GPUに大きく依存している高価なデータセンターでのみ動作することがよくあります。
しかし、米国のスタートアップ企業は、大規模なAIをポケットに入れることができるデバイスに導入することで、このアプローチに挑戦しています。
Tiiny AI Inc.は最近、Tiiny AI Pocket Labを発表しました。Tiiny AI Pocket Labは、ギネス世界記録によって「局所100LLMを実行する最小のミニコンピュータ」カテゴリーで世界最小のパーソナルAIスーパーコンピュータとして認められています。
同社によると、これはクラウド接続、サーバー、またはハイエンドGPUを必要とせずに、デバイス上で最大1200億個の直接パラメータのLMTモデルを完全に実行できる最初のポケットデバイスです。
AIを強力に個人ユーザーに近づけるという野望
ビジョン声明の中で、Tiiny AIは、高度なAIを巨大なデータセンターから切り離し、個人の手に届けるという目標を強調しました。
同社は、現在のAIエコシステムの最大のボトルネックは、計算能力の欠如ではなく、クラウドへの依存性であり、高いコスト、大きな遅延、プライバシーリスクを伴うと述べています。
Tiiny AI Pocket Labのサイズは約14.2 x 8 x 2.53 cm、重量は約300グラムですが、完全なAI推論システムとして設計されています。
デバイスは約65Wの出力で動作し、エネルギー消費量が非常に多い従来のGPUベースのAIシステムよりも大幅に低くなっています。
ハードウェア構成と注目すべきパフォーマンス
発表によると、Pocket Labは12コアARMv9.2 CPUを搭載し、専用ニューロンプロセッサ(NPU)を統合し、約190TOPSのAI計算能力を達成しています。デバイスには80GBのLPDDR5Xメモリと1TBのストレージが付属しており、マシン上で大規模なモデルを処理できます。
Tiiny AIによると、Pocket Labは、1000億から1000億のパラメータのモデルに相当する、パーソナルAIの「ゴールドゾーン」で最も効果的に機能しており、これは実際のニーズの80%以上を満たすとされている範囲です。
同社は、デバイスの推論性能はGPT-4oに相当するレベルに達する可能性があり、マルチステップ分析、深い文脈理解、複雑な推論に十分であると発表しました。
デバイスのコアテクノロジー
小型デバイスで大規模なモデルを実行する機能は、T TurboSparse と PowerInfer の2つの主要なテクノロジーによるものです。
TurboSparseは、ニューロンレベルでのスローアクティベーション技術を使用しており、推論プロセスに必要な計算量を大幅に削減するのに役立ちます。
一方、PowerInferは、CPUとNPU間のワーク量を柔軟に分散させ、独立したGPUなしでパフォーマンスを最適化できるオープンソース推論ツールです。
この組み合わせのおかげで、以前は数千米ドルのGPUを必要としていたタスクが、ポケットデバイスで実行できるようになりました。
オープンエコシステムとCES 2026を目指す
Tiiny AI Pocket Labは、GPT-OSS、Qwen、DeepSeek、Llama、Phi、Mistralなど、ワンクリックでオープンソースモデルをインストールすることをサポートしています。デバイスは、OpenManus、ComfyUI、Flowise、SillyTavernなどの多くのオープンソースAIアクターとも互換性があります。
同社によると、ユーザーはOTA経由でのハードウェアアップグレードを含む継続的なアップデートを受け取り、2026年1月のCESで完全に実演される予定です。