コンテンツへスキップ
すぺっくぷる

Orange Pi AI Studio Pro:352TOPSのAIボックス

Published on
Orange Pi AI Studio Pro:352TOPSのAIボックス

Orange PiがAscend 310を2基搭載した「OrangePi AI Studio Pro」を発表しました。AI算力352 TOPS、最大192GB LPDDR4Xという構成で、USB4(Type-C)経由でホストと接続する「AIボックス」として位置づけられています。SBCというよりは外付けAIアクセラレータの延長線上にある製品です。

Orange PiからOrangePi AI Studio Proが発表されました。昇腾社区(Powered by Ascend)の公式ページに製品情報が掲載されています。

本機はHuawei Ascend 310を2基搭載したAIボックスで、352 TOPSのAI算力と最大192GBのLPDDR4Xメモリを搭載しています。USB4(Type-C)経由でホストPCと接続し、AI推論処理をオフロードする「外付けAIアクセラレータ」に近い製品なんですよね。

SBCのようにGPIOやネットワークでセンサーを繋いで使うというより、ホスト側でネットワークやストレージを管理し、AI処理だけを本機に任せる運用が前提になりそうです。Jetson Orin NX(70〜100 TOPS級)では足りないけどデータセンターは大げさ、という中間層に刺さる製品ですね。

目次

スペック

■ OrangePi AI Studio Pro
AIプロセッサ昇腾(Ascend)310×2基(16 CPUコア・16 AIコア)
AI性能352 TOPS
メモリLPDDR4X 96GB / 192GB(最大4266Mbps)
ローカルストレージSPI Flash 32MB×2
主要I/OUSB4(Type-C)1ポート
電源DC 12V・20A(240W級、5.5×2.5mmジャック)
冷却12V 4Pinファン端子×2
サイズ207.7×132.6×40mm(脚6mm)
対応OSUbuntu 22.04.5(Kernel 5.15.0.126)、Windows(今後対応予定)

Ascend 310×2基で352 TOPSというAI算力と、最大192GBのLPDDR4Xという大容量メモリをUSB4接続の筐体に収めた製品です。 ネットワークやストレージ拡張の一次情報は未確認で、USB4(Type-C)1ポートのみという割り切った構成ですね。導入前にI/O周りの詳細が公開されるかを確認しておきたいところです。

特徴

AIプロセッサ(Ascend 310×2・352 TOPS)

一次情報で明記されているのは、Huawei昇腾(Ascend)310を2基搭載し、合計352 TOPSのAI算力を実現している点です。CPU/AIコアは合計で16 CPUコア・16 AIコアという記載があります。

Ascend 310の正体:Huaweiが自社開発したAIアクセラレータで、Da Vinci(達芬奇)アーキテクチャを採用しています。クラウド向けのAscend 910に対して、Ascend 310はエッジ・推論向けに位置づけられています。12nmプロセスで製造され、単体で8/16 TOPSの性能を持つという公式仕様がありますが、本製品では2基で352 TOPSという表記なので、内部構成が通常のAscend 310とは異なる可能性がありますね。

競合製品との比較

製品AI性能(TOPS)メモリ接続方式価格帯
OrangePi AI Studio Pro352 TOPS最大192GB LPDDR4XUSB4(Type-C)未公開
NVIDIA Jetson AGX Orin275 TOPS64GBオンボード約$2,000
NVIDIA Jetson Orin NX70〜100 TOPS8〜16GBM.2約$400〜600
Hailo-826 TOPSホスト依存M.2/USB約$100〜150
Intel Movidius Myriad X4 TOPSホスト依存USB約$100

352 TOPSは競合を大きく上回る数値ですが、TOPSの算出条件(INT8/FP16/Sparse等)が一次情報で明記されていない点は注意が必要です。 Jetson AGX Orinの275 TOPSはSparse INT8での値ですし、単純な数値比較は避けたほうが安全ですね。

用途例としては、OCR、物体検知、顔認識、検索レコメンド、大規模言語モデル(多模態)などが公式ページで挙げられています。大容量メモリ(最大192GB)と組み合わせることで、LLMのような大きなモデルを載せた推論やマルチモデル並列処理に向いている構成です。Ascendのソフトウェアスタック「CANN(Compute Architecture for Neural Networks)」でモデルをデプロイする形になります。

メモリとストレージ

メモリはLPDDR4X 96GBまたは192GBの2構成で、最大4266Mbpsの速度表記があります。エッジAIボードとしては異例の大容量で、LLMや複数モデルの常駐に余裕があるのがうれしいポイントです。 例えば70Bクラスのモデルを量子化せずに載せたい場合、このメモリ容量は大きな武器になりますね。

ローカルストレージはSPI Flash 32MB×2のみの記載で、OS領域の配置や更新手順は未確認。USB4経由でホスト側のストレージを使う運用が想定されている可能性がありますが、詳細は公式ドキュメント待ちです。

電源・冷却

電源はDCジャック(5.5×2.5mm)で12V・20A、アダプタは240W級という記載です。消費電力帯からして、ファンによる能動冷却が必須の設計ですね。実際、12V 4Pinファン端子が2系統用意されています。

筐体には放熱スリットも見られるため、デスクトップ設置で十分なエアフローを確保する前提の製品です。ファンの騒音が気になる環境では注意が必要です。比較対象として、Jetson AGX Orinが60W程度なので、本製品の240W級はかなりの電力食いですね。

ネットワーク・拡張

一次情報で確認できる「拡張」要素は、RGB灯インターフェースとファン端子のみです。

SBCでよく期待されるEthernet、Wi-Fi、Bluetooth、GPIO、M.2(NVMe/Wi-Fi用)、PCIeなどは未確認。USB4(Type-C)1ポートを通じてホスト側とやり取りする構成のため、ネットワークやストレージはホスト側で用意し、本機はAI処理専用として使う運用モデルが現実的です。

外観

OrangePi AI Studio Pro 筐体上面
参考:昇腾社区 公式ページ

筐体サイズは207.7×132.6×40mm(脚6mm)で、卓上設置を前提とした「箱型」デバイスです。基板単体の写真は一次情報で確認できていませんが、筐体デザインからは産業用機器を意識したシンプルな外観が読み取れます。

ポート面やBOTTOM(下面)の画像は未確認のため、端子レイアウトの詳細は公開待ちです。

その他

OS・ブート

対応OSはUbuntu 22.04.5(Kernel 5.15.0.126)で、Windowsは「今後対応予定」と記載されています。

OSイメージのダウンロード場所や導入手順は未確認。SPI Flashがどのような役割を果たすのか(ブートローダーのみか、OS自体を格納するのか)も不明です。購入前に公式ドキュメントでセットアップ手順が公開されているか確認することをおすすめします。

Ascend向けのAI開発にはCANN(Compute Architecture for Neural Networks)というソフトウェアスタックが必要になります。PyTorch、TensorFlow、MindSporeなどのフレームワークからモデルを変換してデプロイする流れですね。

入手性・価格

価格や入手方法は未確認。Orange Pi公式サイト(orangepi.org)やOrangePi中国サイト(orangepi.cn)での販売ページも、執筆時点ではアクセス障害により確認できませんでした。

まとめ

OrangePi AI Studio Proは、Ascend 310×2基による352 TOPSと最大192GB LPDDR4Xという、エッジAIボード界隈では異例の構成を持つ「AIボックス」です。USB4(Type-C)1ポートでホストと接続し、AI処理をオフロードする用途に特化しています。

価格比較(参考)

製品AI性能メモリ価格
OrangePi AI Studio Pro352 TOPS最大192GB未公開
NVIDIA Jetson AGX Orin 64GB275 TOPS64GB約$1,999
NVIDIA Jetson AGX Orin 32GB200 TOPS32GB約$999
NVIDIA Jetson Orin NX 16GB100 TOPS16GB約$599
Hailo-8 M.2 Module26 TOPSホスト依存約$150

※価格は参考値。OrangePi AI Studio Proの価格が公開され次第、競合との価格対性能比がわかります。

大きなモデル(70B級LLMなど)を載せた推論を外付けでやりたい人や、マルチモデル並列処理を高速化したい人には刺さる製品です。Ascendエコシステム(CANN)での開発に興味がある人にとっても、試す価値はあるでしょう。Jetson Orin NXでは足りないがデータセンターは大げさ、という中間層のワークロードには最適解になりそうです。

一方で、SBCのようにGPIOやEthernetを使ってセンサーを繋ぎたい人には向きません。また、NVIDIAやIntelのエコシステムに慣れていて乗り換えコストが気になる人や、静音環境で使いたい人(240W級ファン冷却)も注意が必要です。

公式ドキュメントでブート手順やI/O詳細が公開されるほど、評価が上がるタイプの製品です。続報を待ちたいところですね。

関連リンク