台湾台北市2019年6月14日 – 業界をリードするコンピューティング、ネットワーキング、ストレージソリューションのイノベーターであるQNAP® Systems, Inc.(QNAP)は本日、AIディープラーニング推論用に設計された、以下2つのコンピューティングアクセラレーターカードを発表しました。 Mustang-V100(VPUベース)と、Mustang-F100(FPGAベース)ユーザーはPCIeベースのアクセラレーターカードをIntel®ベースのサーバー/PCまたはQNAP NASに取り付けることで、製造、ヘルスケア、スマートリテール、ビデオ監視などにおける現代のコンピューター画像処理とAIアプリケーションの厳しいワークロードに対処することができます。
QNAPのプロダクトマネージャーDan Lin氏は「計算速度はAIアプリケーション構築における能力の主な指標です」と話し、「QNAP Mustang-V100とMustang-F100アクセラレーターカードはOpenVINO™アーキテクチャに最適化され、Intelハードウェアのワークロードを拡張してパフォーマスを最大化することができます。さらに、QNAPのOpenVINOワークフロー統合ツールと利用することで、ディープラーニング推論が最短時間で完了できるように処理を高速化することができます」とも話しています。
Mustang-V100とMustang-F100は両方とも、AI推論のための経済的な高速化ソリューションを提供し、OpenVINOツールキットと動作させることでイメージ分類と画像処理の推論ワークロードを最適化することができます。Intelが開発したOpenVINOツールキットは、画像アプリケーションにおける高性能画像処理とディープラーニングの急速な構築を支援します。これにはModel Optimizerと推論エンジンが含まれます。事前にトレーニングを施したディープラーニングモデル(CaffeやTensorFlowなど)を中間表現(IR)に最適化し、異機種環境のIntelハードウェア(CPU、GPU、FPGA、VPU)にわたり推論エンジンを実行します。
QNAP NASは幅広いアプリケーション(監視、仮想化、AIを含む)をサポートするために進化しており、大容量のストレージやPCIe拡張性の組み合わせという要素がAIの利用ポテンシャルにとって有利となっています。QNAPはIntel OpenVINOツールキットテクノロジーを利用するOpenVINOワークフロー統合ツール(OWCT)を開発しました。OWCTとともに使用することで、IntelベースのQNAP NASは、組織が推論システムを素早く構築できるように支援する理想的な推論サーバーソリューションとなります。AI開発者は、トレーニングを受けたモデルをQNAP NASに導入して推論を行い、Mustang-V100またはMustang-F100アクセラレーターカードを取り付けて、推論を実行するための最適なパフォーマンスを実現できます。
QNAP NASは現在、最新バージョンのQTS 4.4.0オペレーティングシステムでMustang-V100とMustang-F100をサポートしています。QTS 4.4.0に対応しているQNAP NASモデルを表示するには、www.qnap.com にアクセスしてください。QNAP NASのOWCTアプリをダウンロードしてインストールするには、App Center にアクセスしてください。
主な仕様
- Mustang-V100-MX8-R10
ハーフハイト、8つのIntel® Movidius™ Myriad™ X MA2485 VPU、PCI Express Gen2 x4インターフェイス、30W未満の消費電源 - Mustang-F100-A10-R10
ハーフハイト、Intel® Arria® 10 GX1150 FPGA、PCI Express Gen3 x8インターフェイス、60W未満の消費電源