Intel® OpenVINO™ Toolkit 搭載済み |
第6世代以降Intel Core i5,7 Q170 チップセット DDR4メモリ 内部電源コネクタ(増設ボードに電源供給可) OS: Ubuntu 16.04.3LTS(64bit) 搭載済み |
Intel® OpenVINO™ ツールキット |
• Intel® Deep Learning 開発キット ー Model Optimizer :モデル最適化 ― Inference Engine :推論エンジン” • Optimized computer vision ライブラリ • Intel® Media SDK • OpenCL グラフィックドライバーとランタイム |
◆ TANK-870AI-i5/8G/2A-R10 ◆ TANK-870AI-i7/8G/2A-R10
セットアップ方法 |
1.システムを用意 ― CPU:第6~第8世代 Core i ― メモリ:DDR4 8GB ― HDDあるいはSSD 2.OSをダウンロード(現在はLinux Ubuntu) 3.OpenVINO(Open Visual Inference & Neural Netwoek Optimization) ツールキットをダウンロード |
Open VINO ツールキット (各種アクセラレータの性能を十分に引き出します。) |
Open Visual Inference & Neural Network Tool Kit(オープン画像推論エンジンとニューラルネットワーク)は、 CNN(convolutional neural network,畳みこみニューラルネットワーク)を基にしています。 ツールキットはIntel社のハードウェアを拡張し性能を最大限にします。 このツールは、搭載されているCaffe、MXNET、TensorFlowの様なデーィプラーニングモデルをIR(中間表現)バイナリーファイルに変換します。 IRの最適化それから推論エンジンを実行させます。そのエンジンは、異なるプロセッサーの間、CPU,GPU,Intel Movidius とFPGA間で動作します。 学習モデルだけでは、AIのアプリケーションは、完成しません。リアルタイムなエッジ デバイスの開発が最も重要です。 |
FPGAタイプアクセラレータ Mustang-F100-A10、他 |
低消費電力、低レイテンシーなので、リアルタイム処理、監視、店頭販売、医療機器、マシーンビジョンの様なアプリケーションに適しています。 エッジにおけるアプリケーションは、できるだけ消費電力を抑え、リアルタイムの処理が必要になります。 従い、ローカルで、AIを使うことがエッジには必要になります。 |
VPUタイプ アクセラレータ Mustang-V100-MX8 |
画像処理には性能を発揮しやすい。 監視、リテール、輸送などのアプリケーションに適している。DNNトポロジーを採用。 |