【OSS】オープンディープラーニングコンパイラスタック「TVM」---あらゆるディープラーニングモデルを広範囲に展開

【OSS】オープンディープラーニングコンパイラスタック「TVM」---あらゆるディープラーニングモデルを広範囲に展開

OSS×クラウド最新TOPICS 2019年6月10日 14:19

【OSS】オープンディープラーニングコンパイラスタック「TVM」---あらゆるディープラーニングモデルを広範囲に展開

オープンディープラーニングコンパイラスタック「TVM」について紹介。

「TVM」とは

「TVM(Tensor Virtual Machine)」とは、「フレームワーク」「CPU」「GPU」「特殊アクセラレータ」など、さまざまなディープラーニングモデルをコンパイルするためのオープンディープラーニングコンパイラスタック。

開発者があらゆるプログラミング言語を介して、あらゆるフレームワークからあらゆるハードウェアにディープラーニングモデルを統合および展開することを可能とする。

→tvm.ai

→GitHub →dmlc / tvm

モデルコンパイルサポート

TVMは「TensorFlow」「Onnx」「Keras」「Mxnet」「Darknet」「CoreML」「Caffe2」などの幅広いフロントエンドからのモデルコンパイルをサポートしている。

バックエンドデプロイ

TVMでコンパイルされたモジュールは「LLVM」「NVidia GPU(CUDA)」「OpenCL」「Metal」などのバックエンドにデプロイできる。

言語用ランタイムバインディング

TVMは「JavaScript」「Java」「Python」「C++」「Go言語」などのプログラミング言語用のランタイムバインディングもサポートしている。

以上、下記URLからの要約
https://opensourceforu.com/2019/06/the-capabilities-of-tensor-virtual-machine-an-open-deep-learning-compiler-stack/

OSSNEWSに広告を掲載しませんか?

関連オープンソース

  • オープソース書籍(サイド)
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter