OSS×クラウド最新TOPICS 2018年11月5日 11:36
Googleは、言語表現事前トレーニング手法「BERT」をオープンソース公開した。
自然言語処理(NLP)とは「言語翻訳」「センチメント分析」「セマンティック検索」「その他の数多くの言語タスク」などにまたがる人工知能(AI)のサブカテゴリ。
「BERT(Bidirectional Encoder Representations from Transformers)」とは、さまざまな自然言語処理(NLP)タスクの最先端の結果を得る言語表現事前トレーニングのための新手法。
Google AI言語の研究者であるJacob Devlin氏とMing-Wei Chang氏は、BERTについて次のように説明している。
『このリリースでは、世界の誰もが、「単一Cloud TPUなら約30分」「単一GPUなら約数時間」で、独自の「最新の質問応答システム」や「その他のさまざまなモデル」を訓練できます。』
このリリースはGitHubで利用可能で、以下のものが含まれており、このリポジトリ内のすべてのコードは「CPU」「GPU」「Cloud TPU」ですぐに使用できる。
また「AI開発者向け無料クラウドサービスColabに対応するノートブック」も用意されている。
・「BERT-Base」と「BERT-Large」の事前訓練されたチェックポイント
・BERTモデルアーキテクチャのコード---多くが標準Transformerアーキテクチャ
・「SQuad」「MultiNLI」「MRPC」などの微調整実験をプッシュボタンで複製するコード
https://github.com/google-research/bert
以上、下記URLからの要約
https://opensourceforu.com/2018/11/google-open-sources-its-bert-model-source-code/
この作品は クリエイティブ・コモンズ 表示 - 非営利 4.0 国際 ライセンスの下に提供されています。
Manifoldとは Manifoldは、エンジニアや科学者が、MLデータスライスとモデル全体のパフォーマンス問題を特定し、データのサブセット間の機能分布の違いを明らかにすることで根本原因を診断するのに役立つデバッグツール。 「Apache License 2.0」で提供されている。
OSS×Cloud ACCESS RANKING