BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

オープンソースのAI・人工知能/BERTとは

BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

概要

BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

基本説明

BERTは「Bidirectional Encoder Representations Transformers」の略称で、言語表現を事前にトレーニングする手法です。

自然言語処理(NLP)とは「言語翻訳」「センチメント分析」「セマンティック検索」「その他の数多くの言語タスク」などにまたがる人工知能(AI)のサブカテゴリです。

「汎用言語理解モデル」を大きなテキストコーパス(Wikipediaなど)で事前トレーニングし、そのモデルをNLPタスク(質問など)に使用します。

「ディープ双方向アプローチ」により、言語理解タスクにおいて、以前のトレーニング方法よりも高い精度に達しています。

オフィシャルサイト情報

■オフィシャルサイト

→arxiv.org →BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

■GitHub

→github.com →google-research/bert

■主要開発元

BERTは、Google Researchが中心となり開発が進められています。

→research.google

■ライセンス情報

BERTのライセンスは「Apache License 2.0」です。

詳細について、こちらを参照ください。
→github.com →google-research/bert →LICENSE

■動作環境

リポジトリ内のすべてのコードは「CPU」「GPU」「CloudTPU」ですぐに使用できます。

ただし、GPUトレーニングは単一GPUのみサポートしています。

■ダウンロード

→github.com →google-research/bert

BERT最新TOPICS

最新情報はありません。

BERT最新CLOSEUPコラム

無料資料プレゼント

Function-As-AServiceプラットフォーム、主要プロバイダ9社とその状況

講演資料を見るには、 プライバシーポリシーに同意して、送付先メールアドレスをご入力しご請求ください。

またご入力いただきました情報は、当該資料の作成・提供企業とも共有させていただき、当社及び各社のサービス、製品、セミナー、イベントなどのご案内に使用させていただきます。

本資料を見るには次の画面でアンケートに回答していただく必要があります。



セミナー講演資料公開中

クラウド翻訳のリスク(学習データに機密情報が使われてしまう)

「教師データ不要」のAIチャットボット ~すぐに導入でき、運用負荷も大幅軽減~

AIは何ができるのか?どのように自社のビジネスに活用できるのか? ~高度なデータ活用から始めるAI / 機械学習システム構築の「7つのプロセス」、「3業界での事例」~

  • オープソース書籍(サイド)
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter