BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

オープンソースのAI・人工知能/BERTとは

BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

概要

BERT(バート)とは、自然言語処理(NLP)タスクの事前トレーニング手法です。事前トレーニングされたBERTモデルを1つの追加出力レイヤーで微調整することで、「質問応答」や「言語推論」などの幅広いタスクに対応する最先端のモデルを作成できます。Google Researchが中心となり開発が進められています。

基本説明

BERTは「Bidirectional Encoder Representations Transformers」の略称で、言語表現を事前にトレーニングする手法です。

自然言語処理(NLP)とは「言語翻訳」「センチメント分析」「セマンティック検索」「その他の数多くの言語タスク」などにまたがる人工知能(AI)のサブカテゴリです。

「汎用言語理解モデル」を大きなテキストコーパス(Wikipediaなど)で事前トレーニングし、そのモデルをNLPタスク(質問など)に使用します。

「ディープ双方向アプローチ」により、言語理解タスクにおいて、以前のトレーニング方法よりも高い精度に達しています。

オフィシャルサイト情報

■オフィシャルサイト

→arxiv.org →BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

■GitHub

→github.com →google-research/bert

■主要開発元

BERTは、Google Researchが中心となり開発が進められています。

→research.google

■ライセンス情報

BERTのライセンスは「Apache License 2.0」です。

詳細について、こちらを参照ください。
→github.com →google-research/bert →LICENSE

■動作環境

リポジトリ内のすべてのコードは「CPU」「GPU」「CloudTPU」ですぐに使用できます。

ただし、GPUトレーニングは単一GPUのみサポートしています。

■ダウンロード

→github.com →google-research/bert

BERT最新TOPICS

最新情報はありません。

BERT最新CLOSEUPコラム

イベント情報

セミナー講演資料

無料資料プレゼント

2021/03/04 セキュリティDAYS Keyspider資料

講演資料を見るには、 プライバシーポリシーに同意して、送付先メールアドレスをご入力しご請求ください。

またご入力いただきました情報は、当該資料の作成・提供企業とも共有させていただき、当社及び各社のサービス、製品、セミナー、イベントなどのご案内に使用させていただきます。

本資料を見るには次の画面でアンケートに回答していただく必要があります。



セミナー講演資料公開中

NFTマーケットプレイス開発の課題と画期的なソリューション

エッジAI導入までのロードマップ 〜 なぜエッジAIのPoCは苦労するのか?~

産業用スマートグラスの課題と、製品選びのポイント ~スマートグラスはここまで進化した!現場作業の遠隔支援を効率化~

  • オープソース書籍(サイド)
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter