HOME > TOPICS > 詳細

                   
2023/04/17

BERT and Transformer

BERTはBidirectional Encoder Representations from Transformersの略で、Transformerのエンコーダ部分を双方向に学習させた自然言語処理モデルです。TransformerはAttention Is All You Needという論文で提案された、RNNやCNNを使わずにAttentionメカニズムだけでシーケンスを処理するモデルです。Transformerはエンコーダとデコーダから構成されており、エンコーダは入力シーケンスを隠れ状態に変換し、デコーダは隠れ状態と出力シーケンスの一部を使って次の単語を予測します。BERTはTransformerのエンコーダだけを使って、入力シーケンスの一部の単語をマスクして予測するタスクや、二つの文が連続しているかどうかを判定するタスクを学習します。これにより、BERTは入力シーケンスの両側の文脈を同時に捉えることができます。BERTの特徴は、事前学習したモデルをさまざまな自然言語処理タスクに転移学習できることです。例えば、テキスト分類や質問応答などのタスクにおいて、BERTは最先端の性能を達成しています。


関連リンク

三重大学大学院医学系研究科システムズ薬理学

三重大学メディカルゼブラフィッシュ研究センター