LLM Course documentation
Sequence-to-sequence モデル
0. セットアップ
1. Transformerモデルについて
イントロダクション自然言語処理 / NLP(Natural Language Processing)Transformersで何ができる?Transformersの仕組みについてエンコーダーモデルデコーダーモデルSequence-to-sequence モデルバイアスと限界まとめ章末クイズ
2. 🤗 Transformersの使用
4. モデルとトークナイザーの共有
7. 主要な自然言語処理タスク
8. 助けの求め方
コースのイベント
Sequence-to-sequence モデル
Encoder-decoderモデル(sequence-to-sequence modelsとも呼ばれる)はTransformerアーキテクチャのエンコーダーとデコーダーの両方を使用します。 それぞれのステージにおいて、エンコーダーのアテンション層は入力文のすべての単語にアクセスできるのに対して、デコーダーのアテンション層は入力中のある単語の前に位置する単語にのみアクセスできます。
これらのモデルの事前学習は、エンコーダー、またはデコーダーの学習と同じように行われますが、通常はより複雑な方法を含みます。 例えば、T5 は、特殊な単語で文中のスパン(複数の単語を含むことができる)をランダムにマスクしたときに、そのマスクされた文を予測する事を目的として事前学習されています。
Sequence-to-sequenceモデルは、要約、翻訳、質問応答生成などのように、与えられた入力文に対して新しい文を生成するタスクにとても適しています。
これらの系統のモデルの代表は次のとおりです:
Update on GitHub