Google の革新的な NLP モデル、BERT をご覧ください。双方向のコンテキスト理解により、検索やチャットボットなどのAIタスクがどのように変化するかをご覧ください。
BERTとは、Bidirectional Encoder Representations from Transformersの略で、Google AI Languageの研究者によって開発された自然言語処理(NLP)の事前学習のための画期的な技術である。2018年に影響力のある論文「BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding」を通じて紹介されたBERTは、機械が人間の言語を理解する方法に革命をもたらした。これは、ウィキペディアのようなプレーンテキストコーパスのみを使用して事前訓練された、最初の深い双方向の教師なし言語表現の1つであった。BERTは、強力なTransformerアーキテクチャ、特にエンコーダ部分を活用し、単語を順次処理するのではなく、文中の他のすべての単語と同時に関連して処理する。これにより、従来の一方向モデルと比較して、文脈をより深く理解することができる。
テキストを単一方向(左から右または右から左)で処理する以前のモデルとは異なり、BERT は、Transformer エンコーダと自己注意メカニズムを使用して、単語のシーケンス全体を一度に処理する。この双方向アプローチにより、BERT は、その前後の単語に基づいて単語のコンテキストを把握することができる。たとえば、BERT は、文全体の文脈を考慮することで、「現金を引き出すために銀行に行く必要がある」 と「川の土手は濁っていた」の「銀行」の意味を区別することができる。
BERT は、膨大なテキストデータに対する事前学習段階で、これらの複雑な言語関係を学習する。これには主に2つの教師なしタスクが含まれる:
この事前学習の結果は、構文と意味論を捕捉する豊富な言語埋め込みを持つモデルである。この事前訓練された BERT モデルは、その後、より小さなタスク固有のデータセットを使用して、さまざまな特定の下流の NLP タスクにすばやく適合させたり、「微調整」したりすることができます。事前に訓練された知識を活用するこのプロセスは、転移学習の一形態です。
言語のニュアンスを理解するBERTの能力は、さまざまな実世界の人工知能(AI)アプリケーションの大幅な改善につながった:
BERTは主にNLPで使用されていますが、BERTが普及させたトランスフォーマー・アーキテクチャーは、次のようなモデルで使用されているヴィジョン・トランスフォーマー(ViT)など、コンピュータ・ビジョン(CV)の進歩にも影響を与えています。 RT-DETR.Ultralytics HUBのようなプラットフォームは、Transformerの原理に基づいて構築されたものを含む、様々なAIモデルのトレーニングと 展開を容易にします。