GPT-3 : Language Models are Few-Shot Learners
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
In this third episode of AI Papers Explained, we explore GPT-3: Language Models are Few-Shot Learners, the landmark paper by OpenAI (2020).
Discover how scaling up model size and training data led to new emergent capabilities and marked the beginning of the large language model era.
We connect this milestone to the foundations laid by Attention Is All You Need and BERT, showing how GPT-3 transformed research into the age of general-purpose AI.
🎙️ Source: Brown et al., OpenAI, 2020 — Language Models are Few-Shot Learners (arXiv:2005.14165)
まだレビューはありません