
IP EP11: AI Models are Eating Themselves: Synthetic Cannibalism is Here
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
the rapid growth of data used to train Large Language Models (LLMs), particularly Meta's LLM. It argues that this expansion is fueled by the inclusion of synthetic data, which is data generated by the LLMs themselves, leading to a cycle of data consumption and regeneration. This process is likened to "synthetic cannibalism," as the LLM consumes its own outputs, and to "incestuous phylogeny," as the model's development is influenced by its own past outputs. The text suggests that this trend could lead to the creation of a self-sustaining synthetic entity, with consequences that may be both beneficial and alarming.
まだレビューはありません