
S2.Ep3 - LLM, pensare o prevedere?
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
Scopriamo come i Large Language Model (LLM) prevedono le parole successive in una frase basandosi su vasti dataset, utilizzando "embeddings" per mappare le relazioni tra le parole in uno spazio multidimensionale. Parliamo poi dell'architettura Retrieval-Augmented Generation (RAG) e altre tecniche per aggiornare i LLM con informazioni recenti. Ma anche GPT-4, Claude 3 e Gemini 1.5... Ascolta ora la puntata con Lorenzo Beliusse, Andrea Canevari e Marco Acchini.