153 - Agenten verstehen: Warum Agenten am Multi-Turn scheitern
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
In Folge 12 von "Agenten verstehen" widmen wir uns lokalen Modellen wie Gemma 4 und Qwen 3.6. Wir klären, warum lokale Agenten trotz gigantischer Kontextfenster bei längeren Dialogen (Multi-Turn) oft völlig den Faden verlieren und wie wir das architektonisch lösen.Die Themen dieser Folge:
- Der Multi-Turn-Kollaps: Warum Sprachmodelle durch "Aufmerksamkeitsverfall" (Attention Decay) oft schon nach fünf Runden ihre eigenen Regeln vergessen und voreilig halluzinieren, anstatt bei Unklarheiten nachzufragen.
- Dense vs. MoE: Warum "Mixture of Experts"-Modelle bei längeren Unterhaltungen durch mathematische Routing-Probleme einbrechen und kleinere "Dense"-Modelle oft deutlich stabiler bleiben.
- Hybride Pipelines: Warum ein Sprachmodell keine kritischen Aktionen mehr allein ausführen darf und wie strikte Code-Schichten (Konsistenz-Gates) das System vor dem Chaos bewahren.
- Gedächtnis & Tests: Wie "Context Repacking" (kompakte Briefings statt langer Chat-Verläufe) den Kontextverfall stoppt und wie man sein Modell durch zerschnittene Aufgaben ("Sharded Simulation") einem echten Stresstest unterzieht.
adbl_web_anon_alc_button_suppression_c
まだレビューはありません