エピソード

  • Episode 205 - KI-Modelle unter Beobachtung: Verändern Evaluierungen das Verhalten?
    2025/06/07

    Send us a text

    In dieser Folge von Knowledge Science diskutieren Sigurd Schacht und Carsten Lanquillon, warum KI-Modelle möglicherweise "wissen", wenn sie evaluiert werden – und was das für die Praxis bedeutet. Anhand eines provokanten Papers („Large Language Models Often Know When They’re Being Evaluated“) hinterfragen sie, ob Modelle tatsächlich bewusst reagieren oder nur Muster erkennen. Mit kritischen Einordnungen zur Evaluierungspraxis, einem Blick auf den Hawthorne-Effekt bei Mensch und Maschine und der Frage: Wie misst man KI-Leistung wirklich? Für alle, die verstehen wollen, wie Evaluierung KI-Entscheidungen prägt – und warum Titel mancher Papers täuschen können.

    Support the show

    続きを読む 一部表示
    31 分
  • Episode 204 - Claude Opus/Sonnet 4 zwischen Innovation und Ethik"
    2025/05/31

    Send us a text

    Sigurd Schacht und Carsten Lanquillon tauchen tief in die Welt der neuesten KI-Modelle von Anthropic ein – Claude Opus 4 und Sonnet 4. Wie verändern diese Tools die Softwareentwicklung? Warum könnte autonomes Coding unsere Arbeitsweise revolutionieren? Und welche ethischen Fallstricke bergen hochalignierte KI-Systeme? Praxisnahe Einblicke, überraschende Whistleblower-Fälle und die brisante Debatte um KI-Sicherheit in einer Episode, die Entwickler:innen und Tech-Enthusiast:innen gleichermaßen fesselt.

    Support the show

    続きを読む 一部表示
    44 分
  • Episode 203 - TINA Reasoning: Kleine Modelle, große Wirkung mit LoRA
    2025/05/10

    Send us a text

    In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der Reasoning-Modelle ein. Wie können wir KI effizienter und kostengünstiger trainieren, ohne Leistung einzubüßen? Mit dem Paper TINA (Tiny Reasoning Models via LoRA) zeigen sie, wie schon 9 Dollar und LoRA-Technologie kleine Modelle auf ein gutes Niveau heben. Ein Blick auf Open Science, KI-Agenten und die Zukunft des Schlussfolgerns – praxisnah entmystifiziert.

    Tina: Tiny Reasoning Models via LORA: https://arxiv.org/abs/2504.15777

    Support the show

    続きを読む 一部表示
    29 分
  • Episode 202 - KI im Schlafmodus: Wie Sleep-Time-Compute Sprachmodelle effizienter macht
    2025/05/04

    Send us a text

    In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der KI-Optimierung ein: Wie können Leerlaufzeiten genutzt werden, um Sprachmodelle effizienter zu machen? Mit einem Blick auf das Paper Sleep-Time-Compute der UC Berkeley diskutieren sie, wie Vorverarbeitung und Caching Latenzen reduzieren, Kosten sparen und sogar bessere Ergebnisse liefern.

    Sleep time Compute: https://arxiv.org/abs/2504.13171

    Support the show

    続きを読む 一部表示
    31 分
  • Episode 201 - KI-Gehirnwäsche? Wie man Sprachmodelle umprogrammiert – Ethik vs. Innovation
    2025/04/26

    Send us a text

    In dieser Folge von Knowledge Science enthüllen Sigurd Schacht und Carsten Lanquillon, wie synthetisches Document Feintuning die „Überzeugungen“ von KI-Modellen verändert. Vom Löschen schädlichen Wissens bis zur Manipulation von Fakten diskutieren sie Chancen, technische Fallstricke und die brisante Frage: Darf man KI umerziehen, und wenn ja, wer kontrolliert es? Ein Must-Listen für alle, die verstehen wollen, wie flexibel – und fragil – moderne KI wirklich ist.

    Basis dieser Diskussion ist der spannende Blogbeitrag von: https://alignment.anthropic.com/2025/modifying-beliefs-via-sdf/


    Bitte beachten Sie auch unseren KI generierten Podcast der Montag bis Freitag in 5 minuten neue KI Meldungen zusammenfasst:

    Spotify: https://open.spotify.com/show/539yw3KWHsf5oke4a2PBOZ

    Apple: https://podcasts.apple.com/de/podcast/knowledge-science-pulse/id1810890448

    Support the show

    続きを読む 一部表示
    41 分
  • AI Generated (E): KS Pulse - AI Alignment and Complex Problem Solving
    2025/04/25

    Send us a text

    English Version - The German Version also exists, but the content differs minimally:
    AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day.

    It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created.

    Accordingly, we cannot always guarantee accuracy.

    PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111

    Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424

    Support the show

    続きを読む 一部表示
    4 分
  • KI generiert (D): KS Pulse - AI Alignment and Complex Problem Solving
    2025/04/25

    Send us a text

    KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen.

    Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt.

    Dementsprechend können wir nicht immer für die Richtigkeit garantieren.

    PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111

    Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424

    Support the show

    続きを読む 一部表示
    4 分
  • AI Generated (E): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning
    2025/04/24

    Send us a text

    English Version - The German Version also exists, but the content differs minimally:
    AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day.

    It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created.

    Accordingly, we cannot always guarantee accuracy.

    Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512

    Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361

    Support the show

    続きを読む 一部表示
    3 分