エピソード

  • Episode 221 : Data vibe coding avec NAO
    2025/08/06
    Avec Christophe Blefari (aka Blef) on discute des défis actuels des équipes data et de la réponse apportée par NAO.

    Comment le “Data vide coding” peut accélérer la productivité des projets data ?

    On évoque aussi le passage par YC qui a eu un impact significatif sur le produit et la société.

    On termine cet épisode avec le regard averti de Christophe sur le marché de la Data, et l’impact des LLM.


    Plus sur :
    https://bigdatahebdo.com/podcast/episode-221-data-vibe-coding-avec-nao
    続きを読む 一部表示
    1 時間 6 分
  • Episode 220 : Databricks Data and AI Summit 2025
    2025/07/25
    Dans cet épisode du Big Data Hebdo, Vincent Heuschling et Quentin Ambard reviennent sur le Data and AI Summit 2025 de Databricks.

    En autres on parle de :
    • L'acquisition de Néon pour avoir une BDD au dessus du Lakehouse
    • Lakeflow Designer pour avoir une approche low-code
    • L'intégration de l'IA
    • Databricks One pour rendre l'interface plus accessible
    • Les améliorations du moteur SQL de Databricks
    • Agent Bricks qui simplifie le développement d'agents AI.
    • La data-gouvernance avec Unity Catalog.
    • Le Vector Search au dessus du lakehouse
    • Les inevitables troll envers Snowflake 🤣🤣🤣

    続きを読む 一部表示
    1 時間 7 分
  • Episode 219 : Format Table Iceberg, Delta et Ducklake
    2025/07/11
    Dans cet épisode du Big Data Hebdo, on regarde l'évolution des formats de fichiers Table, en se concentrant sur Parquet, Delta Lake, Iceberg et Duck Lake. On évoque la gestion des metadata et les catalogues pour la gouvernance des données.


    続きを読む 一部表示
    55 分
  • Episode 218 : Agents IA
    2025/07/02
    (00:00:00) Episode 218 : Agents IA
    (00:02:58) Définition d'un agent IA
    (00:09:49) Agents et outils
    (00:10:30) TAO & ReAct
    (00:39:50) Frameworks

    Dans cet épisode thématique, on explore les agents IA, dernière itération de l'IA Générative.
    Qu'est ce qui distingue un agent d’un chatbot ou d’un simple prompt ?
    On parle aussi de la relation entre agents, outils (tools) et modèles LLM.
    Quels sont les frameworks les plus matures pour construire des agents?
    続きを読む 一部表示
    59 分
  • Episode 217 : BDH live à Devoxx Paris 2025
    2025/05/28
    (00:00:00) Episode 217 : BDH live à Devoxx Paris 2025
    (00:01:04) Conférence Bug Bash et tests autonomes
    (00:06:23) Windsurf : révolution du coding assistant
    (00:16:23) Automatisation de la veille technologique
    (00:22:28) LLM spécialisés vs généraux
    (00:37:00) Ariga Atlas pour les bases de données

    Cet épisode spécial du Big Data Hebdo, enregistré à Devoxx Paris, on donne la parole aux auditeurs !
    On parle de Windsurf pour l’assistance au code, de test autonome avec Antithesis (qui a réussi à casser ETCD), et d’automatisation de la veille technologique, et pour finir d’automatisation pour les bases de données avec Ariga Atlas.
    続きを読む 一部表示
    42 分
  • Episode 216 : DBT vs SQLMesh
    2025/04/11
    Dans cet épisode, on revient sur l’évolution de la data-ingénierie à travers deux outils : DBT et SQLMesh. Comment ces outils ont émergé avec la montée en puissance du SQL dans les architectures modernes ? Comment ils répondent aux enjeux de modélisation, d’industrialisation et de gouvernance de la donnée ? L’épisode est aussi l’occasion d’aborder l’évolution des métiers de la data, notamment l’émergence du rôle d’analytic engineer, à la croisée des chemins entre data engineering et data analytics.
    1. La révolution du SQL modulaire
      → Retour sur l’historique du SQL dans l’analytique moderne, l’explosion du SQL dans les moteurs cloud et les limites des requêtes monolithiques.
    2. DBT
      → Origine de DBT, philosophie “analyst-friendly”, séparation entre DBT Core et DBT Cloud, gestion du versioning, testing, documentation, templating avec Jinja.
    3. Le rôle d’Analytic Engineer
      → Mutation des équipes BI vers plus d’autonomie technique, convergence entre modélisation métier et industrialisation.
    4. Pourquoi SQLMesh ?
      → Introduction à SQLMesh comme alternative à DBT, positionnement technique, différences d’usage, réflexion sur les cas d’adoption.
    Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com
    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    続きを読む 一部表示
    53 分
  • Episode 215 : Le RAG en 2025 toujours d'actualité ?
    2025/04/07
    Dans cet épisode du Big Data Hebdo, on fait le point sur le RAG (Retrieval-Augmented Generation) : est-il toujours au cœur des usages d’IA générative en entreprise, ou dépassé par les nouveaux paradigmes comme l’agentic AI ?

    Paul, Jérôme, Nicolas et Vincent reviennent sur :
    • Les fondamentaux du RAG : pourquoi est-il apparu ?
    • Comment fonctionne techniquement un pipeline RAG ?
    • Les erreurs à éviter quand on passe en production
    • Les bonnes pratiques : hybrid search, cache, feedback utilisateurs
    • Ce qui change en 2025 : modularité, agentic RAG, graph RAG, et plus encore !

    Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com
    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    続きを読む 一部表示
    58 分
  • Episode 214 : Plus vite et moins cher sur Snowflake avec Indexima
    2025/03/21
    Dans cet épisode du Big Data Hebdo, 🎙️ j’ai eu le plaisir d’échanger avec Nicolas Korchia de Indexima, qui nous dévoile comment leur solution révolutionne la performance des requêtes analytiques sur Snowflake⚡

    👉 Indexima for Snowflake analyse les requêtes en temps réel et génère automatiquement des agrégats optimisés avec les Dynamic Tables, réduisant drastiquement les temps de réponse et les coûts ! 💰💨

    Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-214-plus-vite-et-moins-cher-sur-snowflake-avec-indexima/

    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    続きを読む 一部表示
    52 分