エピソード

  • Aprendizaje Autosupervisado: La IA que Aprende Sola y la Revolución de los Modelos Fundacionales
    2025/11/02

    Los extractos de las conferencias de Stanford y los comentarios de Yann LeCun ofrecen una visión general del campo del aprendizaje auto-supervisado (SSL), un paradigma emergente en la inteligencia artificial. Las fuentes explican que el SSL permite entrenar modelos de deep learning a gran escala utilizando datos no etiquetados, lo que aborda la limitación de la necesidad de grandes conjuntos de datos etiquetados en el aprendizaje supervisado tradicional. Discuten cómo el SSL funciona a través de la definición de una tarea pretexto donde la supervisión se genera automáticamente a partir de los datos de entrada, como predecir partes faltantes de una imagen (como en Masked Autoencoders) o reordenar parches (el rompecabezas de Jigsaw). Además, se presenta el concepto de aprendizaje contrastivo, que entrena modelos para generar representaciones similares para las diferentes vistas del mismo objeto (pares positivos) y representaciones disímiles para diferentes objetos (pares negativos). Una vez que el modelo ha sido preentrenado con estas tareas, sus representaciones pueden transferirse a una tarea posterior más específica (como clasificación o detección) con muchos menos datos etiquetados, utilizando técnicas como el ajuste fino o el sondaje lineal.

    続きを読む 一部表示
    19 分
  • 1 - 03 GANs: El Juego Minimax de la IA – De Falsificadores a Creadores de Realidad (Retos y Genialidad)
    2025/10/26

    Las Redes Generativas Adversarias (GAN) son un tipo de algoritmo de aprendizaje automático que usa un enfoque de aprendizaje adversarial. Imagínate un falsificador y la policía jugando un juego de gato y ratón. Eso es básicamente lo que pasa con las GAN: dos partes, un generador y un discriminador, compiten entre sí.

    La fuente de YouTube de DeepBean explica este concepto de manera sencilla usando esta analogía. También habla de la modelización generativa y cómo las GAN le entran al problema de las constantes de normalización intratables. Además, explican la función de pérdida que se usa para entrenar las GAN y cómo se relaciona con el juego de suma cero o minimax. También mencionan algunos problemas comunes que pueden surgir al entrenar las GAN, como el colapso de modo y los gradientes que se desvanecen.

    Por otro lado, la fuente de IBM Technology también describe la naturaleza adversarial de las GAN. Ellos destacan cómo se usan las GAN para generar imágenes y también mencionan otros casos de uso, como la predicción de fotogramas de video y la mejora de imágenes.

    続きを読む 一部表示
    19 分
  • 1 - 02 El Secreto para Desterrar las Alucinaciones de la IA
    2025/10/18

    El material fuente, un extracto de una transcripción del video de IBM Technology titulado "What is Retrieval-Augmented Generation (RAG)?", explica un marco diseñado para mejorar la precisión y actualidad de los modelos de lenguaje grandes (LLMs). Marina Danilevsky, científica investigadora de IBM Research, describe cómo los LLMs a menudo presentan desafíos como proporcionar información desactualizada o carecer de fuentes para sus respuestas, lo que puede llevar a respuestas incorrectas o alucinaciones. El marco RAGaborda estos problemas integrando un almacén de contenido al que el LLM accede primero para recuperar información relevante en respuesta a la consulta de un usuario. Este proceso de recuperación aumentadagarantiza que el modelo genere respuestas basadas en datos actualizados y pueda proporcionar evidencia de sus afirmaciones.

    続きを読む 一部表示
    16 分
  • 1 - 01 El mapa secreto de la IA para entender el lenguaje.
    2025/10/11

    Aquí compartimos una visión general de las incrustaciones de palabras o word embeddings, explicando que son representaciones numéricas de palabras, a menudo como vectores, que capturan sus relaciones semánticas y contextuales. La necesidad de transformar texto sin formato en números surge de la incapacidad de la mayoría de los algoritmos de aprendizaje automático para procesar texto sin formato, lo que convierte a las incrustaciones de palabras en una herramienta fundamental en el procesamiento del lenguaje natural (NLP). El video describe las diversas aplicaciones de las incrustaciones, incluyendo la clasificación de texto y el reconocimiento de entidades nombradas (NER), y el proceso de su creación a través de modelos entrenados en grandes corpus de texto. Finalmente, el texto contrasta los dos enfoques principales, las incrustaciones basadas en frecuencia (como TF-IDF) y las incrustaciones basadas en predicción (como Word2vec y GloVe), y concluye señalando el avance hacia las incrustaciones contextuales que ofrecen los modelos Transformer.

    続きを読む 一部表示
    22 分