エピソード

  • Cómo ChatGPT elige la siguiente palabra
    2026/01/08

    En este episodio, desmitificamos la aparente “magia” detrás de los Grandes Modelos de Lenguaje (LLM) para entender qué sucede realmente en el milisegundo que transcurre desde que enviamos un prompt hasta que aparece el texto. Contrario a la intuición, descubrimos que el modelo no tiene una respuesta predefinida ni un plan oculto; genera el contenido una pieza a la vez, construyendo la respuesta sobre la marcha mediante un proceso puramente probabilístico y no a través de un entendimiento consciente. Analizamos cómo el sistema evalúa constantemente más de 100.000 opciones posibles para elegir el siguiente fragmento de información.

    Nos adentramos en la arquitectura técnica desglosando las cinco etapas críticas del proceso: desde la tokenización, que convierte palabras en secuencias numéricas, hasta los embeddings, que transforman esos números en vectores de significado capaces de entender relaciones semánticas (como la cercanía entre “Python” y “JavaScript”). Exploramos el funcionamiento del Transformer y su mecanismo de “atención”, que permite al modelo entender el contexto de una frase, y detallamos cómo parámetros como la temperatura y el sampling controlan la delgada línea entre una respuesta precisa y una incoherente.

    Finalmente, discutimos las implicaciones prácticas de esta mecánica para el uso profesional de la IA. Explicamos por qué ocurren las “alucinaciones” —el modelo prioriza patrones de plausibilidad sobre la verdad fáctica— y por qué los límites de contexto son una restricción computacional cuadrática inevitable y no una decisión arbitraria del software. Concluimos que comprender que la IA es un mecanismo de predicción y no una fuente de verdad es esencial para controlar mejor sus resultados en tareas técnicas y de programación.

    続きを読む 一部表示
    18 分
  • Karen Hao: OpenIA funciona como un nuevo imperio colonial
    2026/01/07

    Gustavo Entrala entrevista a la investigadora Karen Hao, quien expone una visión crítica sobre el ascenso de OpenAI y la industria de la inteligencia artificial. Hao sostiene la tesis de que estas compañías operan como nuevos imperios coloniales que monopolizan el conocimiento, explotan mano de obra barata en países en desarrollo y consumen recursos naturales de forma alarmante. La autora revela que dentro de estas empresas existe un fervor cuasi religioso respecto a la creación de una inteligencia superior, lo cual justifica decisiones éticas cuestionables. Además, el contenido detalla la compleja relación entre Sam Altman y Elon Musk, así como la transición de la organización hacia un modelo lucrativo. Finalmente, el texto advierte sobre los costes humanos y ambientales ocultos detrás del desarrollo tecnológico actual. Por último, Hao subraya la importancia de mantener un pensamiento crítico y la acción colectiva para evitar que estas corporaciones controlen el futuro global.

    Karen Hao es una reconocida periodista, ingeniera mecánica por el MIT y experta en inteligencia artificial (IA) que escribe para medios como The Atlantic, dirige la serie AI Spotlight del Pulitzer Center y ha trabajado para The Wall Street Journal y MIT Technology Review, enfocándose en el impacto social de la IA y desmitificando la tecnología para el público general, siendo considerada una de las personas más influyentes en el campo de la IA.

    続きを読む 一部表示
    16 分
  • Qué es el Nested Learning que plantea Google
    2026/01/06

    Un grupo de investigadores de Google Research ha presentado un artículo científico titulado “Nested Learning: The Illusion of Deep Learning”, el cual propone una arquitectura revolucionaria para superar las limitaciones actuales de la inteligencia artificial. El texto explica que los modelos vigentes, basados en Deep Learning, sufren de “amnesia anterógrada” porque sus conocimientos se congelan tras el entrenamiento y no pueden aprender en tiempo real sin corromperse. La nueva propuesta sugiere imitar el cerebro humano mediante la arquitectura “Hope”, la cual utiliza capas de aprendizaje rápido y lento para que la IA procese información nueva constantemente. Según la fuente, este avance permitiría que modelos como ChatGPT o Gemini evolucionen de ser simples “loros cibernéticos” a sistemas capaces de razonar y mejorar de forma autónoma. Si este enfoque de aprendizaje anidado tiene éxito, podría marcar el inicio de la Inteligencia Artificial General (AGI), alcanzando un nivel de capacidad intelectual similar al humano. El autor subraya que, a diferencia de otras propuestas, este estudio ya ha sido revisado por pares y aprobado por la comunidad científica internacional.

    #AI #IA #NestedLearning #DeepMind #GoogleResearch

    続きを読む 一部表示
    20 分