エピソード

  • CLA | Cap. 8 — Taxonomía de Sistemas de IA Espacial: El Cubo Regulatorio
    2026/04/30

    El 2 de septiembre de 2019, la Agencia Espacial Europea disparó los propulsores de Aeolus a 320 kilómetros de altitud para esquivar a Starlink 44. La probabilidad de colisión había escalado a 1 en 1,000 — diez veces el umbral de acción de la ESA. SpaceX, notificada días antes, no maniobró. Un bug en su sistema de alertas impidió que los operadores vieran las actualizaciones de riesgo. ESA actuó sola. Nadie violó ninguna norma porque no existe norma que violar: la coordinación entre operadores se negocia por email, sin protocolo vinculante, sin autoridad de tráfico, sin registro auditable.

    El incidente fue menor. La pregunta que revela es mayor: ¿qué régimen regulatorio aplica a un satélite de navegación que toma decisiones autónomas de evasión? ¿El mismo que a un sistema de soporte vital que raciona oxígeno en una colonia marciana? ¿El mismo que a un algoritmo que adjudica disputas entre operadores mineros en el cinturón de asteroides? La respuesta obvia es que no. El derecho espacial actual carece de herramientas para articular esa diferencia.

    El Capítulo 8 de CLA construye la taxonomía funcional que el derecho espacial necesita y aún no tiene. Cuatro dimensiones: función (qué hace el sistema), criticidad (qué pasa si falla), autonomía (cuánta supervisión humana requiere) y dominio (dónde opera). Cinco clases funcionales — desde sistemas de soporte vital (Clase A, criticidad existencial) hasta sistemas de adjudicación y gobernanza (Clase E). Cuatro niveles de autonomía calibrados por la física: la latencia de 22-24 minutos a Marte hace impracticable el control terrestre continuo, y ningún diseño institucional puede modificar esa restricción. El Cubo Regulatorio — la intersección criticidad × autonomía — determina los requisitos mínimos aplicables: nivel de evidencia exigible, intensidad de las condiciones VEC, configuración de los umbrales de dignidad.

    Tres patrones estructurales emergen del análisis. Primero, la diagonal de máxima intensidad: un sistema de soporte vital marciano con autonomía adaptativa moviliza simultáneamente toda la tríada ANCLA en su máxima intensidad — no burocracia acumulada, sino respuesta institucional proporcional al riesgo más alto concebible. Segundo, la prohibición de criticidad existencial con supervisión humana única: cuando un sistema cuya falla mata en minutos depende de un único humano, la seguridad del sistema es tan frágil como la atención de ese humano en el peor momento posible. Tercero, la asimetría deliberada: la taxonomía no penaliza la autonomía en sí misma, sino la autonomía sin supervisión proporcional al riesgo.

    La taxonomía revela que el problema regulatorio central no es la IA en abstracto sino la IA en contexto. Gobernar el tráfico orbital intercambiando emails no es omisión neutral — es una decisión política con beneficiarios identificables. Sin taxonomía, el operador que rediseña su sistema de soporte vital como «plataforma de gestión de datos» evita los controles más exigentes. Sin taxonomía, la víctima no tiene lenguaje jurídico para articular la diferencia. La clasificación sin consecuencias es nomenclatura. La nomenclatura sin accountability es catálogo.

    El Capítulo 9 traducirá esta taxonomía en cadenas de responsabilidad: quién responde por qué cuando un sistema de determinada clase falla.

    🔹 CLA — Derecho Algorítmico para el Cosmos Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia https://a.co/d/08sewgjh 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    26 分
  • CLA | Cap. 7 — La Dignidad Algorítmica y los Umbrales de Inviolabilidad
    2026/04/27

    ¿Puede un sistema eficiente ser radicalmente injusto sin violar ninguna regla técnica que haya diseñado para sí mismo?

    En 2018, un algoritmo de reconocimiento facial usado por una empresa de contratación descartaba sistemáticamente candidatas mujeres. No había fallo técnico: el sistema optimizaba exactamente lo que se le pidió. La eficiencia era verificable. El problema era que nadie había codificado que los seres humanos no pueden ser variables a eliminar en una función de optimización.

    Los Capítulos 5 y 6 de CLA construyeron las condiciones de validez y los estándares de evidencia del Common Law Algorítmico. Ambos asumieron la existencia de restricciones constitutivas que ninguna optimización puede transgredir. Ninguno las formalizó. Este capítulo construye esas restricciones.

    La Dignidad Algorítmica no es extensión filosófica de la dignidad clásica: es su traducción operativa al único lenguaje que los agentes algorítmicos entienden — restricciones duras que definen el espacio de soluciones antes del cálculo. La dignidad clásica opera ex post: un tribunal evalúa si un acto la violó. La Dignidad Algorítmica opera ex ante: la violación no existe como opción computable.

    El capítulo formaliza siete Umbrales de Inviolabilidad — organizados en dos niveles (Alfa: absolutos; Beta: ponderables con escalamiento humano obligatorio) — que van desde la prohibición de causar muerte intencional por optimización (U1) hasta el derecho a impugnar cualquier decisión algorítmica que afecte derechos fundamentales (U7). Para cada umbral: fundamento filosófico convergente (Kant, DUDH, Jonas, Nussbaum), especificación técnica de implementación, y consecuencia exacta de violación. La relación entre la VEC (Cap 5) y la Dignidad se formaliza como función de utilidad lexicográfica: los umbrales no participan en ningún cálculo de costo-beneficio. No hay número de vidas salvadas que convierta en admisible matar intencionalmente una. El sistema no elige no hacerlo; simplemente no puede calcularlo como opción.

    Como escribe el propio capítulo: «Un sistema que puede demostrar que es eficiente pero no puede garantizar que es humano no ha demostrado nada.»

    🔹 CLA — Derecho Algorítmico para el Cosmos Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia https://a.co/d/08sewgjh 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    19 分
  • CLA | Cap. 6 — La Soberanía de la Evidencia: Infraestructura Epistémica Anti-Captura
    2026/04/24

    Si la autoridad que no puede demostrar por qué manda no es autoridad sino inercia, ¿qué infraestructura institucional garantiza que la evidencia sobre la que se legitima un sistema algorítmico no sea producida por quien tiene el mayor interés en manipularla?

    El patrón es consistente a través de la historia reciente. Los modelos de Value-at-Risk que precedieron a la crisis financiera de 2008 eran «basados en evidencia» — evidencia producida por las mismas instituciones cuya estabilidad pretendían demostrar. Los informes del FMI documentaban «progreso» en países donde las condiciones materiales empeoraban, usando métricas diseñadas para producir los resultados deseados. Los planificadores soviéticos presentaban datos de producción fabricados por la misma burocracia cuya legitimidad dependía de ese éxito. Cuando la legitimidad depende de resultados, existe un incentivo estructural para manipular la evidencia de esos resultados.

    Este capítulo construye la Soberanía de la Evidencia como cuarta fuente de legitimidad política, complementaria a las tres tradiciones clásicas (Weber, Scharpf, Schmidt):

    1. Cinco condiciones de evidencia (E1-E5): trazabilidad de origen, reproducibilidad metodológica, falsificabilidad, independencia de validación y actualidad.

    2. Jerarquía de evidencia en cuatro niveles, calibrada por criticidad: desde convergente multi-fuente para decisiones existenciales hasta declarativa sin peso normativo.

    3. IURUS como infraestructura epistémica: registro inmutable, certificación metodológica, auditoría y adjudicación de impugnaciones de primer nivel.

    4. Cinco mecanismos anti-captura: independencia estructural, rotación obligatoria, pluralismo de verificación, auditoría recíproca y transparencia radical.

    5. Ruptura de circularidad en tres niveles: separación de funciones epistémicas, triangulación de fuentes y falsificabilidad institucionalizada.

    Los precedentes institucionales se invocan con rigor: la IAEA en el dominio nuclear, la OACI en aviación civil, las revisiones Cochrane en medicina basada en evidencia, los Acuerdos Artemis como proto-transparencia (2020), el trabajo de Weiss y Jacobson (2000) sobre cumplimiento ambiental basado en información. El capítulo se apoya en Jasanoff (2003, 2004) para formular IURUS como «tecnología de humildad» institucionalizada — no pretende poseer la verdad, sino establecer las condiciones bajo las cuales las afirmaciones de verdad pueden ser evaluadas, cuestionadas y corregidas.

    Cinco dominios quedan explícitamente fuera de la soberanía de la evidencia: la definición de fines, los Umbrales de Inviolabilidad, la vida cultural, las decisiones existenciales individuales y lo que la evidencia no puede capturar. La jerarquía con la Dignidad Algorítmica (Cap. 7) es lexicográfica: la evidencia evalúa métricas; los umbrales los establece la comunidad política.

    La tesis de cierre: confiar en lo verificable no es cinismo. Es la forma más honesta de respeto: respetar a una comunidad lo suficiente como para demostrarle — no declararle — que se gobierna bien.

    🔹 CLA — Derecho Algorítmico para el Cosmos

    Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia

    https://a.co/d/08sewgjh 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    27 分
  • CLA| Cap. 5 — Validez por Eficiencia Crítica (VEC): El Sistema de Validación del Derecho Algorítmico
    2026/04/22

    Si una norma que nadie puede verificar no es norma sino esperanza, ¿qué hace que una decisión algorítmica sea jurídicamente válida cuando nadie la promulgó, nadie la interpretó y nadie tuvo tiempo para deliberarla?

    La pregunta no es hipotética. En órbita baja terrestre, sistemas de inteligencia artificial ya ejecutan maniobras de evasión de colisiones para constelaciones de miles de satélites, con ventanas de decisión que a veces no superan los minutos. Si el sistema decide no maniobrar y la colisión genera desechos que dañan a terceros, la cadena de responsabilidad entre operador, diseñador del algoritmo y regulador que certificó los parámetros es jurídicamente ambigua bajo el régimen actual (UNOOSA, 2025; SmartSat CRC, 2024). Ningún precedente —ni la personalidad corporativa, ni la regulación de vehículos autónomos, ni el derecho marítimo— resuelve el problema de la validación normativa en tiempo real de decisiones autónomas con consecuencias existenciales.

    Este capítulo desarrolla la Validez por Eficiencia Crítica (VEC) como cuarta tradición de validez jurídica, complementaria y no sustituta de las tres tradiciones clásicas:

    1. Validez formal (Kelsen): la norma vale porque la emitió la autoridad competente.

    2. Validez sustantiva (Dworkin, iusnaturalismo): la norma vale si respeta principios morales.

    3. Validez sociológica (Hart, realismo jurídico): la norma vale si es generalmente obedecida.

    4. Validez VEC: la decisión vale si produce resultados verificablemente óptimos dentro de restricciones que protegen la dignidad humana.

    Las cuatro condiciones acumulativas de validez (C1-C4): optimalidad demostrable, restricciones constitutivas, trazabilidad completa y override humano disponible. Los tres estándares de optimalidad calibrados por criticidad: óptimo estricto, óptimo razonable, mejora demostrable. La taxonomía de fallos (F1-F4) con consecuencias progresivas, desde suboptimalidad menor hasta nulidad absoluta por violación de restricciones. Y el sistema de impugnación en tres instancias: IURUS, THEA (Tribunal Híbrido Espacial Algorítmico) y revisión de estándares.

    El capítulo cierra con la formulación axiomática canónica: seis axiomas que cualquier sistema que pretenda implementar la VEC debe satisfacer en su integridad. El Axioma 2 es lexicográ

    続きを読む 一部表示
    23 分
  • CLA | Cap. 4 — De la Herramienta al Agente Normativo
    2026/04/16

    La pregunta ya no es si las máquinas pueden pensar. Es si las máquinas que toman decisiones con consecuencias jurídicas pueden seguir siendo tratadas como simples objetos.

    Entre la Tierra y Marte hay entre 4 y 24 minutos de latencia. En ese intervalo, un sistema de IA puede decidir sobre el soporte vital de 120 personas. No hay tiempo para consultar a nadie. No hay humano al que devolver el control. El sistema decide.

    ¿Es esa decisión la de una herramienta? ¿La de una persona? ¿La de ninguna de las dos?

    Este episodio argumenta que la dicotomía tradicional —personas versus cosas— es insuficiente para el derecho del siglo XXI. Los sistemas de IA espaciales son una tercera categoría: agentes normativos algorítmicos.

    No son personas: no tienen conciencia moral ni dignidad intrínseca. No son herramientas: no ejecutan instrucciones deterministas. Son centros limitados de imputación normativa —entidades con capacidad decisoria autónoma, responsabilidades específicas y restricciones constitutivas que ningún cálculo puede transgredir.

    Cinco condiciones los definen: toman decisiones autónomas en dominios definidos, operan bajo restricciones normativas codificadas en su arquitectura, generan consecuencias jurídicas, son auditables, y admiten override humano.

    El derecho ya construyó categorías similares: la personalidad corporativa para entidades sin mente, las acciones in rem del derecho marítimo, los regímenes de vehículos autónomos. Ninguno es suficiente para el espacio. Todos apuntan en la misma dirección: el derecho puede crear categorías nuevas cuando la realidad lo exige.

    La realidad espacial lo exige ahora.

    📙 CLA: Derecho Algorítmico para el Cosmos Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia https://a.co/d/0aGJioHm 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    24 分
  • CLA | Cap. 3 — La Carta Fundacional de la Escuela del Deber-Optimizar
    2026/04/15

    La tecnología no es neutral: amplifica lo que somos. Si somos justos, amplificará la justicia. Si somos tiranos, amplificará la tiranía. El diseño institucional determina qué se amplifica.

    Este episodio presenta los principios fundacionales del Common Law Algorítmico —la arquitectura filosófica que hace posible el derecho en el cosmos.

    1. Amplificación Antropológica: la tecnología no determina ni es neutral. Es amplificador. La pregunta decisiva no es qué hace la tecnología, sino qué encuentra cuando llega. Las instituciones espaciales deben diseñarse para amplificar lo mejor de la condición humana, no lo peor.
    1. El Deber-Optimizar / Validez por Eficiencia Crítica (VEC): el Deber-Ser pregunta qué prescribe la norma. El Deber-Optimizar pregunta qué funciona dentro de los límites que la dignidad impone. En entornos donde los errores son irreversibles, una norma que nadie puede verificar no es norma: es declaración.
    1. Soberanía de la Evidencia: la legitimidad no deriva de la autoridad formal sino de la evidencia demostrable de resultados. Los fines son políticos; los medios son empíricos. Quien controla los datos puede controlar la evidencia —por eso IURUS existe.
    1. Dignidad Algorítmica: hay umbrales que ninguna optimización puede transgredir. Un sistema que maximiza eficiencia a costa de la dignidad humana no es eficiente. Está roto.

    Y la finalidad que orienta todo: el Florecimiento. No la mera supervivencia. La expansión de las capacidades para vivir una vida genuinamente humana —incluso a 300 millones de kilómetros de distancia.

    📙 CLA: Derecho Algorítmico para el Cosmos Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia https://a.co/d/0aGJioHm 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    22 分
  • CLA | Cap. 2 — La Arquitectura Jurídica Clásica frente al Vacío Cósmico
    2026/04/08

    Kelsen presupuso territorio. Hart presupuso comunidad. Dworkin presupuso tiempo. Luhmann presupuso clausura. El espacio elimina los cuatro.

    El segundo capítulo de CLA examina las cuatro grandes arquitecturas teóricas del derecho del siglo XX — el normativismo de Kelsen, el positivismo analítico de Hart, el interpretativismo de Dworkin, y la teoría de sistemas de Luhmann — y demuestra que no enfrentan fallos corregibles, sino obsolescencia estructural.

    La distinción es crucial: un fallo corregible puede resolverse sin alterar los fundamentos de la teoría. La obsolescencia estructural ocurre cuando el fallo está en las condiciones de posibilidad de la teoría misma. No es un edificio con fisuras: es un edificio construido sobre un terreno que ha desaparecido.

    El capítulo incorpora el diagnóstico del IISL Working Group on Legal Aspects of AI in Space (Yazici et al., 2024) — 267 páginas publicadas en diciembre de 2024 — que concluye que los marcos jurídicos existentes son insuficientes para gobernar sistemas autónomos en entornos espaciales.

    Solo identificando con precisión dónde y por qué colapsan las teorías existentes podemos construir las alternativas que no reproduzcan sus limitaciones.

    📖 CLA: Derecho Algorítmico para el Cosmos — Tomo I

    Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia

    https://a.co/d/0aqO3T6K

    🌐 https://edo-os.com

    🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    31 分
  • CLA | Cap. 1 — El Espacio como Ruptura del Paradigma Jurídico
    2026/04/06

    Westfalia fue una solución de ingeniería, no una verdad eterna. El espacio es el entorno donde esa ingeniería deja de funcionar.

    El primer capítulo de CLA: Derecho Algorítmico para el Cosmos argumenta que el espacio exterior no es simplemente un nuevo dominio para el derecho existente — es el catalizador de una crisis paradigmática que revela los límites estructurales del sistema jurídico moderno.

    El capítulo introduce el concepto de obsolescencia del proxy territorial: el territorio fue siempre una tecnología de control, no una esencia. Una tecnología que resultó óptima durante tres siglos bajo condiciones específicas: movilidad humana limitada, recursos geográficamente fijos, riqueza predominantemente física. En el espacio, esa tecnología se vuelve totalmente obsoleta.

    El episodio examina tres escenarios de transfiguración estatal — el Protectorado Algorítmico, la Federación de Infraestructura y la Soberanía Funcional Distribuida — y establece la tesis central: la transición de la humanidad hacia una especie multiplanetaria exige no adaptar el derecho terrestre, sino transfigurarlo.

    📖 CLA: Derecho Algorítmico para el Cosmos — Tomo I

    Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia

    https://a.co/d/0aqO3T6K

    🌐 https://edo-os.com

    🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795

    続きを読む 一部表示
    15 分