Business Gadgets Política Temas Urbanos

La Nueva Ley de Seguridad de IA de California: Un Modelo de Equilibrio entre Regulación e Innovación

En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, California se posiciona una vez más como pionera al demostrar que la regulación no tiene por qué frenar la innovación.
El gobernador Gavin Newsom firmó el 29 de septiembre de 2025 la Ley de Transparencia en Modelos de IA de Vanguardia (SB 53), conocida como el Acta de Transparencia en IA de Frontera (TFAIA), convirtiéndola en la primera legislación integral de este tipo en Estados Unidos. Esta norma busca construir confianza pública en la IA mientras impulsa el crecimiento de una industria que genera miles de millones en el estado, hogar de 32 de las 50 principales empresas de IA del mundo.
¿Cómo es esta ley en California?
La TFAIA se centra en los “modelos de IA de frontera”, aquellos sistemas avanzados que requieren al menos 10^26 operaciones de cómputo (equivalente a trillones de cálculos) y que podrían generar riesgos catastróficos, como ciberataques a infraestructuras críticas, desarrollo de bioweapons o pérdida de control humano sobre la tecnología. A diferencia de propuestas previas más estrictas que fueron vetadas en 2024 por temor a obstaculizar la innovación, esta versión adopta un enfoque de “confiar, pero verificar”, priorizando la transparencia y la rendición de cuentas sin imponer auditorías obligatorias o multas exorbitantes de inmediato.Las obligaciones clave incluyen:

 

  • Reportes de transparencia obligatorios: Antes de desplegar un nuevo modelo o una actualización significativa, las empresas con ingresos superiores a $500 millones (como OpenAI, Google, Meta y Anthropic) deben publicar informes detallados sobre sus protocolos de seguridad y mitigación de riesgos. Estos documentos incluirán evaluaciones de riesgos catastróficos, idiomas y modalidades soportadas, usos permitidos y restricciones, y si se involucraron evaluadores externos.
  • Reporte de incidentes críticos: Las compañías deben notificar a la Oficina de Servicios de Emergencia de California (OES) cualquier incidente de seguridad grave dentro de 15 días (o 24 horas si implica daño inminente). A partir de 2027, la OES publicará resúmenes anuales anonimizados de estos eventos.
  • Protecciones para denunciantes: Se crean salvaguardas contra represalias para empleados que revelen riesgos significativos a la salud o seguridad, con penas civiles de hasta $1 millón por incumplimiento, ejecutables por el fiscal general.
  • Actualizaciones anuales y CalCompute: El Departamento de Tecnología de California recomendará ajustes a la ley basados en aportes multistakeholder, avances tecnológicos e estándares internacionales. Además, se establece CalCompute, un clúster de computación en la nube pública para democratizar el acceso a infraestructura de IA para startups e investigadores, fomentando la equidad y la sostenibilidad.

 

Newsom destacó que “California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades mientras aseguramos que la industria de IA siga prosperando”. El senador Scott Wiener, autor de la ley, la describió como “guardarraíles de sentido común” que posicionan al estado como líder global en innovación segura. Empresas como Anthropic han aplaudido el marco, argumentando que previene que la competencia erosione los esfuerzos voluntarios de seguridad, aunque gigantes como Meta y Google expresaron preocupaciones iniciales por posibles “parches regulatorios” estatales.

Esta ley entra en vigor de inmediato para los reportes iniciales, con plazos escalonados hasta 2027, y podría inspirar estándares nacionales, especialmente ante la inacción federal bajo la administración Trump, que prioriza la aceleración de la IA sin marcos estrictos.
¿Cómo se pretende implementar en México?
México, que aún carece de una legislación integral sobre IA, está avanzando rápidamente hacia un marco regulatorio ético y soberano. En febrero de 2025, el diputado Ricardo Monreal Ávila presentó una iniciativa para enmendar la Constitución, otorgando al Congreso autoridad exclusiva para legislar sobre IA y crear una Ley General de Uso de IA.
El objetivo es fomentar la innovación responsable mientras se protegen derechos humanos, privacidad y seguridad nacional, adaptándose a estándares globales sin comprometer la soberanía tecnológica.
En abril de 2025, diputados de Morena y el PVEM propusieron la Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la IA, inspirada en la Alianza Nacional para la IA (ANIA), un grupo respaldado por la UNESCO y la OCDE. Esta ley clasificaría sistemas de IA por niveles de riesgo (bajo, alto o inaceptable), prohibiendo usos dañinos como vigilancia masiva o contenido generado por IA que afecte a menores (por ejemplo, deepfakes manipuladores).
Incluiría obligaciones para proveedores y operadores, como evaluaciones de impacto ético, transparencia en algoritmos y responsabilidad civil por daños causados. Se prevé la creación de un organismo supervisor para enforcement, monitoreo de cumplimiento y educación pública. Aunque no hay fecha fija, se espera que el Congreso apruebe la enmienda constitucional pronto, seguida de la ley general y regulaciones secundarias en 2026.
Expertos destacan que México busca equilibrar oportunidades económicas (como IA en servicios públicos y fintech) con riesgos como desinformación industrializada, posicionándose como el primer país latinoamericano con un marco comprehensivo.
Regulaciones de IA en otros países La ola regulatoria global de IA en 2025 refleja enfoques diversos: desde el riesgo-based de la UE hasta el control estatal de China. A continuación, un resumen de marcos clave:

 

País/Región
Marco Principal
Enfoque Clave
Estado en 2025
Unión Europea
AI Act (Reglamento 2024/1689)
Clasifica IA por riesgo (prohibida, alta, limitada, mínima); obliga a mitigación en modelos de propósito general (GPAI).
En vigor: prohibiciones desde febrero; obligaciones para GPAI desde agosto. Multas hasta 7% de ingresos globales.
China
Ley de IA (borrador 2024) + marcos sectoriales
Enfoque centralizado y ético; regula algoritmos, deepfakes y contenido sintético; prioriza “IA para el bien común” bajo supervisión gubernamental.
En expansión: guías para identificación de IA generativa (marzo 2025); énfasis en seguridad nacional y ética.
Reino Unido
Marco de IA (no vinculante) + Ley de Seguridad en Línea
Enfoque pro-innovación; regulaciones sectoriales con énfasis en transparencia y riesgos.
Activo: posible AI Act propio influido por UE; énfasis en colaboración público-privada.
Canadá
Artificial Intelligence and Data Act (AIDA, Bill C-27)
Risk-based; integra privacidad de datos; obliga a evaluaciones de impacto en IA de alto riesgo.
Retrasado: “muerto” en comité en enero 2025; se espera reintroducción y entrada en vigor no antes de 2026.
Brasil
Proyecto de Ley de IA (No. 2338/2023)
Risk-based similar a UE; prohíbe IA de riesgo excesivo; crea ente regulador y responsabilidad civil.
Aprobado en Senado (diciembre 2024); pendiente en Cámara; uno de los primeros en América Latina.
Otros (ej. India, Japón, Corea del Sur)
Estrategias nacionales + guías
India: énfasis en innovación sin ley integral; Japón/Corea: colaborativos, con regulaciones éticas y de alto riesgo.
En desarrollo: Japón con centros de soporte para GPAI; Corea con marco comprehensivo alineado a UE.

Estos marcos globales subrayan una tendencia hacia la armonización, con la UE como referente, pero adaptaciones locales para equilibrar innovación y riesgos. En México y California, el énfasis en transparencia y equidad podría inspirar colaboraciones regionales, especialmente en Norteamérica.

Podcast