El mundo sigue avanzando en la regulación de la inteligencia artificial (IA). Esta vez el protagonismo lo tiene el estado de California en EE UU. Entre finales de septiembre y principios de octubre, el gobernador Gavin Newsom sancionó varias leyes sobre IA, entre las cuales se destacan dos por su alcance y relevancia: una establece obligaciones específicas en materia de transparencia, seguridad y responsabilidad para los modelos fundacionales y la otra fija directrices para la operación de chatbots compañeros potenciados por IA (AI companions).
Como ya sucedió hace unos años con la expedición de normas en materia de protección de datos –cuyos estándares de protección de datos tienen similitudes a los de la Unión Europea– California toma la delantera con normas que tendrán gran impacto en el sector tecnológico teniendo en cuenta que 32 de las 50 empresas más grandes del mundo de IA tienen su sede en California. Ante la falta de regulación a nivel federal, los estados son los que han marcado la pauta en la regulación de la IA en EE UU. Sin embargo, las leyes estatales no pretenden ser integrales ni sistemáticas y, más bien, con buen criterio, se han dedicado a regular aspectos específicos como los deepfakes, la transparencia, la gobernanza y los chatbots. Veamos, pues, de que se tratan estas dos novedades legislativas en California.
Ley de Transparencia en la Inteligencia Artificial de Frontera
Por un lado, está la Ley de Transparencia en la Inteligencia Artificial de Frontera (Transparency in Frontier Artificial Intelligence Act), conocida también como SB 53, la cual entrará en vigencia el 1º de enero de 2026. Esta norma establece obligaciones de transparencia, seguridad y rendición de cuentas para los desarrolladores de modelos de IA de frontera, los cuales, en términos sencillos, son modelos fundacionales avanzados con alto poder computacional. Estos desarrolladores, entre otras obligaciones, deberán publicar un marco de IA de frontera que documente los protocolos técnicos y organizacionales con el fin de mitigar riesgos catastróficos, incluyendo estándares nacionales e internacionales, evaluaciones de capacidades peligrosas, medidas de mitigación, gobernanza interna y ciberseguridad. Además, tendrán que emitir informes de transparencia cuando desplieguen modelos nuevos o modificados, y reportar incidentes críticos y riesgos catastróficos.
Los grandes desarrolladores de modelos de IA de frontera que incumplan las obligaciones transparencia, reporte de incidentes críticos o la implementación efectiva de sus propios marcos de IA podrán ser sancionados con multas de hasta un millón de dólares por cada infracción.
Los chatbots compañeros
Por otro lado, la ley SB 243 regula los chatbots compañeros al imponer medidas generales de seguridad para la interacción de los usuarios con estas herramientas, así como otras específicas cuando la interacción sea con menores de edad y personas vulnerables. La SB 243 es la primera ley estatal que impone medidas y requisitos especiales a los operadores de chatbots cuando estas herramientas sean utilizadas por menores de edad. Por ejemplo, si existe la posibilidad de que un usuario razonable crea que el chatbot es humano, la ley obliga a los operadores de chatbots compañeros a emitir avisos claros y visibles para advertir que se trata de una entidad artificial y no humana. Si el operador sabe que el usuario es menor de edad, el correspondiente aviso debe repetirse al menos cada tres horas durante sesiones continuas. Así mismo, exige que los operadores implementen protocolos para prevenir, evitar y detectar la generación de contenido relacionado con ideas suicidas, autolesiones o suicidio, así como para redirigir al usuario a servicios de apoyo adecuados, cuando el usuario exprese ideas suicidas o de autolesión.
Todo esto sucede en un contexto donde el papel de los chatbots está bajo la lupa, especialmente después de que se conocieran casos de suicidios de adolescentes posiblemente vinculados a interacciones conversacionales con sistemas de IA, así como situaciones en las cuales adolescentes han generado vínculos emocionales y afectivos con personajes ficticios creados mediante IA.
Hoy en día, la depresión infantil y adolescente representa un enorme desafío en materia de salud pública. No deja de ser preocupante que menores de edad desarrollen vínculos emocionales con sistemas de IA, especialmente en un contexto en el cual la tecnología avanza rápidamente hacia una mayor personalización para cada usuario y algunos desarrolladores han afirmado que los chatbots compañeros pueden convertirse en herramientas útiles para personas que enfrentan situaciones de soledad o depresión.
Por tanto, frente a un problema concreto identificado a partir de un caso de uso específico de la IA, la SB 243 representa un nuevo avance dentro de la estrategia regulatoria de California, centrada en abordar situaciones particulares en lugar de adoptar un enfoque general basado en riesgos, como lo ha hecho la Unión Europea. El modelo californiano, orientado por casos de uso, podría consolidar un régimen normativo integral compuesto por múltiples leyes que responda de manera efectiva a las afectaciones reales de la IA sobre las personas. California se ha convertido en un referente global en materia de gobernanza de la IA. Si su enfoque resulta ser eficaz en la protección de la innovación, posiblemente otros ordenamientos jurídicos en el mundo puedan seguir sus pasos.
Cabe recordar que la implementación del Reglamento de IA de la Unión Europea, pese a ser pionero, ha tenido algunas dificultades y no ha sido del todo fluida. De hecho, la Comisión Europea ha considerado introducir enmiendas para aplazar la entrada en vigencia de ciertas obligaciones, abordar los problemas en la implementación o ampliar las medidas para fomentar la innovación.
California ha adoptado una estrategia normativa fragmentada, pero pragmática para regular la IA, enfocada en casos de uso específicos. Aunque este modelo aún está en fase de desarrollo y consolidación, puede ofrecer lecciones valiosas para nuestro país, donde el debate sobre la regulación de la IA apenas está comenzando a tomar forma. En nuestro contexto, será esencial implementar un enfoque que combine la protección efectiva de los derechos fundamentales, pero que garantice e incentive la innovación. Colombia debe construir un régimen normativo que responda a sus particularidades sociales, institucionales y tecnológicas. Aprender de las experiencias internacionales es necesario, pero no suficiente: debemos promover un ecosistema de innovación robusto, con reglas claras, proporcionales y adaptadas a nuestra realidad.