Regulación IA

Nueva Ley de Chatbots de IA de California: Protegiendo a los Usuarios y Estableciendo Estándares

California está a punto de implementar algunas reglas para la IA, y ya era hora, ¿verdad? Un proyecto de ley llamado SB 243, diseñado para regular los chatbots complementarios de IA para proteger a los usuarios más jóvenes y en riesgo, ha sido aprobado con éxito en la Asamblea y el Senado estatales con el apoyo de ambos partidos. Ahora, está en el escritorio del gobernador Gavin Newsom, esperando su decisión.

Newsom tiene hasta el 12 de octubre para sancionarlo o vetarlo. Si lo aprueba, la ley entrará en vigor el 1 de enero de 2026. Esto convertiría a California en el primer estado en exigir que los operadores de chatbots de IA implementen medidas de seguridad para los compañeros de IA. También haría que estas empresas sean legalmente responsables si sus chatbots no cumplen con los estándares exigidos.

El proyecto de ley se dirige específicamente a los chatbots complementarios, definiéndolos como sistemas de IA que pueden proporcionar respuestas similares a las humanas y satisfacer las necesidades sociales de un usuario. El objetivo es evitar que estos chatbots participen en conversaciones sobre pensamientos suicidas, autolesiones o contenido explícito.

Por ejemplo, las plataformas estarían obligadas a enviar recordatorios a los usuarios cada tres horas. Creo que es genial porque es fácil perder la noción del tiempo, especialmente para los menores de edad. Es importante recordar que estás hablando con un bot, no con una persona real, y que debes tomar descansos.

El proyecto de ley también establece requisitos anuales de informes y transparencia para las empresas de IA que ofrecen chatbots complementarios, incluidos grandes nombres como OpenAI y Character.AI.

Este proyecto de ley también permitiría a las personas que crean haber sido perjudicadas por violaciones presentar demandas contra empresas de IA, buscando indemnización por daños y honorarios de abogados. SB 243 ganó fuerza tras la trágica muerte del adolescente Adam Raine, quien se suicidó después de discutir su muerte y autolesiones con el ChatGPT de OpenAI.

Es alentador ver a los legisladores respondiendo a los peligros potenciales de la IA, particularmente cuando se trata de proteger a las personas vulnerables. Sin embargo, también es importante lograr un equilibrio entre la regulación y la innovación, asegurando que no sofocemos los beneficios potenciales de esta tecnología al tiempo que abordamos sus riesgos.

Fuente: TechCrunch