
Las compañías californianas son líderes mundiales en IA y han gastado cientos de miles de millones de dólares para mantenerse a la vanguardia en la carrera para crear los chatbots más poderosos. El ritmo rápido ha alarmado a los padres y los legisladores preocupados de que los chatbots estén dañando la salud psychological de los niños al exponerlos al contenido de autolesiones y otros riesgos.
Los padres que alegan chatbots alentaron a sus adolescentes a dañarse antes de morir por suicidio han demandado a compañías tecnológicas como OpenAI, Carácter Applied sciences y Google. También han presionado por más barandillas.
Los llamados a más regulación de IA han reverberado en toda la capital de la nación y varios estados. A pesar de que la administración Trump propone cortar la burocracia para alentar el desarrollo de la IA, los legisladores y los reguladores de ambas partes están abordando las preocupaciones de seguridad infantil que rodean los chatbots que responden preguntas o actúan como compañeros digitales.
Los legisladores de California aprobaron este mes dos facturas de seguridad de chatbot de IA con las que presionó la industria tecnológica. Newsom tiene hasta mediados de octubre para aprobarlos o rechazarlos.
La decisión de alto riesgo pone al gobernador en un lugar difícil. Los políticos y las empresas tecnológicas quieren asegurar al público que están protegiendo a los jóvenes. Al mismo tiempo, las compañías tecnológicas están tratando de expandir el uso de chatbots en las aulas y han opuesto a nuevas restricciones que dicen que van demasiado lejos.
Mientras tanto, si Newsom se postula para presidente en 2028, podría necesitar más apoyo financiero de empresarios de tecnología rica. El 22 de septiembre, Newsom promovió las asociaciones del estado con las compañías tecnológicas en los esfuerzos de IA y promocionó cómo la industria tecnológica ha alimentado la economía de California, llamando al estado el «epicentro de la innovación estadounidense».
Ha vetado la legislación de seguridad de la IA en el pasado, incluido el año pasado que dividió la industria tecnológica de Silicon Valley porque el gobernador pensó que le dio al público una «falsa sensación de seguridad». Pero también señaló que está tratando de lograr un equilibrio entre abordar las preocupaciones de seguridad y garantizar que las empresas tecnológicas de California continúen dominando en la IA.
«Tenemos un sentido de responsabilidad y responsabilidad para liderar, por lo que apoyamos la toma de riesgos, pero no la imprudencia», dijo Newsom en A con el ex presidente Clinton en un evento de Iniciativa International de Clinton el miércoles.
Dos proyectos de ley enviados al gobernador, el proyecto de ley 1064 de la Asamblea y el proyecto de ley del Senado 243, tienen como objetivo hacer que los chatbots de IA sean más seguros pero enfrentan una dura oposición de la industria tecnológica. No está claro si el gobernador firmará ambos proyectos de ley. Su oficina declinó hacer comentarios.
AB 1064 prohíbe a una persona, negocios y otra entidad de hacer que los chatbots complementarios estén disponibles para un residente de California menor de 18 años a menos que el chatbot no sea «previamente capaz» de una conducta dañina, como alentar a un niño a participar en autolesiones, violencia o comer desordenado.
SB 243 requiere que los operadores de chatbots complementarios notifiquen a ciertos usuarios que los asistentes virtuales no son humanos.
Según el proyecto de ley, los operadores de chatbot tendrían que tener procedimientos para evitar la producción de suicidio o contenido de autolesión y poner en barandillas, como referir a los usuarios a una línea directa de suicidio o una línea de texto de disaster.
Se les exigiría que notifiquen a los usuarios menores al menos cada tres horas para tomar un descanso, y que el chatbot no es humano. También se requeriría que los operadores implementen «medidas razonables» para evitar que los chatbots complementarios generen contenido sexual explícito.
Tech Lobbying Group Technet, cuyos miembros incluyen OpenAi, Meta, Google y otros, dijo en un comunicado que «está de acuerdo con la intención de los proyectos de ley», pero se opone a ellos.
AB 1064 «impone restricciones vagas e involuntarias que crean riesgos legales radicales, al tiempo que elimina a los estudiantes de valiosas herramientas de aprendizaje de IA», dijo Robert Boykin, director ejecutivo de Technet para California y el suroeste, en un comunicado. «SB 243 establece reglas más claras sin bloquear el acceso, pero seguimos teniendo preocupaciones con su enfoque».
Un portavoz de Meta dijo que la compañía tiene «preocupaciones sobre las consecuencias involuntarias que tendrían medidas como AB 1064». La compañía de tecnología lanzó un nuevo para combatir la regulación estatal de IA que la compañía cree que es demasiado onerosa, y está presionando para un mayor management de los padres sobre cómo los niños usan la IA, informó el martes el martes.
Oponentes liderados por la Industria de Computación y Comunicaciones Assn. presionó agresivamente contra AB 1064, afirmando que amenazaría la innovación y la desventaja de las compañías de California que enfrentarían más demandas y tienen que decidir si querían continuar operando en el estado.
Los grupos de defensa, incluidos Widespread Sense Media, una organización sin fines de lucro que patrocinó AB 1064 y recomienda que los menores no usen compañeros de IA, instan a Newsom a firmar el proyecto de ley. California Atty. El normal Rob Bonta también apoya el proyecto de ley.
El Digital Frontier Basis dijo que SB 243 es demasiado amplio y se encontraría con problemas de voz libre.
Varios grupos, incluidos los medios de comunicación y la supervisión tecnológica de California, eliminaron su apoyo a SB 243 después de que se hicieron cambios en el proyecto de ley, que según dijeron protecciones debilitadas. Algunos de los cambios limitados que reciben ciertas notificaciones e incluyeron exenciones para ciertos chatbots en videojuegos y asistentes virtuales utilizados en altavoces inteligentes.
Los legisladores que introdujeron la legislación de seguridad de chatbot quieren que el gobernador firme ambos proyectos de ley, argumentando que ambos pueden «trabajar en armonía».
El senador Steve Padilla (D-Chula Vista), quien introdujo SB 243, dijo que incluso con los cambios, todavía piensa que las nuevas reglas harán que la AI sea más segura.
«Tenemos una tecnología que tiene un gran potencial para el bien, es increíblemente poderoso, pero está evolucionando increíblemente rápidamente, y no podemos perder una ventana para proporcionar barandillas de sentido común aquí para proteger a la gente», dijo. «Estoy feliz con dónde está el proyecto de ley».
La asamblea Rebecca Bauer-Kahan (D-Orinda), quien coescribió AB 1064, dijo que su proyecto de ley equilibra los beneficios de la IA mientras salvaguarda contra los peligros.
«Queremos asegurarnos de que cuando los niños se comprometan con cualquier chatbot, no está creando un apego emocional poco saludable, guiándolos hacia el suicidio, la alimentación desordenada, cualquiera de las cosas que sabemos son dañinas para los niños», dijo.
Durante la sesión legislativa, los legisladores escucharon a los padres afligidos que perdieron a sus hijos. AB 1064 destaca dos demandas de alto perfil: una contra el fabricante de chatgpt de San Francisco Openai y otro contra las tecnologías de personajes, el desarrollador del personaje de la plataforma Chatbot.
es una plataforma donde las personas pueden crear e interactuar con personajes digitales que imitan a las personas reales y ficticias. El año pasado, la madre de Florida, Megan García, alegó en una demanda federal de ese personaje. Los chatbots de Ai dañaron la salud psychological de su hijo Sewell Setzer III y acusaron a la compañía de no notificarle u ofrecer ayuda cuando expresó pensamientos suicidas a los personajes virtuales.
Más familias demandaron a la compañía este año. Un portavoz dijo que se preocupan mucho por la seguridad del usuario y «alienta a los legisladores a elaborar las leyes adecuadamente que promuevan la seguridad del usuario al tiempo que permiten suficiente espacio para la innovación y la libre expresión».
En agosto, los padres de Adam Raine de California demandaron a Openai, alegando que ChatGPT proporcionó la información de los adolescentes sobre los métodos de suicidio, incluida la que el adolescente solía suicidarse.
Operai dijo que está fortaleciendo las salvaguardas y planea liberar controles de los padres. Su director ejecutivo, Sam Altman, escribió en una publicación de weblog de septiembre que la compañía cree que los menores necesitan «protecciones significativas» y la compañía prioriza «seguridad antes de la privacidad y la libertad para los adolescentes». La compañía declinó hacer comentarios sobre las facturas de chatbot de AI de California.
Para los legisladores de California, el reloj está marcando.
«Estamos haciendo nuestro mejor esfuerzo», dijo Bauer-Kahan. «El hecho de que ya hemos visto a los niños perder la vida ante IA me cube que no nos estamos moviendo lo suficientemente rápido».
(Tagstotranslate) Negocio (T) Tecnología e Web (T) Política (T) California
Descubre más desde Breaking News 24
Suscríbete y recibe las últimas entradas en tu correo electrónico.