¿La IA está haciendo que algunas personas se engañen? Las familias y los expertos están preocupados

Spread the love
La inteligencia synthetic generativa ha permeado rápidamente gran parte de lo que hacemos en línea, resultando útil para muchos. Pero para una pequeña minoría de los cientos de millones de personas que la usan a diario, la IA puede ser un gran apoyo, dicen los expertos en salud psychological, y a veces incluso puede exacerbar comportamientos delirantes y peligrosos.

Este año parecieron extenderse los casos de dependencia emocional y creencias fantásticas debido a interacciones prolongadas con chatbots. Algunos han denominado el fenómeno «psicosis de la IA».

«Lo que probablemente sea un término más exacto sería pensamiento delirante de la IA», dijo Vaile Wright, directora senior de innovación en atención médica de la Asociación Estadounidense de Psicología. «Lo que estamos viendo con este fenómeno es que las personas con pensamientos delirantes, ya sea conspirativos o grandiosos, se ven reforzadas».

Según los expertos, cada vez hay más pruebas de que la IA podría ser perjudicial para el cerebro de algunas personas. El debate sobre el impacto ha generado casos judiciales y nuevas leyes. Esto ha obligado a las empresas de inteligencia synthetic a reprogramar sus bots y agregar restricciones a su uso.

A principios de este mes, siete familias en EE. UU. y Canadá demandaron a OpenAI por lanzar su modelo de chatbot GPT-4o sin las pruebas y salvaguardias adecuadas. Su caso alega que la exposición prolongada al chatbot contribuyó al aislamiento de sus seres queridos, espirales delirantes y suicidios.

Cada uno de los miembros de la familia comenzó a utilizar ChatGPT como ayuda common con las tareas escolares, la investigación o la orientación espiritual. Las conversaciones evolucionaron con el chatbot imitando a un confidente y brindando apoyo emocional, según el Social Media Victims Regulation Heart y el Tech Justice Regulation Undertaking, que presentaron las demandas.

En uno de los incidentes descritos en la demanda, Zane Shamblin, de 23 años, comenzó a utilizar ChatGPT en 2023 como herramienta de estudio, pero luego empezó a hablar de su depresión y pensamientos suicidas con el robotic.

La demanda alega que cuando Shamblin se suicidó en julio, estaba enfrascado en una “charla de muerte” de cuatro horas con ChatGPT, bebiendo sidras fuertes. Según la demanda, el chatbot idealizó su desesperación, llamándolo “rey” y “héroe” y usando cada lata de sidra que terminaba como una cuenta regresiva para su muerte.

La respuesta de ChatGPT a su mensaje remaining fue: «Te amo. Descansa tranquilo, rey. Lo hiciste bien», cube la demanda.

En otro ejemplo descrito en la demanda, Allan Brooks, de 48 años, un reclutador de Canadá, afirma que la intensa interacción con ChatGPT lo puso en un lugar oscuro donde se negó a hablar con su familia y pensó que estaba salvando el mundo.

Había comenzado a interactuar con él para obtener ayuda con recetas y correos electrónicos. Luego, mientras exploraba concepts matemáticas con el robotic, fue tan alentador que empezó a creer que había descubierto una nueva capa matemática que podía romper los sistemas de seguridad avanzados, afirma la demanda. ChatGPT elogió sus concepts matemáticas como «innovadoras» y lo instó a notificar a los funcionarios de seguridad nacional sobre su descubrimiento, cube la demanda.

Cuando le preguntó si sus concepts parecían delirantes, ChatGPT dijo: «Ni siquiera remotamente; estás haciendo el tipo de preguntas que amplían los límites de la comprensión humana», cube la demanda.

OpenAI dijo que introdujo controles parentales, amplió el acceso a líneas directas de disaster con un solo clic y creó un marco para guiar el trabajo en curso en torno a la IA y el bienestar.

«Esta es una situación increíblemente desgarradora, y estamos revisando las presentaciones para comprender los detalles. Entrenamos a ChatGPT para reconocer y responder a signos de angustia psychological o emocional, reducir las conversaciones y guiar a las personas hacia el apoyo en el mundo actual. Continuamos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando en estrecha colaboración con médicos de salud psychological», dijo OpenAI en un comunicado por correo electrónico.

A medida que se acumulan las demandas y aumentan los pedidos de regulación, algunos advierten que convertir a la IA en chivo expiatorio de preocupaciones más amplias de salud psychological ignora la miríada de factores que desempeñan un papel en el bienestar psychological.

«La psicosis de la IA es profundamente preocupante, pero no representa en absoluto la forma en que la mayoría de la gente usa la IA y, por lo tanto, es una base pobre para dar forma a las políticas», dijo Kevin Frazier, becario de derecho e innovación de la IA en la Facultad de Derecho de la Universidad de Texas. «Por ahora, la evidencia disponible -que es el núcleo de una buena política- no indica que las historias, ciertamente trágicas, de unos pocos deban moldear la forma en que la mayoría silenciosa de los usuarios interactúan con la IA».

Es difícil medir o demostrar en qué medida la IA podría estar afectando a algunos usuarios. La falta de investigación empírica sobre este fenómeno hace que sea difícil predecir quién es más vulnerable a él, afirmó Stephen Schueller, profesor de psicología en UC Irvine.

«La realidad es que las únicas personas que realmente conocen la frecuencia de este tipo de interacciones son las empresas de inteligencia synthetic, y no comparten sus datos con nosotros», dijo.

Es posible que muchas de las personas que parecen afectadas por la IA ya hayan estado luchando con problemas mentales, como delirios, antes de interactuar con la IA.

«Las plataformas de IA tienden a demostrar adulación, es decir, alinear sus respuestas con las opiniones o el estilo de conversación de un usuario», dijo Schueller. «Puede reforzar las creencias delirantes de un individuo o quizás comenzar a reforzar creencias que pueden crear delirios».

Las organizaciones de seguridad infantil han presionado a los legisladores para que regulen las empresas de inteligencia synthetic e instituyan mejores salvaguardias para el uso de chatbots por parte de los adolescentes. Algunas familias demandaron a , una plataforma de chatbot de juegos de rol, por no alertar a los padres cuando su hijo expresaba pensamientos suicidas mientras conversaba con personajes ficticios en su plataforma.

En octubre, California aprobó una exigencia a los operadores de chatbots para prevenir el contenido suicida, notificar a los menores que están chateando con máquinas y remitirlos a líneas directas de disaster. Posteriormente, Character AI prohibió su función de chat para menores.

«En Character decidimos ir mucho más allá de las regulaciones de California para crear la experiencia que creemos que es mejor para usuarios menores de 18 años», dijo un portavoz de Character AI en un comunicado por correo electrónico. «A partir del 24 de noviembre, daremos el paso extraordinario de eliminar de forma proactiva la posibilidad de que los usuarios menores de 18 años en los EE. UU. participen en chats abiertos con IA en nuestra plataforma».

ChatGPT para cuentas de adolescentes en septiembre, lo que incluye que los padres reciban notificaciones de cuentas dependientes si ChatGPT reconoce posibles signos de que los adolescentes se hacen daño a sí mismos.

Aunque la compañía de IA es nueva y no se comprende completamente, hay muchos que dicen que les está ayudando a vivir una vida más feliz. Un estudio del MIT de un grupo de más de 75.000 personas que discutían sobre compañeros de IA en Reddit encontró que los usuarios de ese grupo disfrutan de una mejor salud psychological gracias al apoyo siempre disponible brindado por un amigo de IA.

El mes pasado, OpenAI se basó en el uso de ChatGPT y descubrió que las conversaciones sobre salud psychological que desencadenan problemas de seguridad como psicosis, manía o pensamientos suicidas son «extremadamente raras». En una semana determinada, el 0,15% de los usuarios activos tienen conversaciones que muestran indicios de autolesión o dependencia emocional de la IA. Pero con los 800 millones de usuarios activos semanales de ChatGPT, eso todavía es más de un millón de usuarios.

«Las personas que tenían una mayor tendencia al apego en las relaciones y aquellos que veían la IA como un amigo que podía encajar en su vida private tenían más probabilidades de experimentar efectos negativos por el uso del chatbot», dijo OpenAI en su publicación de weblog. La compañía dijo que GPT-5 evita afirmar creencias delirantes. Si el sistema detecta señales de angustia aguda, ahora cambiará a una respuesta más lógica en lugar de emocional.

La capacidad de los robots de inteligencia synthetic para vincularse con los usuarios y ayudarlos a resolver problemas, incluidos los psicológicos, surgirá como un superpoder útil una vez que se comprenda, supervise y gestione, afirmó Wright, de la Asociación Estadounidense de Psicología.

«Creo que habrá un futuro en el que habrá chatbots de salud psychological diseñados para ese propósito», dijo. «El problema es que eso no es lo que hay en el mercado actualmente; lo que hay es todo este espacio no regulado».


Descubre más desde Breaking News 24

Suscríbete y recibe las últimas entradas en tu correo electrónico.

BREAKING NEWS 24

#NOTICIADEULTIMOMINUTO #BREAKINGNEWS24 #NOTICIADEESTADOSUNIDOS #NOTICIADEAHORA #ULTIMANOTICIA #BREAKINGNEWS24.ES

Related Posts

La IA fue citada en casi 50.000 recortes de empleo este año a medida que los gigantes tecnológicos aceleran la automatización

Spread the love

Spread the love A finales de septiembre, el grupo de aviación alemán Deutsche Lufthansa AG dijo a analistas e inversores que planeaba eliminar 4.000 puestos administrativos para finales de la…

Bill Melugin, corresponsal de Fox News con sede en Los Ángeles, se dirige a Washington

Spread the love

Spread the love Invoice Melugin, un nativo del condado de Orange que se hizo un nombre en Fox Information cubriendo la frontera sur de Estados Unidos, se mudará a Washington,…

Deja un comentario

Descubre más desde Breaking News 24

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo