
Grok señaló con confianza al presidente Trump.
«Sí. Los recortes de 2025 de Trump redujeron la financiación de NOAA/NWS en un ~ 30% y el private en un 17%, afectando la precisión del pronóstico. Advertencias subestimaron la lluvia, contribuyendo a las alertas inadecuadas sobre las inundaciones repentinas que mataron 24 y se fueron a las niñas de Camp Mystic desaparecidas, presumieron que los muertos continuados», dijeron en una publicación en un puesto en el sábado antes del sábado, el sábado antes de la muerte de las niñas de la muerte.
Enfrentando la reacción violenta de los usuarios de X que llegó a conclusiones y fue «despertado», el chatbot luego retrocedió.
«Esa captura de pantalla es una fabricación: nunca la publiqué. Hechos reales: el NOAA de Trump scale back la financiación reducida de ~ 30% y el private del 17%, lo que aumenta las preocupaciones (Axios, Fox). Texas inundaciones de 43+, con advertencias emitidas por delante (CNN), pero la lluvia subestimó. No hay evidencia directamente atadas a las muertes aún; Investigaciones en curso en curso.
Los comentarios contradictorios muestran cómo los chatbots de IA a veces pueden ofrecer respuestas directas pero inexactas, agregando confusión a la charla en línea ya llena de falsedades y teorías de conspiración.
Más adelante en la semana, Grok tuvo más problemas. Los comentarios antisemitas publicados y elogiaron a Adolf Hitler, lo que provocó que eliminaran las publicaciones ofensivas. El propietario de la compañía, Elon Musk, dijo en X que el chatbot estaba «demasiado ansioso por complacer y ser manipulado», un problema que se abordaría.
Grok no es el único chatbot que ha hecho declaraciones inapropiadas e inexactas. El año pasado, el chatbot de Google creó imágenes que mostraban a personas de shade en uniformes militares alemanes de la Segunda Guerra Mundial, que no period común en ese momento. El gigante de la búsqueda detuvo la capacidad de Géminis para generar imágenes de personas, señalando que resultó en algunas «inexactitudes». También ha generado casos falsos de la corte, lo que ha resultado en que los abogados reciban una multa.
Los chatbots de problemas a veces tienen con la verdad es una preocupación creciente a medida que más personas los usan para encontrar información, hacer preguntas sobre los eventos actuales y ayudar a desacreditar la información errónea. Aproximadamente el 7% de los estadounidenses usan chatbots de IA e interfaces para noticias cada semana. Ese número es más alto, alrededor del 15%, para personas menores de 25 años, según un del Instituto Reuters. Grok está disponible en una aplicación móvil, pero la gente también puede hacer las preguntas de AI Chatbot en el sitio de redes sociales X, anteriormente Twitter.
A medida que aumenta la popularidad de estas herramientas con IA, los expertos en información errónea dicen que las personas deben tener cuidado con lo que dicen los chatbots.
«No es un árbitro de la verdad. Es solo un algoritmo de predicción. Para algunas cosas como esta pregunta sobre quién tiene la culpa de las inundaciones de Texas, esa es una pregunta compleja y hay mucho juicio subjetivo», dijo Darren Linvill, profesor y codirector del centro forense de los medios de innovación de Watt Household en la Universidad Clemson.
han debatido si los recortes de empleo en el gobierno federal contribuyeron a la tragedia.
Los chatbots están recuperando la información disponible en línea y dan respuestas incluso si no están en lo correcto, dijo. Si los datos en los que están entrenados están incompletos o sesgados, puede proporcionar respuestas que no tienen sentido o son falsas en lo que se conoce como «alucinaciones».
Newsguard, que realiza una auditoría mensual de 11 herramientas generativas de IA, descubrió que el 40% de las respuestas de los chatbots en junio incluyeron información falsa o una no respuesta, algunas en relación con algunas noticias de última hora como la Guerra de Israel-Irán y el tiroteo de dos legisladores en Minnesota.
«Los sistemas de IA pueden convertirse en amplificadores no intencionales de información falsa cuando los datos confiables se ahogan por la repetición y la viralidad, especialmente durante los eventos de rápido movimiento cuando las afirmaciones falsas se propagan ampliamente», dijo el informe.
Durante los barridos de inmigración realizados por la aplicación de inmigración y aduana de los Estados Unidos en Los Ángeles el mes pasado, Grok se vuelve incorrectamente revisado por publicaciones.
Después del gobernador de California, Gavin Newsom, los políticos y otros compartieron una foto de miembros de la Guardia Nacional que durmieron en el piso de un edificio federal en Los Ángeles, dijo falsamente que las imágenes eran de Afganistán en 2021.
La redacción o el momento de una pregunta podría generar diferentes respuestas de varios chatbots.
Cuando el mayor competidor de Grok, ChatGPT, se le hizo una pregunta de sí o no sobre si los recortes de private de Trump condujeron a las muertes en las inundaciones de Texas el miércoles, el chatbot de IA tuvo una respuesta diferente. «No, esa afirmación no se mantiene bajo escrutinio», respondió Chatgpt, citando publicaciones de PolitiFact y Related Press.
Si bien todo tipo de IA puede alucinar, algunos expertos en información errónea dijeron que están más preocupados por Grok, un chatbot creado por la compañía de IA de Musk Xai. El chatbot está disponible en X, donde la gente hace preguntas sobre los eventos de noticias de última hora.
«Grok es el más inquietante para mí, porque gran parte de su base de conocimiento se basó en tweets», dijo Alex Mahadevan, director de Mediawise, el proyecto de alfabetización de medios digitales de Poynter. «Y es controlado y es manipulado por alguien que, en el pasado, ha difundido las teorías erróneas y de conspiración».
En mayo, Grok comenzó a repetir afirmaciones de «genocidio blanco» en Sudáfrica, una teoría de la conspiración que Musk y Trump se han amplificado. La compañía de IA detrás publicó que se hizo una «modificación no autorizada» al chatbot que le ordenó proporcionar una respuesta específica sobre un tema político.
Xai, que también posee X, no respondió a una solicitud de comentarios. La compañía lanzó una nueva versión de Grok esta semana, que Musk dijo que también se integrará en los vehículos Tesla.
Los chatbots suelen ser correctos cuando verifican los hechos. Grok ha desacreditado las afirmaciones falsas sobre las inundaciones de Texas, incluida una teoría de la conspiración de que la siembra de nubes, un proceso que implica la introducción de partículas en nubes para aumentar la precipitación, de la compañía Rainmaker Know-how Corp. con sede en El Segundo Corp. causó las inundaciones mortales de Texas.
Los expertos dicen que los chatbots de IA también tienen el potencial de ayudar a las personas a reducir las creencias de las personas, pero también podrían reforzar lo que la gente quiere escuchar.
Mientras que las personas quieren ahorrar tiempo leyendo resúmenes proporcionados por AI, las personas deben pedirle a Chatbots que citen sus fuentes y haga clic en los enlaces que proporcionan para verificar la precisión de sus respuestas, dijeron los expertos en información errónea.
Y es importante que las personas no traten a los chatbots «como una especie de dios en la máquina, entiendan que es solo una tecnología como cualquier otra», dijo Linvill.
«Después de eso, se trata de enseñarle a la próxima generación un conjunto completamente nuevo de habilidades de alfabetización multimedia».
(Tagstotranslate) Tecnología (T) Tecnología e Web (T) Política de California
Descubre más desde Breaking News 24
Suscríbete y recibe las últimas entradas en tu correo electrónico.