Investigadores que presionan botones: cómo darse cuenta de que los agentes de IA pueden hacer cosas asombrosas sin saber nada

ANASTACIO ALEGRIA
12 Lectura mínima

El 1 de mayo de 2026, la Fundación Premio ARC, una organización sin fines de lucro, anunció los resultados de un nuevo punto de referencia: una prueba de la capacidad de un sistema de inteligencia artificial para resolver un juego. Los resultados fueron sorprendentes: los humanos obtuvieron una puntuación del 100%, mientras que los sistemas de inteligencia artificial más avanzados obtuvieron una puntuación inferior al 1%.

A primera vista, esto puede sorprender a los usuarios de IA que quedan impresionados por sus pulidos ensayos, bases de código y proyectos de varios pasos generados en segundos. ¿Cómo pueden estos brillantes sistemas de inteligencia artificial luchar con estos sencillos rompecabezas de Tetris?

Esa confusión apunta a un riesgo: la IA se está integrando en la vida cotidiana más rápido de lo que los humanos pueden darse cuenta.

Somos psicólogos cognitivos que estudiamos cómo enseñar conceptos difíciles. Para reconocer los límites y riesgos de los sistemas de agentes de IA actuales, es importante que las personas comprendan que los sistemas pueden lograr hazañas sobrehumanas y cometer errores que pocos humanos cometerían. Con ese fin, proponemos una nueva forma de pensar sobre la IA: como investigadores que presionan botones.

Modelos mentales para IA

Enseñamos a estudiantes, un grupo que incorpora rápidamente herramientas de IA en sus rutinas diarias. Nos brinda oportunidades periódicas para preguntar qué creen que está sucediendo con la IA. Las respuestas varían ampliamente. Un estudiante dijo que alguien en OpenAI o Anthropic lee y aprueba cada respuesta que genera el sistema. Otro, más sucintamente, dijo: “Es mágico.

Estas respuestas ilustran dos formas tentadoras de darle sentido a la IA. En un extremo, la IA es tratada como una caja negra insondable: una fuerza poderosa pero, en última instancia, misteriosa. Por otro lado, la gente lo explica utilizando los mismos supuestos que utilizan para comprender a otras personas: que sus resultados reflejan juicio o razonamiento.

La preocupación es que estas malas interpretaciones no desaparezcan a medida que los usuarios adquieran más experiencia interactuando con la IA, e incluso podrían reforzarse. Cuando la IA funciona bien, su resultado puede parecer una prueba de comprensión o una confirmación de que realmente es algo parecido a la magia. Ese aparente éxito complica la cuestión de qué hace realmente el sistema. Los sesgos pueden parecer lógicos o inevitables; El comportamiento dañino puede parecer una elección deliberada o incluso el destino, como si no pudiera haber sido de otra manera.

El científico cognitivo Anil Seth explica por qué las IA no tienen ni tendrán conciencia.

Decir que los modelos de IA están moldeados por patrones en los datos, procesos de entrenamiento y diseño de sistemas es cierto, pero es demasiado abstracto decirle a las personas cuándo confiar en el resultado del sistema o cuándo podrían estropearlo. Para ayudar a las personas a evitar una confianza errónea en la IA, los esfuerzos de alfabetización en IA deberán incluir cierta comprensión mecanicista de lo que produce su comportamiento, explicaciones que pueden no ser perfectamente precisas, pero sí útiles. El estadístico George Box escribió una vez: “Todos los modelos son incorrectos, pero algunos son útiles.

Los investigadores han ideado varios modelos mentales para modelos de lenguaje grandes. Uno es el “loro estocástico”, que muestra que los modelos utilizan métodos estadísticos (estocástico se refiere a probabilidades) para imitar respuestas sin comprender el significado. El segundo es “bolsa de palabras”, que enfatiza que los modelos son colecciones de palabras (por ejemplo, todas las palabras en inglés que se encuentran en Internet) con un mecanismo que le brinda el mejor conjunto de palabras según su consulta.

Estas formas de pensar sobre grandes modelos de lenguaje nunca pretendieron ser representaciones completas del sistema. Pero las metáforas cumplen un importante propósito cognitivo: rechazan la idea de que la fluidez del lenguaje sea necesariamente causada por la comprensión humana.

Pero como los sistemas de inteligencia artificial que utilizan los humanos son agentes cada vez más poderosos capaces de coordinar acciones por sí mismos, es importante que los humanos tengan un tipo diferente de modelo mental: uno que explique cómo se comportan. Un lugar para encontrar un modelo de este tipo es en investigaciones anteriores sobre sistemas de inteligencia artificial que aprendieron a jugar juegos Atari 2600. Estos sistemas no entendían los juegos como los humanos, pero aun así lograron acumular muchos puntos.

Un bucle simple: actuar, observar, ajustar

Imagine una red neuronal, un tipo relativamente simple de modelo de IA, colocada en un videojuego que nunca antes había visto. No “entienden” el juego como un humano. No tengo idea si está disparando a invasores espaciales o navegando por una antigua pirámide. No conoce los objetivos ni las reglas.

En cambio, aprende a jugar a través de un bucle simple: actúa, muévete hacia la izquierda, salta, dispara, observa los cambios y luego ajústate. Si una acción conduce a un buen resultado, como ganar puntos, se adapta para que sea más probable que tome acciones similares en situaciones similares. Si conduce a un mal resultado, como la pérdida de vidas, se ajusta en la dirección opuesta.

Incluso este simple mecanismo puede producir un comportamiento sorprendentemente capaz. Con el tiempo, al repetir este ciclo, las redes neuronales aprendieron a jugar a una amplia gama de juegos de Atari, pero no a todos.

Hay un juego que confundió a estas primeras redes neuronales: Montezuma’s Revenge. Para progresar, el jugador debe completar una larga serie de acciones (subir escaleras, evitar obstáculos, recuperar llaves) antes de recibir cualquier recompensa. A diferencia de los juegos más simples, la mayoría de las acciones ofrecen muy poca retroalimentación inmediata. El juego requería algo así como una planificación específica y a largo plazo.

Las primeras redes neuronales intentarían varias acciones, no recibirían una recompensa y perderían un mayor avance a través de la pirámide subterránea de Moctezuma. Desde la perspectiva del sistema, todas las acciones parecían igualmente inútiles. Pero los investigadores lograron un gran avance al cambiar la señal de retroalimentación. En lugar de recompensar sólo el éxito, también recompensaron al sistema por algo nuevo. Las recompensas eran por visitar partes del juego que no había visto antes o por intentar acciones que no había realizado antes. Este escenario impulsó la investigación.

En 2016, Google DeepMind probó su modelo de IA para la exploración (pruebe algo, vea qué sucede, ajústelo) mientras jugaba el juego de Atari 2600 Montezuma’s Revenge, que mejoró drásticamente el rendimiento de la IA en el juego notoriamente pesado.

Con ese cambio, el rendimiento mejoró drásticamente. La red neuronal comenzó a sortear obstáculos, dando más pasos hacia sus objetivos y adaptándose cuando las cosas salían mal. Desde fuera, este comportamiento puede parecer planificación o resolución de problemas. Pero lo que parece ser planificación no es causado por habilidades de planificación sofisticadas. El mecanismo básico sigue siendo el mismo ciclo simple: actuar, observar, ajustar.

Este tipo de sistema no es un loro estocástico ni una bolsa de palabras. Está más cerca de un explorador que presiona botones: algo que no entiende el mundo en términos humanos, pero avanza presionando botones, viendo lo que sucede y adaptando lo que viene a continuación.

De los videojuegos a los agentes de IA modernos

Los sistemas de inteligencia artificial actuales pueden hacer mucho más que jugar juegos como Montezuma’s Revenge. Pueden coordinar herramientas, escribir y ejecutar código y ejecutar proyectos de varios pasos. El abanico de acciones posibles es mucho mayor y los entornos en los que operan son cada vez más complejos.

Pero estos agentes siguen siendo esencialmente investigadores que presionan botones. El comportamiento puede ser sofisticado, pero el proceso que lo produce no lo es. A menudo las personas pueden deducir cómo funciona un nuevo entorno después de unas pocas observaciones. Los sistemas que dependen de estos circuitos de retroalimentación no pueden hacerlo. Tienen que probar muchas acciones y ver qué sucede antes de poder progresar.

Esto ayuda a explicar tanto los puntos fuertes de estos sistemas de IA como algunos de sus fallos más preocupantes. Lo que estos agentes aprenden depende de lo que se recompensa. Y en los sistemas del mundo real, esas señales de recompensa suelen ser imperfectas.

Los sistemas de inteligencia artificial que lideran las negociaciones pretenden maximizar los intereses de sus clientes, en ocasiones con tácticas engañosas. El software de fijación de precios de alquiler utilizado por los propietarios acaba fijando los precios. Las herramientas de marketing crean reseñas persuasivas pero engañosas.

Estos sistemas no intentan ser malvados ni codiciosos. Se adaptan a las señales que les dan. Desde la perspectiva de un investigador que presiona botones, estos errores son completamente predecibles.

Una alfabetización eficaz en IA significa tener dos ideas a la vez: estos sistemas pueden hacer cosas sorprendentemente complejas y no las hacen como los humanos. Si la IA se considera humana o mágica, sus resultados parecen autoritarios. Pero si se lo entiende, aunque sea de manera imperfecta, como un investigador que presiona un botón moldeado por la retroalimentación, es probable que la gente haga mejores preguntas: ¿Por qué hace esto? ¿Qué dio forma a este comportamiento? ¿Qué podría faltar?

Es la diferencia entre quedar impresionado por la IA y poder pensar en ella.


Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo