Millones de personas interactúan cada día con los sistemas de chat, no sólo para despejar dudas o aumentar su productividad, sino también para desahogarse, organizar sus pensamientos o sentirse un compañero.
Lo relevante no es sólo el progreso tecnológico, sino también el tipo de conexión que está empezando a surgir. Las aplicaciones diseñadas específicamente para ofrecer compañía –como Replika o Character.AI– y herramientas más generales como ChatGPT ocupan un espacio que hasta hace poco pertenecía exclusivamente a las relaciones humanas: el espacio de la interacción emocional cotidiana.
La pregunta ya no es si estas tecnologías pueden hablar de manera convincente, sino qué sucede cuando comenzamos a comunicarnos con máquinas que pretenden escucharnos, comprendernos y seguirnos.
Cuando una herramienta se percibe como “alguien”
Sabemos por la psicología social que los seres humanos no necesitamos mucho para activar nuestros mecanismos de interacción social. Basta que algo responda de forma contingente, coherente y mínimamente personalizada. Este fenómeno, conocido como antropomorfización, describe la tendencia a atribuir mente, intención y emoción a sistemas no humanos.
Los sistemas conversacionales actuales cumplen con creces estos requisitos. Reaccionan rápidamente, adaptan su lenguaje, recuerdan información previa y simulan estados emocionales. No es que estemos confundiendo la IA con una persona; es que nuestro sistema cognitivo no está diseñado para interactuar con entidades que “parecen sociales” sin tratarlas como tales. Como ya han demostrado los investigadores de la Universidad de Stanford Clifford Reeves y Byron Nass en su informe The Media Equation, tendemos a aplicar normas sociales a las computadoras y a los medios, incluso cuando sabemos que no son humanos.
En la práctica, esto significa que hablar con una IA no es una interacción neutral. Es una interacción social psicológica, incluso si uno de los interlocutores no es una persona.
El atractivo de una relación sin fricciones
Las relaciones humanas son complejas por definición. Incluyen tiempo de espera, malentendidos, reciprocidad, conflicto y ajuste continuo. Los compañeros artificiales o los compañeros de IA eliminan gran parte de esa fricción. Están disponibles en cualquier momento, responden de inmediato y rara vez entran en desacuerdo o desacuerdo.
Desde el punto de vista del aprendizaje, esto crea un entorno particularmente empoderador. Las interacciones tienden a ser satisfactorias o, al menos, no aversivas, lo que aumenta su repetición. Este tipo de dinámica se comprende bien a partir de los modelos de refuerzo: cuando un comportamiento (en este caso, una interacción con una IA) produce consistentemente consecuencias positivas, su probabilidad de repetirse aumenta.
Además, la ausencia de una evaluación social negativa reduce el costo de la exposición. Sabemos que las personas pueden compartir más datos personales con sistemas automatizados que con otras personas, precisamente porque perciben menos riesgo de ser juzgadas. En otras palabras, la IA ofrece algo difícil de encontrar en la vida cotidiana: una escucha constante sin consecuencias sociales inmediatas (posibles juicios, críticas, burlas, etc.).
¿Qué necesidades emocionales pueden satisfacer?
En este contexto, no es de extrañar que muchas personas estén empezando a utilizar estos sistemas para funciones que antes realizaban otras personas. Uno de ellos es la regulación emocional básica. Verbalizar pensamientos, ordenar lo que sentimos o recibir una respuesta estructurada puede reducir la excitación emocional. Este efecto está bien documentado en la literatura sobre escritura expresiva: poner la experiencia emocional en palabras hace que sea más fácil de procesar.
También surge un sentido de comunidad. Aunque sabemos que la IA no tiene conciencia, la interacción continuada puede generar una percepción subjetiva de presencia. Este fenómeno está asociado con relaciones parasociales, donde los individuos desarrollan vínculos emocionales con los medios o figuras virtuales, sin reciprocidad real.
A esto se suma la validación. Los sistemas están diseñados para responder de forma integral y personalizada, facilitando una experiencia de escucha difícil de mantener en las relaciones humanas, donde el otro también tiene limitaciones, emociones y necesidades.
Lo que falta: reciprocidad, conflicto y reconocimiento real
Sin embargo, hay elementos fundamentales que no aparecen en este tipo de interacción y que son cruciales para el desarrollo psicológico. La primera es la verdadera reciprocidad. En una relación humana, el otro no está ahí sólo para responder. Él también tiene necesidades, puede retraerse, no nos entiende o no está de acuerdo. Esa interdependencia es una parte esencial de una relación.
El segundo es el conflicto. Aunque tendemos a evitarlo, el desacuerdo, la frustración y la necesidad de negociación son contextos en los que emergen las habilidades básicas: tolerancia a la frustración, regulación emocional, empatía recíproca y corregulación interpersonal. En las relaciones humanas, el conflicto obliga a uno a adaptar su respuesta al estado emocional del otro. Las interacciones con la IA, por otro lado, tienden a reducir esta fricción: no sólo facilitan la conversación, sino que a veces reducen la exposición a información incómoda o inconsistente. Esta “fricción de la verdad” es precisamente una de las dimensiones problemáticas de la adulación de la IA, entendida como la tendencia de los modelos lingüísticos a estar de acuerdo, halagar y validar al usuario.
El tercero es el verdadero reconocimiento. La confirmación por parte de otra persona implica una contingencia real, puede que no suceda. Esa posibilidad es la que da valor al reconocimiento. En IA, la validación está garantizada por el diseño. No hay riesgo de rechazo, pero tampoco lo es la autenticidad en sentido estricto.
Reemplazo funcional y dependencia libre de conflictos.
El escenario más probable no es un reemplazo completo de las relaciones interpersonales, sino un reemplazo funcional. Es decir, ciertas funciones (alivio emocional, toma de decisiones, compañía precisa) están comenzando a desplazarse hacia la interacción con sistemas artificiales.
Este cambio es sutil pero relevante. Reduce la exposición a la complejidad de las relaciones humanas y puede favorecer un patrón particular: dependencia sin conflicto. Una forma de relación que no requiere adaptación, no genera rechazo y no nos hace cuestionarnos nuestro propio comportamiento.
A corto plazo, esto puede resultar muy eficaz para reducir las molestias. A largo plazo, esto puede limitar el desarrollo de habilidades psicológicas que sólo se adquieren en contextos donde hay fricción, incertidumbre y reciprocidad real. Como advierte la investigadora del MIT Sherry Turkle en su ensayo Alone Together, la tecnología puede ofrecer la ilusión de compañerismo sin requerir una relación, pero no es el equivalente de una relación.
Nueva categoría de enlace
En lugar de reemplazar las relaciones humanas, los compañeros de IA parecen configurar un término medio: espacios psicológicos de baja demanda donde es posible hablar, organizarse emocionalmente o sentir compañía sin incurrir en el costo de una relación.
La pregunta no es si debemos utilizar estas herramientas, sino cómo integrarlas sin reemplazar lo que las relaciones humanas brindan y no pueden replicarse: negociación, diversidad, imprevisibilidad y, en última instancia, la capacidad de transformarse a través del otro.
Y una conversación que siempre funciona puede resultar cómoda. Pero eso no es necesariamente lo que nos hace crecer más.
Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US
Suscríbete y recibe las últimas entradas en tu correo electrónico.


