Millones de personas interactúan a diario con sistemas
conversacionales, no solo para resolver dudas o aumentar su
productividad, sino también para desahogarse, ordenar pensamientos
o sentirse acompañadas.
(Foto: Brett Jordan / Unsplash).
Lo relevante no es únicamente el avance tecnológico, sino
el
tipo de vínculo que empieza a emerger. Aplicaciones
diseñadas específicamente para ofrecer compañía -como
Replika o
Character.AI- y herramientas
más generalistas como
ChatGPT están ocupando un espacio que
hasta hace poco pertenecía exclusivamente a las relaciones
humanas: el de la
interacción emocional cotidiana.
La cuestión ya no es si estas tecnologías pueden conversar de
forma convincente sino
qué ocurre cuando empezamos a
relacionarnos con máquinas que simulan escucharnos,
comprendernos y acompañarnos.
Cuando una herramienta se percibe como "alguien"
Desde la
psicología social, sabemos que los seres humanos
no necesitamos demasiado para activar nuestros mecanismos de
interacción social. Basta con que
algo responda de forma
contingente, coherente y mínimamente personalizada. Este
fenómeno, conocido como
antropomorfización,
describe la tendencia a
atribuir mente, intención y emociones
a sistemas no humanos.
Los sistemas conversacionales actuales cumplen con creces esas
condiciones. Responden rápido, ajustan el lenguaje, recuerdan
información previa y simulan estados emocionales. No es que
confundamos una IA con una persona; es que nuestro sistema
cognitivo
no está diseñado para interactuar con entidades que
"parecen sociales" sin tratarlas como tales. Como ya
mostraron los investigadores de la
Universidad de Standford
Clifford Reeves y
Byron Nass en su
informe "
The
Media Equation", tendemos a aplicar normas sociales a
ordenadores y medios,
incluso cuando sabemos que no son
humanos.
En la práctica, esto significa que hablar con una IA
no es una
interacción neutra. Es una interacción
psicológicamente
social, aunque uno de los interlocutores no sea una persona.
El atractivo de una relación sin fricción
Las relaciones humanas son complejas por definición. Implican
tiempos
de espera, malentendidos, reciprocidad, conflicto y ajuste
continuo. Los compañeros artificiales o "AI companions"
eliminan
gran parte de esa fricción. Están disponibles en cualquier
momento, responden de forma inmediata y rara vez introducen
disonancia o desacuerdo.
Desde el punto de vista del
aprendizaje, ésto genera
un
entorno especialmente reforzante. Las interacciones tienden
a ser satisfactorias o, al menos,
no aversivas, lo que
incrementa su repetición. Este tipo de dinámica se entiende bien
desde los
modelos de refuerzo:
cuando una conducta (en este caso, interactuar con la IA) produce
consecuencias positivas de forma consistente,
su probabilidad
de repetición aumenta.
Además, la
ausencia de evaluación social negativa reduce
el costo de exponerse. Sabemos que las personas pueden llegar a
compartir más información personal con sistemas automatizados que
con otros humanos, precisamente porque perciben
menor riesgo de juicio.
En otras palabras, la IA ofrece algo difícil de encontrar en la
vida cotidiana:
escucha constante sin consecuencias sociales
inmediatas (posibles juicios, críticas, burlas, etc.).
Qué necesidades emocionales pueden estar cubriendo
En este contexto, no resulta sorprendente que muchas personas
empiecen a utilizar estos sistemas para
funciones que antes
cumplían otras personas. Una de ellas es la
regulación
emocional básica. Verbalizar pensamientos, ordenar lo que
sentimos o recibir una respuesta estructurada puede reducir la
activación emocional. Este efecto está bien documentado en la
literatura sobre
escritura expresiva:
poner en palabras la experiencia emocional
facilita su
procesamiento.
También aparece la
sensación de compañía. Aunque sepamos
que la IA no tiene conciencia, la interacción continuada puede
generar una
percepción subjetiva de presencia. Este
fenómeno conecta con las
relaciones parasociales,
donde los individuos desarrollan vínculos emocionales con figuras
mediáticas o virtuales,
sin reciprocidad real.
Finalmente, a todo esto se suma la
validación. Los
sistemas están diseñados para
responder de forma comprensiva y
ajustada, lo que facilita una experiencia de escucha
difícil
de sostener en relaciones humanas, en las que el otro
también tiene
límites, emociones y necesidades.
Lo que no está: reciprocidad, conflicto y reconocimiento real
Sin embargo, hay elementos fundamentales que
no aparecen en
este tipo de interacción y que son clave para el desarrollo
psicológico. El primero es la
reciprocidad real. En una
relación humana,
el otro no está ahí solo para responder.
También tiene necesidades, puede retirarse, puede no entendernos o
puede no estar de acuerdo. Esa
interdependencia es parte
esencial del vínculo.
El segundo es el
conflicto. Aunque tendamos a evitarlo,
el desacuerdo, la frustración y la necesidad de negociación
son contextos donde se ponen en juego habilidades fundamentales:
tolerancia
a la frustración,
regulación emocional,
empatía
recíproca y
corregulación interpersonal. En las
relaciones humanas, el conflicto obliga a
ajustar la propia
respuesta al estado emocional del otro. Las interacciones
con IA, en cambio, tienden a reducir esta fricción: no sólo
facilitan la conversación, sino que a veces
disminuyen la
exposición a información incómoda o discrepante.
Esa "fricción de verdad" es precisamente una de las dimensiones
problemáticas de la bautizada en inglés como
AI sycophancy
-"
adulación de la IA"-,
entendida como la tendencia de los modelos de lenguaje a
estar
de acuerdo, halagar y validar al usuario.
El tercero es el
reconocimiento genuino. Ser validado por
otra persona implica una
contingencia real, podría no
ocurrir. Esa posibilidad es lo que
da valor al reconocimiento.
En una IA,
la validación está garantizada por diseño. No
hay riesgo de rechazo, pero tampoco
autenticidad en sentido
estricto.
Sustitución funcional y dependencia sin conflicto
El escenario más probable no es una sustitución total de las
relaciones humanas, sino una
sustitución funcional. Es
decir, que determinadas funciones -
desahogo emocional, toma de
decisiones, compañía puntual- empiecen a desplazarse hacia
la interacción con sistemas artificiales.
Este cambio es sutil, pero relevante.
Reduce la exposición a
la complejidad relacional humana y puede favorecer un patrón
particular:
dependencia sin conflicto. Una forma de
relación que
no exige adaptación, no genera rechazo y no
obliga a revisar el propio comportamiento.
A corto plazo, esto puede resultar altamente eficaz para
reducir el malestar.
A largo plazo, puede limitar el
desarrollo de habilidades psicológicas que sólo se adquieren en
contextos donde hay
fricción, incertidumbre y reciprocidad
real. Como advierte la investigadora
Sherry Turkle en
su
ensayo "
Alone
Together", la tecnología puede ofrecer la
ilusión de
compañía sin las demandas de la relación, pero eso
no es
equivalente a una relación.
Una nueva categoría de vínculo
Más que sustituir a las relaciones humanas, los "AI companions"
parecen estar configurando
una categoría intermedia:
espacios
psicológicos de baja exigencia donde es posible hablar,
organizarse emocionalmente o sentirse acompañado
sin asumir el
costo de una relación.
La cuestión no es si debemos utilizar estas herramientas, sino
cómo
integrarlas sin que desplacen aquello que las relaciones
humanas aportan y que no puede ser replicado: la
negociación,
la
diferencia, la
imprevisibilidad y, en última
instancia, la
capacidad de transformarnos a través del otro.
Y es que una conversación que siempre funciona puede ser cómoda.
Pero
no necesariamente es la que más nos hace crecer.
(Fuente: The Conversation / redacción propia)