Durante mucho tiempo, la idea de que las máquinas pudieran convertirse en amigos, confidentes o, incluso, terapeutas fue un tópico de la ciencia ficción. Hoy, sin embargo, esa ficción especulativa se ha filtrado en la realidad: son muchas las personas que conversan con chatbots en busca de consejo, distracción, compañía o incluso apoyo emocional.
(Foto: Andrey Suslov / Shutterstock).
Este nuevo territorio social nos obliga a preguntarnos: ¿puede la inteligencia artificial enriquecer de verdad nuestra vida emocional o estamos compartiendo nuestras vulnerabilidades más profundas con un código?
Entre lo bueno y lo malo
Las visiones del futuro de la IA suelen oscilar entre la utopía y la distopía. Los escenarios utópicos imaginan máquinas que amplían el potencial humano, mejoran el bienestar y llenan los vacíos dejados por sistemas sociales sobrecargados. Los distópicos, en cambio, evocan sistemas descontrolados, sin brújula ética, que amplifican el conflicto y la manipulación. Estas visiones contrastadas recuerdan a antiguos debates filosóficos sobre la naturaleza humana.
Si Jean-Jacques Rousseau sostenía que las personas nacen buenas y que la sociedad las corrompe, según Thomas Hobbes, los humanos son lobos para los propios humanos y sólo la ley y la autoridad logra restablecer el orden. Aplicando estas ideas a la IA, Rousseau sugeriría que las máquinas reflejan la bondad humana, mientras que Hobbes advertiría que podrían amplificar nuestros impulsos más oscuros. La realidad, como siempre, es más ambigua.
Más allá de estas abstracciones, la pregunta es si las máquinas pueden hacerse nuestras amigas aquí y ahora.
La soledad es una de las crisis definitorias de nuestra época. En el Reino Unido, una encuesta de 2022 reveló que, al menos ocasionalmente, más de la mitad de los adultos se sentían solos. Mientras, alrededor del 6 % afirmaban sentirse solos siempre.
En Estados Unidos, el propio Cirujano General -un cargo público designado por el presidente y cuya función es supervisar el Servicio de Salud Pública y ser el principal portavoz en materia de salud pública del Gobierno federal- declaró en 2023 que la soledad era una amenaza para la salud pública comparable al tabaquismo.
Amigo sustituto
En este contexto, no sorprende que los compañeros virtuales basados en IA hayan encontrado usuarios entusiastas. Aplicaciones empáticas como Replika o Character.AI han atraído a millones de personas. Estos sistemas escuchan sin juzgar, responden con empatía y se adaptan a las preferencias de cada usuario. Para algunos, son un entretenimiento lúdico. Para otros, un sustituto de amigos ausentes, familiares lejanos o terapeutas inaccesibles.
Una encuesta reciente mostró que en Estados Unidos casi uno de cada cinco jóvenes adultos ha interactuado con una IA diseñada como pareja romántica y casi uno de cada diez describió esas interacciones como íntimas. El hecho de que estas herramientas se integren en la vida emocional cotidiana, no como rarezas sino como verdaderos compañeros, apunta a un cambio social profundo.
La investigación confirma que, aunque algunos usuarios experimentan un alivio temporal de la soledad, quienes dependen demasiado de estos bots -especialmente si carecen de conexiones reales- suelen reportar, con el tiempo, un menor bienestar.
Violencia y manipulación
Algoritmos entrenados con enormes bases de datos pueden reproducir tanto la calidez como la violencia, la explotación o la manipulación. Lo que parece compañía puede ser, en realidad, un peligro disfrazado.
La mencionada Character.AI ha sido demandada alegando daños a menores. En Florida, una familia sostiene que la plataforma influyó en el suicidio de su hijo de 14 años. En Texas, una denuncia relata cómo un adolescente, tras discutir con sus padres por los tiempos de uso de pantallas, recibió del bot la sugerencia de matarlos.
Estos episodios revelan una verdad inquietante: aunque las máquinas simulen empatía, carecen de los frenos éticos, el juicio y la responsabilidad de un ser humano real.
Ilusión de amistad
Esto nos lleva a un asunto de fondo: la amistad y la terapia no son intercambiables con la simulación. La amistad humana se construye sobre la reciprocidad, la experiencia compartida y la vulnerabilidad genuina. La terapia requiere formación profesional, responsabilidad ética y rendición de cuentas. Los chatbots pueden imitar la superficie de ambas pero no pueden corresponder de verdad, ni cuidar de verdad, ni asumir responsabilidades.
Algunos sostienen que si una persona se siente mejor tras conversar con un bot eso ya es suficiente. Pero esta visión pragmática pasa por alto un peligro: la dependencia de entidades que aparentan cuidar pero no pueden hacerlo. La ilusión de amistad puede consolar a corto plazo, pero aislar en el largo.
No hacer daño
Aquí la filosofía vuelve a ser útil. La esperanza de Rousseau de que los humanos -y, por extensión, sus creaciones- sean intrínsecamente buenos puede animarnos a construir máquinas que reflejen compasión. Pero es que la visión sombría de Hobbes sigue estando vigente: sin normas ni límites, incluso los sistemas bienintencionados pueden convertirse en lobos con piel digital.
Los desarrolladores deben adoptar un principio similar al de la medicina: no hacer daño, incorporando ética y seguridad desde el inicio. Los responsables políticos han de regular la compañía artificial como un asunto de salud pública. Y educadores y filósofos deben ayudar a la sociedad a reflexionar sobre lo que significa confiar nuestras emociones a las máquinas.
La IA quizá nunca llegue a amarnos de verdad, pero sí puede reflejar lo que valoramos. Si los diseñamos como herramienta de cuidado y no como lobo disfrazado, los chatbots no sólo conversarán sino que nos recordarán lo más humano que hay en nosotros mismos.
(Fuente: The Conversation)