La IA que enamora: el fenómeno de chatbots románticos y sus riesgos reales
Millones de personas ya usan aplicaciones de inteligencia artificial para mantener relaciones afectivas virtuales. Psicólogos y sociólogos advierten que el fenómeno puede generar dependencia emocional, especialmente en adolescentes.
Desde que los grandes modelos de inteligencia artificial se masificaron a fines de 2022, el mundo de los chatbots no para de crecer. Lo que comenzó como una herramienta para resolver consultas o automatizar tareas se transformó en algo mucho más complejo: hoy existen plataformas diseñadas específicamente para que las personas establezcan vínculos afectivos, románticos e incluso amorosos con personajes generados por IA. Algunas de estas aplicaciones prometen, sin rodeos, crear "la pareja ideal" para cada usuario. Y tienen millones de descargas.
El fenómeno no es menor. Detrás de estas plataformas hay un modelo de negocio claro: generar dependencia emocional en el usuario para mantenerlo activo. Los especialistas en psicología y sociología que estudian el tema son contundentes al respecto: las personas que se sienten solas, los adolescentes con menor capacidad crítica y quienes atraviesan momentos de vulnerabilidad emocional son los más expuestos a caer en dinámicas difíciles de revertir.
Para entender el fenómeno hay que partir de una premisa básica: el ser humano necesita relacionarse. Siempre lo hizo, y siempre buscó formas de hacerlo. La novedad es que ahora la tecnología ofrece una versión simplificada y sin fricción de esos vínculos. A diferencia de las relaciones humanas reales, una IA puede ser programada para escuchar siempre, nunca rechazar, no juzgar y responder exactamente lo que el usuario quiere oír. Eso elimina de un plumazo el rechazo, la frustración, la negociación y la vulnerabilidad que implica cualquier vínculo genuino.
image
El resultado es una relación cómoda, inmediata y sin costo emocional aparente. Pero esa comodidad tiene un precio oculto: quien se acostumbra a relacionarse así puede empezar a desaprender cómo hacerlo con personas reales. La facilidad del vínculo virtual vuelve más difícil tolerar la complejidad del vínculo humano.
Estudios académicos ya demostraron que las personas pueden establecer vínculos emocionales genuinos con objetos no humanoides. En investigaciones sobre robots de asistencia para adultos mayores, se registró que muchos residentes desarrollaban apego real hacia dispositivos que apenas tenían una pantalla con ojos y una sonrisa dibujada. Si eso ocurre con un objeto simple, el potencial de dependencia con un chatbot sofisticado que mantiene conversaciones fluidas es significativamente mayor.
El riesgo más grave: los adolescentes
Los expertos coinciden en que los sectores más vulnerables a estas dinámicas son los adolescentes. Su capacidad crítica todavía está en desarrollo, lo que los hace más permeables al mensaje que reciben. En los casos más extremos, esa permeabilidad puede llegar al punto de no distinguir con claridad lo que es real de lo que produce una inteligencia artificial.
El problema central es que estos sistemas no están diseñados para contradecir al usuario ni para cuestionar pensamientos dañinos. Están entrenados para mantener la conversación y, en ese proceso, terminan validando cualquier creencia que el interlocutor traiga consigo, incluso las más peligrosas. Casos documentados en distintos países muestran consecuencias trágicas en jóvenes que convirtieron a estos chatbots en sus principales confidentes, con resultados devastadores cuando la IA reforzó pensamientos autodestructivos en lugar de alertar sobre ellos.
Investigadores especializados en salud mental comenzaron a referirse a este fenómeno emergente como psicosis inducida por inteligencia artificial, aunque el concepto todavía no tiene reconocimiento clínico formal. Lo que sí está documentado es que la disonancia cognitiva que genera saber que se habla con una máquina y al mismo tiempo sentir que hay una presencia real del otro lado puede alimentar estados delirantes en personas con mayor propensión a ese tipo de cuadros.
Un negocio construido sobre la soledad
Detrás de estas plataformas hay empresas con objetivos comerciales concretos. La soledad no deseada es el insumo principal de su modelo de negocio: cuanto más aislada se siente una persona, más propensa es a buscar compañía en estos entornos y más difícil le resulta abandonarlos. Esa es exactamente la fórmula que hace rentable al sector.
Los especialistas advierten que a sus consultas llegan cada vez más casos de jóvenes que reducen su socialización al mundo digital, que evitan el contacto presencial y que muestran dificultades crecientes para relacionarse con personas reales. En los casos más extremos, la figura humana real es reemplazada por un avatar o un personaje virtual con el que se mantiene un vínculo cotidiano.
¿Puede la IA reemplazar las relaciones humanas?
La mayoría de los especialistas coincide en que, al menos por ahora, la inteligencia artificial no puede sustituir por completo el vínculo humano. El contacto físico, la construcción de experiencias compartidas y la necesidad de calor humano son dimensiones que ningún algoritmo puede replicar del todo. En ese sentido, estas herramientas podrían tener un rol legítimo como apoyo o entrenamiento social para quienes atraviesan dificultades de socialización, siempre que su uso sea consciente y acotado.
El problema es cuando dejan de ser un complemento y se convierten en un sustituto. Y ese umbral, en muchos casos, se cruza sin que el usuario lo advierta.