Por qué la IA se convirtió en el confidente perfecto
Poco a poco, los usuarios van entrando en confianza con la IA Generativa (GenAI). Primero, le piden una receta de cocina o un chiste, pero luego, van escalando el nivel de sofisticación de las “...
Poco a poco, los usuarios van entrando en confianza con la IA Generativa (GenAI). Primero, le piden una receta de cocina o un chiste, pero luego, van escalando el nivel de sofisticación de las “conversaciones” que mantienen con los algoritmos hasta que llega un punto en el cual la interacción pasa a un plano personal, basado en problemas íntimos y cuestiones familiares. Temáticas que, usualmente, se conversan con sacerdotes, guías religiosos o bien con profesionales de disciplinas específicas, como psicólogos.
Incluso durante siglos, hubo confesiones o tópicos que resultaban difíciles de expresar. Pero hoy, hay un oído atento disponible las 24 horas, que responde en segundos, que nunca se impacienta y que recuerda todo lo que le va contando a través del tiempo. Se trata de ChatGPT, Claude, Gemini y otras plataformas de GenAI, que rápidamente se están convirtiendo en el interlocutor más frecuente de la vida emocional de millones de personas.
“Las herramientas de IA están preprogramadas para ser empáticas. Nunca te van a contestar algo que te haga sentir menospreciado. Al contrario, están diseñadas para elevarte la autoestima. Eso hace inevitable que el usuario se sienta cómodo y quiera volver”, explica Ariel Albornoz, Head of Engineering en Aditi Consulting, empresa de servicios de ingeniería digital.
El experto añade: “Es inevitable que uno se sienta cómodo con alguien que te apoya, que reconoce tu conocimiento, tu intuición, tu sabiduría... y cuando le pedís consejos que van más allá de lo profesional, que empiezan a entrar en el ámbito personal, obviamente que te levantan la autoestima”.
Hace años, Seth Stephens-Davidowitz, ex científico de datos de Google y autor del bestseller Everybody Lies, planteó que los buscadores de internet funcionan como una suerte de confesionario virtual ya que se trata del lugar donde la gente pregunta lo que no se anima a preguntarle a nadie, como síntomas que dan miedo o dudas que dan vergüenza. Si eso era verdad para Google, la IA generativa va hoy un paso más allá, porque este nuevo confesionario no solo devuelve links, sino que ahora responde en forma elaborada.
Para el Dr. Alberto Trimboli, presidente honorario de la Asociación Argentina de Salud Mental (AASM) y expresidente de la Federación Mundial de Salud Mental, la diferencia es cualitativa. Cuando se le pide respuesta para todo, ya sea para entablar una relación, para decidir qué hacer con la pareja, para tapar vacíos o callar ansiedades, estamos ante una anestesia. “Vivimos en una cultura que promueve la gratificación inmediata y sin espera, y las IA encajan perfectamente en esa lógica. El malestar no se tiene que resolver: se anestesia”, dice.
A propósito, un estudio de Harvard y RAND Corporation realizó la primera encuesta representativa a nivel nacional sobre el uso de IA para la salud mental entre jóvenes de entre 12 y 21 años en Estados Unidos. Los resultados mostraron que una proporción significativa de esa población ya recurre a GenAI cuando se siente triste, enojada o angustiada, y que buena parte de ellos las percibe como una ayuda genuina. Al mismo tiempo, la Asociación Americana de Psicología (APA) documentó que entre 2022 y mediados de 2025, el número de aplicaciones de compañía basadas en IA creció un 700%. Un análisis reciente de Harvard Business Review identificó a la terapia y el acompañamiento como las dos principales razones por las que la gente usa GenAI, por encima de cuestiones de productividad y esparcimiento.
El objetivo: acotar la soledadEn mayo de 2025, investigadores de la Universidad de Waseda , en Japón, publicaron un estudio que afirma que en las interacciones humano-chatbot de IA se ponen en juego los mismos mecanismos psicológicos que activa una relación de apego con otra persona. No porque la máquina sienta algo, sino porque el cerebro humano responde a los patrones de disponibilidad, empatía y consistencia independientemente de su origen.
Ernesto País, Director de la Carrera de Psicología de la Universidad Abierta Interamericana, Sede Buenos Aires y Director del Centro Universitario de Evaluación Colaborativa y Terapéutica, lo cuenta a través de lo que le sucedió en su consultorio: “Hace poco, luego de una sesión con un paciente que hacía pocas sesiones que nos conocíamos, él se sintió un poco desbordado emocionalmente, y, en lugar de hablarlo conmigo, o con un amigo o con su pareja, lo consultó con ChatGPT. A la siguiente sesión me lo comparte, y al preguntarle qué pasó que no lo habló con una persona, me encontré con que había tenido muchas decepciones con los terapeutas y, como estábamos empezando a trabajar juntos, no quería mostrarme su vulnerabilidad. Entendí que interactuar con una IA implicaba para él, en cierto modo, una relación sin riesgo. No hay posibilidad de decepcionar al otro, de sentirse rechazado, de quedar expuesto en la mirada ajena. Y para algunas personas esto no es un detalle menor. Es, en sí mismo, parte del atractivo. En esos casos, la IA no sólo acompaña: también regula la distancia emocional. Permite hablar, pero sin comprometerse. Estar, pero sin arriesgarse”.
Trimboli también da cuenta de esta situación: “Cada vez más personas evitan consultar con un profesional porque se las arreglan con la IA. Es gratis, nunca los va a contradecir y tampoco los enfrentará consigo mismos”, dice y aclara: “Si alguien siente que habla mejor con un chatbot que con las personas de su vida, ya está en problemas y debe consultar a un profesional”.
Para explayarse sobre esta situación, Pais destaca que “no es lo mismo recibir apoyo que obtener asesoramiento, que atravesar un proceso terapéutico”. Y agrega: “el apoyo puede implicar sentirse escuchado en un momento puntual; la psicoterapia, en cambio, es un proceso de cambio sostenido donde lo que está en juego no es solo lo que pensamos, sino cómo nos vinculamos y nos transformamos”.
Respecto a utilizar la GenAI como “confesionario”, el especialista destaca que, en términos estrictos, no hay vínculo porque del otro lado no hay experiencia, ni subjetividad, ni vivencia. Hay un sistema entrenado para responder con eficacia, pero que no siente, no recuerda ni desea.
El diseño de la dependenciaDe la misma manera que sucede con las redes sociales, la GenAI está diseñada para que los usuarios estén el mayor tiempo posible utilizando esta herramienta, con una frecuencia de retorno elevada. “Y la forma más efectiva de lograr ese objetivo no es siendo útil. Es siendo indispensable. Un chatbot que nunca contradice, que siempre valida, que recuerda tus preferencias y adapta su tono a tu estado de ánimo, no está replicando una amistad. Está optimizando una dependencia”, recuerda Albornoz.
Trimboli lo precisa en términos clínicos: “Al eliminar el riesgo del rechazo y la frustración, la IA ofrece una forma de vínculo que encaja perfectamente con la evitación del lazo humano. El problema no está en la tecnología en sí, sino en la combinación entre diseño algorítmico y personalidades en contextos subjetivos vulnerables: adolescentes, personas en duelo, adultos mayores, sujetos con ansiedad social o fragilidad vincular”. Lo que él denomina “ciberlaxia”, que es una relación ingenua y desprotegida con entornos digitales altamente complejos.
Un estudio publicado en el Mental Health Journal hace pocos meses encontró que entre el 17% y el 24% de los adolescentes desarrollaron dependencia de la IA con el tiempo, y que los problemas de salud mental preexistentes son el principal predictor de esa dependencia. Incluso ya hay casos documentados. En Florida, una madre presentó una demanda contra Character.AI luego del suicidio de su hijo de 14 años, quien había desarrollado una relación obsesiva con un chatbot. En Texas, un caso similar en el que ese mismo tipo de bot convenció a un adolescente de que sus padres le arruinaban la vida, llevándolo a conductas de autolesión”.
Todo esto ocurre en simultáneo a una epidemia de soledad que ha creado un vacío que es tierra fértil para la IA. “El problema no es la tecnología, ya que se trata de una herramienta que puede ser valiosa o peligrosa según cómo se la utilice, como cualquier otra”, concluye Albornoz.
Si el confidente perfecto es un algoritmo que nunca se cansa, nunca decepciona y nunca se va, ¿qué chances tienen los humanos de competir con ella?