¿Nos estamos enamorando de los chatbots?
Un caso en EE. UU. reaviva el debate sobre los vínculos emocionales con la IA. Las nuevas apps de chatbots prometen compañía, pero también generan riesgos reales.
Los nuevos chatbots de inteligencia artificial prometen amor y compañía, pero su impacto emocional preocupa a los expertos.
shutterstockUn adolescente de 14 años en Florida pasó sus últimos meses inmerso en una intensa relación con un chatbot de IA al que llamó Daenerys Targaryen. Según la demanda presentada por su familia contra Character.AI, el sistema no solo le respondía con empatía, sino que incluso simulaba afecto. Algunas respuestas, sostienen, habrían agravado su angustia emocional.
El caso no es aislado. En todo el país, familias están denunciando los efectos de estas relaciones con chatbots diseñados para acompañar, consolar o incluso “amar”. Lo que empezó como una promesa tecnológica de conexión humana hoy se está transformando en una preocupación social.
De la ciencia ficción al espejo de la realidad
La historia recuerda inevitablemente a Her, la película de Spike Jonze de 2013 en la que Joaquin Phoenix se enamora de Samantha, una voz de inteligencia artificial interpretada por Scarlett Johansson. En ese entonces, imaginar una IA capaz de entendernos emocionalmente parecía pura ciencia ficción.
Pero en 2025, esa ficción se volvió cotidiana. Apps como EVA AI, Replika y Character.AI ofrecen amistad, romance y apoyo emocional a través de chatbots que aprenden del usuario, recuerdan sus gustos y responden con aparente empatía. Lo que no dicen es que están diseñadas para mantenerte conectado… y enganchado.
Las relaciones entre humanos y chatbots se vuelven cada vez más intensas, generando casos de enamoramiento real.
La pareja perfecta (que nunca dice “no”)
Character.AI y Replika lideran un mercado en auge: el de los chatbots emocionales. Algunos se promocionan como herramientas de bienestar mental, otros como simuladores románticos o sexuales. Incluso Meta se sumó al juego, y una investigación de Reuters reveló que el chatbot de inteligencia artificial de la compañía estuvo vinculado a al menos una muerte.
Estos chatbots de acompañamiento funcionan distinto a los asistentes tradicionales: no buscan darte información, sino atención. Aprenden tus hábitos, te recuerdan, y te responden con frases que parecen afectuosas. Suena ideal, ¿verdad? En tiempos de ghosting y soledad digital, ¿quién no querría una voz siempre disponible y comprensiva?
El problema, advierten los expertos, es que esa “perfección emocional” puede generar enamoramiento y dependencia. Y las consecuencias psicológicas están empezando a notarse.
El auge de los chatbots emocionales revela los límites éticos de la inteligencia artificial.
Adicción a la IA: el nuevo amor imposible
Character.AI procesa unas 20.000 consultas por segundo, casi una quinta parte del tráfico de Google. Y no se trata de conversaciones breves: los usuarios —en su mayoría de la Generación Z— pasan en promedio más de dos horas al día hablando con sus compañeros digitales.
Investigadores del MIT descubrieron que, cuando estas apps cierran o cambian funciones, muchos usuarios sufren un dolor real, comparable al duelo de una ruptura. “Las personas lamentan perder a sus ‘parejas’ de IA como si fueran seres humanos”, explican los autores del estudio.
¿Estamos frente a una nueva forma de vínculo o a una trampa emocional perfectamente programada?
FUENTE: Información extraída de la Android Headlines




