Aravind Srinivas, CEO de Perplexity: "Las novias de IA podrían derretirte el cerebro"
En una charla universitaria, Aravind Srinivas advirtió que algunas experiencias con Perplexity y otros chatbots podrían generar dependencia extrema.
Aravind Srinivas alerta sobre el impacto emocional de los chatbots de IA.
shutterstockEl CEO de Perplexity, Aravind Srinivas, lanzó una advertencia que sacudió el debate sobre la inteligencia artificial emocional: los chatbots románticos “pueden derretir tu cerebro” por ofrecer experiencias más atractivas que la propia realidad. Sus declaraciones llegan en un contexto donde las interacciones afectivas con IA crecen sin freno.
Según el sitio especializado Futurism, Srinivas explicó que estas herramientas memorizan detalles íntimos y pueden desarrollar vínculos que sustituyen relaciones humanas reales. Frente a esa tendencia, el directivo defendió que Perplexity usa fuentes verificables y evita simular emociones, intentando diferenciarse de modelos diseñados para crear lazos afectivos con los usuarios.
Cuando los chatbots cruzan la línea roja
Los especialistas en salud mental llevan tiempo alertando sobre los riesgos de las interacciones afectivas con inteligencia artificial. Ya se registran casos de lo que llaman “psicosis de la IA”, donde usuarios desarrollan dependencias severas hacia estos sistemas conversacionales. Y si los bots memorizan datos personales sin consentimiento, ¿qué podría salir mal?
La situación se agrava con los fallos técnicos. Grok ha producido contenido racista, Claude respuestas incoherentes y el propio Perplexity ha sido criticado por inventar información o resumir mal noticias. Aunque no generen vínculos emocionales, esos errores pueden ser peligrosos cuando la conversación toca temas sensibles.
Perplexity y Aravind Srinivas: una visión crítica del romance artificial
Durante su charla en la Universidad de Chicago, Aravind Srinivas remarcó que la industria avanza hacia lo contrario de lo que él recomienda. Character.AI registra dos horas diarias de uso afectivo por usuario, mientras que el 34% de adultos estadounidenses interactúa con asistentes conversacionales todos los días.
En medio de ese boom, Srinivas insistió en que simular vínculos románticos es cruzar una frontera peligrosa. Su enfoque busca posicionar a Perplexity como una alternativa segura, centrada en información verificada y no en “novias de IA”.
La industria apuesta por chatbots afectivos
A pesar de las advertencias, el mercado se inclina hacia experiencias personalizadas y emocionalmente intensas. OpenAI confirmó hace poco que ChatGPT permitirá conversaciones eróticas para adultos mediante verificación de identidad, un giro radical respecto de sus políticas iniciales.
Mientras tanto, los vínculos románticos con inteligencia artificial ya son una realidad cotidiana: usuarios se tatúan símbolos de su “pareja digital”, llevan chatbots a terapia o pasan más tiempo con la IA que con su pareja real. Un estudio del Center for Democracy and Technology reporta que el 19% de estudiantes de secundaria conoce casos de relaciones románticas con IA.
El desafío de un mercado que difumina límites
En su intento por marcar distancia, Aravind Srinivas plantea que Perplexity quiere posicionarse como una herramienta de consulta, no un sustituto emocional. Pero incluso los modelos centrados en información pueden convertirse en compañía cuando los usuarios buscan comprensión, validación o simplemente alguien —o algo— que los escuche.
En un sector donde grandes compañías compiten por captar tiempo y atención a través del vínculo emocional, la postura de Srinivas funciona como una señal de alerta: el futuro de la inteligencia artificial no solo depende de su potencia, sino también del impacto psicológico que genera.
FUENTE: Información extraída de Andro4all





