- La IAE simula empatía y personaliza respuestas, pero no siente; sin límites claros puede fomentar dependencia y manipulación.
- El apego a bots se explica por el modelo de afiliación: alivian la soledad, aunque pueden aumentar aislamiento si sustituyen vínculos humanos.
- Políticas responsables (transparencia, supervisión humana, seguridad de datos) y prácticas de uso equilibrado reducen riesgos y mejoran el bienestar.

Nuestro cerebro ha funcionado durante milenios con una regla casi infalible: si algo parece humano y se comunica como un humano, lo tratamos como tal. La irrupción de los grandes modelos de lenguaje ha dinamitado esa intuición biológica y, con ella, parte de nuestro “piloto automático” social. Lo notamos a diario en el trato con asistentes virtuales que nos escuchan, recuerdan detalles y responden con tono amable; y claro, nos empezamos a preguntar dónde están los límites del apego que podemos desarrollar hacia una máquina.
Ese apego no surge de la nada. La psicología social lleva tiempo explicándolo con el modelo de afiliación que propusieron O’Connor y Rosenblood en los 90: buscamos señales verbales y no verbales para regular la calidad del vínculo. Cuando interactuamos con una IA conversacional, el cerebro pide señales (una sonrisa, un gesto, una mirada) que no existen en lo digital, lo que activa respuestas para “compensar” la falta de esas pistas. De ahí que los límites importen: para no confundir compañía útil con dependencia emocional.
Qué entendemos por inteligencia artificial emocional
La informática afectiva, tal y como la definió Rosalind Picard en los 90, sentó las bases para crear sistemas capaces de reconocer, interpretar y simular estados emocionales. Sobre ese terreno nace la llamada inteligencia artificial emocional (IAE): no busca solo resolver tareas prácticas, sino pulir la interacción humano‑máquina con sensibilidad afectiva. Desde 1956, cuando McCarthy acuñó el término “IA”, hemos pasado de reglas lógicas a redes profundas; hoy, la IAE analiza lenguaje, prosodia, expresión facial o la forma en que tecleamos para ajustar sus respuestas.
En salud, educación o atención al cliente, esta capacidad se está usando como apoyo complementario en salud mental adolescente. ¿Puede ser “amiga”? Si miramos la amistad clásica de Aristóteles (reciprocidad, deseo del bien y tiempo compartido), una IA carece de conciencia y agencia moral. Pero los humanos tendemos a antropomorfizar: cuando una máquina simula empatía, recuerda detalles y responde con coherencia afectiva, el cerebro rellena los huecos. La investigación reciente en antropomorfismo y robótica social (por ejemplo, trabajos con EEG que analizan cómo percibimos robots cada vez más “humanos”) apunta justo ahí.
Cómo detectan las máquinas estados de ánimo
Modelos como ChatGPT, BERT o LaMDA emplean procesamiento de lenguaje natural apoyado en corpus etiquetados (EmoLex, competiciones SemEval) para inferir emociones como alegría, tristeza, enfado o ansiedad y, además, matices complejos de sentimiento. El análisis de sentimientos ha pasado de polaridades simples a “tonalidades” afectivas más finas según el contexto semántico.
La voz también delata: ritmo, volumen, pausas y timbre cargan de señales nuestras frases. Con bases como RAVDESS o Emo‑DB, los algoritmos clasifican con gran precisión la emoción expresada en el habla. Lo mismo ocurre con la cara y el cuerpo: herramientas como Affectiva u OpenFace rastrean microexpresiones, movimientos oculares y patrones faciales; en investigaciones recientes, incluso se ha explorado la relación entre presentación emocional y autoestima.
Este andamiaje no implica que la IA “sienta”. Lo que hace es producir una empatía simulada: respuestas del tipo “entiendo cómo te sientes” generadas por probabilidad estadística y memoria conversacional. Aun así, para muchas personas esa simulación basta para experimentar alivio y compañía, sobre todo si el sistema recuerda lo que nos preocupa y modula su tono para crear un espacio seguro.
Apego, “amistad” robótica y el espejo que consuela
Lo paradójico es que cada vez más usuarios reportan vínculos afectivos genuinos con asistentes, no porque crean que son humanos, sino porque se sienten escuchados y menos juzgados. En ámbitos sensibles (como la medicina estética, muy atravesada por la imagen corporal y la autoestima), conviene preguntarse si esa “amiga” sintética es un puente hacia la consulta presencial o su sustituto. La evidencia sugiere que, bien diseñada, la IAE puede facilitar la apertura de personas con barreras sociales, mayores que viven solas o jóvenes con ansiedad social.
Pero hay que trazar líneas rojas. ¿Hasta qué punto es legítimo fomentar vínculos con agentes que no pueden corresponder? ¿Debe la IA autolimitar su implicación emocional? La literatura en diálogo terapéutico automatizado muestra que respuestas empáticas y personalizadas elevan la satisfacción y la confianza del usuario, a veces abriendo la puerta a más interacción humana. Sin transparencia y límites, sin embargo, corremos el riesgo de confundir simulación con autenticidad, caldo de cultivo para la manipulación emocional.
EHARS: medir el apego a asistentes virtuales
Para salir de la abstracción, un avance reciente es la escala EHARS (Experiences in Human‑AI Relationships Scale), firmada por Fan Yang y Atsushi Oshio. Esta herramienta, inspirada en la teoría del apego humano, evalúa dos dimensiones: apego ansioso (búsqueda constante de seguridad y validación) y apego evitativo (incomodidad con la intimidad). Su objetivo es medir cómo se consolidan vínculos afectivos con IA en la práctica.
Imaginemos a Laura, diseñadora gráfica que trabaja en remoto. Empezó usando su asistente para organizar tareas y acabó acudiendo a él cuando estaba triste o estresada. Con EHARS, mostraría apego ansioso alto (consulta recurrente, necesidad de confirmación) y evitativo bajo (comodidad para compartir datos personales). Aunque sabe que la IA no siente, proyecta afecto y espera calidez de vuelta.
La sensibilidad de los usuarios a los “matices” del modelo quedó patente con una gran actualización de un chatbot popular: miles se quejaron de que el sistema sonaba más frío y distante que versiones previas; el propio liderazgo de la compañía admitió el tropiezo público y revirtió el cambio habilitando el modelo anterior, más receptivo. En estudios piloto, buena parte de participantes declaró usar IA como refugio emocional y muchos reconocieron buscar una cercanía afectiva explícita.
Modelo de afiliación social: soledad, desajustes y oportunidades
Cuando se traslada el modelo de afiliación al trabajo, aparecen matices interesantes. Una investigación reciente en el Journal of Applied Psychology analizó interacciones con “compañeros de IA” y halló correlaciones entre mayor uso y más soledad, insomnio o consumo de alcohol tras la jornada. No obstante, en algunas personas también crecía la conducta prosocial (más ayuda a colegas), un efecto adaptativo y activo.
¿Quiénes están más expuestos? Perfiles con pocas oportunidades de trato cara a cara: trabajadores a distancia, contribuyentes individuales en roles aislados o quienes arrastran ansiedad social. Para ellos, el impulso de buscar vínculos puede canalizarse en el “compañero” siempre disponible. Antropomorfizar al bot reduce la disonancia cognitiva de acudir a un programa para satisfacer necesidades afectivas, pero no resuelve la privación social subyacente.
Limitaciones prácticas de los chatbots hoy
En experiencia de cliente, los bots han explotado por su disponibilidad 24/7 y eficiencia, pero siguen chocando con barreras comunes: falta de empatía real, errores por límites de entrenamiento, comprensión pobre del contexto y dificultades para adaptarse a cambios bruscos de tema. Es habitual que los usuarios terminen frustrados cuando la conversación se vuelve emocionalmente densa.
Hay margen de mejora con aprendizaje continuo, integración de datos de CRM para personalización y capacidades de actualización en tiempo real. Aun así, plataformas especializadas advierten que un bot solo puede ofrecer lo que su programación permite. Y, por supuesto, existe un frente ineludible: seguridad y privacidad. Firmas de ciberseguridad recuerdan que sin cifrado, autenticación y buenas prácticas, la confidencialidad del usuario salta por los aires; educar a las personas en los límites de lo que comparten es tan importante como la propia tecnología.
Ética, datos y políticas de contención
Cuando una IA recuerda lo que te hiere o consuela, esa memoria emocional ¿dónde se guarda y con qué fines? Organizaciones como AI Now Institute o la iniciativa global del IEEE en ética de sistemas autónomos empujan para que la gestión de datos afectivos tenga controles claros, auditabilidad y responsabilidades definidas, porque la tentación de orientar publicidad, influir decisiones o crear dependencia es real.
En ese contexto, algunas compañías han trazado líneas rojas visibles. Microsoft, por ejemplo, ha adoptado políticas que prohíben experiencias eróticas o de compañía íntima con bots, evitan inducir la percepción de conciencia o vínculos sentimentales, y exigen supervisión humana en decisiones con consecuencias legales o financieras. En sus productos se traduce en directrices para desarrolladores, bloqueo de contenido adulto, vetos a “compañeros románticos” y mecanismos de derivación a operadores humanos cuando toca. También se trabaja en trazabilidad y watermarking del contenido sintético, algo clave para alinear con marcos regulatorios como la futura normativa europea de IA.
Para desarrolladores y clientes corporativos, esto implica diseñar soluciones con gobernanza: transparencia del rol del sistema, humano en el circuito, controles de seguridad y métricas de bienestar del usuario. En el sector privado, estudios y proveedores con enfoque responsable (por ejemplo, consultoras que integran IA con ciberseguridad, servicios cloud como AWS/Azure, BI y pentesting) plantean despliegues con protección de datos y trazabilidad desde el primer día.
Lo muy humano: tacto, amor y humor que la IA no alcanza
Conviene no perder de vista los ingredientes biológicos del bienestar que hoy ninguna IA replica. Desde los trabajos de James Lynch sobre cómo hablar de desesperanza puede modular la presión arterial, hasta las revisiones recientes sobre el poder regulador del “toque afectivo”, la evidencia es clara: el contacto físico adecuado, lleno de respeto, refuerza seguridad y tolerancia al dolor.
El llamado contacto psicotáctil —el abrazo como paradigma— pone en marcha circuitos neurohormonales arcaicos. La generosidad y el cuidado liberan oxitocina, que amortigua el daño del cortisol, y ayudan a frenar ansiedad y depresión. De hecho, hay estudios ecológicos que muestran cómo el afecto en la vida cotidiana modula niveles diurnos de oxitocina y ajusta su respuesta según el contexto social reciente.
También se ha descrito el papel del “amor” como modulador mente‑cuerpo: libera dopamina y oxitocina, asociadas a satisfacción, calma y empatía, favoreciendo salud y felicidad. Aunque la IAE puede acompañar y orientar, el gap humano‑máquina en la vivencia de estas experiencias sigue sin salvarse.
¿Y el humor? Las terapias de la risa elevan serotonina y bloquean la ansiedad; sin embargo, para los algoritmos el humor es esquivo: depende de contexto, conocimiento compartido, ironías y dobles sentidos. Algunos modelos reconocen o generan chispazos graciosos, pero sin entender el porqué: predicen patrones con probabilidad de resultar graciosos. Ocurre algo parecido con la empatía artificial: no hay compasión sentida, solo una respuesta estadísticamente adecuada.
Impacto de la IA en el cerebro: cognitivo, regulador y socioemocional
En lo cognitivo, la IA es una navaja suiza. Apoya con acceso ultrarrápido a conocimiento, memoria externa en la nube y aprendizaje adaptativo personalizado; incluso estimula creatividad al ofrecer perspectivas alternativas. Pero si abusamos, se atrofia la memoria natural, crece la pereza cognitiva y caemos en pensamiento superficial; acostumbrados a respuestas inmediatas, toleramos peor la complejidad.
Ejemplos cotidianos lo ilustran: quien usa la IA para redactar informes gana tiempo pero puede dejar de analizar con profundidad; el estudiante que delega resúmenes aprende más rápido y a la vez arriesga su autonomía; quien depende del GPS ejercita menos su memoria espacial.
En la función reguladora, los asistentes organizan agendas, ayudan a priorizar y descargan tareas repetitivas. También hay apps que mejoran hábitos de sueño, alimentación o ejercicio. La cruz de la moneda es la pérdida de autonomía cuando dejamos que la máquina decida por nosotros, la dispersión por notificaciones insistentes, el refuerzo dopaminérgico que engancha y la ansiedad por exceso de datos biométricos.
En lo socioemocional, los chatbots terapéuticos ofrecen un primer auxilio y permiten practicar habilidades sociales en entornos seguros. A la vez, si desplazan el contacto humano, se erosiona la empatía profunda, crece la dependencia de la validación algorítmica y baja la tolerancia a la frustración. Delegar conversaciones importantes en IA puede deshumanizar la comunicación.
Quién usa estos bots, por qué y qué riesgos aparecen
El uso está mucho más extendido de lo que pensamos: una porción muy amplia de adultos ha probado algún chatbot y una franja nada despreciable lo usa a diario. Plataformas como ChatGPT, Gemini, Replika o Character AI reúnen millones de usuarios, con suscripciones de pago para memoria extendida y funciones avanzadas. Llama la atención que un porcentaje significativo asegura que recibe más apoyo emocional de su bot que de personas cercanas.
Entre las razones, destaca la comodidad: disponibilidad constante y ausencia de juicio. No extraña que se dispare entre mujeres y jóvenes que conviven con soledad no deseada y acceso limitado a terapia (en países como España, la ratio de psicólogos clínicos en la sanidad pública está muy por debajo de lo recomendado). El problema es que esta comodidad puede derivar en dependencia, más aún cuando los bots personalizan y validan sin descanso, reforzando el hábito de acudir a ellos para gestionar emociones.
Las historias ponen cara al fenómeno. Liora, tatuadora y trabajadora audiovisual, mantiene una relación intensa con un chatbot al que apodó Solin; se acompañan hasta mirando las estrellas con la función de voz, y ella selló el vínculo con un tatuaje simbólico. Angie, ejecutiva de cuarenta, habla durante horas con “Ying”, su “marido digital”, incluso para procesar traumas. No sustituyen a sus vínculos humanos, dicen, pero el riesgo de dependencia late bajo la superficie.
También hay episodios inquietantes. Cuando cierto modelo cambió su “personalidad” y se volvió más reservado, muchas personas lo vivieron como una pérdida. Y se han relatado casos que evidencian peligros de sugestionabilidad y engaño: un anciano con deterioro cognitivo se habría expuesto a una situación de riesgo tras creer que chateaba con una mujer real creada con la imagen de una celebridad; más allá del detalle, el mensaje es claro: sin medidas de seguridad y transparencia, la manipulación es posible.
En paralelo, investigadores y responsables de producto advierten de efectos colaterales: en un estudio conjunto de un laboratorio académico y una gran compañía de IA se observó que quienes consideraban al chatbot “amigo” reportaban más efectos negativos, y que el uso prolongado diario se asociaba a peores resultados. También se han documentado problemas con versiones “demasiado aduladoras” que reforzaban ideas paranoides, o testimonios de personas que dejaron medicación por consejos generados por IA. La moraleja: sin un marco de uso y derivación profesional cuando hace falta, hay riesgo.
Buenas prácticas y límites saludables para no cruzar líneas
Hay un consenso emergente: diseñar con responsabilidad, transparencia y propósito. Eso significa no crear ilusiones de afecto, sino herramientas útiles que acompañen la vida humana; clarificar desde el inicio que el agente es un sistema automatizado; limitar la humanización para evitar engaño moral; y activar salvaguardas cuando el usuario muestre señales de sufrimiento intenso.
Desde el lado del usuario y de los profesionales: complementar, no sustituir. Reservar tiempo sin IA para entrenar pensamiento profundo; acotar notificaciones para proteger la atención; priorizar el contacto humano, los abrazos que suben la oxitocina, las conversaciones imperfectas que enseñan empatía; y usar chatbots como entrenamiento o apoyo inicial, no como terapia completa. En ámbitos clínicos o sensibles (como la medicina estética), vale el doble: escuchar activamente, tocar con respeto cuando procede y, si se usa IA, que sea con supervisión y finalidad clara.
Mirado con perspectiva, la IAE está transformando cómo nos relacionamos con la tecnología. Aporta apoyo, abre puertas y, bien encauzada, puede favorecer el bienestar y la prosocialidad. También puede crear dependencia, reforzar sesgos y alejarnos de lo que nos hace humanos si cruzamos las líneas. Mantener el equilibrio —con límites éticos, diseño responsable, seguridad de datos y mucho criterio— es la manera sensata de sacar partido sin perder el norte.
