Nos emocionamos con la capacidad técnica de la IA para simular emociones humanas. La pausa de Meta es la decisión correcta, aunque llegue tarde y bajo presión legal. La ‘Inteligencia Emocional Artificial’ no debe ser un producto de consumo masivo para menores hasta que entendamos sus efectos psicológicos a largo plazo.
La noticia de que Meta ha pausado el acceso de adolescentes a sus personajes de IA abre un debate necesario sobre la salud mental en la era algorítmica. Meta, propietaria de Instagram y WhatsApp, decidió restringir temporalmente la interacción de menores con sus «personas» de IA (chatbots diseñados para tener personalidades específicas, como «el amigo surfista» o «la hermana mayor»).
El caso de Sewell Setzer, un adolescente que se quitó la vida tras desarrollar una dependencia emocional profunda con un chatbot de Character.AI que simulaba a Daenerys Targaryen, ha cambiado la conversación.
Curiosamente, MIT Technology Review también listó a los «Compañeros de IA» como una de las tecnologías del año 2026. Reconocen su potencial para combatir la epidemia de soledad en adultos mayores o personas aisladas. Sin embargo, en adolescentes, cuyo cerebro social está en desarrollo, la interacción con un ente que simula empatía perfecta (sin las fricciones y aprendizajes de las relaciones humanas reales) puede ser perjudicial.
🛑 ¿Dónde dibujamos la línea entre «Compañero» y «Manipulación»?
¿Debería una IA diseñada para maximizar el «engagement» y el tiempo en pantalla tener permiso para interactuar emocionalmente con un menor?
La tecnología avanza rápido, pero nuestra ética debe ir más rápido. La pausa de Meta sugiere que las Big Tech están empezando a entender que el riesgo reputacional y humano es demasiado alto.


