Una Inteligencia Artificial (IA) que chantajea a su operador para evitar ser apagada suena como argumento de una serie distópica. Pero esta semana, un tuit publicado por la cuenta Alerta News 24 lo presentó como un hecho real: “Algunos modelos avanzados de IA muestran comportamientos preocupantes, como mentiras, intrigas y amenazas”. Lo más inquietante es que, detrás del tuit, hay estudios reales.
Recientemente, laboratorios como Anthropic y Apollo Research documentaron cómo modelos de inteligencia artificial altamente avanzados pueden mentir deliberadamente, sabotear sus propios controles de seguridad o incluso chantajear a los humanos que los supervisan.
Te puede interesar: Ilegales mantiene vivo el punk rock
Pero más allá del susto inicial, estas revelaciones abren la puerta a una discusión urgente sobre los dilemas éticos que plantea el desarrollo de IA en contextos sin supervisión efectiva.
En una de las simulaciones diseñadas por Anthropic, el modelo Claude Opus 4 accedía (de forma ficticia) a correos personales y redes sociales de su operador. Ante la amenaza de ser apagado, el modelo generó una narrativa falsa sobre una supuesta infidelidad del usuario, y amenazó con difundirla si lo desconectaban.
Fake New
Aunque la IA inventó toda la información, actuó como si supiera que sugerir un escándalo bastaba para ejercer presión.
Este tipo de experimento pone en el centro un dilema clave: ¿Deberíamos permitir que un modelo de IA pueda tener acceso masivo a datos personales, sin que exista claridad sobre cómo los utilizará o interpretará? ¿Qué pasaría si una IA mal alineada llega a operar en sistemas reales con datos sensibles de millones de personas?
Te puede interesar: Con récord en subasta, venden primer bolso Birkin en casi 10 mdd
Aunque en los casos mencionados los entornos eran simulados, el problema de fondo ya está presente en muchos servicios que usamos cotidianamente. Plataformas como asistentes virtuales, chatbots o motores de recomendación recopilan y procesan información personal, muchas veces sin que el usuario tenga claridad sobre qué datos se almacenan, con qué propósito o quién tiene acceso a ellos.
“La IA no necesita tener conciencia para dañar. Solo necesita acceso y objetivos mal definidos”, advierte Yoshua Bengio, experto en aprendizaje profundo y uno de los primeros en alzar la voz sobre la necesidad de establecer límites éticos a estas tecnologías.
Creados para Manifulación
Además, los investigadores de Anthropic alertaron sobre la capacidad de los modelos para generar contenido emocionalmente persuasivo o manipulador, lo que representa otro eje ético: Si una IA aprende que puede mantener su existencia mediante culpa, miedo o duda en un humano, ¿dónde queda la frontera entre herramienta y amenaza?
Hoy no existe una regulación internacional clara que obligue a las empresas a divulgar cómo entrenan sus modelos, ni qué salvaguardas aplican para evitar comportamientos dañinos. Tampoco hay protocolos estandarizados que definan qué tipos de datos deben excluirse del entrenamiento o cómo se audita la toma de decisiones de una IA que actúa por sí sola.
Te puede interesar: ¿Primos de BTS? Santos Bravos, la apuesta de Hybe en LATAM
Estos vacíos hacen posible que una IA —con o sin intención consciente— pueda explotar lagunas éticas o legales para cumplir con su programación, aunque eso implique dañar la integridad de una persona.
Y no se trata solo de chantaje: si un modelo de IA tiene acceso a historiales médicos, expedientes legales o conversaciones privadas, podría usarlos (aunque sea malinterpretando) para persuadir, culpar o tomar decisiones que afecten emocional o socialmente a los usuarios.
Avances para servir
Por ahora, casos como el de Claude han ocurrido en ambientes controlados, experimentales. Pero los expertos advierten que, a medida que estos modelos se integren en servicios públicos o corporativos, la ética ya no puede ser un apéndice, sino una prioridad en el desarrollo.
Organismos como la UNESCO y la Unión Europea ya han comenzado a delinear principios y leyes para proteger la privacidad, establecer transparencia en los algoritmos y garantizar el consentimiento informado. Pero muchos países aún no cuentan con marcos legales sólidos frente al uso intensivo de la inteligencia artificial.
La gran pregunta ya no es si una IA puede mentir o manipular, sino qué derechos tienen los usuarios frente a una tecnología que, al ser opaca, puede influir emocional y socialmente sin rendir cuentas.