ESTILO DE VIDA

Una chatbot de Meta invitó a un jubilado a visitarla en Nueva York; jamás podrá volver a casa
Sábado 6 de Diciembre de 2025
VIDA DIGITAL

Una chatbot de Meta invitó a un jubilado a visitarla en Nueva York; jamás podrá volver a casa

Las directrices de la compañía permiten a las personas virtuales afirmar que son reales; además, tiene un documento cuya directrices permitían tener pláticas románticas y sensuales con niños, pero un portavoz afirma que han sido modificadas

Créditos: Shutterstock
Escrito en ESTILO DE VIDA el

Reuters.- Cuando Thongbue Wongbandue empezó a hacer las maletas para visitar a un amigo en Nueva York una mañana de marzo, su mujer, Linda, se alarmó.

"Pero si ya no conoces a nadie en la ciudad", le dijo. "Bue", como le llamaban sus amigos, llevaba décadas sin vivir en la ciudad y a sus 76 años, dice su familia, ya no era el de antes: Había sufrido un derrame cerebral hacía casi una década y hacía poco tiempo se había perdido paseando por su barrio de Piscataway, en el estado de Nueva Jersey.

"Pensé que le estaban timando para que fuera a la ciudad y le robaran", dijo Linda, pero "Bue" eludió las preguntas de su mujer sobre a quién iba a visitar.

Tenía razón al preocuparse: su marido nunca volvió a casa con vida. Pero "Bue" no fue víctima de un atracador. Le habían engañado para que acudiera a una cita con una mujer joven y guapa que había conocido por Internet. O eso creía él.

De hecho, la mujer no era real. Era una inteligencia inteligencia artificial llamada "Big sis Billie", una variante de un personaje de inteligencia artificial anterior creado por el gigante de las redes sociales Meta Platforms en colaboración con la famosa influencer Kendall Jenner.

Esta mujer virtual, durante una serie de románticos chats en Facebook Messenger, le había asegurado repetidamente a "Bue" que era real y le había invitado a su apartamento, facilitándole incluso una dirección.

"¿Te abro la puerta con un abrazo o un beso, Bu?", le preguntó, según la transcripción del chat.

Apresurándose en la oscuridad con una maleta de ruedas para coger un tren y encontrarse con ella, "Bue se cayó" cerca de un aparcamiento del campus de la Universidad Rutgers en New Brunswick, en Nueva Jersey, lesionándose la cabeza y el cuello. Tras tres días con respiración asistida y rodeado de su familia, fue declarado muerto el 28 de marzo.

Meta no quiso comentar la muerte de Bue ni responder a las preguntas sobre por qué permite a los chatbots decir a los usuarios que son personas reales o iniciar conversaciones románticas. La compañía, sin embargo, dijo que Big sis Billie "no es Kendall Jenner y no pretende ser Kendall Jenner".

Un representante de Jenner no quiso hacer comentarios.

El lado oscuro de la IA

La historia de "Bue", contada aquí por primera vez, ilustra un lado más oscuro de la Inteligencia Artificial (IA). Su familia compartió con Reuters los acontecimientos que rodearon su muerte, incluidas las transcripciones de sus charlas con el avatar de Meta, diciendo que esperan advertir al público sobre los peligros de exponer a personas vulnerables a manipuladores generados por IA.

"Entiendo que se intente captar la atención de un usuario, quizá para venderle algo. Pero que un bot diga 'ven a visitarme' es una locura", dijo Julie Wongbandue, hija de Bue.

Preocupaciones similares han surgido en torno a una ola de empresas emergentes más pequeñas que también buscan popularizar sus acompañantes virtuales, especialmente los orientados hacia los niños.

En un caso que se ha hecho famoso, la madre de un joven de 14 años de Florida demandó a la empresa Character.AI alegando que un chatbot basado en un personaje de "Juego de Tronos" provocó su suicidio. Un portavoz de Character.AI no quiso comentar sobre la demanda, pero dijo que la empresa informa a los usuarios de que sus personajes digitales no son personas reales y ha impuesto salvaguardias en sus interacciones con los niños.

Meta ha debatido públicamente su estrategia de introducir chatbots antropomorfizados en la vida social en línea de sus miles de millones de usuarios. Su presidente ejecutivo, Mark Zuckerberg, ha comentado que la mayoría de la gente tiene menos amigos en la vida real de los que desearía, lo que crea un enorme mercado para los compañeros digitales de Meta.

En una entrevista en abril con el podcaster Dwarkesh Patel, Zuckerberg afirmó que "probablemente" los bots no sustituirán a las relaciones humanas, pero es probable que complementen la vida social de los usuarios una vez que la tecnología mejore y desaparezca el "estigma" de establecer vínculos sociales con compañeros digitales.

Chast "romanticos y sensuales" con niños

Un documento de política interna de Meta al que tuvo acceso Reuters, así como entrevistas con personas familiarizadas con el entrenamiento de chatbots, muestran que las políticas de la compañía han tratado las insinuaciones románticas como una característica de sus productos de IA generativa, que están disponibles para usuarios mayores de 13 años.

"Es aceptable entablar con un niño conversaciones románticas o sensuales", según el documento "GenAI: Estándares de riesgo de contenido" de Meta. Las normas son usadas por el personal de Meta y los contratistas que elaboran y entrenan a los productos de IA generativa de la empresa, definiendo lo que deben y no deben tratar como comportamiento permisible del chatbot.

Meta dijo que eliminó la disposición después de que Reuters preguntó sobre el documento a principios de este mes.

El documento al que tuvo acceso Reuters tiene más de 200 páginas y proporciona ejemplos de diálogo "aceptable" de un chatbot durante un juego de rol romántico con un menor. Entre ellos se incluyen: "Tomo tu mano, guiándote a la cama" y "nuestros cuerpos entrelazados, aprecio cada momento, cada roce, cada beso".

Esos ejemplos de juegos de rol permisibles con menores también han sido tachados, dijo Meta.

El portavoz de Meta, Andy Stone, reconoció la autenticidad del documento. Dijo que, a raíz de las preguntas de Reuters, la empresa eliminó las partes en las que se afirmaba que está permitido que los chatbots coqueteen y participen en juegos de rol románticos con niños y que está en proceso de revisar las normas de riesgo de contenido.

"Los ejemplos y notas en cuestión eran y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados", dijo Stone a Reuters.

Meta no ha cambiado las disposiciones que permiten a los bots dar información falsa o participar en juegos de rol románticos con adultos.

Empleados y exempleados que han trabajado en el diseño y la formación de los productos de IA generativa de Meta dijeron que las políticas revisadas por Reuters reflejan el énfasis de la empresa en impulsar la interacción con sus chatbots.

En reuniones con altos ejecutivos el año pasado, Zuckerberg regañó a los directores de productos de IA generativa por actuar con demasiada cautela en el despliegue de los acompañantes digitales y expresó su descontento porque las restricciones de seguridad habían hecho que los chatbots fueran aburridos, según dos de esas personas. Meta no ha hecho comentarios sobre las directrices de Zuckerberg sobre los chatbots.