ESTILO DE VIDA

Tras suicidio de un adolescente Character.AI eliminará acceso a sus personajes para menores de edad
Miércoles 3 de Diciembre de 2025
INTELIGENCIA ARTIFICIAL

Tras suicidio de un adolescente Character.AI eliminará acceso a sus personajes para menores de edad

La muerte del joven de 14 años que se obsesionó con un chatbot que simulaba ser Daenerys Targaryen, y la consecuente demanda de los padres, motivaron la nueva política de la empresa

Créditos: Shutterstock
Escrito en ESTILO DE VIDA el

EFE.- A partir del 25 de noviembre, los menores de edad no podrán acceder al servicio de chatbots de inteligencia artificial (IA) Character.AI, que tomó esta decisión después del suicidio de un adolescente que se obsesionó con un personaje femenino creado por esta empresa.

Character.AI permiten a los usuarios crear y hablar con personajes específicos con los que pueden mantener conversaciones de cualquier tipo, como romántico o terapéutico. Según un comunicado publicado este miércoles, por lo pronto, se limitará el tiempo de chat de los usuarios menores de 18 años a dos horas al día, antes de impedirles el acceso.

La empresa también anunció que implementará una nueva función de verificación de edad para garantizar que dispongan de una experiencia "adecuada". Además, la compañía creará y financiará un Laboratorio de Seguridad de IA, una organización independiente y sin ánimo de lucro. 

El suceso que motivó el cambio

El año pasado, un estudiante de 14 años radicado en Orlando, Florida, Sewell Setzer III, se suicidó tras pasar semanas hablando con una personalidad creada por esta IA, que simulaba ser Daenerys Targaryen, la reina de los dragones de la serie "Game of Thrones".

De acuerdo con el periódico estadounidense The New York Times, el menor desarrolló un apego emocional a este bot, al que le enviaba mensajes de texto constantemente, e incluso comenzó a alejarse del mundo real.

Setzer confesó al bot haber tenido pensamientos suicidas y le envió un mensaje poco antes de su muerte cuando encontró el teléfono que su madre le había escondido como castigo durante unos días.

La madre de Setzer demandó posteriormente a la empresa desarrolladora de este chatbot, la cual impidió que los menores participaran en conversaciones sexuales con personajes creados con esta tecnología. Según la cadena noticiosa CNBC, de los 20 millones de usuarios activos mensuales con los que cuenta la empresa, el 10% son menores de 18 años.

En septiembre, la Comisión Federal de Comercio de Estados Unidos abrió una investigación sobre Character.AI y otras tecnológicas como Alphabet, Meta y OpenAI sobre el uso de sus inteligencias artificiales por parte de menores de edad.

Recientemente, el director ejecutivo de OpenAI, Sam Altman, anunció que la empresa permitirá a partir de diciembre de este año "contenido erótico" para los usuarios de ChatGPT que verifiquen su edad en la plataforma.