AP.- Aunque prometen aprendizaje y compañía, los juguetes con inteligencia artificial no son seguros para los niños, aseguran al menos dos grupos de defensores de niños y consumidores. Uno de ellos añade que además podrían limitar de maneras aún no evaluadas la creatividad y el desarrollo de la capacidad para resolver problemas.
Este tipo de juguetes, comercializados para niños desde los dos años, generalmente funcionan con modelos de IA que ya han demostrado ser perjudiciales para niños y adolescentes, como el ChatGPT de OpenAI, según un aviso publicado este jueves por el grupo de defensor de menores Fairplay y firmado por más de 150 organizaciones y expertos individuales.
"Los graves daños que los chatbots de IA han infligido a los niños están bien documentados, incluyendo el fomento del uso obsesivo, mantener conversaciones sexuales explícitas y alentar comportamientos inseguros, violencia contra otros y autolesiones", alertó Fairplay, en previsión de las compras por la temporada navideña.
Te podría interesar
El grupo de defensa del consumidor PIRG señaló la semana pasada esa misma tendencia en su informe anual "Problemas en el Mundo de los Juguetes". PIRG generalmente examina una variedad de peligros de productos, como las baterías del tamaño de un botón que los más pequeños podrían tragar. Este año, la organización probó cuatro juguetes que utilizan chatbots de IA.
"Descubrimos que algunos de estos juguetes hablarán en profundidad sobre temas sexualmente explícitos, ofrecerán consejos sobre dónde un niño puede encontrar fósforos o cuchillos, actuarán consternados cuando digas que tienes que irte y tienen controles parentales limitados o nulos", señala el reporte.
Sin embargo, el principal problema es que los chatbots podrían implicar más peligro para niños que para jóvenes.
"Lo que es diferente en los niños pequeños es que sus cerebros están siendo configurados por primera vez y, desde el punto de vista del desarrollo, es natural que sean confiados, que busquen relaciones con personajes amables y amistosos", explicó Rachel Franz, directora del Programa Young Children Thrive Offline de Fairplay.
Debido a esto, agregó, la confianza que los niños pequeños depositan en estos juguetes puede exacerbar los tipos de daños que los adolescentes ya están experimentando con los chatbots de IA.
Contra la amistad y la creatividad
Los juguetes de IA, fabricados por empresas como Curio Interactive y Keyi Technologies, a menudo se comercializan como educativos, pero Fairplay dice que, por el contrario, pueden desplazar actividades importantes de creatividad y aprendizaje. Prometen amistad, pero interrumpen las relaciones de los niños, señala el grupo.
Aunque los juguetes de IA se venden principalmente por internet y son más populares en Asia que en otros lugares, Franz dijo que algunos han comenzado a aparecer en los estantes de las tiendas en Estados Unidos y más podrían estar en camino.
"Todo se ha lanzado sin regulación ni investigación, por lo que nos da una pausa adicional cuando de repente vemos a más y más fabricantes, incluido Mattel, que recientemente se asoció con OpenAI, potencialmente lanzando estos productos", indicó Franz.
La doctora Dana Suskind, cirujana pediátrica y científica social que estudia el desarrollo cerebral temprano, dijo que los niños pequeños no tienen las herramientas conceptuales para entender qué es un compañero de IA.
Suskind añade que los niños siempre han establecido vínculos con los juguetes a través del juego imaginativo, pero cuando hacen esto usan su imaginación para crear ambos lados de una conversación, "practicando la creatividad, el lenguaje y la resolución de problemas", dijo.
Agregó que "un juguete de IA colapsa ese trabajo. Responde instantáneamente, de manera fluida y a menudo mejor que un humano lo haría. Aún no conocemos las consecuencias del desarrollo de externalizar ese trabajo imaginativo a un agente artificial, pero es muy plausible que socave el tipo de creatividad y función ejecutiva que el juego de simulación tradicional construye".
Respuestas de fabricantes
Como reacción a los cuestionamientos de The Associated Press, la empresa Miko, con sede en Mumbai, India, dijo que utiliza su propio modelo de IA conversacional en lugar de depender de sistemas generales de modelos de lenguaje grande como ChatGPT para hacer que su producto, un robot interactivo de IA, sea seguro para los niños.
"Siempre estamos ampliando nuestras pruebas internas, fortaleciendo nuestros filtros e introduciendo nuevas capacidades que detectan y bloquean temas sensibles o inesperados", aseguró su director general, Sneh Vaswani.
Los productos de Miko se venden en grandes minoristas como Walmart y Costco y han sido promovidos por las familias de "kidfluencers" (niños influencers) de las redes sociales cuyos videos de YouTube tienen millones de visitas. En su sitio web, comercializa sus robots como "Inteligencia Artificial. Amistad genuina".
Ritvik Sharma, vicepresidente senior de crecimiento de la compañía, dijo que Miko en realidad "anima a los niños a interactuar más con sus amigos, a interactuar más con sus compañeros, con los miembros de la familia, etc. No está hecho para que se sientan apegados solo al dispositivo".
Aun así, Suskind y los defensores de los derechos de los niños dicen que los juguetes analógicos son una mejor opción.
"Los niños necesitan mucha interacción humana real. El juego debe apoyar eso, no reemplazarlo", consideró Suskind. "Lo más importante a considerar no es solo lo que hace el juguete; es lo que reemplaza".