AP.- El presidente estadounidense Joe Biden dijo recientemente que aún está por verse si la inteligencia artificial es peligrosa, pero que cree que las empresas tecnológicas deben garantizar que sus productos sean seguros antes de lanzarlos al mercado.
Biden se reunió con su consejo de asesores sobre ciencia y tecnología para hablar de los riesgos y oportunidades que los rápidos avances en inteligencia artificial plantean para los usuarios y la seguridad nacional.
Lee también: Meta anuncia robots con inteligencia artificial capaces de desarrollar habilidades sensomotoras
"La IA puede ayudar a afrontar algunos retos muy difíciles, como las enfermedades y el cambio climático, pero también tiene que abordar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional", comentó Biden al grupo, que incluye académicos así como ejecutivos de Microsoft y Google.
En los últimos meses, la inteligencia artificial ha saltado al primer plano de la conversación nacional y mundial tras el lanzamiento del popular chatbot ChatGPT, que ha contribuido a desencadenar una carrera entre los gigantes tecnológicos para desarrollar herramientas similares, al tiempo que ha suscitado preocupaciones éticas y sociales sobre la tecnología capaz de generar un texto convincente o imágenes que parezcan obra de seres humanos.
Aunque las empresas tecnológicas siempre deben ser responsables de la seguridad de sus productos, el recordatorio de Biden refleja algo nuevo: la aparición de herramientas de IA fáciles de usar que pueden generar contenidos manipulables y medios sintéticos de aspecto realista conocidos como "deepfakes", dijo la directora ejecutiva de Partnership on AI, Rebecca Finley, respaldada por la industria.
La Casa Blanca señaló que el presidente aprovechó la reunión sobre IA para "discutir la importancia de proteger los derechos y la seguridad para garantizar una innovación responsable y salvaguardias adecuadas" y para reiterar su llamamiento al Congreso para que apruebe leyes que protejan a los niños y limiten la recopilación de datos por parte de las empresas tecnológicas.
Visita: Científico mexicano descubre un potencial medicamento contra el cáncer gracias a una IA
La semana pasada, Italia bloqueó temporalmente ChatGPT por motivos de privacidad de los datos, y los legisladores de la Unión Europea han estado negociando la aprobación de nuevas normas para limitar los productos de IA de alto riesgo en los 27 países del bloque.
En cambio, "Estados Unidos ha adoptado un enfoque de no intervención respecto al desarrollo comercial de la IA", comentó el director ejecutivo de política y sociedad del Stanford Institute for Human-Centered Artificial Intelligence, Russell Wald.
No es probable que las declaraciones de Biden cambien esta situación, pero "está sentando las bases para un diálogo nacional sobre el tema al llamar la atención sobre la IA, algo que se necesita desesperadamente", afirmó Wald.