MÉXICO

Basado en hechos reales: cómo te va a afectar la nueva era de la inteligencia artificial
Jueves 21 de Noviembre de 2024

Basado en hechos reales: cómo te va a afectar la nueva era de la inteligencia artificial

Foto: Facebook European Parliament
Escrito en MÉXICO el

Por Enrique Pons Franco

Recientemente, la Unión Europea (UE) se convirtió en la primera región del mundo en promulgar una legislación horizontal sobre inteligencia artificial (IA). Esto respalda, al menos conceptualmente, el compromiso de Europa de garantizar que los derechos y libertades sean fundamentales para el desarrollo de esta innovadora tecnología. Los negociadores del Parlamento Europeo llegaron así a un acuerdo provisional sobre la Ley de Inteligencia Artificial, del que me gustaría hablarte hoy.

No debemos perder de vista que el objetivo de esta legislación es garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental estén protegidos frente a la IA de alto riesgo, fomentando al mismo tiempo la innovación y convirtiendo a Europa en líder en este campo. De igual forma, establece obligaciones para la IA en función de sus riesgos potenciales y el alcance de su impacto.

Entérate: “Riesgos de las libertades informativas en la sociedad abierta”, la obra editada por el INAI que debes leer

Aplicaciones prohibidas

Reconociendo la amenaza potencial a las libertades civiles y la democracia que plantean ciertas aplicaciones de IA, aceptamos prohibir:

  • Sistemas de clasificación biométrica que utilizan características sensibles (p. ej. creencias políticas, religiosas, filosóficas, orientación sexual, raza);
  • Colección no dirigida de imágenes faciales de internet o imágenes de CCTV para crear bases de datos de reconocimiento facial;
  • Reconocimiento o análisis de emociones y sentimientos en el ámbito laboral o educativo;
  • Puntuación social basada en comportamiento o características personales;
  • Sistemas de IA que manipulan el comportamiento para eludir el libre albedrío humano; y
  • Modelos de IA diseñados para explotar las vulnerabilidades de las personas (por edad, discapacidad, estatus social o económico).

Excepción por aplicación de la ley

Los negociadores pueden, sujeto a la aprobación previa de un tribunal y a una lista estrictamente definida de delitos, utilizar sistemas de identificación biométrica (RBI) en espacios públicos accesibles con fines de aplicación de la ley. Se acordó una serie de salvaguardias y excepciones limitadas para su uso. La RBI “post-remota” solo se utilizará para búsquedas dirigidas a personas que han sido condenadas por un delito o que se sospecha que han cometido un delito grave. La RBI “en tiempo real” cumple condiciones estrictas y su uso está limitado en tiempo y espacio para los siguientes propósitos:

  • Búsquedas de víctimas específicas (secuestro, trata de personas, explotación sexual);
  • Prevención de amenazas terroristas; y
  • Combate y prevención de delitos enumerados en las regulaciones (por ejemplo, trata de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos ambientales) para identificar o identificar a una persona sospechosa.

Te puede interesar: Vidas hackeadas: cómo el mal uso de WhatsApp y Facebook terminó en una orden aprehensión

Obligaciones para sistemas de alto riesgo

Para los sistemas de IA clasificados como de alto riesgo (debido a su potencial daño significativo a la salud, seguridad, derechos fundamentales, medio ambiente, democracia y Estado de derecho), se acordaron obligaciones claras. Los eurodiputados lograron incluir una evaluación de impacto obligatoria en derechos fundamentales, entre otros requisitos, aplicable también a los sectores de seguros y banca. Los sistemas de IA utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre sistemas de IA y recibir explicaciones sobre decisiones basadas en sistemas de IA de alto riesgo que afecten sus derechos.

Salvaguardias para sistemas generales de inteligencia artificial

Para tener en cuenta la amplia gama de tareas que pueden realizar los sistemas de IA y la rápida expansión de sus capacidades, se acordó que los sistemas de IA de propósito general (GPAI) y los modelos de GPAI en los que se basan, tendrán que adherirse a los requisitos de transparencia inicialmente propuestos por el Parlamento. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.

Para modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron asegurar obligaciones más estrictas. Si estos modelos cumplen con ciertos criterios, tendrán que realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas adversarias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen normas armonizadas de la UE, los GPAI con riesgo sistémico pueden basarse en códigos de práctica para cumplir con la regulación.

Medidas para apoyar la innovación y las pymes

Los eurodiputados querían asegurarse de que las empresas, especialmente las pymes, puedan desarrollar soluciones de IA sin una presión indebida de los gigantes de la industria que controlan la cadena de valor. Con este fin, el acuerdo promueve los llamados "sandbox" regulatorios y pruebas en el mundo real, establecidos por autoridades nacionales para desarrollar y capacitar IA innovadora antes de su colocación en el mercado.

Lee también: La expulsión de un grupo de WhatsApp que terminó en tribunales

Requisitos de transparencia

Para la IA generativa, como ChatGPT, aunque no se considera de alto riesgo, deberá cumplir con requisitos de transparencia y con la legislación de la UE en materia de derechos de autor. Esto incluye revelar que el contenido ha sido generado por IA, diseñar modelos para evitar la generación de contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para el entrenamiento.

Sanciones y entrada en vigor

Por último, el incumplimiento de las normas puede llevar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7.5 millones o el 1.5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.

Así, en espera que te sea útil esta información, nos leemos la próxima semana. Si te interesa conocer el texto final, escríbeme y con gusto te lo comparto. Mientras tanto, te espero en X, antes Twitter, como @enrique_pons.