ESTILO DE VIDA

Alerta de ciberseguridad global: las fallas en inteligencia artificial crecieron 36.6% en 2025
Martes 10 de Marzo de 2026
VIDA DIGITAL

Alerta de ciberseguridad global: las fallas en inteligencia artificial crecieron 36.6% en 2025

Entre los hallazgos del informe "Fault Lines in the AI Ecosystem" está el crecimiento de vulnerabilidades relacionadas con los modelos de lenguaje, que aumentaron un 80.4%, reflejando la rápida expansión de estas herramientas en entornos empresariales

Un hombre pasa hablando por teléfono frente a un stand de una compañía de IA.Créditos: EFE
Escrito en ESTILO DE VIDA el

EFE.- En 2025 se registraron 2 mil 130 vulnerabilidades vinculadas a la inteligencia artificial (IA), un incremento del 34.6% respecto al año anterior, lo que representa un desafío crítico en la ciberseguridad global.

Según el informe de seguridad "Fault Lines in the AI Ecosystem" (Líneas de falla en el ecosistema de IA), la adopción acelerada de estas nuevas tecnologías está generando que ahora sus errores representen un 4.42 % de todas las fallas de software detectadas a nivel global. 

El análisis, elaborado por TrendAI, advirtió que, si la tendencia continúa, el número de fallas relacionadas con la inteligencia artificial podría ubicarse entre 2 mil 800 y 3 mil 600 casos en 2026, lo que la consolidaría como uno de los principales riesgos dentro del panorama global de ciberseguridad.

Hernan Armbruster, vicepresidente sénior de TrendAI, subrayó la importancia de adoptar estrategias integrales para garantizar la seguridad de los sistemas de IA. 

“La seguridad de la inteligencia artificial debe ser una prioridad estratégica para las organizaciones”, afirmó Armbruster.

Adoptan inteligencia artificial sin supervisión

El informe identificó varias “líneas de falla” donde las vulnerabilidades están aumentando, entre ellas infraestructura expuesta, canales de datos inseguros, vulnerabilidades en modelos y brechas de gobernanza que los adversarios comienzan a explotar con mayor frecuencia.

Los especialistas advirtieron que muchas organizaciones están adoptando herramientas de IA con rapidez para mejorar la productividad, automatizar procesos y fortalecer su competitividad, pero sin una supervisión completa de los sistemas que utilizan.

Un fenómeno preocupante identificado por el estudio es el uso de implementaciones no autorizadas, conocidas como “IA en la sombra”, que carecen de supervisión y controles de seguridad adecuados, lo que incrementa los riesgos de robo de datos y manipulación maliciosa en los modelos de IA.

La IA también potencia a los atacantes  

Aunado a lo anterior, el informe apuntó que los atacantes utilizan herramientas de IA para automatizar el reconocimiento de vulnerabilidades, perfeccionar campañas de "phishing" y escalar operaciones de fraude digital, lo que aumenta la velocidad y sofisticación de los ataques.

“En el entorno actual, los atacantes utilizan la IA para mejorar la precisión y la escalabilidad”, explicó Gene Yoo, director ejecutivo de Resecurity, quien subrayó que las organizaciones deberán responder con defensas igualmente avanzadas.

Entre los hallazgos más alarmantes del informe está el crecimiento de vulnerabilidades en el ecosistema de modelos de lenguaje (LLM, por sus siglas en inglés), que aumentaron un 80.4 % en el último año, reflejando la rápida expansión de estas herramientas en entornos empresariales.

Según el análisis, más del 50% de las vulnerabilidades detectadas en el ecosistema de IA están relacionadas con hardware especializado, como GPU y aceleradores utilizados para entrenar y ejecutar modelos avanzados.

Una agente de los Mossos d'Esquadra (policía catalana) opera la "Sala del Futur" en una demostración de su respuesta a emergencias basada en IA. Barcelona, ??España, el 5 de marzo de 2026. Crédito: Reuters

Este tipo de infraestructura se ha convertido en un objetivo atractivo para atacantes que buscan comprometer sistemas empresariales completos o acceder a grandes volúmenes de datos. 

Mauricio Nanne, director ejecutivo de SISAP, destacó que aprovechar el potencial de la inteligencia artificial requerirá arquitecturas tecnológicas más seguras, talento especializado en ciberseguridad y estrategias proactivas de detección de amenazas. 

“La IA representa una promesa extraordinaria, pero también una responsabilidad significativa”, señaló.