ESET Latinoamérica advierte que los modelos de IA son objetivos valiosos para los cibercriminales debido a la información sensible que manejan y su creciente importancia en diversas industrias.
Los modelos de inteligencia artificial (IA) se han convertido en activos estratégicos en múltiples industrias, pero también en objetivos cada vez más atractivos para los cibercriminales. Su capacidad para procesar grandes volúmenes de información sensible los vuelve altamente vulnerables. En este contexto, ESET, compañía líder en detección proactiva de amenazas, advierte sobre los principales tipos de ataques que hoy enfrentan estos sistemas.
Entre los riesgos más significativos se encuentran el robo de propiedad intelectual, la filtración o manipulación de información sensible, y el uso malicioso de la infraestructura donde operan los modelos, como servidores comprometidos empleados para controlar redes de bots o lanzar ataques coordinados.
Casos que marcaron un precedente
Algunos incidentes ya han demostrado la magnitud de estos riesgos. Uno de los casos más recordados es el de Tay, el chatbot de Microsoft lanzado en 2016, que fue manipulado por usuarios para replicar mensajes de odio en menos de un día. Otro ejemplo es el de GPT-3 de OpenAI, cuyos modelos fueron blanco de intentos de extracción de información confidencial mediante consultas diseñadas para revelar datos sensibles usados durante su entrenamiento.
También destaca el caso de LLaMA, el modelo de Meta que se filtró en 2023 antes de su lanzamiento oficial. El acceso no autorizado generó preocupación sobre la seguridad de modelos propietarios en entornos abiertos.
Los eslabones débiles del ecosistema IA
Fabiana Ramírez Cuenca, investigadora de seguridad informática de ESET Latinoamérica, enfatiza: “Los ataques dirigidos ya han puesto el foco en los modelos de IA, su funcionamiento e infraestructura. La seguridad debe ser integral, abarcando desde los datos de entrenamiento y la implementación del modelo, hasta las etapas de acceso e interacción.”
Según el equipo de investigación de ESET, estos son los principales elementos vulnerables:
Datos de entrenamiento: si estos son manipulados, pueden alterar el comportamiento del modelo y sus resultados.
APIs: al estar expuestas, pueden ser intervenidas para extraer información o modificar la funcionalidad del modelo.
Algoritmos y lógica interna: susceptibles a ataques adversariales o de extracción.
Servidores: si se ven comprometidos, pueden afectar la operatividad del modelo o convertirse en vehículos para otros ciberataques.
Principales tipos de ataques a modelos de IA
Data Poisoning (Envenenamiento de datos)
Introducción de datos maliciosos en el entrenamiento para alterar el comportamiento del modelo.
Ataques Adversariales
Manipulación casi imperceptible de entradas para inducir errores, como confundir identidades en sistemas de reconocimiento facial.
Control del Modelo y Explotación
Toma de control durante la fase de producción para lanzar ataques como denegación de servicio (DDoS) o comando y control (C&C).
Model Inversion Attack (Inversión de modelo)
Extracción de información sensible a partir de las predicciones del modelo, como la reconstrucción de rostros en sistemas biométricos.
Model Extraction Attack (Extracción de modelo)
Envío de múltiples consultas al modelo para entender su lógica interna y replicarlo sin acceso al código o los datos de entrenamiento.
Ataque de Evasión (Evasion Attack)
Modificación de entradas para evitar la detección de actividades maliciosas, usado en modelos antimalware o antifraude.
Malware en Infraestructuras
Infección de los servidores donde opera el modelo, afectando su funcionamiento o robando información crítica.
Para conocer más sobre ciberseguridad, ESET invita a visitar su portal oficial: welivesecurity.com/es
Además, la compañía recomienda escuchar Conexión Segura, su podcast sobre las últimas novedades del mundo de la seguridad informática. Disponible en Spotify: Conexión Segura en Spotify
Publicar un comentario