GOBIERNO DE CALIDAD/ Modelos de Inteligencia Artificial en peligro

0
51

Por Jorge Manrique, Rector del Colegio Jurista y director general de Gobierno de Calidad, consultoría de políticas públicas.

Los modelos de inteligencia artificial son los nuevos objetivos de los cibercrímenes.

Por la cantidad de información que procesan y por su uso cada vez más frecuente en diversas industrias se incrementan los delitos de robo de propiedad intelectual, filtrado de información, manipulación para generar resultados erróneos o utilización de la infraestructura de estos modelos de IA para comandar redes de bots o ataques similares.

Hoy presenciamos una gran variedad de ejemplos de vulneraciones a modelos de IA. Algunos son muy destacados como el de Tay de Microsoft, chatbot de IA que fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas.

Por otro lado, está el ataque a GPT-3/OpenAI, donde se identificaron intentos de extracción de información confidencial de modelos de OpenAI, consultas o peticiones específicas que inducían a revelar datos sensibles utilizados en su entrenamiento.

Además, en 2023, el modelo desarrollado por Meta LLaMA fue filtrado antes de su lanzamiento y fue utilizado y accedido por terceros, lo que generó preocupación sobre la protección de modelos propietarios en entornos abiertos.

Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura. La seguridad debe abordarse desde una perspectiva integral, proteger todas las capas del funcionamiento de esta tecnología a partir de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este.

Entre los elementos básicos expuestos y las vulnerabilidades de estos modelos se encuentran los datos, alimentados con datos de entrenamiento que deben tener calidad y confiabilidad para garantizar el funcionamiento correcto de la tecnología. Estos datos podrían ser vulnerables y un ciberatacante podría introducir algunos de tipo malicioso y de esa manera manipular el comportamiento o los ouputs del modelo.

Por otro lado, están las APIS (Application Programming Interface) que al estar expuestas también se pueden intervenir para manipular el modelo o extraer información sensible, y la estructura interna del modelo, inclusive sus algoritmos, podrían ser susceptibles a ataques adversariales o extracción de información confidencial.

Finalmente, los servidores, fuera de ataques al funcionamiento del modelo en sí, este se podría ver afectado en caso de que los servidores o bases de datos donde se almacene su información o se procese el modelo sean blanco de diversos ataques que interrumpan el sistema.

Prevenir los ataques a los modelos de IA implica diseñar herramientas de seguridad con IA desde su concepción, mantenerse al día con las actualizaciones y hallazgos de expertos, entrenar los modelos con conjuntos de datos más amplios y diversos e implementar sistemas de detección de ataques adversariales y de manipulación de datos.