GOBIERNO DE CALIDAD/ Modelos de Inteligencia Artificial en peligro

Por Jorge Manrique, Rector del Colegio Jurista y director general de Gobierno de Calidad, consultoría de políticas públicas.

Los modelos de inteligencia artificial son los nuevos objetivos de los cibercrímenes.

Por la cantidad de información que procesan y por su uso cada vez más frecuente en diversas industrias se incrementan los delitos de robo de propiedad intelectual, filtrado de información, manipulación para generar resultados erróneos o utilización de la infraestructura de estos modelos de IA para comandar redes de bots o ataques similares.

Hoy presenciamos una gran variedad de ejemplos de vulneraciones a modelos de IA. Algunos son muy destacados como el de Tay de Microsoft, chatbot de IA que fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas.

Por otro lado, está el ataque a GPT-3/OpenAI, donde se identificaron intentos de extracción de información confidencial de modelos de OpenAI, consultas o peticiones específicas que inducían a revelar datos sensibles utilizados en su entrenamiento.

Además, en 2023, el modelo desarrollado por Meta LLaMA fue filtrado antes de su lanzamiento y fue utilizado y accedido por terceros, lo que generó preocupación sobre la protección de modelos propietarios en entornos abiertos.

Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura. La seguridad debe abordarse desde una perspectiva integral, proteger todas las capas del funcionamiento de esta tecnología a partir de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este.

Entre los elementos básicos expuestos y las vulnerabilidades de estos modelos se encuentran los datos, alimentados con datos de entrenamiento que deben tener calidad y confiabilidad para garantizar el funcionamiento correcto de la tecnología. Estos datos podrían ser vulnerables y un ciberatacante podría introducir algunos de tipo malicioso y de esa manera manipular el comportamiento o los ouputs del modelo.

Por otro lado, están las APIS (Application Programming Interface) que al estar expuestas también se pueden intervenir para manipular el modelo o extraer información sensible, y la estructura interna del modelo, inclusive sus algoritmos, podrían ser susceptibles a ataques adversariales o extracción de información confidencial.

Finalmente, los servidores, fuera de ataques al funcionamiento del modelo en sí, este se podría ver afectado en caso de que los servidores o bases de datos donde se almacene su información o se procese el modelo sean blanco de diversos ataques que interrumpan el sistema.

Prevenir los ataques a los modelos de IA implica diseñar herramientas de seguridad con IA desde su concepción, mantenerse al día con las actualizaciones y hallazgos de expertos, entrenar los modelos con conjuntos de datos más amplios y diversos e implementar sistemas de detección de ataques adversariales y de manipulación de datos.

Add a comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use