La IA no tiene malicia, pero puede ser “cómplice” de un crimen

Con el prompt adecuado, es posible hacer que una IA nos ayude a cometer un delito. La gobernanza de datos y otras medidas clave pueden ayudar a prevenir estos comportamientos indeseados de los modelos.

17
IA

La IA generativa no puede diferenciar lo que está bien de lo que está mal. Una paradoja inquietante: es capaz de ejecutar lo que le pedimos, sin una comprensión acabada de las intenciones que tenemos por detrás.

Dicho de forma sencilla: si usamos el prompt adecuado (esto es, técnicamente precisos y sin activar alertas de moderación), podemos lograr que nos den indicaciones para cometer un crimen. Por ejemplo, nos puede dar instrucciones sobre cómo vulnerar la seguridad de un banco o de una oficina pública o cómo manipular determinados sistemas críticos, porque para eso fue creada: para predecir la mejor respuesta posible según su entrenamiento, sin cuestionar las implicancias morales o legales.

La ética de la IA es una preocupación social: según un estudio de 2023 de Santa Clara University, al 82% de las personas este tema le ronda en la cabeza y, peor aún, un 55% cree que las empresas de IA no están poniendo mucho esfuerzo para resolver este punto.

En un contexto en que la tecnología es cada vez más protagonista de tareas fundamentales como la gestión de infraestructuras críticas, el mantenimiento de instalaciones y de fábricas, la prevención del fraude bancario o la atención al cliente, entre muchísimas otras, la urgencia de un marco regulatorio se hace presente.

Como la IA, a diferencia de los humanos, no tiene malicia, la única forma de prevenir este tipo de acciones es trabajando sobre las vulnerabilidades.

Hacia un modelo de gobernanza de IA

En principio, sabemos que cuanto más se propaga el uso de la IA, más atractiva se vuelve para los ciberatacantes, que manipulan los datos de entrada y los resultados que producen para exponer información confidencial y llevar a los modelos a comportarse de maneras no deseadas, incluyendo este escenario de “complicidad” en la ejecución de delitos.

Los riesgos parecerían ser aún mayores en el entorno de nube: la empresa especializada en seguridad de la IA Tenable Research detectó este año que más del 70% de las cargas de trabajo en la nube con un paquete de IA instalado presentan una vulnerabilidad crítica, en comparación con el 50% de las cargas de trabajo en la nube sin IA instalada.

La gobernanza de datos es un concepto clave: se trata de un conjunto de políticas, procedimientos y controles diseñados para garantizar que los datos utilizados en todo el ciclo de vida de las soluciones de IA sean de alta calidad, seguros y utilizados de manera ética. La consultora de mercado Gartner, por ejemplo, propicia avanzar con programas AI TrISM (siglas en inglés que significan Gestión de Confianza, Riesgo y Seguridad de la IA) desde la concepción de una solución de IA, en lugar de esperar a que los problemas ocurran para abordarlos. El programa es un marco diseñado para abordar los desafíos críticos asociados con la implementación de tecnologías de inteligencia artificial (IA). Apoya la gobernanza de modelos de IA, la confianza, la equidad, la fiabilidad, la solidez, la eficacia y la protección de datos.

Otra medida para prevenir estas situaciones es la aplicación de filtros contextuales: no basta con bloquear palabras clave. Se necesita comprensión semántica, detección de intención y adaptación dinámica. Por otra parte, es fundamental una auditoría constante del comportamiento de los modelos: una IA que funciona y responde correctamente hoy, podría aprender algo riesgoso mañana.

La IA no sabe, al momento de realizar alguna acción, si la misma es un delito, pero las personas sí. Por eso, una parte muy importante del “factor humano” es tomar todas las medidas necesarias para evitar que esto suceda. En la Argentina, al igual que en muchos de los países de América Latina, la regulación de la inteligencia artificial (IA) se encuentra en desarrollo y no existe aún una legislación especializada.

Autor