En 2025, veremos el surgimiento de sistemas de IA multiagente tanto en ciberataques como en defensa. Los agentes de IA son la siguiente fase de evolución de IA Copilot. Son sistemas autónomos que toman decisiones, ejecutan tareas e interactúan con entornos, a menudo actuando en nombre de los humanos. Estos operan con una mínima intervención humana, se comunican con entidades como otros agentes de IA, bases de datos, sensores, API, aplicaciones, sitios web y correos electrónicos, y se adaptan en función de la retroalimentación.
Los atacantes utilizan estos sistemas para ataques coordinados y difíciles de detectar, mientras que los defensores los emplean para una mejor detección de amenazas, respuesta y colaboración en tiempo real en redes y dispositivos. Los sistemas de IA multiagente pueden defenderse de ataques que se realizan en simultáneo trabajando juntos de manera colaborativa para compartir inteligencia de amenazas en tiempo real y coordinar acciones defensivas para identificar y mitigar ataques de manera más efectiva.
La rápida evolución de la Inteligencia Artificial está destinada a reconfigurar drásticamente el panorama de la ciberseguridad. Como experto en IA y ciberseguridad, preveo varios desarrollos clave que afectarán significativamente nuestro mundo digital. El aumento en el uso de esta tecnología tendrá implicaciones de largo alcance para áreas como el consumo de energía, el desarrollo de software y los marcos éticos y legales. Por supuesto, las tecnologías impulsadas por IA también serán utilizadas como armas por los ciberdelincuentes y los actores de los estados nacionales, creando nuevas y formidables amenazas a la ciberseguridad.
La explosión de la IA
La adopción de tecnologías de este tipo de tecnologías se está acelerando a un ritmo sin precedentes. ChatGPT, por ejemplo, alcanzó los 100 millones de usuarios tan solo 60 días después de su lanzamiento y ahora cuenta con más de 3 mil millones de visitas mensuales. Este crecimiento explosivo no se limita solo a esta plataforma. Otros modelos de IA como Claude, Gemini y Midjourney también están experimentando una adopción generalizada. Para fines de 2024, el 92% de las empresas Fortune 500 habían integrado la IA generativa en sus flujos de trabajo, según el Financial Times. Dimension Market Research predice que para 2033, el mercado global de modelos de lenguaje a gran escala alcanzará los 140.8 mil millones de dólares.
Demandas energéticas e innovación en eficiencia
La proliferación de la IA está ejerciendo una enorme presión sobre los recursos energéticos globales. Los centros de datos, la columna vertebral de las operaciones de la Inteligencia Artificial, se están multiplicando rápidamente. Los centros de datos requieren tierra, energía y agua; tres recursos naturales preciosos que ya están bajo presión sin las demandas adicionales del uso explosivo de la IA. Según McKinsey, su número se duplicó de 3.500 en 2015 a 7.000 en 2024. Mientras que, Deloitte proyecta que el consumo de energía de estos centros se disparará de 508 TWh en 2024 a la asombrosa cifra de 1.580 TWh en 2034, equivalente a todo el consumo anual de energía de la India.
Esta demanda de energía sin precedentes requiere un cambio hacia fuentes de energía más sostenibles y soluciones de refrigeración innovadoras para cargas de trabajo de IA de alta densidad. Aunque se ha logrado mucha innovación en términos de recolección de fuentes de energía alternativas, lo más probable es que se recurra a la energía nuclear para alimentar el aumento del consumo de energía impulsado por esta tecnología.
La propia tecnología informática también se volverá más eficiente con los avances en el diseño de chips y la planificación de la carga de trabajo. Dado que las cargas de trabajo de IA a menudo implican transferencias masivas de datos, innovaciones como las arquitecturas de computación en memoria (CIM) que reducen significativamente la energía necesaria para mover datos. Los chips de memoria de acceso aleatorio (RAM) integran el procesamiento dentro de la propia memoria para eliminar la separación entre las unidades de computación y memoria para mejorar la eficiencia. Estas y otras tecnologías disruptivas surgirán para ayudar a gestionar la creciente capacidad computacional de una manera energéticamente eficiente.
La IA responsable transformará el desarrollo de software
La Inteligencia Artificial está destinada a revolucionar la programación de software. Estamos pasando de las simples herramientas de finalización de código como GitHub Copilot a plataformas de creación de código completo como CursorAI y Replit.com. Si bien este avance promete una mayor productividad, también plantea importantes riesgos de seguridad. Cabe destacar que la IA le da a cualquier cibercriminal la capacidad de generar malware completo a partir de un solo mensaje, marcando así el comienzo de una nueva era en las amenazas cibernéticas.
Esta amenaza impulsará el área de la IA responsable. Este tipo de tecnología se refiere a la práctica de los proveedores de Inteligencia Artificial de construir barandillas para evitar la militarización o el uso dañino de sus grandes modelos de lenguaje (LLM). En este contexto, los desarrolladores de software y los proveedores de seguridad cibernética deben trabajar en equipo para lograr una IA responsable. Los proveedores de seguridad tienen una profunda experiencia en la comprensión de la mentalidad del atacante para simular y predecir nuevas técnicas de ataque. Los evaluadores de penetración, los piratas informáticos de “sombrero blanco” y los “equipos rojos” se dedican a encontrar formas de explotar el software antes de que lo hagan los piratas informáticos, de modo que las vulnerabilidades se puedan proteger de forma proactiva.
Desafíos éticos y regulatorios
A medida que la IA se vuelva más omnipresente, nos enfrentaremos a desafíos éticos y regulatorios cada vez mayores. Ya se prevé que entren en vigor dos leyes importantes en 2025. La Ley de IA de la UE entrará en vigor el 2 de febrero de 2025, con disposiciones adicionales que se implementarán el 2 de agosto. Mientras que, en los EE. UU., se espera que se implemente un nuevo marco regulatorio de IA a través de la Ley de Autorización de Defensa Nacional (NDAA) y otras medidas legislativas, con disposiciones clave que comenzarán a aplicarse a principios de 2025.
El año 2025 promete ser crucial para la IA y la ciberseguridad. Si bien la esta tecnología ofrece oportunidades de avance sin precedentes, también presenta desafíos importantes. Será necesaria una estrecha cooperación entre el sector comercial, los proveedores de software y seguridad, los gobiernos y las fuerzas del orden para garantizar que esta poderosa tecnología de rápido desarrollo no dañe la confianza digital ni nuestro entorno físico. Como profesionales de la ciberseguridad, debemos adelantarnos a estos avances y adaptar nuestras estrategias para aprovechar el poder de la IA y mitigar sus riesgos.






