viernes, 31 de mayo de 2024

Los riesgos de usar IA generativa en las empresas: Protege tus secretos

Las compañías que desarrollan sistemas de IA y las que contratan aplicaciones de terceros deben tener en cuenta los riesgos de usar IA generativa en las empresas

2023 fue el año en que la IA generativa se convirtió en mainstream. Miles de empresas y profesionales comenzaron a usar herramientas como ChatGPT, Bing AI, o Copy.ai para agilizar numerosas actividades diarias. La generalización del uso de esta tecnología clave de nuestro tiempo sacó a la luz los riesgos de usar IA generativa en las empresas, como puede ser la exfiltración de información de negocio o el robo de propiedad intelectual e industrial.

Si bien la Inteligencia Artificial abre un gran abanico de oportunidades a la hora de fortalecer la postura de ciberseguridad de las compañías, también trae consigo una serie de riesgos, como puede ser el uso de las IA generativas para perfeccionar campañas de ingeniería social o automatizar ataques de malware.

A todo ello debemos sumar los riesgos de usar IA generativa en las empresas de manera legítima, pero insegura. ¿Cómo? Por ejemplo, empleando una herramienta como ChatGPT para comprobar que el código fuente de una aplicación no presenta errores, como le sucedió a Samsung, una de las grandes compañías globales en el desarrollo de tecnología.

Como consecuencia de esta práctica insegura, el código pasó a formar parte de los datos de entrenamiento del sistema de IA y a almacenarse en los servidores de la compañía que lo ha desarrollado, OpenAI.

¿Qué sucedería si un actor malicioso lanzara un ataque exitoso contra ChatGPT o contra los servidores de OpenAI? Samsung limitó de manera inmediata el uso de estos sistemas para que la realidad no respondiera a esta pregunta en forma de incidente de seguridad.

A continuación, vamos a abordar algunos de los riesgos de usar IA generativa en las empresas, así como el papel que juega la ciberseguridad a la hora de permitir a las compañías sacarle partido a esta tecnología de manera segura.

1. Las consecuencias de los ataques contra los modelos de Inteligencia Artificial

Los ataques de cadena de suministro de software se han convertido en una de las tendencias más preocupantes en materia de ciberseguridad. Y lo mismo puede decirse de los riesgos de seguridad de la IA, que incluyen tanto las acciones maliciosas contra estos sistemas, como el uso de aplicaciones de IA para optimizar las técnicas, tácticas y procedimientos de los delincuentes.

Atacar a modelos de IA empleados por cientos de empresas hibrida ambas amenazas. De tal forma que los ataques contra los sistemas de Inteligencia Artificial no solo pueden afectar a las compañías que los desarrollan, sino también a aquellas que usan modelos de terceros.

1.1. Revelación de secretos y propiedad intelectual

¿Por qué es peligroso introducir secretos empresariales e información ligada a la propiedad intelectual e industrial de una empresa a través de un prompt en un sistema de IA?

Los actores maliciosos pueden poner en marcha ataques como:

  • Inferencia de pertenencia. Los delincuentes realizan un registro de datos y un acceso de caja negra al modelo atacado, con el objetivo de conocer si un registro concreto formaba parte del grupo de datos de entrenamiento del modelo o no. Mediante esta tipología de ataque se puede obtener información confidencial y especialmente sensible sobre las empresas y los ciudadanos.
  • Inversión del modelo o reconstrucción de los datos. Uno de los ataques más sofisticados contra modelos de IA consiste en la inversión de los propios modelos. ¿Cómo? A través de la interacción con el modelo, los actores maliciosos pueden estimar sus datos de entrenamiento y, así, vulnerar la confidencialidad y privacidad de la información.

El coste económico y la pérdida de ventaja competitiva asociados a la sustracción de propiedad intelectual son muy elevados y pueden dañar seriamente a la posición de una compañía en el mercado.

1.2. Exfiltración de datos empresariales e información sobre los clientes

Otro de los grandes riesgos de usar IA generativa en las empresas es la posibilidad de que los actores maliciosos obtengan datos confidenciales sobre las propias compañías o sobre sus clientes, trabajadores o socios.

Al igual que sucede con la propiedad intelectual e industrial, si se ejecutan prompts que contienen datos sobre clientes o sobre cuestiones estratégicas de las empresas en una aplicación de IA, los delincuentes pueden realizar ataques de inferencia de pertenencia o inversión del modelo para conseguir la información.

Asimismo, debemos tener en cuenta que, tanto en lo relativo al robo de propiedad intelectual, como en lo que respecta a la exfiltración de información confidencial, existe la posibilidad de atacar a los servidores en los que se almacenan los datos de los sistemas de IA.


1.3. Comisión de errores por el funcionamiento anómalo de los sistemas de IA

Desde que ChatGPT se convirtió en una herramienta popular en el seno de la opinión pública, no pocas personas han intentado probar los límites de las IA generativas, para encontrar, por ejemplo, fallos en su razonamiento lógico.

En algunos casos más extremos, los usuarios han detectado comportamientos anómalos de sistemas como Bing AI, hasta el punto de que la IA afirmaba haber espiado a los trabajadores de Microsoft a través de las webcams de sus portátiles.

A estas incidencias debemos sumar las consecuencias de ataques contra los modelos que buscan menoscabar su funcionamiento:

  • Envenenamiento de datos. Los atacantes sabotean un sistema de IA modificando los datos que emplea para entrenarse.
  • Manipulación de los inputs. Otra clase de ataque que se puede poner en marcha contra un modelo de IA consiste en la manipulación de los datos de entrada del sistema. ¿Cómo? A través de la inyección de prompts.
  • Ataque de cadena de suministro, corrompiendo un modelo base que es empleado por otros sistemas de IA para llevar a cabo un aprendizaje por transferencia.

1.4. Problemas legales relacionados con la protección de datos

Desde la aprobación del Reglamento General de Protección de Datos (RGPD), en la Unión Europea existe una normativa garantista en lo que respecta a la protección de la privacidad de los datos de las personas.

Si una empresa revela información sobre sus clientes, trabajadores, proveedores o socios comerciales a una IA generativa propiedad de otra empresa puede estar vulnerando la normativa en vigor.

Además, si un modelo de IA es atacado con éxito, puede provocar la exfiltración de datos privados, lo que puede acarrear consecuencias legales, multas por infringir las normas europeas y dañar la credibilidad de la compañía cuyos profesionales facilitaron información privada a la IA atacada.

2. ¿Qué están haciendo las compañías para mitigar los riesgos de usar IA generativas en las empresas?

Tras hacerse público que hasta tres trabajadores de Samsung habían revelado propiedad intelectual patentada a ChatGPT, así como datos empresariales confidenciales, numerosas compañías actuaron de manera inmediata para limitar o prohibir el uso de IA desarrolladas y gestionadas por terceros, a la vez que aceleraron el diseño de modelos propios.

2.1. Limitar o prohibir el uso de Inteligencias Artificiales

Grandes compañías tecnológicas como Apple o Amazon, entidades financieras globales como JPMorgan, Goldman Sachs o Deutsche Bank, empresas de telecomunicaciones como Verizon, y organizaciones del sector del retail como Walmart implementaron el año pasado protocolos para limitar el uso de IA generativas por parte de sus empleados.

El objetivo de estas políticas internas es mitigar los riesgos de usar IA generativas en las empresas por la vía rápida. Es decir, a través de la restricción y no mediante la formación y la concienciación sobre los riesgos de usar IA generativas en las empresas de manera inadecuada.

En este sentido, las grandes compañías mundiales siguen la senda trazada por muchas instituciones educativas de optar por prohibir el uso de aplicaciones basadas en modelos de lenguaje natural para evitar que los alumnos las empleasen, por ejemplo, para elaborar trabajos.


2.2. Desarrollar modelos de lenguaje propios

A su vez, las empresas de mayor tamaño y con un nivel de desarrollo tecnológico más elevado han apostado por diseñar sus propios sistemas de IA para uso interno.

En estos casos, ¿la información confidencial que se introduce en la aplicación de IA está 100% segura? Como resulta evidente, estos datos estarán protegidos en la misma manera en que lo esté el propio sistema de IA. De hecho, las empresas deben pasar a considerar la arquitectura de la IA como una nueva superficie de ataque y poner en marcha controles de seguridad específicos para proteger los datos de los modelos de lenguaje.

¿Cuáles son los aspectos esenciales que tienen que tener en cuenta las empresas que desarrollan sus propios sistemas de IA?

  • Resulta fundamental auditar el código de la IA para detectar errores o vulnerabilidades presentes en él y proceder a mitigarlos, así como implementar prácticas de desarrollo seguras.
  • Securizar la cadena de suministro de la IA:
    • Realizar un control exhaustivo de todas las cadenas de suministro de una IA (datos, modelos…).
    • Confeccionar y actualizar una lista de materiales de software (SBOM) en la que se incluyan los componentes, dependencias y datos de las aplicaciones de IA.
    • Auditar a los proveedores tecnológicos.

3. Servicios de ciberseguridad para minimizar los riesgos de usar IA generativa en las empresas

A la luz de los riesgos de usar IA generativa en las empresas que hemos ido desgranando, muchos directivos y profesionales se estarán preguntando: ¿Qué podemos hacer para protegernos frente a los ciberataques contra los modelos de IA y reducir los riesgos de usar IA generativa en las empresas?

Tanto las empresas que desarrollan IA como aquellas que usan sistemas diseñados por terceros deben adaptar sus estrategias de seguridad para incluir estas amenazas y disponer de servicios de ciberseguridad integrales que les permitan prevenir los riesgos, detectar las amenazas y responder ante los ataques.

3.1. Desde el desarrollo seguro hasta la respuesta a incidentes

  • Realizar un desarrollo seguro de los sistemas de IA desde el diseño y a lo largo de su ciclo de vida. ¿Cómo?
    • Efectuando modelados de amenazas.
    • Implementando prácticas de codificación seguras.
    • Realizando auditorías de código fuente.
    • Llevando a cabo de manera continua pruebas de seguridad como DAST, SCA o SCS.
  • Asegurarse de que las IA son capaces de detectar ataques y rechazar ejecuciones del prompt. Por ejemplo, mediante un ataque se ha podido demostrar que es posible inducir comportamientos no deseados en aplicaciones como ChatGPT o Gemini. ¿Cómo? Usando ASCII art para introducir en los modelos prompts que no se pueden interpretar solo semánticamente. ¿Cómo se puede evitar? Realizando fine-tuning y formando a agentes para que detecten este tipo de prácticas hostiles.
  • Gestionar las vulnerabilidades y detectar las vulnerabilidades emergentes para mitigar los riesgos antes de que se produzca un ataque, incluyendo las cadenas de suministro de las IA.
  • Diseñar y ejecutar escenarios de Red Team específicos sobre ataques contra sistemas de IA.
  • Disponer de un servicio de respuesta a incidentes proactivo que pueda actuar con la máxima celeridad para contener un ataque.
  • Implementar programas de formación y concienciación sobre el uso de la IA generativa con fines profesionales y empresariales para que los trabajadores puedan emplear esta tecnología sin exponer información crítica.

En definitiva, la Inteligencia Artificial ya es esencial en el día a día de numerosas compañías. Los riesgos de usar IA generativa en las empresas son evidentes, pero pueden afrontarse con éxito diseñando una estrategia de ciberseguridad integral que permita detectarlos y mitigarlos para que las compañías puedan beneficiarse de las ventajas de esta tecnología disruptiva de manera segura.

miércoles, 29 de mayo de 2024

11 términos que explican los principales pilares de la IA

Estos términos son esenciales para que usted comprenda los conceptos fundamentales de la IA;

El término «IA» se utiliza en informática desde 1950, pero no se popularizó hasta finales de 2022. Fuera de la industria, la gente ha comenzado a adquirir una comprensión básica de la tecnología y a comprender cómo el lenguaje natural facilita la interacción con las computadoras.

Conceptos como “prompts” y “machine learning” ya permean las conversaciones cotidianas. Pero a medida que la IA continúa evolucionando, surgen nuevos conceptos y es importante comprender sus principios para estar al tanto de todo.

APRENDIZAJE AUTOMÁTICO

El aprendizaje automático es un campo de la inteligencia artificial que permite resolver problemas y realizar tareas utilizando patrones aprendidos a partir de datos ejecutados. Estos datos, con diferentes entradas y feedback del usuario, hacen que la máquina dé sentido a la información de un modo similar al razonamiento humano, aprendiendo y mejorando su rendimiento con el tiempo.

El sistema utiliza estos patrones y parámetros aprendidos para determinar el valor de cada uno de los factores y, así, influir en los resultados. Así, es capaz de realizar acciones de forma “autónoma”, lo que ha revolucionado varios sectores de la industria.

Por ejemplo, cuando compras en línea, el aprendizaje automático ayuda a recomendar otros productos que podrían interesarte en función de lo que ya has comprado. Cuando el robot aspirador aspira una habitación, el aprendizaje automático le ayuda a decidir si el trabajo está realizado.

MODELOS DE LENGUAJE GRANDES (LLM)

Los modelos de lenguaje grande, o LLM, utilizan técnicas de aprendizaje automático para comprender grandes conjuntos de datos textuales con el fin de generar respuestas cada vez más naturales y coherentes; Son capaces de comprender los contextos y la semántica de las oraciones.

El ejemplo más conocido de LLM es ChatGPT, con el que los usuarios pueden “chatear” o pedirles que realicen tareas relacionadas con el lenguaje.

Con el avance de esta tecnología, la IA ha interactuado de forma más intuitiva e inteligente con los seres humanos, abriendo puertas a multitud de aplicaciones en diferentes áreas, como asistentes virtuales, traducción automática, análisis de sentimientos, y más.

PEQUEÑOS MODELOS DE LENGUAJE (PEQUEÑOS MODELOS DE LENGUAJE)

Los modelos de lenguaje pequeños, o SLM, son “versiones de bolsillo” de modelos de lenguaje grandes. Mientras que los LLM tienen una dimensión mayor, los SLM se entrenan en conjuntos de datos más pequeños y seleccionados con menos parámetros, como es el caso de Phi-3 de Microsoft.

Más compactos, se pueden utilizar sin conexión, están diseñados para desempeñarse bien en tareas más sencillas, por lo que son más accesibles y fáciles de usar. Excelentes para aplicaciones de dispositivos, también se pueden ajustar para satisfacer necesidades específicas.

IA GENERATIVA

La IA generativa es un enfoque de la inteligencia artificial que se basa en la capacidad de los grandes modelos de lenguaje para crear nuevas cosas, imágenes, textos o cualquier otra información a partir de un conjunto de datos de entrada.

A diferencia de la inteligencia artificial convencional, que se basa en reglas predeterminadas, la IA generativa aprende patrones y estructuras, pero crea contenido original y se puede aplicar en varias áreas, como el arte, la producción musical, la generación de textos y poemas, imágenes,en la industria, optimizando la eficiencia operativa.

ALUCINACIONES

La IA generativa en constante evolución puede mejorar las experiencias de los clientes, brindar condiciones más favorables para los equipos y la comunicación, extraer datos en tiempo real y responder preguntas. Pero a veces la tecnología tiene dificultades para separar los hechos de la ficción o funciona con datos obsoletos. Por lo tanto, sus respuestas terminan siendo imprecisas, llamadas alucinaciones.  

Los programadores trabajan para ayudar a la IA a interactuar con el mundo real con precisión a través de un proceso llamado conexión a tierra, que es cuando conectan y anclan el modelo a ejemplos tangibles para mejorar los resultados, haciéndolos más contextualizados, relevantes y personalizados.

IA RESPONSABLE

EL IA responsable es un conjunto de reglas que ayudan a las empresas a garantizar que están desarrollando e implementando tecnologías de IA de una manera consistente con los principios, en todos los niveles.

Una gran parte de la IA responsable implica comprender los datos que se han utilizado para entrenar sistemas para encontrar formas de mitigar errores, deficiencias y daños que puedan tener en la sociedad.

MODELOS MULTIMODALES

Los modelos multimodales pueden procesar una amplia variedad de entradas, incluidos texto, imágenes y audio, convirtiéndolos en datos con múltiples salidas. Por ejemplo, puedes enviarle a la modelo una foto de un plato de pasta y pedirle que te muestre una receta.

Es una multitarea que tiene un enorme potencial para el desarrollo de nuevos productos y servicios, ya que a diferencia de la IA tradicional, tiene la capacidad de procesar e interpretar diversos tipos de datos.

PROMPT

Como ya hemos dicho aquí Los “prompts” son comandos, básicamente frases o preguntas esenciales que sirven como estímulo para que un modelo de IA genere respuestas.

Es como pedir en una panadería: no pides simplemente un sándwich en el mostrador, sino que especificas el relleno, el tipo de pan, el queso, para obtener el resultado deseado. Así que cuanto mejor sea tu capacidad para dar instrucciones a la IA mediante indicaciones Cuanto mejor sea la ayuda que recibirás.

MEMORIA IA

Los modelos de IA actuales técnicamente no tienen memoria, pero los programas pueden tener instrucciones orquestadas que los ayuden a “recordar” información, siguiendo pasos específicos en cada transacción; es como almacenar temporalmente preguntas y respuestas anteriores en un chat y luego incluir ese contexto en la solicitud actual.

COPILOT

Con el desarrollo de grandes modelos de lenguaje, el copiloto comprende el lenguaje humano y proporciona respuestas, crea contenido o actúa de manera responsable,Optimización de procesos de negocio.plug-ins,

Un copiloto es como un asistente personal que trabaja junto con múltiples aplicaciones digitales y ayuda con tareas como escribir un artículo, resumir una conversación por correo electrónico, obtener información importante en reuniones de seguimiento y reducir la carga cognitiva de un usuario.

Con Copilot en Microsoft 365, integrado en varios servicios del gigante del software, la herramienta analiza todo el universo de datos (todos sus correos electrónicos, reuniones, chats, documentos y más, además de la web) para resolver los problemas más complejos en el trabajo.

Plug-ins

Los plug-ins son herramientas complementarias desarrolladas específicamente para el modelo de lenguaje, sin necesidad de modificarlos, ampliando sus funcionalidades.

Son los que permiten a Copilot interactuar con otro software y servicios, es decir, “hablar” con otros programas. Los complementos de IA se pueden usar para ampliar Microsoft Copilot o usarse dentro de un Copilot personalizado como una acción.

Con Microsoft Copilot Studio, puede crear un complemento conversacional integrado que le permita ampliar el comportamiento de su aplicación; por ejemplo, un complemento de transmisión Automatizar la potenciaque utiliza la información de contacto de clientes potenciales proporcionada por el usuario, puede ayudar a los usuarios a obtener información sobre las próximas acciones de ventas.

jueves, 16 de mayo de 2024

¿Cómo será el futuro de la IA y la ciberseguridad?

La relación entre la IA y la ciberseguridad será esencial para proteger a las compañías y las instituciones frente a ciberataques cada vez más sofisticados y peligrosos

El 11 de mayo de 1997, la supercomputadora Deep Blue II venció a Garri Kaspárov, el campeón del mundo de ajedrez, en la sexta y última partida de un duelo que marcó un antes y un después en la relación entre los seres humanos y la tecnología. Los ingenieros de IBM que desarrollaron Deep Blue II demostraron, por primera vez en la historia, que las máquinas podían ser más inteligentes que una de las mentes humanas más prodigiosas de la historia.

Más de 26 años después, la Inteligencia Artificial y la robotización son piezas clave en numerosos sectores productivos (desde la automoción hasta el sector financiero) y la relación entre la IA y la ciberseguridad está llamada a marcar el futuro inmediato de nuestras sociedades. ¿Por qué?

Por un lado, la digitalización de las empresas y los hogares ha traído consigo que la superficie de ataque al alcance de los ciberdelincuentes es prácticamente infinita. Como consecuencia de ello, los ciberataques no solo crecen en número, sino también en nivel de complejidad e impacto.

Por otro, los sistemas de IA están proliferando y perfeccionándose a marchas forzadas. Su potencial para transformar nuestra forma de vivir, trabajar, hacer negocios o comunicarnos es mayúsculo y está fuera, ya, de toda duda. Cuanto mayor sea su relevancia e implementación en todos los ámbitos de la economía y la sociedad, más plausible será que los delincuentes:

  • Emplean IA para realizar ataques.
  • Pongan en marcha ataques contra los propios sistemas de IA.

A continuación, vamos a repasar el impacto de la Inteligencia Artificial en el terreno de la ciberseguridad y, a partir de ahí, realizar un ejercicio prospectivo y explorar hacia dónde puede evolucionar el futuro de la IA y la ciberseguridad y cuál será su relevancia para las empresas, las administraciones y la sociedad.

1. El auge de los sistemas UEBA

A la hora de abordar la relación entre la IA y la ciberseguridad debemos poner el foco en una solución que combina los dos ámbitos y que ha experimentado un boom en el último lustro. Estamos hablando de los sistemas User and Entity Behavior Analytics (UEBA) que, como su nombre indica, analizan el comportamiento de usuarios y entidades. ¿Con qué fin? Proteger a los sistemas de compañías o instituciones.

¿Cómo funcionan los sistemas UEBA? Usan Machine Learning para analizar grandes volúmenes de datos para analizar el comportamiento de los usuarios, pero también de entidades (como servidores o enrutadores), de cara a establecer cuál es su comportamiento habitual u ordinario a través del modelado.

Una vez que se modelan los comportamientos «normales» y se fijan como los comportamientos de referencia, se emplean las mismas herramientas de Machine Learning y análisis de datos para identificar comportamientos que se desvíen de los habituales y que podrían resultar sospechosos. De tal manera que se puedan optimizar al máximo los mecanismos de detección de eventos que afecten a la ciberseguridad de los activos de una empresa o una institución.

Además, gracias a los sistemas UEBA no solo se pueden detectar amenazas tanto internas como externas, sino que son útiles a la hora de hacer un seguimiento de cualquier evento potencialmente peligroso y facilitan las labores de respuesta ante incidentes de seguridad.

Por todo ello, se han convertido en una herramienta útil para los profesionales que gestionan las capacidades defensivas de las compañías y las instituciones.

2. La IA y la ciberseguridad hoy

Los sistemas UEBA evidencian de una manera gráfica que la ciberseguridad es uno de los ámbitos pioneros en el uso de la Inteligencia Artificial. De hecho, los modelos de IA ya se emplean para optimizar servicios de ciberseguridad fundamentales a la hora de proteger los activos de las empresas:

  • Realización de test de intrusión avanzados
  • Servicios de Red Team
  • Test de ingeniería social
  • Pruebas de seguridad: DAST, SAST, SCA…
  • Gestión de vulnerabilidades
  • Detección de vulnerabilidades emergentes
  • Gestión del riesgo dinámico y priorización de amenazas
  • Servicios de Threat Hunting
  • Respuesta a incidentes

Al igual que resulta innegable que la IA plantea una serie de desafíos a los expertos en ciberseguridad, también resulta evidente que esta tecnología disruptiva puede ser fundamental para el sector.

¿Qué podemos esperar del futuro? Que se desarrollen nuevos sistemas de Inteligencia Artificial más potentes y que permitan a los profesionales de la ciberseguridad optimizar la prevención, mitigación, detección, respuesta y recuperación frente a los incidentes de seguridad. ¿Cómo? Utilizando el conocimiento generado por las IA para diseñar tácticas, técnicas y procedimientos nuevos que permitan a los equipos de seguridad anticiparse a los delincuentes y mejorar la resiliencia de los sistemas de las empresas y las administraciones.


3. Aprender nuevas estrategias para ganarle la partida a los malos

¿Cómo fue capaz Deep Blue II de vencer a Kaspárov? Porque los ingenieros de IBM le habían enseñada 700.000 partidas de ajedrez disputadas a lo largo de la historia.

Sin embargo, las Inteligencias Artificiales hoy en día son capaces de ir más allá. No solo se limitan a aprender a partir del conocimiento generado por la humanidad, sino que pueden auto-aprender.

Por ejemplo, Inteligencias Artificiales como Alpha Zero son capaces de aprender estrategias para jugar al ajedrez, pero también a otros juegos similares como el Go, sin necesidad de procesar partidas anteriores. ¿Cómo? Compitiendo contra sí mismas. De tal forma que pueden desarrollar estrategias de juego que:

  • Son capaces de batir las mejores estrategias concebidas por las personas a lo largo de los siglos.
  • Ponen en evidencia las limitaciones creativas de las personas y cuestionan algunos postulados clásicos. Por ejemplo, en el ajedrez o en el Go hay determinadas salidas o jugadas que los expertos han considerado que son erróneas o dan pobres resultados. Y, sin embargo, las IA las han usado con éxito.

3.1. Ser más imaginativos que los delincuentes

¿Cómo se traslada esto a la relación entre la IA y la ciberseguridad? En el futuro próximo, las Inteligencias Artificiales no solo servirán para optimizar las capacidades defensivas de las organizaciones, diseñar y ejecutar servicios de pentesting o poner en marcha escenarios de Red Team, sino que ayudarán a los profesionales de ciberseguridad a pensar estrategias, tácticas, técnicas y procedimientos nuevos, empujando los límites de la imaginación humana.

La relación entre los expertos que protegen a compañías, instituciones y ciudadanía y los ciberdelincuentes que las atacan es un perpetuo juego del gato y el ratón. Cada vez que los profesionales diseñan mecanismos para entorpecer las TTP que emplean los actores maliciosos, estos se ven obligados a modificar sus estrategias.

En este sentido, la relación entre la IA y la ciberseguridad puede ayudar a los equipos defensivos a desarrollar soluciones innovadoras para combatir los ciberataques, forzando a los actores maliciosos a diseñar nuevas metodologías de manera constante, con el coste que ello conlleva.

Al fin y al cabo, hoy en día, los grandes maestros del ajedrez ya no están obsesionados en vencer a las IA, sino en emplearlas para enriquecer su forma de jugar.


4. ¿Y si Kaspárov también fuese una máquina? IA vs. IA

Hasta ahora hemos profundizado en la relación entre la IA y la ciberseguridad centrándonos en el desarrollo de modelos que se puedan emplear para prestar los mejores servicios de ciberseguridad y ciberinteligencia, pero debemos abordar otra tendencia que será clave en el futuro de la IA y la ciberseguridad: crear entornos en los que se puedan enfrentar dos sistemas de Inteligencia Artificial entre sí:

  • Una IA defensiva capaz de detectar intrusiones, comportamientos anormales o brechas de seguridad que algún actor hostil pudiera emplear para acceder a información que debería estar fuera de su alcance. Es decir, una IA defensiva, al servicio de los equipos defensivos de las compañías, y que funcionase como un elemento más de la estrategia de seguridad de las organizaciones.
  • Una IA atacante. O lo que es lo mismo, un sistema diseñado para atacar a una compañía, explotar vulnerabilidades, infiltrarse en una organización y pasar desapercibida para la IA defensora. La competencia entre ambas las ayudaría a mejorar su forma de detectar actuaciones maliciosas, en el caso de la defensiva, y a aprender a ser sigilosa y encontrar nuevas técnicas para pasar desapercibida y extenderse por todos los sistemas, en lo relativo a la IA atacante.

Este salto en la relación entre la IA y la ciberseguridad puede ser clave en el futuro próximo y contribuir a que los profesionales y los expertos puedan acometer con éxito los desafíos en materia de seguridad que traen consigo los ciberataques en general, y aquellos que emplean la Inteligencia Artificial para cometer fraudes y alterar el funcionamiento de las empresas y las instituciones, en particular.

5. La IA y la ciberseguridad mañana

Tanto la vertiginosa evolución de las Inteligencias Artificiales como la creciente complejidad de un panorama de ciberamenazas en constante expansión hacen que sea difícil pronosticar cómo evolucionarán ambas disciplinas en los próximos años.

Sin embargo, la Agencia de la Unión Europea para la Ciberseguridad (ENISA) ha elaborado un informe en el que se abordan los principales riesgos en materia de ciberseguridad en lo que resta de década.

La mayoría de amenazas a las que se enfrentarán las empresas y administraciones públicas guardan algún tipo de relación con la Inteligencia Artificial: campañas avanzadas de desinformación con deepfakes, vigilancia digital y auge del autoritarismo gracias al reconocimiento facial, ataques selectivos en los que se emplean datos de los dispositivos inteligentes para crear modelos de comportamiento de las víctimas, ataques híbridos usando algoritmos de Machine Learning

Pero, además, los ataques contra las IA son, también, una de las amenazas más preocupantes del presente y, sobre todo, del futuro inmediato. Sobre todo, si tenemos en cuenta la relevancia creciente de estos sistemas en el funcionamiento de las empresas y en la vida diaria de las personas.

5.1. Vasos comunicantes que se retroalimentan

¿Qué evidencian estas amenazas? Que la relación de la IA y la ciberseguridad es bidireccional y compleja. La Inteligencia Artificial puede servir para que los ciberdelincuentes consigan cumplir sus objetivos criminales y atacar con éxito a compañías, administraciones públicas y ciudadanos. Pero, a su vez, la IA ya está presente en el día a día de los profesionales de ciberseguridad y tiene el potencial para transformar su forma de trabajar para ayudarlos a proteger a las empresas, instituciones y personas.

Asimismo, la relevancia de los sistemas de Inteligencia Artificial los convierte en targets prioritarios para los actores maliciosos. Por lo que los expertos en ciberseguridad están llamados a jugar un papel esencial en la optimización de las defensas de estos sistemas.

En definitiva, los próximos años se producirán cambios de enorme envergadura que transformarán, una vez más, el tejido productivo y los hábitos de vida de las personas. Ante un panorama lleno de incertidumbres, la única certeza que tenemos es que la relación entre la IA y la ciberseguridad va a marcar el devenir del mundo.

miércoles, 15 de mayo de 2024

Microsoft Security Copilot: una revolución para los equipos SOC

 Desde el 1 de abril de 2024, podemos aprovechar Copilot for Security (GA) para ayudarnos a gestionar alertas/incidentes y, en términos más generales, garantizar la seguridad de nuestros entornos de TI.

Copilot for Security permitirá a los equipos SOC (Centro de Operaciones de Seguridad) reaccionar más rápidamente ante una alerta o incidente al comprender la situación en lenguaje natural y las formas de remediarla con una respuesta guiada.

Esta publicación le brindará una visión general de la situación y le explicará la innegable contribución de Copilot a la seguridad.

 

Actualización sobre Microsoft Security Copilot

 

Todos los equipos de SOC han experimentado la difícil tarea de clasificar la gran cantidad de información que llega, a veces desde varias consolas de administración diferentes.

Consciente de esta situación, Microsoft ha integrado sucesivamente sus productos de seguridad.

Con Microsoft Defender XDR (anteriormente Microsoft Defender 365), Microsoft ha hecho posible el seguimiento de alertas e incidentes relacionados con los productos Defender en una única consola accesible en https://security.microsoft.com . Cabe recordar que una XDR (Respuesta de Defensa Extendida) recopila y correlaciona automáticamente datos de varias capas de seguridad: correo electrónico, endpoint, identidades, aplicaciones SaaS y la nube.

Además, las alertas y correlaciones en la nube de Microsoft Defender para la nube (CSPM – Cloud Security Posture Management, que aumenta el nivel de seguridad aplicando las recomendaciones sugeridas / CWP – Cloud Workload Protection, que detecta amenazas en entornos de nube y bloquea/activa alertas e incidentes que deben gestionar los equipos SOC) ahora se activan directamente en Microsoft Defender XDR. Por lo tanto, los equipos SOC pueden acceder a toda la información de seguridad de Microsoft desde una única interfaz .

Finalmente, a través de un conector bidireccional, podemos enviar alertas e incidencias XDR a la plataforma SIEM y SOAR de Microsoft Sentinel.

El siguiente diagrama ilustra esto:



Fuente: Documentación de Microsoft

 

Experiencia integrada y Microsoft Defender XDR/Microsoft Sentinel

 

Copilot for Security se puede utilizar como una experiencia independiente y/o integrada:

  • Cuando se accede a Copilot for Security a través de un producto como Microsoft Defender XDR, se considera una experiencia integrada.
  • Al acceder a Copilot for Security a través de  https://securitycopilot.microsoft.com , se trata de una experiencia independiente. Copilot for Security también se puede administrar desde esta experiencia independiente.

 

La experiencia integrada de Copilot for Security es, ante todo, la incorporación de IA generativa en el procesamiento de alertas e incidentes de seguridad , con Microsoft Defender XDR / Microsoft Sentinel, por ejemplo.

La traducción al lenguaje natural de una alerta o incidente permite responder a las amenazas evaluando la exposición al riesgo más rápidamente.

Para lograrlo, Copilot for Security proporciona acceso a los últimos LLMs (Large Language Models), aprovechando la estrecha relación establecida entre Microsoft y OpenAI para combinar los modelos avanzados de GPT4 con la visión de seguridad global que proporciona Microsoft a través de los 65.000 billones de señales diarias analizadas.

En términos concretos, lo que Copilot for Security ofrece para Microsoft XDR y Microsoft Sentinel es:

  • un resumen del incidente conciso y práctico ,
  • un análisis de impacto para evaluar el impacto potencial de los incidentes utilizando información y priorizar las respuestas,
  • Ingeniería inversa de scripts con explicaciones en lenguaje natural,
  • una respuesta guiada con instrucciones prácticas sobre triaje, investigación, contención y remediación a través de acciones recomendadas.

 

Como se muestra en la imagen a continuación (en el resumen del incidente), un analista de seguridad tendrá acceso a una explicación en lenguaje natural. Otras ventanas de Copilot permitirán análisis de impacto, ingeniería inversa, etc.


Ecosistema de Microsoft Copilot para seguridad

 

Microsoft Copilot for Security no se limita a los productos de Microsoft, ni siquiera solo a Microsoft Defender XDR o Microsoft Sentinel.

En términos más generales, Copilot mejorará el entorno de Microsoft 365, Microsoft Entra-ID, Microsoft Purview, Microsoft Intune, Defender EASM y Defender Threat Intelligence.

Y aunque todavía no existe un mercado de Copilot, los socios de seguridad de Microsoft pueden publicar complementos de Copilot Security.

 

Implementación y precios de Microsoft Copilot for Security

 

Copilot for Security se vende en un modelo de capacidad aprovisionada y se factura por hora, con un mínimo de una hora.

El precio de Copilot for Security se basa en unidades de cómputo de seguridad (SCU).

Dentro de una suscripción de Azure, estas SCU definen los recursos que Copilot for Security necesita para ejecutarse. Puede aumentarlas o reducirlas en cualquier momento en el portal de Azure o en el portal de seguridad de Copilot ( https://securitycopilot.microsoft.com ).

Sin embargo, Microsoft recomienda utilizar el portal Copilot para crear SCU.



 

Debe ser propietario o colaborador de Azure al menos en el nivel de grupo de recursos para poder crear capacidad.

El costo de una SCU es de $4 por hora (precios disponibles a través de la calculadora de precios de Microsoft).

 

“Chatea” con Copilot para Seguridad

 

Se puede consultar a Copilot for Security mediante el mensaje.



Todo lo que tienes que hacer es plantear tu pregunta a nuestra IA generativa.

 

También hay indicaciones destacadas . Se trata de un conjunto de indicaciones predefinidas diseñadas para ayudarte a realizar tareas comunes de seguridad con Copilot for Security.

Por ejemplo:

  • Analizar un script o comando : este mensaje identifica el lenguaje del script, el propósito del script, los riesgos potenciales y las acciones recomendadas.
  • Generar una consulta de seguridad : este mensaje convierte su consulta en lenguaje natural en un lenguaje de consulta, como KQL o la API de Microsoft Graph.
  • Generar un informe de seguridad : este mensaje le ayuda a generar un informe de seguridad para una audiencia específica, como ejecutivos, gerentes o analistas.

 

Por último, de forma similar a los playbooks utilizados para llamar a una aplicación lógica y automatizar la respuesta a incidentes, Copilot for Security proporciona promptbooks .

Estos flujos de trabajo listos para usar se pueden utilizar como plantillas para automatizar investigaciones y/o respuestas a incidentes.


Cada libro de sugerencias prediseñado requiere una entrada específica, como un fragmento de código, el nombre de un actor de amenazas o un identificador de alerta de Microsoft XDR o Microsoft Sentinel.

También puedes escribir tu propio libro de sugerencias.

 

Microsoft Security Copilot: conclusiones clave

 

Gracias a su integración con los productos de seguridad de Microsoft, sus complementos, sus avisos y las consultas y análisis que se pueden realizar, Copilot for Security es un verdadero cambio de juego para los equipos SOC.

viernes, 3 de mayo de 2024

Fraudes con Inteligencia Artificial: Nueva tecnología, viejos objetivos

 La suplantación de identidad es una de las claves de los fraudes con Inteligencia Artificial que amenazan a empresas, administraciones y ciudadanía

Más allá de su uso productivo legítimo, los profesionales de ciberseguridad están constatando la proliferación de fraudes con Inteligencia Artificial.

Mediante estas actuaciones, los actores maliciosos emplean IA generativas para suplantar la identidad de personas y empresas con el objetivo de estafar a ciudadanos y compañías.

¿En qué consisten estos ciberataques? ¿Qué papel juega la IA en ellos? ¿Cuál es su impacto potencial en las empresas, las instituciones y el conjunto de la sociedad?

1. Un paso más en la evolución de los fraudes digitales

En primer lugar, debemos precisar que los fraudes con Inteligencia Artificial no suponen una nueva tipología de ciberataques, sino que vienen a ser una evolución de los fraudes digitales que los profesionales de ciberseguridad, ciberinteligencia y Threat Hunting combaten desde hace años.

¿Cuál es el factor diferencial con fraudes clásicos como el uso combinado de phishing y malware para sustraer datos bancarios de personas y empresas? Que la Inteligencia Artificial facilita el trabajo de los delincuentes y les ayuda a complejizar sus ataques y, por ende, a dificultar su detección.

A partir de estas nociones, podemos esbozar las principales características de los fraudes con Inteligencia Artificial.

1.1. Sencillez y rapidez

Es más sencillo y rápido diseñar y ejecutar los fraudes con IA. La Inteligencia Artificial generativa ya está siendo empleada por miles de empresas, profesionales y usuarios para multitud de fines. Desde la creación de videos, hasta la redacción de proyectos o, incluso, para programar webs, porque supone un mayúsculo ahorro de tiempo y permite a personas sin las capacidades y conocimientos necesarios para realizar algunas acciones, poder ejecutarlas con éxito.

Pues bien, esta misma lógica aplica para los ciberdelincuentes. Un actor malicioso puede usar los sistemas de IA para redactar los mensajes de una campaña de phishing o crear páginas webs que parecen legítimas y, sin embargo, son fraudulentas.

1.2. Sofisticación

Se tratan de ataques más sofisticados. Si a la ecuación ingeniería social + malware le añadimos, también, Inteligencia Artificial, resulta evidente que la complejidad de un ataque aumenta, así como las probabilidades de tener éxito.

Si a una persona le escribe por WhatsApp una persona que dice ser un familiar que necesita dinero, pero escribe mal y es incapaz de responder con coherencia, la víctima potencial seguramente no caiga en la estafa. En cambio, si gracias a la IA se envía un audio que reproduce la voz de un familiar real o una fotografía manipulada en una situación de gravedad, la víctima no tendrá indicios para desconfiar.

1.3. Apariencia de veracidad

La apariencia de veracidad dificulta la detección. Los fraudes con Inteligencia Artificial no solo son más sofisticados, sino que el uso de esta tecnología disruptiva incrementa la apariencia de veracidad de los ataques.

Si los delincuentes recurren a la IA y realizan, por ejemplo, deepfakes, ataques clásicos como las campañas de phishing o vishing resultan más difíciles de detectar.

1.4. Evolución acelerada de la tecnología

Los fraudes con Inteligencia Artificial suponen un desafío para los profesionales de la ciberseguridad y los equipos defensivos de las organizaciones. A lo largo de los años se han perfeccionado los mecanismos de seguridad para prevenir los ataques de ingeniería social o para detectar malware de forma temprana y evitar su propagación por los sistemas corporativos. Sin embargo, la irrupción y consolidación de la IA exige a los expertos en ciberseguridad adaptar sus actividades a una tecnología en constante evolución.

Las IA generativas ya están produciendo resultados asombrosos, pero se espera que en los próximos años alcancen un nivel de perfeccionamiento que va a alterar el funcionamiento del tejido productivo y la manera en la que vivimos.

Esta tecnología trae consigo un amplio abanico de potencialidades, pero también ha generado, y seguirá haciéndolo, desafíos en materia de seguridad. Por lo que es fundamental que los expertos en ciberseguridad se formen de manera continua para adaptar sus técnicas y tácticas a la evolución de la tecnología.


2. Ingeniería social e Inteligencia Artificial, un combo explosivo

El phishing y otras técnicas de ingeniería social como el, smishing, el vishing o el fraude del CEO han sido protagonistas del panorama de amenazas en los últimos años. Sobre todo, gracias al uso combinado de técnicas de ingeniería social y malware para engañar a personas y empresas y conseguir sustraerles cuantiosas cantidades de dinero.

De hecho, en muchos ciberataques, está presente la ingeniería social a la hora de buscar y encontrar un vector de entrada. Por ejemplo, enviar un email falso a un profesional y conseguir que haga clic en una URL o descargue un archivo infectado con un malware.

2.1. Fraudes más complejos y mayor número de atacantes potenciales

Pues bien, la popularización de las IA generativas supone una nueva vuelta de tuerca, porque estos sistemas pueden ser empleados por los ciberdelincuentes para perfeccionar sus ataques:

  • Elaborar mensajes mejor escritos para engañar a las personas que los reciben y conseguir que faciliten datos confidenciales, hagan clic en un enlace o descarguen un documento.
  • Simular la apariencia de emails y webs corporativos con un altísimo grado de realismo, evitando levantar suspicacias entre las víctimas.
  • Clonar las voces y los rostros de las personas y realizar deepfakes de voz o imagen que no puedan ser detectados por las personas atacadas. Una cuestión que puede tener enorme repercusión en estafas como el fraude del CEO.
  • Responder con eficacia a las víctimas, gracias a que las IA generativas ya pueden mantener conversaciones.
  • Poner en marcha campañas de ingeniería social en menos tiempo, invirtiendo una cantidad de recursos inferior y consiguiendo que sean más complejas y difíciles de detectar. Puesto que con las IA generativas que ya están en el mercado no solo se pueden escribir textos, clonar voces o generar imágenes, sino también programar webs.

Además, las IA generativas abren la posibilidad de que se multiplique el número de atacantes potenciales, porque al permitir realizar numerosas acciones, pueden ser empleadas por delincuentes sin los recursos y los conocimientos necesarios.

3. Suplantación de identidades a partir del caudal de información de internet

La entente Inteligencia Artificial – ingeniería social se alimenta de toda la información que está disponible hoy en día en internet sobre las empresas y las personas.

De hecho, los grandes modelos de lenguaje (LLM, por sus siglas en inglés), que son el corazón de las IA generativas necesitan datos para entrenarse y producir videos, fotos, audios o textos cada vez más realistas.

Los delincuentes que desean realizar fraudes con Inteligencia Artificial parten con una gran ventaja: nuestra vida está en internet. Webs profesionales o educativas, blogs personales, y, por supuesto, las redes sociales, ofrecen una radiografía precisa de quiénes somos y de cómo somos, por dentro y por fuera.

Gracias a aplicaciones como TikTok, Instagram o Facebook los actores maliciosos pueden obtener el material suficiente para clonar nuestro rostro y nuestra voz, incluidos los gestos que realizamos o las inflexiones en nuestra forma de expresarnos. De hecho, existen, ya, IA generativas capaces de producir deepfakes difíciles de detectar.

Pero no solo eso, cuanto más se perfeccionen las IA, mayor será la exactitud a la hora de imitar no solo nuestra apariencia, sino también nuestra forma de ser y de relacionarnos.

3.1. La IA también puede ser el espejo del alma

En un célebre capítulo de la antología distópica Black Mirror, una mujer adquiría un robot idéntico a su novio fallecido físicamente, pero que, además, replicaba su forma de ser, gracias a una IA que había sido capaz de reconstruir su personalidad procesando sus publicaciones en todas las redes sociales.

Pues bien, lo que en 2013 el episodio Be Right Back pintaba como distópico, diez años después es prácticamente una realidad.

Las IA generativas son capaces de entrenarse con todos los datos sobre nosotros disponibles en nuestras redes sociales en particular y en internet en general para imitar la manera en la que nos expresamos.

¿Con qué fin? Cometer fraudes con Inteligencia Artificial, por ejemplo, escribiendo a nuestra madre a través de WhatsApp, Facebook o X para informarle de que necesitamos que realice un pago porque en ese momento nos resulta imposible. ¿Por qué la víctima no desconfía de la estafa? Porque el mensaje está escrito a la perfección y la forma de responder coincide con la manera de expresarse de la persona a la que se le está suplantando la identidad.

4. Quebrar los sistemas de autenticación biométricos de las organizaciones

El reconocimiento facial y la clonación de voz han sido sistemas empleados para incrementar el nivel de seguridad en el proceso de autenticación de los usuarios en aplicaciones web y móviles y en sistemas corporativos. Ya sean clientes de compañías como entidades bancarias que desean entrar en sus áreas privadas en las aplicaciones web o móviles; o, especialmente, profesionales de miles de grandes empresas que operan en múltiples sectores económicos sensibles: energéticas, farmacéuticas, industrias, seguridad…

El uso de los sistemas de IA para suplantar la identidad de las personas puede poner en tela de juicio los sistemas de autenticación facial o por voz, puesto que, si los delincuentes pueden clonar nuestro rostro o nuestra voz, podrían emplearlo para suplantar nuestra identidad y acceder a datos sensibles, internarse en nuestras cuentas bancarias o, incluso, desplegar malware en los sistemas corporativos.

5. Generar documentación y pistas falsas para dificultar la detección de los ataques

Como su propio nombre indica, las IA generativas son sistemas de enorme utilidad a la hora de producir textos, imágenes, sonidos o contenidos audiovisuales.

Por ello, pueden ser empleadas de forma maliciosa para generar documentos o esparcir pistas falsas en las redes sociales, con el objetivo de cometer fraudes con Inteligencia Artificial, en los que se cuide hasta el más mínimo detalle.

Pensemos, por ejemplo, en los fraudes contra el sector turístico. Los delincuentes pueden usar las herramientas de IA para redactar sus mensajes o crear webs falsas, pero también pueden elaborar documentos para no levantar sospechas entre las víctimas, como facturas o recibos e, incluso, documentación bancaria falsa. Lo mismo puede decirse de otros fraudes similares como el timo del CEO.

Ya lo dice el refranero popular: «el diablo está en los detalles».

Asimismo, la generación de toda clase de documentos visuales o audiovisuales puede ser esencial para fortalecer un engaño creando perfiles en redes sociales con una apariencia de legitimidad intachable. E, incluso, empleando las redes sociales no solo para suplantar identidades, sino también para desinformar y evitar que un ataque en marcha sea detectado.

En este sentido, la Agencia de la Unión Europea para la Ciberseguridad (ENISA) advierte a las compañías de que una de las amenazas más relevantes de los próximos años serán las amenazas avanzadas híbridas. Es decir, ataques lanzados para vulnerar la propiedad industrial de las empresas y recabar información sobre sus investigaciones en los que se emplearán sistemas de Inteligencia Artificial para recopilar información, pero también para ofuscar los ataques generando fake news y evidencias falsas que apunten hacia otros posibles culpables, como otras compañías de la competencia.

6. El sector financiero y las identidades Frankenstein

Nadie está a salvo de los fraudes digitales en general, y de los fraudes con Inteligencia Artificial en particular. Ni las empresas, ni las personas individuales.

Los fraudes con Inteligencia Artificial pueden impactar en todos los sectores económicos y ámbitos sociales. Pensemos, por ejemplo, en el terreno educativo, en el que los profesores tienen que lidiar no solo con trabajos falsos, sino también con suplantación de identidades, sobre todo, en la teleeducación.

Sin embargo, resulta evidente que pueden ser especialmente críticos en un ámbito de vital importancia para las empresas y los ciudadanos: el sector financiero.

Más allá del perfeccionamiento de campañas de ingeniería social o el quebrando de mecanismos de autenticación biométricos, que ya hemos tratado con anterioridad, cabe destacar una tendencia que puede suponer una gran amenaza para las compañías financieras y las empresas y ciudadanos que trabajan con ellas: los fraudes de identidad sintética o identidad Frankenstein.

¿En qué consisten los fraudes de identidad sintética? Son una clase de estafa que combina información real sobre una persona con datos falsos y que se puede generar gracias a los sistemas de IA. De tal forma que, a partir de un dato real, por ejemplo, un número de DNI o de la Seguridad Social de una persona, se crea una identidad completamente falsa y distinta a la de la persona que detenta dicho número. Habida cuenta de las brechas de datos que se han producido en los últimos años, hoy en día es posible adquirir número de identificación personal en la Dark Web, sin necesidad de realizar un ataque previo para conseguirlo.

6.1. Fraudes de largo recorrido

¿Qué consiguen los ciberdelincuentes poniendo en marcha fraudes de identidad sintética?

  1. Abrir cuentas bancarias y obtener crédito. Los ciberdelincuentes profesionales no realizan fraudes en el corto plazo, sino que le construyen un historial crediticio sólido a la identidad falsa, por ejemplo, solicitando préstamos y créditos que devolverán de forma eficaz para garantizar su solvencia. ¿Con qué objetivo? Una vez que la solvencia esté demostrada, agotarán todo el saldo de las tarjetas de crédito que hayan solicitado, así como el dinero obtenido vía préstamos y desaparecerán sin dejar rastro.
  2. Evitar ser detectados por las entidades financieras, pero también por las personas que son legítimas propietarias de los documentos empleados para construir la identidad falsa. Esto supone el gran diferencial entre los robos de identidad tradicionales y los sintéticos, puesto que, en los primeros, es posible que las entidades bancarias y las víctimas descubran el fraude en un periodo temporal breve y, por lo tanto, el impacto sea mucho menor.

Hoy en día, las herramientas de Inteligencia Artificial pueden ser extraordinariamente útiles para los ciberdelincuentes a la hora de ayudarlos a construir identidades sintéticas para cometer fraudes económicos y estafar a las compañías financieras. ¿Por qué? Facilitan la construcción de la identidad y reducen el tiempo, los recursos y los conocimientos que deben emplear los actores maliciosos.

Estas estafas son percibidas por los bancos como una amenaza de primer nivel, más aún tras la popularización de las IA generativas. De hecho, el 92% de las compañías del sector en Estados Unidos considera que los fraudes de identidad sintética suponen una amenaza de primer nivel y la mitad de ellas ha detectado estafas de este tipo.


7. Tomar la iniciativa a la hora de prevenir los fraudes con Inteligencia Artificial

Habida cuenta de lo que hemos expuesto a lo largo de este artículo, podemos observar que los fraudes con Inteligencia Artificial suponen una optimización de los fraudes y ciberataques tradicionales. O, dicho de otra forma, los ciberdelincuentes emplean una tecnología disruptiva y que aún va a evolucionar de manera radical en los próximos años, para complejizar y sofisticar sus técnicas, tácticas y procedimientos. Sin embargo, los objetivos delictivos se mantienen inalterables: estafar a personas y empresas, enriquecerse económicamente, amenazar la continuidad de negocio de las compañías, sustraer, secuestrar y exfiltrar información sensible…

¿Qué pueden hacer las empresas y las administraciones públicas para combatir los fraudes con Inteligencia Artificial y evitar las consecuencias de los incidentes de seguridad? Disponer de profesionales de ciberseguridad con una gran experiencia a sus espaldas y que realicen investigaciones de forma continua para descubrir cómo evolucionan los sistemas de IA disponibles, qué usos maliciosos pueden llevar a cabo los delincuentes y cómo se transforman sus técnicas, tácticas y procedimientos.

7.1. La ciberseguridad es una cuestión estratégica

En este sentido, juegan un papel fundamental servicios de ciberseguridad avanzados como:

  • Test de ingeniería social para evaluar las defensas de la organización a técnicas avanzadas que usen IA y formar y concienciar a los profesionales para que no sean víctimas de engaños.
  • Gestión de vulnerabilidades para monitorear la infraestructura de una compañía y reducir los tiempos de detección y remediación de incidentes de seguridad, teniendo en cuenta el uso malicioso de herramientas de IA.
  • Detección y caza proactivas de amenazas y vigilancia continua para detectar ataques desconocidos y dirigidos contra la organización.
  • Escenarios de Red Team que tengan en cuenta el uso pernicioso de sistemas de IA para perfeccionar todo tipo de ciberataques.

La irrupción de la Inteligencia Artificial ya está transformando a nuestro tejido productivo. Como toda tecnología de vanguardia, la IA trae consigo un sinfín de potencialidades y tiene el potencial para mejorar y agilizar miles de procesos que llevan a cabo las empresas y los profesionales.

Los sistemas de IA ya juegan un papel clave en múltiples ámbitos, incluida la ciberseguridad, donde existen tecnologías como los sistemas UEBA para optimizar la detección de comportamientos anómalos que sirvan para descubrir ataques en fases tempranas.

¿Qué queremos decir con esto? Al igual que los fraudes con Inteligencia Artificial suponen un desafío para los profesionales de ciberseguridad, las empresas, las administraciones públicas y las personas, la tecnología también puede ser extremadamente útil a la hora de mejorar las capacidades de prevención, detección, predicción y respuesta ante incidentes de seguridad.

Sea como fuere, la ciberseguridad y la ciberinteligencia son claves para proteger a los sistemas de IA frente a los ataques, pero también para combatir los fraudes e incidentes que se diseñan e implementan sirviéndose de las potencialidades de esta tecnología.