En el escenario actual, dominado por el rápido auge de los sistemas de Inteligencia Artificial (IA) como ChatGPT, las organizaciones se enfrentan a un nuevo desafío: Shadow AI.
Este término se
refiere al uso no autorizado de herramientas y tecnologías de IA dentro de las
empresas, a menudo sin el conocimiento o la supervisión de los departamentos de
TI. Esta práctica es una evolución del concepto Shadow IT, donde los empleados utilizaban
soluciones tecnológicas sin aprobación formal para satisfacer sus necesidades.
Sin embargo, Shadow AI introduce una serie de complejidades y riesgos que
requieren atención inmediata por parte de los líderes empresariales y los
profesionales de TI.
Datos recientes
subrayan la urgencia de este problema. Según un informe de Cyberhaven, entre
marzo de 2023 y marzo de 2024, la cantidad de datos corporativos introducidos
en herramientas de IA aumentó un 485 %. El pronóstico de Gartner sugiere que,
para 2027, el 75 % de los empleados utilizarán IA para aumentar la eficiencia
sin supervisión del departamento de TI. Este crecimiento exponencial de la
actividad de Shadow AI resalta la necesidad de que las organizaciones aborden
este problema de manera proactiva para garantizar la seguridad y el
cumplimiento.
La IA en la sombra
puede adoptar muchas formas dentro de una organización. Los empleados pueden
utilizar herramientas de inteligencia artificial populares como ChatGPT para
ayudar con tareas como escribir correos electrónicos, generar informes o
desarrollar aplicaciones. Si bien estas herramientas pueden aumentar la
productividad, su uso sin la supervisión, la visibilidad y el control adecuados
puede generar riesgos importantes y representar una seria amenaza para la
seguridad y el cumplimiento de las organizaciones.
Los riesgos de la
IA en la sombra
Uno de los principales
riesgos asociados con Shadow AI es la posibilidad de que se produzcan
violaciones de datos confidenciales. Por ejemplo, los datos ingresados en una herramienta como la versión
gratuita o personal de ChatGPT pueden usarse para entrenar modelos futuros, lo
que podría llevar a la divulgación
involuntaria de información confidencial.
Varios incidentes de
alto perfil ponen de relieve estos riesgos. Samsung, por ejemplo, prohibió a
sus empleados utilizar ChatGPT y otros chatbots impulsados por IA después de descubrir una fuga
accidental de código fuente interno. De manera similar, Amazon
advirtió a sus empleados que no compartieran ningún
código o información confidencial con
ChatGPT, luego de informes de respuestas que se parecían
a datos internos de la empresa.
Otro ejemplo es
JPMorgan Chase, que ha restringido severamente el uso de ChatGPT debido a
preocupaciones sobre posibles riesgos regulatorios relacionados con compartir
información financiera confidencial.
Además, Shadow AI
puede introducir nuevas vulnerabilidades, como ataques de inyección rápida,
donde el texto oculto en documentos procesados por chatbots puede desencadenar consecuencias no deseadas. Herramientas
como GitHub Copilot, que ya se utilizan para generar casi la mitad del código
de algunos desarrolladores, pueden producir inadvertidamente código
con vulnerabilidades peligrosas, lo que aumenta aún más
los riesgos.
Identificar y
gestionar la IA en la sombra
La capacitación de los
empleados juega un papel crucial en la mitigación de los riesgos de la IA en la
sombra. Debemos educar a los equipos sobre prácticas seguras al utilizar IA
generativa y brindar orientación clara sobre cuándo y cómo se puede utilizar de
forma segura. Prevenir el uso inadvertido de soluciones de IA no administradas
garantiza que los empleados estén al tanto de los riesgos y las mejores
prácticas.
Establecer marcos
centralizados de gobernanza de la IA es esencial para evitar el uso no
autorizado de la IA. Una combinación de concientización y políticas de IA más
claras puede ayudar a crear protecciones contra la IA en la sombra. Las
organizaciones deben realizar auditorías para comprender los datos que poseen,
actualizar los permisos para garantizar que solo los empleados autorizados
tengan acceso a información potencialmente confidencial y etiquetar y cifrar
datos confidenciales para evitar que se envíen a modelos de IA sin
autorización.
La implementación de
estas estrategias garantiza que los empleados tengan el conocimiento y las
herramientas que necesitan para utilizar la IA de forma segura y sensata,
manteniendo al mismo tiempo buenas prácticas de gobernanza de datos.
Las organizaciones
también deben equilibrar la necesidad de innovación con la necesidad de
mantener el control sobre este tipo de herramientas. Fomentar una cultura de
transparencia, comunicación continua y uso responsable de la IA anima a los
empleados a innovar sin exponer a la empresa a un riesgo excesivo, informando
de cualquier inquietud en un entorno abierto.
El auge de la IA en la
sombra presenta riesgos y desafíos importantes para las organizaciones. Las
violaciones de seguridad de datos, los problemas de cumplimiento y privacidad y
las nuevas vulnerabilidades se encuentran entre las principales preocupaciones
asociadas con el uso no autorizado de herramientas de IA. Para proteger la
integridad organizacional y garantizar el uso seguro y eficaz de la
inteligencia artificial en el panorama tecnológico actual en rápida evolución,
las organizaciones deben adoptar un enfoque holístico que incluya componentes
técnicos, estratégicos y educativos.
Las medidas
proactivas, como la educación y concientización de los empleados, las
estrategias políticas y de gobernanza, el monitoreo activo y el equilibrio
entre la innovación y el control, son esenciales para gestionar los riesgos de
la IA en la sombra.
No hay comentarios.:
Publicar un comentario