
El Uso Masivo de IA generativa en Empresas Exfiltra Datos Sensibles
- Más de un tercio de los datos sensibles compartidos con aplicaciones de inteligencia artificial generativa (GenAI) en empresas son datos personales regulados, lo que representa un riesgo de brechas de datos costosas
- Menos de la mitad de las organizaciones implementan controles específicos para prevenir la filtración de información sensible, lo que evidencia un retraso en la adopción de soluciones avanzadas de prevención de pérdida de datos (DLP)
- La capacitación efectiva de los usuarios ha llevado al 57% a alterar sus acciones después de recibir alertas de capacitación, mitigando así los riesgos de datos
- Netskope recomendó que las empresas revisen, adapten y personalicen sus marcos de riesgos específicamente para la IA o GenAI, utilizando esfuerzos como el Marco de Gestión de Riesgos de IA de NIST, e implementen controles de seguridad avanzados como la detección de anomalías y la monitorización continua
De acuerdo con el estudio “Cloud and Threat Report: AI Apps in the Enterprise”, de Netskope reveló que más de un tercio de los datos sensibles compartidos con aplicaciones de inteligencia artificial generativa (GenAI) en empresas son datos personales regulados, los cuales las organizaciones tienen la obligación legal de proteger, lo que representa un potencial riesgo de costosas brechas de datos para las compañías.
Adicionalmente, el estudio mostró que tres cuartas partes de las empresas encuestadas bloquean al menos una aplicación de inteligencia artificial generativa (GenAI) para limitar el riesgo de exfiltración de datos sensibles. No obstante, menos de la mitad de estas organizaciones implementan controles específicos para prevenir la filtración de información sensible, lo que indica un retraso general en la adopción de soluciones avanzadas de prevención de pérdida de datos (DLP) necesarias para usar GenAI de manera segura.
“Asegurar la GenAI necesita más inversión y mayor atención a medida que su uso se permea en las empresas sin señales de que disminuirá pronto; las empresas deben reconocer que los resultados de la GenAI pueden exponer inadvertidamente información sensible, propagar desinformación o incluso introducir contenido malicioso. Se requiere un enfoque robusto de gestión de riesgos para salvaguardar datos, reputación y continuidad del negocio”: James Robinson, Director de Seguridad de la Información de Netskope.
Capacitación en tiempo real: El escudo invisible contra los riesgos de datos en la era de la IA
Netskope, especialista en Secure Access Service Edge (SASE), aseguró que no todo está perdido, ya que han identificado acciones positivas de gestión proactiva del riesgo en los controles de seguridad y pérdida de datos que las organizaciones han aplicado.
- El 65% de las empresas han implementado capacitación en tiempo real para guiar las interacciones de los usuarios con las aplicaciones de inteligencia artificial generativa (GenAI).
- El estudio también reveló que, la capacitación efectiva de los usuarios ha jugado un papel crucial en la mitigación de los riesgos de datos, llevando al 57% de los usuarios a alterar sus acciones después de haber recibido alertas de capacitación.
Si bien es cierto que estas medidas correctivas podrían recomponer el escenario de protección y exfiltración de datos personales de las organizaciones, también es cierto que el aumento de las empresas que actualmente usan GenAI se ha triplicado en los últimos 12 meses, es decir, pasaron de usar tres aplicaciones el años pasado, a usar 10.
El uso masivo de la IA generativa
- ChatGPT sigue siendo la aplicación más popular, con más del 80% de las empresas utilizándola.
- Microsoft Copilot mostró el crecimiento más dramático en uso desde su lanzamiento en enero de 2024, con un 57%.
- El 19% de las organizaciones han impuesto una prohibición total a GitHub Copilot.
En este contexto, es inviable pensar que las empresas y sus colaboradores ya no utilicen aplicaciones de IA generativa, por lo que la estrategia debe estar centrada en la regulación y prevención, más que en la prohibición.
Derivado de lo anterior, Netskope recomendó que las empresas revisen, adapten y personalicen sus marcos de riesgos específicamente para la inteligencia artificial (IA) o la inteligencia artificial generativa (GenAI) utilizando esfuerzos como el Marco de Gestión de Riesgos de IA de NIST.
Los pasos por considerar van desde evaluar el estado actual de los usos de IA y aplicaciones GenAI, implementar controles de seguridad básicos como el cifrado y la autenticación, hasta planificar para controles avanzados como la detección de anomalías y la monitorización continua, así como evaluar y ajustar regularmente la efectividad de las medidas de seguridad basándose en experiencias y amenazas emergentes.