La colaboración entre expertos en seguridad cibernética y desarrolladores de IA se vuelve crucial para garantizar un uso seguro y responsable
El uso de sistemas de Inteligencia Artificial (IA) generativa, como ChatGPT, genera preocupación entre los altos cargos de las empresas debido a los posibles riesgos de pérdida de información confidencial y control comercial. A pesar de los planes de implementación y el uso actual por parte de empleados, la ausencia de normativas claras en este contexto agrega incertidumbre.
Un informe de Kaspersky revela que, según directivos españoles encuestados, solo el 19% ha considerado establecer reglas para supervisar la IA generativa. El 96% cree que sus empleados hacen uso regular de estos sistemas, lo que lleva a la necesidad de comprender su uso para protegerse contra posibles riesgos de seguridad o filtraciones de datos, una preocupación compartida por el 64%, temiendo pérdidas económicas en sus organizaciones.
Otro estudio de Kaspersky entre usuarios empresariales de la IA generativa en España destaca que el 25% de los empleados que utilizan Chat GPT en el trabajo no sabe qué sucede con los datos ingresados en la herramienta.
Normativas internas insuficientes frente al avance de la IA generativa
Estos datos resaltan la importancia de una regulación y concienciación por parte de las empresas para salvaguardar su información. ChatGPT puede almacenar datos como dirección IP, tipo de navegador y preferencias del usuario, subrayando la necesidad de políticas claras sobre su uso.
Sin embargo, alrededor del 45.5% de las empresas encuestadas no cuentan con normativas internas sobre Chat GPT. Aquellas que sí las han implementado, el 19% considera que no son lo suficientemente claras, un 7% indica que no se cumplen, mientras que sólo un 27% afirma que las normativas son claras y se acatan.
Estos resultados contrastan con la intención de los directivos, ya que la mitad planea emplear la IA generativa para automatizar tareas en el futuro. El 46% tiene la intención de integrar esta tecnología para mejorar la productividad, tanto personal como la de los empleados.
A pesar de estos planes, el 16% de los empleados que usan ChatGPT en el trabajo no considera importante mantener la privacidad en sus consultas, y el 31% piensa que es crucial no compartir datos privados, aunque lo hace de todos modos.
Kaspersky, por su parte, destaca que ChatGPT retiene información solo para mejorar la plataforma y ofrece recomendaciones para evitar compartir información delicada, ya que los ciberestafadores emplean la herramienta para generar estafas de ‘phishing’ creíbles. También sugiere usar programas de seguridad confiables como Kaspersky Premium, y educar a los empleados en ciberseguridad y la gestión adecuada de contraseñas mediante herramientas como Kaspersky Password Manager.