Hoy: 23 de noviembre de 2024
El uso de sistemas de Inteligencia Artificial (IA) generativa, como ChatGPT, genera preocupación entre los altos cargos de las empresas debido a los posibles riesgos de pérdida de información confidencial y control comercial. A pesar de los planes de implementación y el uso actual por parte de empleados, la ausencia de normativas claras en este contexto agrega incertidumbre.
Un informe de Kaspersky revela que, según directivos españoles encuestados, solo el 19% ha considerado establecer reglas para supervisar la IA generativa. El 96% cree que sus empleados hacen uso regular de estos sistemas, lo que lleva a la necesidad de comprender su uso para protegerse contra posibles riesgos de seguridad o filtraciones de datos, una preocupación compartida por el 64%, temiendo pérdidas económicas en sus organizaciones.
Otro estudio de Kaspersky entre usuarios empresariales de la IA generativa en España destaca que el 25% de los empleados que utilizan Chat GPT en el trabajo no sabe qué sucede con los datos ingresados en la herramienta.
Estos datos resaltan la importancia de una regulación y concienciación por parte de las empresas para salvaguardar su información. ChatGPT puede almacenar datos como dirección IP, tipo de navegador y preferencias del usuario, subrayando la necesidad de políticas claras sobre su uso.
Sin embargo, alrededor del 45.5% de las empresas encuestadas no cuentan con normativas internas sobre Chat GPT. Aquellas que sí las han implementado, el 19% considera que no son lo suficientemente claras, un 7% indica que no se cumplen, mientras que sólo un 27% afirma que las normativas son claras y se acatan.
Estos resultados contrastan con la intención de los directivos, ya que la mitad planea emplear la IA generativa para automatizar tareas en el futuro. El 46% tiene la intención de integrar esta tecnología para mejorar la productividad, tanto personal como la de los empleados.
A pesar de estos planes, el 16% de los empleados que usan ChatGPT en el trabajo no considera importante mantener la privacidad en sus consultas, y el 31% piensa que es crucial no compartir datos privados, aunque lo hace de todos modos.
Kaspersky, por su parte, destaca que ChatGPT retiene información solo para mejorar la plataforma y ofrece recomendaciones para evitar compartir información delicada, ya que los ciberestafadores emplean la herramienta para generar estafas de ‘phishing’ creíbles. También sugiere usar programas de seguridad confiables como Kaspersky Premium, y educar a los empleados en ciberseguridad y la gestión adecuada de contraseñas mediante herramientas como Kaspersky Password Manager.