Microsoft y OpenAI se unen para frenar el mal uso de la inteligencia artificial en ataques cibernéticos

16 de febrero de 2024
1 minuto de lectura

Las compañías continuarán informando a usuarios y partes interesadas sobre el alcance de la utilización de la IA en manos de actores maliciosos

En una iniciativa conjunta, Microsoft y OpenAI han detenido la actividad de cinco actores de amenazas vinculados a estados como China, Irán, Corea del Norte y Rusia. Ambas compañías cerraron las cuentas relacionadas con herramientas de inteligencia artificial, incluyendo ChatGPT, que estos actores empleaban para mejorar sus tácticas de ciberataques.

Durante el último año, el aumento en la velocidad, escala y sofisticación de los ciberataques ha sido notable, coincidiendo con el desarrollo y adopción de la inteligencia artificial. Microsoft y OpenAI advierten que los actores de amenazas han mal utilizado la IA para llevar a cabo sus ataques maliciosos.

Desvelando amenazas

En un estudio conjunto, ambas compañías identificaron las principales amenazas emergentes en la era de la IA, destacando el uso indebido de modelos de lenguaje grandes (LLM) y el fraude en ciberataques. El enfoque se centra en la actividad reciente asociada a actores de amenazas ya conocidos.

OpenAI ha detallado que han identificado cinco ciberdelincuentes afiliados a estados, quienes representan “riesgos únicos para el ecosistema digital y el bienestar humano”. Estos actores cuentan con tecnología avanzada, importantes recursos financieros y personal capacitado.

Como resultado de la investigación, Microsoft y OpenAI cancelaron las cuentas relacionadas con Charcoal Typhoon y Salmon Typhoon (China), Crimson Sandstorm (Irán), Emerald Sleet (Corea del Norte) y Forest Blizzard (Rusia).

Estos actores utilizaban servicios como ChatGPT para consultar información, traducir, encontrar errores de codificación y realizar tareas básicas de programación. Por ejemplo, Charcoal Typhoon, vinculado al Estado chino, utilizaba los LLM para respaldar el desarrollo de herramientas de ciberseguridad y llevar a cabo ingeniería social en sus ataques principalmente contra entidades en Taiwán, Tailandia, Mongolia, Malasia, Francia y Nepal.

En respuesta a estas amenazas, OpenAI ha anunciado su compromiso de invertir en tecnología y equipos para identificar e interrumpir actividades de ciberdelincuentes que mal utilizan la inteligencia artificial. Microsoft, por su parte, notifica de inmediato a los proveedores de servicios ante el mal uso de la IA por parte de actores de amenazas, compartiendo datos relevantes.

Ambas compañías destacan la importancia de la transparencia y continuarán informando a usuarios y partes interesadas sobre el alcance del uso de la IA en manos de actores maliciosos. Este enfoque busca garantizar un uso responsable de la inteligencia artificial y mantener la seguridad en el entorno digital.

Responder

Your email address will not be published.

No olvides...

Los usuarios de Instagram podrán compartir los comentarios directamente en Threads

La herramienta facilitará a los creadores de contenido y marcas gestionar sus estrategias de comunicación de manera más eficiente

OpenAI lanza su primer modelo de inteligencia artificial para resolver tareas y problemas complejos

Los usuarios deben disponer de ChatGPT Plus y Team para disfrutar del servicio

Meta, Snap y TikTok se unen para evitar la difusión de contenidos gráficos sobre el suicidio

El programa Thrive ayudará a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas

Netflix dejará de funcionar en iPhones con versiones anteriores a iOS 17 y algunos iPads antiguos

La medida afectará a millones de usuarios que no podrán acceder a la plataforma de ‘streaming’ si no actualizan sus