Microsoft, Google y OpenAI unidos para prevenir el uso fraudulento de la inteligencia artificial en las elecciones de 2024

19 de febrero de 2024
1 minuto de lectura
Inteligencia Artificial | Fuente: Europa Press
Inteligencia Artificial | Fuente: Europa Press

El deepfakes ha surgido como una herramienta potencialmente peligrosa a la hora de votar

Un total de 20 destacadas empresas tecnológicas, incluyendo gigantes como Google, Microsoft, Meta y OpenAI, han anunciado un compromiso conjunto para prevenir el uso fraudulento de la Inteligencia Artificial (IA) en los procesos electorales previstos para este año.

Asimismo, el acuerdo denominado AI Elections Accord fue revelado durante la Conferencia de Seguridad de Múnich (Alemania) el pasado viernes.

El objetivo principal del pacto es enfrentar la amenaza de los deepfakes, una forma de manipulación de contenido multimedia que utiliza herramientas de IA para crear material realista y engañoso. Este fenómeno plantea preocupaciones sobre la legitimidad de la información, especialmente cuando altera la apariencia, la voz o las acciones de personas reales.

El deepfakes ha surgido como una herramienta potencialmente peligrosa en el ámbito electoral, ya que puede ser utilizado para manipular la imagen y la voz de candidatos políticos y funcionarios electorales.

En este contexto, el acuerdo firmado por empresas líderes, entre ellas Amazon, Meta, Nokia, LinkedIn, Snapchat, Adobe, IBM, McAfee, TikTok y OpenAI, busca salvaguardar el derecho de los votantes a elegir a sus líderes sin la interferencia perjudicial de la IA.

Microsoft, uno de los participantes firmantes, ha destacado que la IA está generando una forma de manipulación nueva y potencialmente más peligrosa.

La compañía ha señalado ejemplos recientes, como las llamadas automáticas en las primarias de New Hampshire (Estados Unidos) que falsificaron la voz y las palabras del presidente Joe Biden.

El acuerdo establece varios compromisos para fomentar el uso legítimo de herramientas de IA

El acuerdo establece varios compromisos para fomentar el uso legítimo de herramientas de IA. En primer lugar, insta a las empresas desarrolladoras a fortalecer la seguridad de sus sistemas para prevenir y detectar el uso fraudulento de estas tecnologías. También aboga por la promoción de la autenticidad del contenido mediante etiquetas y marcas de agua, facilitando así la distinción entre contenido auténtico y falso.

Además, el acuerdo busca promover la transparencia y desarrollar la resiliencia de la sociedad ante las falsificaciones, especialmente en contextos electorales. Respetando la libertad de expresión, se compromete a proteger a aquellos que buscan estar informados.

Finalmente, el pacto obliga al sector tecnológico a colaborar con organizaciones de la sociedad civil, académicos y otros expertos para crear programas públicos y soluciones basadas en IA. Estas medidas buscan proteger el debate público y salvaguardar la integridad de los procesos democráticos en todo el mundo, según lo expresado por Microsoft.

Responder

Your email address will not be published.

No olvides...