Hoy: 23 de diciembre de 2024
Un grupo de investigadores de la Universidad Magna Graecia de Catanzaro (Italia) utilizó la tecnología de inteligencia artificial (IA) detrás de ChatGPT para crear datos falsos y respaldar afirmaciones científicas no verificadas. Esto, revelado en una carta publicada en Jama Ophthalmology y citada por Nature
Aunque los datos falsos generados por ChatGPT parecen ser de origen humano a primera vista, un análisis detallado permite detectar su origen y según el cirujano Giuseppe Giannaccare, reconocer la fuente no humana es posible con una inspección minuciosa.
Los investigadores evaluaron estos datos falsos mediante un protocolo de detección para verificar su autenticidad y encontraron discrepancias en el sexo designado de los “participantes”, así como falta de correlación entre las medidas pre y postoperatorias en las pruebas visuales.
Se examinó la distribución de números en el conjunto de datos, lo que reveló patrones no aleatorios en los valores de edad de los participantes, lo que sería inusual en datos genuinos. Estas anomalías podrían pasar desapercibidas en una revisión por pares convencional.
Expertos argumentan que las revistas científicas necesitarán actualizar sus controles de calidad para identificar datos sintéticos generados por ChatGPT, ya que las técnicas actuales pueden no ser suficientes para detectar estas manipulaciones.
El investigador Wilkinson lidera un proyecto para diseñar herramientas de evaluación más efectivas. Él sugiere que, así como ChatGPT puede ser parte del problema, también podría aportar soluciones automatizadas para estos controles, para ofrecer una posible solución a esta problemática en la investigación científica.