Hoy: 22 de noviembre de 2024
Microsoft está actualmente en el proceso de entrenamiento de un nuevo modelo de Inteligencia Artificial (IA) denominado internamente como MAI-1. Este modelo cuenta con la impresionante cantidad de 500.000 millones de parámetros y se considera “suficientemente grande” para competir con los modelos de última generación lanzados por otras empresas tecnológicas líderes, como Google, Anthropic y OpenAI.
El equipo responsable de su desarrollo está bajo la supervisión de Mustafa Suleyman, exlíder en IA de Google y actual director ejecutivo de la startup Inflection AI. Este avance fue anticipado recientemente por The Information.
Este medio también ha indicado que el nuevo modelo de IA en el que trabaja Microsoft, conocido a nivel interno como MAI-1, tendrá un tamaño mucho mayor que cualquiera de los modelos de código abierto más pequeños que Microsoft haya desarrollado previamente.
Esto significa que este modelo, que tendrá aproximadamente 500.000 millones de parámetros, requerirá más datos de potencia de computación y entrenamiento, lo que lo encarecerá, según fuentes consultadas por este medio.
Asimismo, MAI-1 se podrá basar en datos de formación y otras tecnologías de Inflection, que se enfoca en el desarrollo de la IA personalizada. Entre sus trabajos destaca Pi, un chatbot capaz de proporcionar conocimiento basado en los intereses y necesidades de los usuarios.
Con esta nueva IA, a la que Microsoft podría hacer referencia en la próxima conferencia para desarrolladores Microsoft Build (prevista para 21-23 de mayo), la tecnológica espera competir con los modelos de última generación de Google, Anthropic y OpenAI.
Conviene recordar que en los últimos meses Microsoft ha presentado diferentes modelos de lenguaje, como Phi-1, que trabaja con 1.300 millones de parámetros y se actualizó hace unos meses con Phi-1.5, con el que se obtuvo un rendimiento comparable al de modelos con un tamaño hasta cinco veces mayor.
La última iteración es Phi-2, capaz deobtener resultados de razonamiento y comprensión de lenguaje con un rendimiento “de vanguardia” entre lo modelos con menos de 13.000 millones de parámetros, según avanzó hace unas semanas.