China, 25 de julio 2023— OpenAI, Microsoft , Google, de Alphabet , y Anthropic están poniendo en marcha
un foro para regular el desarrollo de grandes modelos de aprendizaje automático, dijeron el miércoles los líderes del sector de la inteligencia artificial (IA).
El grupo se centrará en garantizar el desarrollo seguro y responsable de lo que se denomina "modelos fronterizos de IA", que superan las capacidades presentes en los modelos existentes más avanzados.
Se trata de modelos básicos muy competentes que podrían tener capacidades peligrosas suficientes para plantear graves riesgos para la seguridad pública.
Los modelos generativos de IA, como el que está detrás de chatbots como ChatGPT, extrapolan grandes cantidades de datos a gran velocidad para compartir respuestas en forma de prosa, poesía e imágenes.
Aunque los casos de uso de estos modelos son abundantes, organismos gubernamentales como la Unión Europea y líderes del sector como Sam Altman, consejero delegado de OpenAI, han afirmado que serían necesarias medidas de protección adecuadas para atajar el riesgo que plantea la IA.
El organismo del sector, Frontier Model Forum, trabajará para hacer avanzar la investigación sobre la seguridad de la IA, identificar las mejores prácticas para el despliegue de modelos de IA fronterizos y colaborar con reguladores, académicos y empresas.
Pero no ejercerá presión sobre los Gobiernos, según un portavoz de OpenAI.
"Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano", dijo en un comunicado Brad Smith, presidente de Microsoft.
El foro creará un consejo asesor en los próximos meses y también gestionará la financiación con un grupo de trabajo, además de crear una junta ejecutiva que dirija sus esfuerzos.