Grandes empresas tecnológicas crean foro de seguridad de la IA
Empresas tecnológicas, entre las que se encuentra Google y Microsoft, se unen en un foro con el fin de regular la seguridad y ética de la IA.
Un grupo de las principales corporaciones tecnológicas, incluyendo a gigantes de Silicon Valley como Google y Microsoft, se han unido a las nuevas incorporaciones OpenAI y Anthropic para establecer un organismo industrial dedicado a la seguridad de la inteligencia artificial (IA).
Esta alianza, conocida como el Foro del modelo de frontera, ha anunciado un nuevo director y una inversión inicial de 10 millones de dólares con el objetivo de supervisar y promover la ética en la IA a nivel global.
Estas empresas dieron a conocer su elección de liderazgo, seleccionando a Chris Meserole, un destacado experto en seguridad de la IA y exdirector de Brookings. Meserole asumirá el cargo de director ejecutivo del Foro de la Frontera.
Además de la nueva dirección, el Foro anunció su primera ronda de financiación, que asciende a más de 10 millones de dólares. Estos fondos provienen no solo de las empresas participantes, sino también de organizaciones filantrópicas comprometidas con el avance de la IA. El objetivo principal de este fondo es descubrir enfoques innovadores para la evaluación y prueba de los últimos modelos de IA, también conocidos como "equipo rojo".
Si bien este esfuerzo está en sus etapas iniciales, el Foro ya se asemeja a una organización típica de promoción de la industria. Aún debe establecer un consejo asesor con diversas perspectivas y experiencia, lo que genera incertidumbre sobre cuántos críticos de la IA estarán involucrados para aportar una perspectiva contrapuesta a la actitud cauta pero entusiasta del Foro hacia el desarrollo de la IA.
Las preocupaciones sobre las implicaciones éticas de la IA, especialmente en relación con el contenido generado por esta tecnología, continúan creciendo. La regulación es vista con buenos ojos por los ejecutivos de estas empresas, siempre y cuando no obstaculice el desarrollo de modelos de IA más avanzados.