Gigantes tecnológicos crean “Frontier Model Forum”: un grupo de vigilancia que ayudará a regular el desarrollo de la Inteligencia Artificial

"El Foro será un vehículo para debates y acciones interinstitucionales sobre la seguridad y la responsabilidad de la IA”, expresó Google en un comunicado

- Advertisement -

Empresas reconocidas en el área de la tecnología como Google, OpenAI, Microsoft y Anthropic anunciaron la creación del “Frontier Model Forum”, un grupo de vigilancia del sector que tendrá como objetivo principal ayudar a regular el desarrollo de la Inteligencia Artificial.

En una declaración publicada por Google, los gobiernos del mundo realizan varias investigaciones para regular el desarrollo de la IA. Sin embargo, “es necesario seguir trabajando en las normas de seguridad y las evaluaciones”.

También puedes leer: Según la OMS la Hepatitis es más mortal que la tuberculosis, malaria o el VIH juntas hacia el 2040: al menos 350 millones de personas la padecen

“El Foro será un vehículo para debates y acciones interinstitucionales sobre la seguridad y la responsabilidad de la IA”, expresó el comunicado.

Asimismo, la iniciativa buscará avanzar en la seguridad de la Inteligencia Artificial, con mejores prácticas para su desarrollo responsable. La colaboración de varios país, líderes servirán como apoyo para desarrollar aplicaciones.

“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano”, así lo anunció el vicepresidente y presidente de Microsoft, Brad Smith.

El Frontier Model Forum creará un consejo asesor para dirigir y darle prioridad a las estrategias que el grupo proponga.

inteligencia artificial
Foto: Agencias.

Te puede interesar:

¿Deseas recibir noticias en tu celular? Únete a nuestro canal de Telegram o grupo de WhatsApp a través de los enlaces: Telegram https://t.me/elvigilantemcbo y WhatsApp https://bit.ly/3wjIg7T. También puedes seguirnos en Instagram, Facebook y Twitter como @elvigilantemcbo. 

- Advertisement -

Popular

LO MÁS Reciente