Los gigantes tecnológicos Google, Microsoft, Anthropic y OpenAI anunciaron la creación de una nueva organización para combatir los riesgos de seguridad de la inteligencia artificial.
La finalidad de estas cuatro compañías es garantizar que esta tecnología cuente con todas las medidas para que sea segura. De esta forma decidieron crear el ‘Frontier Model Forum’ (Foro del Modelo de Frontera), el cual se encargará de promover el “desarrollo responsable” de los modelos más sofisticados de IA y de “minimizar los riesgos potenciales”.
Los miembros se comprometen a compartir entre ellos, además con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.
El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.
La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.
En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido. Por esa razón, la Casa Blanca instó a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su “deber moral”, como dijo la vicepresidenta estadounidense Kamala Harris.
La administración de Joe Biden también logró asegurar los “compromisos” de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender “tres principios” en el desarrollo de inteligencia artificial: seguridad, protección y confianza.
Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude; así como encontrar la manera de marcar el contenido generado por IA para que quede autenticado claramente como tal.
Los líderes de estas empresas no niegan los riesgos. Por ejemplo, el director de OpenAI, Sam Altman, y el líder de DeepMind (Google), Demis Hassabis, instaron a luchar contra “los riesgos de extinción” de la humanidad vinculados a la inteligencia artificial.
Durante una audiencia en el Congreso, Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.
Entre tanto, OpenAI trabaja para lograr una IA denominada “general” con capacidades cognitivas similares a las de los humanos.
La empresa con sede en California aseguró que se enfoca en los “modelos de frontera” para establecer unos límites de seguridad para la inteligencia artificial.
“Son modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública”, indicó.
De esta forma, la compañía reconoció que estas capacidades peligrosas podrían “surgir inesperadamente” y que “es difícil evitar realmente que un modelo implementado sea mal utilizado”.
Infórmate minuto a minuto sobre esta y otras noticias del mundo en nuestro Facebook.
ContentMr Bit Bonus Să Chestiune Venit 2 500 Lei Și 500 Rotiri Gratis: Slot Machine… Read More
BlogsLiberated to Play RTG Slots: slot Fire and IceConsumer experienceGaming is simple on the Fruity… Read More
ContentKeks Slot: Caça-Níquel GradualArtigos PopularesBarulho Brazino777 é exemplar site confiado que confiável para apostas online?Legendary… Read More
ContentGreen Chilli Revisão do jogo de slot - Aproveite a adrenalina esfogíteado jogo PT Few… Read More
PostsFlux Rtp slot: Having the Correct Approach away from Playing Classic Slots with Real cashSpecial… Read More
ContentSecret forest Slot Machine | Abundancia criancice cassinosFATORES PARA Determinar Quejando É Arruíi avantajado aberta… Read More