Mercredi dernier, un quatuor de puissances technologiques, OpenAI, Microsoft, Alphabet et Anthropic, ont dévoilé aux États-Unis leur intention conjointe de bâtir un forum dédié à la régulation de l’évolution de l’intelligence artificielle (IA).
Le but premier de cette initiative, comme l’ont exprimé ces géants technologiques, est d’encadrer le développement des systèmes d’intelligence artificielle de pointe de manière à ce qu’il soit à la fois sûr et responsable. Ils cherchent à aller au-delà des limites établies par les modèles d’IA actuellement les plus avancés.
Des experts de l’IA alertent sur les dangers potentiels des modèles d’IA très avancés, tels que ChatGPT. Ils soutiennent que ces technologies pourraient représenter une menace sérieuse pour la sécurité publique en raison de leurs capacités exceptionnelles.
La nouvelle plateforme, baptisée Frontier Model Forum, aura pour objectif de promouvoir la recherche sur la sécurité de l’IA. Elle tentera d’établir les meilleures stratégies pour l’introduction des systèmes d’IA de pointe, en travaillant conjointement avec les responsables politiques, le monde universitaire et les entreprises.
Brad Smith, président de Microsoft, a déclaré que les entreprises à la pointe de la création de technologies d’IA doivent endosser la responsabilité d’en assurer la sécurité, l’intégrité et la maîtrise humaine.
Le forum planifie l’installation d’un conseil consultatif dans les mois à venir. De plus, il prévoit d’organiser le financement d’un groupe de travail et de mettre en place un conseil d’administration pour diriger ses initiatives.
md
Le but premier de cette initiative, comme l’ont exprimé ces géants technologiques, est d’encadrer le développement des systèmes d’intelligence artificielle de pointe de manière à ce qu’il soit à la fois sûr et responsable. Ils cherchent à aller au-delà des limites établies par les modèles d’IA actuellement les plus avancés.
Des experts de l’IA alertent sur les dangers potentiels des modèles d’IA très avancés, tels que ChatGPT. Ils soutiennent que ces technologies pourraient représenter une menace sérieuse pour la sécurité publique en raison de leurs capacités exceptionnelles.
La nouvelle plateforme, baptisée Frontier Model Forum, aura pour objectif de promouvoir la recherche sur la sécurité de l’IA. Elle tentera d’établir les meilleures stratégies pour l’introduction des systèmes d’IA de pointe, en travaillant conjointement avec les responsables politiques, le monde universitaire et les entreprises.
Brad Smith, président de Microsoft, a déclaré que les entreprises à la pointe de la création de technologies d’IA doivent endosser la responsabilité d’en assurer la sécurité, l’intégrité et la maîtrise humaine.
Le forum planifie l’installation d’un conseil consultatif dans les mois à venir. De plus, il prévoit d’organiser le financement d’un groupe de travail et de mettre en place un conseil d’administration pour diriger ses initiatives.
md
Commentaire