Home » Les gouvernements doivent “agir plus vite” en matière de réglementation de l’IA, déclare le président de Microsoft

Les gouvernements doivent « agir plus vite » en matière de réglementation de l’IA, déclare le président de Microsoft

by Patricia

Le président de Microsoft, Brad Smith, a ajouté son nom cette semaine à la liste croissante des géants de l’industrie technologique qui tirent la sonnette d’alarme et appellent les gouvernements à réglementer l’intelligence artificielle (IA).

« Le gouvernement doit agir plus rapidement », a déclaré M. Smith lors d’une table ronde qui s’est tenue jeudi matin à Washington et à laquelle participaient des décideurs politiques, a rapporté le New York Times.

L’appel de Microsoft en faveur d’une réglementation intervient à un moment où le développement rapide de l’intelligence artificielle – en particulier des outils d’IA générative – fait l’objet d’une surveillance accrue de la part des autorités de réglementation.

L’IA générative fait référence à un système d’intelligence artificielle capable de générer du texte, des images ou d’autres médias en réponse à des invites fournies par l’utilisateur. Parmi les exemples les plus connus, citons la plateforme de génération d’images Midjourney, Bard de Google et ChatGPT d’OpenAI.

L’appel à une réglementation de l’IA s’est fait plus pressant depuis le lancement public de ChatGPT en novembre. D’éminentes personnalités, dont Warren Buffett, Elon Musk et même Sam Altman, PDG d’OpenAI, se sont exprimées sur les dangers potentiels de cette technologie. L’un des facteurs clés de la grève des scénaristes de la WGA est la crainte que l’IA ne soit utilisée pour remplacer les scénaristes humains, un sentiment partagé par les artistes de jeux vidéo, maintenant que les studios de jeux s’intéressent à cette technologie.

M. Smith s’est prononcé en faveur de l’obligation pour les développeurs d’obtenir une licence avant de déployer des projets d’IA avancés, et a suggéré que ce qu’il appelle l’IA « à haut risque » ne soit exploitée que dans des centres de données d’IA agréés.

Le dirigeant de Microsoft a également appelé les entreprises à assumer la responsabilité de la gestion de la technologie qui a pris le monde d’assaut, suggérant que l’impulsion ne repose pas uniquement sur les gouvernements pour gérer l’impact sociétal potentiel de l’IA.

« Cela signifie que vous informez le gouvernement lorsque vous commencez à faire des tests », a déclaré M. Smith. « Même lorsque le déploiement est autorisé, vous avez le devoir de continuer à le surveiller et d’informer le gouvernement si des problèmes inattendus surviennent.

Malgré ces inquiétudes, Microsoft a misé gros sur l’IA, en investissant plus de 13 milliards de dollars dans le développeur de ChatGPT, OpenAI, et en intégrant le populaire chatbot dans son navigateur web Bing.

« Nous sommes engagés et déterminés en tant qu’entreprise à développer et à déployer l’IA de manière sûre et responsable », a écrit Smith dans un billet sur la gouvernance de l’IA. « Cependant, nous reconnaissons également que les garde-fous nécessaires à l’IA requièrent un sens des responsabilités largement partagé et ne doivent pas être laissés aux seules entreprises technologiques. »

En mars, Microsoft a lancé son Security Copilot, le premier outil spécialisé de sa gamme Copilot qui utilise l’IA pour aider les professionnels de l’informatique et de la cybersécurité à identifier les cybermenaces à l’aide de vastes ensembles de données.

Les commentaires de Smith font écho à ceux du PDG d’OpenAI, Sam Altman, lors d’une audition devant la commission judiciaire du Sénat américain la semaine dernière. M. Altman a suggéré la création d’une agence fédérale chargée de réglementer et de fixer des normes pour le développement de l’IA.

« Je créerais une nouvelle agence qui délivrerait des licences pour tout effort dépassant une certaine échelle de capacités, et qui pourrait retirer cette licence et garantir le respect des normes de sécurité », a déclaré M. Altman.

Microsoft n’a pas répondu immédiatement à la demande de commentaire de TCN.

Related Posts

Leave a Comment