Home » L’Allemagne, la France, la Suède et le Canada expriment leur inquiétude face à l’IA

L’Allemagne, la France, la Suède et le Canada expriment leur inquiétude face à l’IA

by Tim

Plusieurs gouvernements mondiaux sont de plus en plus inquiets face à la boîte de Pandore de l’intelligence artificielle avancée qui a été ouverte avec la publication de ChatGPT par OpenAI. Alors même qu’ils réfléchissent à d’éventuelles réglementations, il n’est pas certain qu’il soit possible de faire rentrer le génie dans la bouteille.

Mardi, le commissaire canadien à la protection de la vie privée a déclaré qu’il enquêtait sur le ChatGPT, rejoignant ainsi ses collègues d’une liste croissante de pays – dont l’Allemagne, la France et la Suède – qui ont exprimé leurs inquiétudes au sujet du populaire chatbot, après que l’Italie l’a totalement interdit dimanche.

« La technologie de l’intelligence artificielle et ses effets sur la vie privée sont une priorité pour mon bureau », a déclaré Philippe Dufresne, commissaire à la protection de la vie privée du Canada, dans un communiqué. « Nous devons suivre et devancer les progrès technologiques rapides, et c’est l’un de mes principaux domaines d’intervention en tant que commissaire.

L’interdiction imposée par l’Italie découle d’un incident survenu le 20 mars, au cours duquel OpenAI a reconnu l’existence d’un bogue dans le système qui a exposé les informations de paiement et l’historique des conversations des utilisateurs. OpenAI a brièvement mis ChatGPT hors ligne pour corriger le bogue.

« Nous n’avons pas besoin d’une interdiction des applications d’intelligence artificielle, mais plutôt de moyens de garantir des valeurs telles que la démocratie et la transparence », a déclaré lundi un porte-parole du ministère allemand de l’intérieur au média allemand Handelsblatt.

Mais est-il possible d’interdire les logiciels et l’intelligence artificielle dans un monde où les réseaux privés virtuels (VPN) existent ?

Un VPN est un service qui permet aux utilisateurs d’accéder à Internet de manière sécurisée et privée en créant une connexion cryptée entre leur appareil et un serveur distant. Cette connexion masque l’adresse IP du domicile de l’utilisateur, ce qui donne l’impression qu’il accède à l’internet depuis le serveur distant plutôt que depuis son emplacement réel.

En outre, « une interdiction de l’I.A. n’est peut-être pas réaliste car de nombreux modèles d’I.A. sont déjà utilisés et d’autres sont en cours de développement », a déclaré à TCN Jake Maymar, vice-président des innovations au sein de la société de conseil en I.A., le Glimpse Group. « La seule façon d’appliquer une interdiction de l’I.A. serait d’interdire l’accès aux ordinateurs et à la technologie du nuage, ce qui n’est pas une solution pratique.

La tentative de l’Italie d’interdire le ChatGPT intervient dans un contexte d’appréhension croissante quant à l’impact que l’intelligence artificielle aura sur la vie privée et la sécurité des données, ainsi que sur son utilisation abusive potentielle.

Le mois dernier, un groupe de réflexion sur l’intelligence artificielle, le Center for A.I. and Digital Policy, a déposé une plainte officielle auprès de la Commission fédérale du commerce des États-Unis, accusant OpenAI de pratiques trompeuses et déloyales après l’apparition d’une lettre ouverte signée par plusieurs membres éminents de la communauté technologique qui appelaient à un ralentissement du développement de l’intelligence artificielle.

OpenAI a tenté de répondre à ces préoccupations dans un billet de blog du 5 avril sur la sécurité de l’IA, qui souligne l’engagement de l’entreprise à mener des recherches à long terme sur la sécurité et à coopérer avec la communauté de l’IA.

OpenAI a déclaré qu’elle visait à améliorer l’exactitude des faits, en réduisant la probabilité d' »hallucinations », tout en protégeant la vie privée des utilisateurs et des enfants, notamment en examinant les options de vérification de l’âge. « Nous reconnaissons également que, comme toute technologie, ces outils comportent des risques réels. C’est pourquoi nous nous efforçons d’intégrer la sécurité dans notre système à tous les niveaux », a écrit l’entreprise.

Le message d’OpenAI n’a pas plu à certains, qui l’ont qualifié de « poudre aux yeux » qui n’aborde pas le risque existentiel posé par l’IA.

Si certains tirent la sonnette d’alarme sur le ChatGPT, d’autres estiment que le chatbot n’est pas le problème, mais qu’il s’agit plutôt d’une question plus large concernant l’utilisation que la société entend en faire.

« Ce moment nous donne l’occasion de réfléchir au type de société que nous voulons être, aux règles que nous voulons appliquer à tous de manière égale, qu’ils soient dotés d’une IA ou non, et au type de règles économiques qui servent le mieux la société », a déclaré Barath Raghavan, professeur agrégé d’informatique à l’USC Viterbi, à TCN. « Les meilleures réponses politiques ne seront pas celles qui ciblent les mécanismes technologiques spécifiques de l’IA d’aujourd’hui (qui seront rapidement dépassés), mais les comportements et les règles que nous aimerions voir s’appliquer universellement. « 

Related Posts

Leave a Comment