Home » Les modèles d’intelligence artificielle deviennent moins transparents, avertissent les scientifiques

Les modèles d’intelligence artificielle deviennent moins transparents, avertissent les scientifiques

by Thomas

Mais pourquoi les utilisateurs devraient-ils se soucier de la transparence de l’IA ?

« Moins de transparence rend plus difficile pour les autres entreprises de comprendre si elles peuvent construire en toute sécurité des apps qui s’appuient sur des modèles commerciaux ; pour les chercheurs de mener des recherches qui s’appuient sur des modèles commerciaux ; pour les décideurs politiques de créer des politiques significatives pour limiter cette technologie puissante ; et pour les consommateurs de comprendre les limites des modèles ou de demander réparation pour les dommages causés », indique le document de l’Université de Stanford.

Pour résoudre ce problème, M. Bomasani et une équipe de Stanford, du MIT et de Princeton mettent au point l’indice de transparence des modèles fondamentaux (Fundamental Model Transparency Index – FMTI). Cet indice évalue un large éventail de sujets afin de dresser un tableau complet du degré de transparence des entreprises en ce qui concerne leurs modèles d’intelligence artificielle. Le classement tient compte d’aspects tels que la manière dont les entreprises construisent leurs modèles fondamentaux, la disponibilité des ensembles de données, leur fonctionnement et leur utilisation ultérieure.

Les résultats ne sont pas idéaux. Sur une échelle de 0 à 100, les scores les plus élevés se situent entre 47 et 54, le Llama 2 de Meta n’arrivant qu’en deuxième position. Le score de transparence d’OpenAI était de 47 %, celui de Google de 41 % et celui d’Anthropic de 39 %.

Source : Stanford University Foundation Center for Pattern Studies

Source : Stanford University Foundation Center for Pattern Studies


Pour de nombreux décideurs de l’UE, mais aussi des États-Unis, du Royaume-Uni, de la Chine, du Canada, des pays du G7 et de nombreux autres gouvernements, la transparence est une priorité absolue », a déclaré M. Bomasani.

Les implications plus larges de ces résultats sont claires. Les modèles d’IA étant de plus en plus intégrés dans différents domaines, la transparence devient essentielle. Et ce, non seulement pour des raisons éthiques, mais aussi pour des raisons d’applications pratiques et de fiabilité.

Related Posts

Leave a Comment