Dans le but de démocratiser le développement des outils d’IA, le fabricant d’IA Claude Anthropic s’est associé à l’organisation à but non lucratif Collective Intelligence Project pour explorer une voie différente pour le développement de l’IA, en interrogeant 1 000 Américains pour rédiger une constitution de l’IA.
« L’IA aura un impact transformateur sur le monde », a déclaré Divya Siddarth, cofondateur de Collective Intelligence Project, à TCN. « Pourtant, très peu de personnes ont la possibilité de décider exactement à quoi cela ressemblera. Nous voulions mettre en place des processus pour que ce ne soit plus le cas ».
Le projet d’intelligence collective, lancé en janvier par Siddarth – économiste politique et technologue social – et par Saffron Huang, chercheur, écrivain et ingénieur, vise à promouvoir l’intelligence collective au service du progrès collectif. En mars, le CIP s’est associé à Anthropic dans le cadre de l’initiative Collective Constitutional AI pour développer un modèle d’IA conçu avec des contributions extérieures et explorer la manière dont les processus démocratiques peuvent influencer le développement de l’IA.
« Nous voulions rassembler certains des travaux réalisés dans l’espace démocratique et dans l’espace de l’intelligence collective autour de la question de savoir ce que signifie prendre de bonnes décisions pour qui et qui est impliqué », a déclaré M. Siddarth. « Beaucoup de recherches ont été menées à ce sujet avec les technologies de transformation, en particulier l’IA, sur laquelle nous avons tous deux travaillé. «
Nous avons collaboré avec @AnthropicAI pour traduire les contributions publiques des Américains de tous les jours directement en une nouvelle constitution collective pour Claude
Oui, l’IA du peuple est fantastique.
Découvrez ce que nous avons fait & ; découvert sur l’IA démocratique.
▶️https://t.co/zjnqwpLn9Z pic.twitter.com/jI9FKrrhky
– Collective Intelligence Project (@collect_intel) October 17, 2023
Dans un billet de blog, Anthropic a demandé à 1 000 membres du public américain d’aider le développeur d’IA à choisir les règles de son chatbot d’IA. Anthropic a déclaré que l’échantillon était suffisamment large pour être représentatif des adultes américains en termes d’âge, de sexe, de revenu et de localisation. Les participants pouvaient choisir parmi une liste de règles pour l’IA ou proposer leurs propres règles.
Anthropic n’a pas répondu immédiatement à la demande de commentaire de TCN.
Selon Anthropic, les participants ont fait 1 117 déclarations. Ils ont voté plus de 38 000 fois sur des questions telles que la discrimination raciale ou sexuelle de l’IA, ajoutant que, malgré des opinions divergentes, la plupart des affirmations ont fait l’objet d’un large consensus.
Bien que l’enquête ait tenté de rassembler un échantillon diversifié, M. Siddarth a reconnu que les expériences futures devraient aller au-delà des Américains aisés et férus de technologie.
« Il ne s’agit que de personnes vivant aux États-Unis, ce qui est bien sûr extrêmement limité par rapport à l’ensemble de la population mondiale », a-t-elle déclaré. « En fait, comme beaucoup de personnes qui développent des technologies, elles ont probablement des valeurs qui se recoupent avec celles des Américains et de beaucoup d’autres personnes.
M. Siddarth a indiqué que le projet d’intelligence collective avait également collaboré avec le développeur d’IA rival OpenAI sur d’autres projets d’IA démocratique. Le projet de Constitution de l’IA n’a été réalisé qu’à l’aide des modèles d’IA de Claude Anthropics.
« Je pense que c’est la raison pour laquelle il s’agit d’une bonne comparaison, car nous prenons le modèle que [Anthropic] a déjà entraîné sur une constitution que les chercheurs d’Anthropic ont rédigée et nous le comparons directement au même modèle », a déclaré M. Siddarth. « Mais avec une constitution rédigée par le public.
Selon M. Siddarth, l’expérience a permis de faire une découverte surprenante, à savoir les diverses déclarations indiquant que le modèle d’IA ne devait pas faire de discrimination sur la base d’un handicap. Ces déclarations ne figuraient pas dans la constitution anthropique.
« Je ne pense pas que ce soit parce que c’était leur intention que cela ne devrait pas y figurer », a-t-elle déclaré. « C’est juste que ce n’est pas quelque chose sur lequel ils ont fini par mettre l’accent, et c’est ce qui a été mis en avant de manière significative.
Anthropic, lancé en 2021, n’est qu’un des développeurs qui s’efforcent de mettre sur le marché une intelligence artificielle plus rapide et plus avancée. Microsoft, Google, Meta et Amazon ont investi des milliards dans les développeurs d’IA générative. En conséquence, 2023 est une année lucrative pour les développeurs d’IA : en février, Google a annoncé un investissement de 400 millions de dollars dans Anthropic. Cet investissement a été suivi en septembre par l’investissement de 4 milliards de dollars d’Amazon dans Anthropic.
Au début de l’année, Anthropic a rejoint OpenAI, Google et Microsoft en s’engageant à œuvrer pour un développement responsable de l’IA après avoir rencontré l’administration Biden. D’autres entreprises se sont jointes à cet engagement, comme Amazon, Meta et Inflection. En septembre, NVIDIA, Scale AI, Cohere, Adobe, IBM, Palantir, Salesforce et Stability AI ont également adhéré à cet engagement.
Malgré les limites de l’expérience de l’IA constitutionnelle, M. Siddarth est optimiste quant à l’avenir du projet d’intelligence collective et de la démocratie dans l’IA, et il souhaite que le public participe davantage au développement de cette technologie émergente.
« Je pense que l’essentiel est de multiplier ces processus et de tirer les leçons de ce que nous avons déjà fait », a-t-elle déclaré. « Nous travaillons avec des groupes de la société civile, différents décideurs politiques et toutes ces différentes entreprises pour y parvenir. «