Home » La mise à l’écart de Sam Altman fait suite à une affirmation dangereuse concernant une percée dans le domaine de l’IA : Reuters

La mise à l’écart de Sam Altman fait suite à une affirmation dangereuse concernant une percée dans le domaine de l’IA : Reuters

by Tim

Mercredi, Sam Altman a été rétabli dans ses fonctions de PDG d’OpenAI après 72 heures d’agitation. Mais alors que la poussière retombe sur l’entreprise d’IA, un nouveau rapport de Reuters suggère que la justification de la révocation d’Altman, à savoir qu’il n’était « pas communicatif », pourrait être liée au fait qu’OpenAI a franchi une étape importante dans sa progression vers l’intelligence artificielle générale (AGI).

Selon l’agence de presse, des sources au fait de la situation ont déclaré que des chercheurs avaient envoyé une lettre au conseil d’administration de l’OpenAI pour l’avertir d’une nouvelle découverte en matière d’IA qui pourrait menacer l’humanité, ce qui a incité le conseil à démettre M. Altman de ses fonctions de direction.

Ces sources anonymes ont déclaré à Reuters que Mira Murati, directrice technique d’OpenAI, avait expliqué aux employés que la percée, décrite comme « Q Star » ou « (Q*) », était à l’origine de la décision prise à l’encontre d’Altman, sans la participation de Greg Brockman, président du conseil d’administration, qui a démissionné d’OpenAI en signe de protestation.

L’agitation au sein d’OpenAI a été présentée comme une bataille idéologique entre ceux qui voulaient accélérer le développement de l’IA et ceux qui souhaitaient décélérer le travail en faveur d’un progrès plus responsable et plus réfléchi, familièrement appelés les « décélérateurs ». Après le lancement de GPT-4, plusieurs membres éminents de l’industrie technologique ont signé une lettre ouverte demandant à OpenAI de ralentir le développement des futurs modèles d’IA.

Mais comme TCN l’a rapporté au cours du week-end, les experts en IA ont émis l’hypothèse que les chercheurs d’OpenAI avaient atteint une étape majeure qui ne pouvait pas être divulguée publiquement, ce qui a provoqué une confrontation entre les origines humanistes et à but non lucratif d’OpenAI et son avenir d’entreprise à but lucratif massivement couronné de succès.

Le samedi, moins de 24 heures après le coup d’État, la rumeur a commencé à se répandre qu’OpenAI cherchait à conclure un accord pour faire revenir Altman, alors que des centaines d’employés d’OpenAI menaçaient de démissionner. Les concurrents ont ouvert leurs bras et leurs portefeuilles pour les accueillir.

OpenAI n’a pas encore répondu à la demande de commentaire de TCN.

L’intelligence artificielle générale désigne une IA capable de comprendre, d’apprendre et d’appliquer son intelligence pour résoudre n’importe quel problème, à l’instar d’un être humain. L’AGI peut généraliser son apprentissage et son raisonnement à diverses tâches, en s’adaptant à de nouvelles situations et à des travaux pour lesquels elle n’a pas été explicitement programmée.

Jusqu’à récemment, on pensait que l’idée de l’AGI (ou de la Singularité) ne se concrétiserait pas avant des décennies, mais avec les progrès de l’IA, notamment le ChatGPT d’OpenAI, Claude d’Anthropic et Bard de Google, les experts pensent que nous sommes à des années, et non à des décennies, de ce jalon.

« Je dirais qu’il faut compter entre trois et huit ans, en partie parce que les grands modèles de langage comme le Llama2 de Meta et le GPT-4 d’OpenAI sont utiles et constituent un véritable progrès », a déclaré Ben Goertzel, PDG de SingularityNET et pionnier de l’IA, au TCN. « Ces systèmes ont considérablement accru l’enthousiasme du monde pour l’AGI, de sorte que vous aurez plus de ressources, à la fois financières et humaines – plus de jeunes gens intelligents veulent se plonger dans le travail et travailler sur l’AGI. « 

Related Posts

Leave a Comment