L’admissibilité de cette page est actuellement débattue.

Vous êtes invité à donner votre avis sur cette page de discussion, de manière argumentée en vous aidant notamment des critères d’admissibilité ou en présentant des sources extérieures et sérieuses.

Merci de ne pas retirer cet avertissement tant que la discussion n’est pas close.

Conseils d’utilisation

Après avoir apposé le modèle ((Admissibilité)) sur une page, suivez les étapes expliquées sur Wikipédia:Débat d'admissibilité/Aide :

Q*
Type
Projet informatique (d)Voir et modifier les données sur Wikidata

Q* (prononcer « Q-star ») est un projet (présenté comme confidentiel), révélé en 2023 par Reuters[1], et développé au sein d'OpenAI ; il s'agirait d'un projet de recherche et développement d'un nouveau modèle de langage (une intelligence artificielle) au raisonnement logique et mathématique ; un modèle qui pourrait s'approcher de ce qu'on appelle l'intelligence artificielle générale (IAG), c'est-à-dire d'un type d'IA qui serait capable de rapidement comprendre, apprendre et s'adapter à une grande variété de tâches.

Q* aurait déjà réussi à résoudre des exercices de mathématiques simples (de « niveau primaire ») mais qui peuvent laisser augurer de nouveaux progrès[2].

Enjeux

Le projet Q*, s'il aboutissait, aurait le potentiel de révolutionner le domaine de l'intelligence artificielle en lui faisant faire un grand pas vers l'intelligence artificielle générale, définie, selon Reuters, par OpenAI « comme des systèmes autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles »[1].

En effet, il rendrait l'intelligence artificielle capable de résoudre des problèmes très complexes, mieux et plus rapidement que ne le feraient les humains. L'intelligence artificielle pourrait aussi formuler et probablement résoudre des problèmes qui ne sont pas à la portée actuelle des humains.

Un tel projet soulève cependant des questions éthiques nouvelles et importantes. Ainsi, si une intelligence artificielle générale dépasse l'intelligence humaine, comment les humains peuvent s'assurer qu'elle sera utilisée à des fins bénéfiques ?

Histoire

Le projet Q* a été porté à la connaissance du public en novembre 2023. Selon Reuters : « une équipe de "scientifiques de l’IA" » a été formée « en combinant les équipes précédentes de "Code Gen" et de "Math Gen" », pour « optimiser les modèles d’IA existants pour améliorer leur raisonnement et éventuellement effectuer des travaux scientifiques »[1].
À propos d'une supposée « percée du modèle Q* », Sam Altman, interrogé par le journal The Verge le 30 novembre 2023 a répondu :

« Pas de commentaire particulier sur cette malheureuse fuite. Mais ce que nous avons dit — il y a deux semaines, ce que nous disons aujourd'hui, ce que nous disions il y a un an, ce que nous disions plus tôt — c'est que nous nous attendons à ce que les progrès dans cette technologie continuent d'être rapides et que nous nous attendons à continuer à travailler très fort pour trouver comment la rendre sûre et bénéfique »[3].

Dans le domaine de l'IA, la lettre Q peut désigner la fonction qui mesure la qualité d'une action exécutée dans un état donné du système[4].

En novembre 2023, certains employés d'OpenAI auraient fait part de leurs inquiétudes au conseil d'administration de l'entreprise, suggérant que Q* pourrait aboutir de manière imminente à l'émergence d'une intelligence artificielle générale[5] capable de rivaliser avec l'humain. Selon eux, cette IA aurait déjà atteint le niveau de mathématiques des élèves du primaire[5],[6],[7] (l'utilisation autonome d'une logique mathématique est jusqu'ici l'une des frontières que IAg (IA générative, comme Bard ou ChatGPT).

Selon Reuters, ceci aurait justifié le licenciement brutal de Sam Altman (PDG d'OpenAI)[5] par son conseil d'administration[8],[1].

Le conseil d'administration d'OpenAI a expliqué que le départ de Sam Altman aurait été dû à un manque de franchise à l'égard du Conseil, notamment concernant la commercialisation rapide d'avancées de l'IA sans une compréhension adéquate des implications[9].

Lindsey Held Bolton, porte-parole d'OpenAI, a contesté cette perspective dans une déclaration transmise au média The Verge où OpenAI explique que Mira Murati (ingénieure logiciel ayant contribué à développer ChatGPt et DALL-E, devenue directrice technique d'OpenAI) a expliqué aux employés de quoi parlaient les reportages des médias, mais sans avoir commenté l'exactitude de l'information.

Une source proche de la situation a informé The Verge que le conseil d'administration n'avait jamais reçu de lettre concernant un développement aussi révolutionnaire et que les progrès des recherches de l'entreprise n'avaient pas été pris en compte dans le licenciement brutal d'Altman[10].

D'autres acteurs du domaine de l'IA ont émis des doutes concernant les allégations d'apparition d'une intelligence artificielle générale (IAG).

La première panique à propos de l'imminence d'une IAG avait eu lieu vers 2013 à propos d'Atari Q-learning par DeepMind. La seconde a eu lieu vers 2016 à propos de Deep RL (partiellement déclenchée par AlphaGo).

Références

  1. a b c et d (en) Anna Tong, Jeffrey Dastin et Krystal Hu, « OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say » [« Les chercheurs d'OpenAI ont mis en garde le conseil d'administration contre une percée de l'IA avant l'éviction du PDG, selon des sources »], communiqué de presse, sur reuters.com, .
  2. (en) Jon Victor et Amir Efrati, « OpenAI Made an AI Breakthrough Before Altman Firing, Stoking Excitement and Concern », sur The Information, (consulté le ).
  3. (en) Alex Heath, « Interview: Sam Altman on being fired and rehired by OpenAI », sur The Verge, (consulté le ).
  4. (en) Tambet Matiisen, « Demystifying Deep Reinforcement Learning », sur neuro.cs.ut.ee, (consulté le ).
  5. a b et c (en) Anna Tong, Jeffrey Dastin et Krystal Hu, « OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say », sur reuters.com, (consulté le ) : « Some at OpenAI believe Q* (pronounced Q-Star) could be a breakthrough in the startup's search for what's known as artificial general intelligence (AGI), one of the people told Reuters. OpenAI defines AGI as autonomous systems that surpass humans in most economically valuable tasks. »
  6. PRM800K: 800,000 step-level correctness labels on LLM solutions to MATH problems
  7. (en) Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever et Karl Cobbe, « Let's Verify Step by Step », .
  8. (en) Richard Lawler, « Turmoil at OpenAI: Now that Sam Altman is back, what's next for the creators of ChatGPT? », sur The Verge, (consulté le ).
  9. Marie-Claude Benoit, « Q*, le modèle d'IA qui pourrait être la cause du licenciement de Sam Altman », sur ActuIA, (consulté le ).
  10. (en) Alex Heath, « A recent OpenAI breakthrough on the path to AGI has caused a stir », sur The Verge, (consulté le ).
  11. (en) Matthew Hutson, « To Really Judge an AI's Smarts, Give it One of These IQ Tests », IEEE Spectrum, (consulté le ).
  12. « https://twitter.com/ylecun/status/1728126868342145481 », sur twitter.com (consulté le ).

Voir aussi

Bibliographie

Articles connexes