Si on pensait tous à une explosion des progrès en intelligence artificielle en 2025, les PDG de Google et de Microsoft craignent bien le contraire.
Depuis bientôt deux ans, l’intelligence artificielle générative s’est ancrée durablement dans les habitudes et les progrès ont pris une vitesse phénoménale. Alors que l’année 2024 a vu le lancement de nombreuses autres fonctionnalités, 2025 pourrait apporter un ralentissement. Selon les PDG de Google et de Microsoft, l’IA aurait besoin d’un temps d’arrêt, non pas à cause des politiques, mais à cause de son entraînement. Pour le moment, les ressources semblent avoir atteint une limite.
Dans cet article :
Le manque de données va ralentir le progrès de l’IA en 2025
Massivement nourrie de grandes quantités de données, l’intelligence artificielle a connu un progrès fulgurant au cours des deux dernières années. En 2025, les modèles de langage actuels, dont ChatGPT, Gemini ou encore Llama, continueront de se peaufiner, mais il ne devrait plus être question d’avancées considérables. Et pour cause, la pente est désormais plus raide. Le PDG de Google, Sundar Pichai, est d’ailleurs forcé de l’admettre durant le DealBook Summit organisé par le New York Times.
« Je pense que les progrès vont devenir plus difficiles. Les paliers de progrès les plus accessibles ont été atteints. La pente est désormais plus raide… Nous aurons certainement besoin de percées plus profondes avant de passer à l’étape suivante », a-t-il déclaré. Satya Nadella, patron de Microsoft, abonde dans le même sens, en affirmant que la voie du développement de l’IA n’est nullement linéaire.
Le problème, c’est que l’IA n’est absolument rien sans les données. Or, à ce jour, presque toutes les données qui existent sur le web ont déjà été aspirées (légalement et illégalement) pour entraîner les modèles existants. Et sans de nouvelles données, son progrès se trouve hypothéqué. Ainsi, ce qui était révolutionnaire hier se trouve pris au dépourvu.
Pire encore, tels les muscles qui s’atrophient, sans exercice régulier, les modèles actuels pourraient même se dégrader, puisque nous arrivons à un cercle vicieux d’apprentissage autoréférentiel.
VOIR AUSSI : Collectes de données personnelles : Apple est aussi pire que Google
Quand l’IA se nourrit d’elle-même, elle s’affaiblit graduellement
En l’espace de deux ans, les progrès de l’IA ont fait basculer des entreprises. Plusieurs ont remplacé les humains par ces modèles. Aujourd’hui, quand bien même il devient difficile de les reconnaître, de plus en plus de contenus sont générés par l’IA. Les entreprises d’IA, sans s’en rendre compte, se sont enlisées dans ce que l’on appelle l’apprentissage autoréférentiel. C’est un peu comme si l’on se tire une balle dans les pieds.
Avec la génération de contenus à grande échelle et la faible popularité des contenus produits par l’humain, l’entraînement est parvenu à un cannibalisme technologique : l’IA se nourrit des contenus qu’elle-même a produits. Or, ainsi faisant, plutôt que de s’améliorer, elle se détruit méthodiquement : les erreurs sont amplifiées, la qualité se dégrade et le modèle s’atrophie. Progressivement, tout ce qui était beau se fane et tout ce qui était diversifié s’uniformise.
Pour protéger leur modèle économique et manquer de payer ce dont ils exploitent les ressources, les entreprises d’IA n’ont initialement pas pensé à un système de détection de contenus générés. S’étant aujourd’hui mélangés aux productions humaines, ils deviennent des ressources d’entraînements. Pourtant, à chaque itération, les données perdent en qualité. C’est un peu comme si un photocopieur reproduit des copies ; ce qui se traduit par une perte de qualité à chaque niveau. En conséquence, les PDG de Google et de Microsoft sont forcés de reconnaître qu’il faudra mettre en place des mécanismes plus complexes pour continuer les progrès en IA : ce qui risque de prendre du temps.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :