Passer au contenu principal Passer au pied de page du site

You are using an outdated browser. Please upgrade your browser to improve your experience.

Close Look : L’IA générative passe à la vitesse supérieure

il y a 10 jours

L’IA générative passe à la vitesse supérieure

L’intelligence artificielle générative et son potentiel de transformation pour les industries et la planète tout entière a fait couler beaucoup d’encre. Les investisseurs prêts à financer cette nouvelle technologie révolutionnaire ou plus simplement à spéculer sur son succès ont injecté des milliards de dollars. Jamais l’IA n’aura été autant mentionnée par les CEO lors des conférences téléphoniques avec les investisseurs, et toute entreprise qui se targue d’un avantage potentiel en matière d’IA voit son cours s’envoler en bourse.

La première phase de déploiement de l’IA générative, dont l’usage s’est vulgarisé en 2022 sous l’impulsion de ChatGPT, est bien engagée. Les processeurs graphiques (GPU), ou puces à haute puissance, nécessaires à l’entraînement des grands modèles de langage (LLM) supportant l’IA générative en créant des réponses utilisateur, s’arrachent de toute part. Principal concepteur de cette technologie, Nvidia est considérée comme l’une des rares entreprises réellement capables de monétiser le battage médiatique autour de l’IA. Si les prévisions de bénéfices futurs relèvent plus de la spéculation que de données factuelles, Nvidia a vu sa capitalisation boursière culminer à 2 000 milliards de dollars, troisième valeur à atteindre ce seuil.

Le déploiement de l’IA entre désormais dans une phase d’accélération. Nvidia a récemment présenté ses nouvelles puces Blackwell. Ces puces, dont la B200 est le produit phare, se composent de 208 milliards de transistors, alors que les puces H100 actuelles n'en contiennent que 80 milliards. Elles seront deux fois plus puissantes pour les tâches d’entraînement des LLM. Qui plus est, elles devraient être cinq fois plus puissantes en vitesse d'inférence, améliorant considérablement le temps de réponse des applications, telles que ChatGPT ou Gemini de Google, aux requêtes des utilisateurs, affirme le CEO de Nvidia, Jensen Huang.

Or, la perspective de bénéfices qui dépassent l’entendement n’aura échappé à personne et encore moins aux géants de la tech, Microsoft, Google et Amazon en tête, qui d’un côté s’associent à Nvidia et, de l’autre, investissent des sommes colossales dans la conception de leurs propres puces. L’objectif est de réduire leur dépendance vis-à-vis de Nvidia et de conserver les clients existants liés par leurs propres systèmes matériels et logiciels. En se concentrant sur la phase d’inférence, Nvidia pourrait bien se poser en alternative providentielle face à la future concurrence croissante de ces hyperscalers, alors même que leurs propres clients, après avoir entraîné les LLM, vont flécher leurs investissements dans l’IA.

La taille finale du marché de l’IA reste sujette à débat, même si les estimations oscillent entre énorme et stratosphérique. D’après les prévisions de Nvidia, la valeur totale de toute la technologie des centres de données pourrait atteindre 2 000 milliards de dollars au cours des cinq prochaines années. Une récente étude estime par ailleurs que l’IA générative pourrait rapporter 40 000 milliards de dollars supplémentaires à l'économie mondiale d'ici 2030. En garants de la concurrence sur le marché, les régulateurs surveillent de près les progrès de l’IA et pourraient infliger de lourdes amendes aux plateformes qui ne parviennent pas à lutter contre la désinformation alimentée par l’IA ou deepfakes. En parallèle, les chercheurs chinois et occidentaux en IA ont accepté de coopérer, face à des systèmes d'IA de plus en plus autonomes, pour réduire le risque d'attaques biologiques ou de cyber-attaques à l'avenir.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation des cookies.
Les cookies utilisés permettent une meilleure expérience de navigation sur ce site.
En savoir plus