ChatGPT fête son deuxième anniversaire ce mois-ci. Le chatbot d’OpenAI, et ceux qui l’ont suivi, comme Gemini de Google et Claude d’Anthropic, se sont beaucoup améliorés depuis leur lancement.
Par exemple, ils peuvent accepter des demandes plus longues qu’auparavant. Le réalisme de leur synthèse vocale, pour ceux qui préfèrent interagir avec ces assistants oralement plutôt que par écrit, a également été amélioré, et plusieurs fonctionnalités ont été ajoutées au fil du temps, comme la possibilité d’accéder à Internet pour s’appuyer sur de nouvelles informations, pas seulement ce sur quoi ils ont été formés.
Et ce n’est qu’un début, car leurs créateurs continuent de les faire évoluer. Voici les prochaines frontières que franchira l’IA générative.
Une IA capable de mieux raisonner
Les modèles d’IA s’améliorent de génération en génération. Le modèle GPT-4o, base de la version actuelle de ChatGPT, fonctionne mieux lors d’un examen d’entrée à l’université que GPT-4 et GPT-3.5 avant lui.
Les prochains grands modèles linguistiques ne seront pas seulement plus puissants que les anciens. Ils seront également dotés de meilleures capacités de « raisonnement ».
Certains lèveront évidemment un sourcil à l’utilisation de ce mot, mais le raisonnement est le terme utilisé dans l’industrie pour désigner la capacité de l’IA « à traiter les informations de manière logique, à décomposer des problèmes complexes et à prendre des décisions basées sur le contexte et les modèles observés ». » peut-on lire sur le site de Cohere, une entreprise canadienne d’IA générative.
En d’autres termes, c’est un peu comme lorsqu’un humain réfléchit à un problème avant de le résoudre plutôt que d’y répondre instinctivement.
« Les modèles actuels sont très efficaces pour récupérer des informations et répondre aux questions, mais je pense que la prochaine étape consiste à leur permettre de résoudre les problèmes de manière réfléchie », déclare Mike Krieger, chef de produit senior de l’entreprise. de l’IA générative Anthropic, qui commercialise le robot conversationnel Claude.
“Le raisonnement est une compétence qui doit être enseignée aux modèles d’IA”, a récemment déclaré Aidan Gomez, PDG de Cohere, dans un podcast.
Comment les modèles d’IA pourront-ils mieux raisonner ? “Ils devront par exemple poser des questions à l’utilisateur pour lui demander des informations qui lui manquent”, explique Mike Krieger, qui a également cofondé Instagram et Artifact, une société d’IA rachetée par Yahoo! plus tôt cette année.
Des agents plus puissants
« IA agentique » est probablement le terme le plus en vogue dans le domaine de l’IA générative aujourd’hui. Les « agents » d’IA sont des outils capables d’accomplir une tâche de manière autonome. Alors qu’un chatbot IA peut vous indiquer les étapes à suivre pour annuler une réservation de restaurant, un agent IA pourra le faire à votre place.
« Je pense que la plupart de nos interactions avec l’IA générative se feront un jour avec des agents d’IA, et non avec des robots conversationnels », prédit Vasi Philomin, vice-président de l’IA générative chez Amazon.
Les agents qui peuvent être créés aujourd’hui sont simples et limités, mais les générations futures auront notamment accès à davantage d’outils. Actuellement, un agent n’aurait aucun moyen d’annuler une réservation de restaurant par exemple, mais on peut imaginer qu’un jour il aura accès aux services informatiques des applications de réservation utilisées par les établissements et qu’il pourra alors le faire.
L’amélioration des agents ira également de pair avec l’amélioration de leur raisonnement, estime Mike Krieger, rencontré récemment lors d’un événement médiatique tenu à Seattle et organisé par AWS, la branche cloud computing d’Amazon.
« Imaginons que l’IA analyse une requête et la décompose en 10 étapes. Pour l’instant, les modèles sont très doués pour trouver des solutions créatives s’ils restent bloqués à 10.e indiquer. Mais ils ne sont pas doués pour regarder en arrière et se rendre compte qu’ils auraient dû adopter une approche différente. C’est ce que nous essayons d’améliorer », explique-t-il.
Une IA avec de meilleurs « sens »
Un autre point à améliorer est la façon dont l’IA perçoit ce qu’elle analyse, notamment lorsqu’il s’agit d’une voix, d’une image ou d’une vidéo.
Les IA génératives utilisées par exemple pour répondre à des questions par téléphone ne prennent pas en compte le ton de l’utilisateur à l’autre bout du fil. “Mais si la personne est frustrée, vous voudrez peut-être réagir d’une manière différente que si elle est calme ou heureuse”, note Mike Krieger.
Une mise à jour récente de Claude d’Anthropic permet à l’IA de contrôler la souris d’un ordinateur et d’écrire du texte, simplement à partir d’une requête. Par exemple, un utilisateur peut lui demander d’ouvrir le navigateur Firefox, d’accéder à un site et d’y remplir un formulaire à partir des informations contenues dans un document qui lui a été soumis. Mais l’outil n’en est qu’à ses balbutiements, « et pourrait faire bien plus » s’il parvenait à mieux comprendre ce qu’il voit à l’écran, estime Mike Krieger.
Des hallucinations plus rares
Les hallucinations – le nom donné par l’industrie aux erreurs et aux faits inventés par l’IA générative – sont un peu plus rares d’une génération à l’autre, dans l’ensemble de l’industrie. “Nous allons nous améliorer cette année, et encore l’année prochaine”, résumait récemment Aidan Gomez de Cohere.
Mike Krieger ne croit pas que les hallucinations disparaîtront un jour, mais il croit lui aussi que les tendances s’améliorent. « Une des choses sur lesquelles nous travaillons est d’aider le modèle à comprendre d’où vient le texte qu’il génère, qu’il s’agisse d’un document joint à la requête de l’utilisateur, de données d’entreprise auxquelles il a accès lors de sa formation initiale », explique-t-il.
En analysant un rapport, l’IA pourrait donc s’assurer qu’il fournit des chiffres provenant spécifiquement de ce dernier, ce qui n’est pas toujours le cas actuellement.
Des chantiers embêtants
Bien évidemment, plusieurs autres facettes de l’IA générative méritent également d’être améliorées.
C’est notamment le cas de sa consommation d’énergie – l’Agence internationale de l’énergie prévoit que l’IA en consommera autant que le Japon d’ici 2026 – un problème auquel AWS et l’ensemble du secteur entendent s’attaquer, entre autres, en concevant des puces plus efficaces pour la même consommation. consommation d’énergie comme aujourd’hui.
Avec l’augmentation attendue du recours à l’IA générative, il semble cependant ici plus réaliste de parler d’une réduction de la croissance des émissions de GES que d’une réduction des émissions dans leur totalité.
A surveiller également : l’émergence d’une IA souveraine, que ce soit pour des raisons politiques, économiques ou culturelles (l’équivalent du Blue Basket, mais pour un modèle linguistique), et une amélioration de la transparence, notamment en ce qui concerne les données utilisées dans la formation des modèles d’IA. Dans ces deux cas, tout indique que les transformations devront venir de l’extérieur de l’industrie, comme des gouvernements, et non de l’intérieur.