Au cours de la semaine dernière, des développeurs du monde entier ont commencé à créer des « agents autonomes » travaillant avec des modèles de langage de grande taille (LLM) tels que le GPT-4 d’OpenAI pour résoudre des problèmes complexes. Bien que très récents, ces agents pourraient représenter une avancée majeure dans l’application productive des LLM.
Normalement, nous interagissons avec GPT-4 en tapant des prompts soigneusement formulées dans la fenêtre de texte de ChatGPT jusqu’à ce que le modèle génère la sortie souhaitée. Cependant, la plupart d’entre nous ne possèdent pas la compétence et la patience nécessaires pour écrire des invites, c’est pourquoi les développeurs cherchent à automatiser une grande partie de ce processus.
C’est là qu’interviennent les agents autonomes.
Les agents autonomes comme AutoGPT peuvent générer une séquence systématique de tâches que le LLM effectue jusqu’à ce qu’il atteigne un « objectif » prédéfini. Ils peuvent déjà effectuer des tâches variées telles que la recherche sur le Web, la rédaction de code et la création de listes de tâches. Certains les appellent des agents « récursifs » car ils fonctionnent en boucle, posant des questions au LLM, chacune basée sur le résultat de la précédente, jusqu’à ce que le modèle produise une réponse complète.
Qu’est-ce qu’Auto-GPT ?
Auto-GPT est une application open-source qui inquiète certains professionnels, car elle pourrait remplacer des métiers tels que les gestionnaires de réseaux sociaux, les experts SEO et les employés de la relation client. GPT signifie Generative Pre-trained Transformer, un réseau neuronal conçu pour fonctionner comme le cerveau humain, capable d’apprendre et d’améliorer ses performances de manière indépendante.
Développé par Toran Bruce Richards, AutoGPT est décrit sur GitHub comme un agent alimenté par GPT-4 qui peut effectuer des recherches sur Internet de manière structurée. Il peut créer des sous-tâches et lancer de nouveaux agents pour les accomplir. Il utilise GPT-4 pour écrire son propre code, puis peut « déboguer, développer et s’améliorer » de manière récursive.
Fonctionnement d’Auto-GPT
Auto-GPT se distingue par la manière dont il décompose les étapes de l’IA, en utilisant l’excellente génération de texte de GPT. Auto-GPT les appelle « pensées », « raisonnement » et « critique », indiquant exactement ce que l’IA fait et pourquoi.
Parmi les autres fonctionnalités intéressantes d’Auto-GPT, on trouve la mémoire à long/court terme et l’intégration de la synthèse vocale via ElevenLabs. La combinaison de toutes ces fonctionnalités rend Auto-GPT beaucoup plus semblable à une IA conçue pour interagir avec les humains.
Exemple avec le site godmode.space qui permet à chacun d’utiliser AutoGPT/BabyAGI directement sur le web.
Auto-GPT vs ChatGPT
Contrairement à ChatGPT, qui exécute des tâches après avoir reçu des instructions précises et des critiques des humains, AutoGPT peut penser à d’autres tâches pertinentes à accomplir une fois qu’il a terminé une tâche.
Impact sur l’avenir du travail
Il est trop tôt pour évaluer l’impact de cette évolution sur l’avenir de l’humanité et la façon dont nous travaillons. Certains grands noms de la tech, comme Elon Musk et Jaan Tallinn (l’un des cerveaux derrière Skype), préconisent de freiner le développement de l’IA et de réfléchir à son impact sur notre vie.
Une lettre signée par des milliers de personnes, dont des chercheurs de DeepMind, Musk, Steve Wozniak (cofondateur d’Apple) et Evan Sharp (cofondateur de Pinterest), demande une pause de six mois dans la course à l’IA.
Appel à la prudence
La lettre met en garde contre les développements au-delà de GPT-4 et suggère que les laboratoires d’IA et les experts indépendants profitent de cette pause pour élaborer et mettre en œuvre un ensemble de protocoles de sécurité partagés pour la conception et le développement d’IA avancée. Jaan Tallinn exprime également sa préoccupation quant à la rapidité avec laquelle la technologie progresse sans que la société ait le temps de s’adapter et de la contrôler.
Réactions et régulations
Alors que le gouvernement italien a récemment interdit ChatGPT, au Royaume-Uni, les députés hésitent à introduire une régulation stricte de l’IA, de peur d’étouffer l’innovation. Un député anonyme a déclaré à la BBC que les lois plus sévères ne seraient probablement pas nécessaires avant quelques années.
Les agents autonomes, à ce stade précoce, sont principalement expérimentaux et présentent certaines limitations importantes qui les empêchent d’obtenir ce qu’ils veulent des LLM. Ils ont souvent du mal à maintenir le LLM concentré sur un objectif. Sully Omar, développeur basé à Vancouver, mentionne que les LLM « se confondent » et ne comprennent pas qu’ils sont dans une boucle. Il estime que les développeurs trouveront probablement de nouvelles façons de mettre des « garde-fous » autour du LLM afin qu’ils continuent à accomplir des tâches sans être distraits.