J'avais déjà testé un MOA il y a quelques temps. Un MOA ??? qu'est-ce que c'est ??? Un Mixture Of Agents (MoA) est une approche innovante qui combine les forces de plusieurs modèles de langage (LLMs) pour améliorer les performances globales dans diverses tâches d'intelligence artificielle. Cette méthode repose sur l'idée que chaque agent, ou modèle, possède des compétences spécifiques qui, lorsqu'elles sont mises en commun, peuvent conduire à des résultats supérieurs à ceux d'un modèle unique. En gros, vous regroupez plusieurs experts entre eux pour une discussion haletante ! J'ai découvert un MOA (en bêta et donc encore gratuit) qui opère sur le texte ou l'image et qui mixte les meilleurs LLMs du moment. Il s'agit de genspark.ai Je l'ai testé sur un article de recherche qui s'intitule "Astute RAG: Overcoming Imperfect Retrieval Augmentation and Knowledge Conflicts for Large Language Models" (très intéressant d'ailleurs) et franchement, j'ai été très très séduit ! A suivre... #IAgen #MOA #ChatGPT #Gemini #Claude3.5
Ah yes ! Merci Jean-Michel, encore des trucs à tester 🙏 tu as l’air enthousiaste, et je sais déjà ta fiabilité. j’espère qu’ils ne s’emmêlent pas les chiffres façon tricot en se mélangeant 😉
Bravo Jean-Michel Bernabotto , au top ! J’ai une super nouvelle idée à tester en multi agents avec du scraping pour une revue de « concepts » et non de presse. Je t’expliquerai :-)
Super Jean-Michel Bernabotto. Hâte de découvrir cela ! Sylvain Dorschner