𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 𝗚𝗲́𝗻𝗲́𝗿𝗮𝗹𝗲 (𝗔𝗚𝗜) : 𝗱𝗲 𝗾𝘂𝗼𝗶 𝘀’𝗮𝗴𝗶𝘁-𝗶𝗹 ? Au cours des dernières années, les chercheurs en IA ont défini plusieurs étapes qui ont considérablement fait progresser l'intelligence artificielle, aboutissant parfois à des performances comparables à celles de l’intelligence humaine dans des domaines spécifiques. Cependant, une intelligence supérieure pourrait dépasser cette spécialisation. Elle serait capable de résoudre des problèmes dans une multitude de domaines de manière autonome, sans nécessiter d’intervention ou de programmation spécifique pour chaque nouvelle tâche : il s’agit de 𝗹’𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 𝗚𝗲́𝗻𝗲́𝗿𝗮𝗹𝗲. Nous abordons aujourd’hui dans notre blog tout ce dont vous avez besoin pour comprendre l’AGI : 1️⃣ Les différences entre IA spécialisée (ANI) et IA générale (AGI). 2️⃣ Les défis techniques : puissance de calcul, algorithmes avancés, apprentissage... 3️⃣ Les grandes questions éthiques autour des biais et du contrôle. 4️⃣ Les prédictions des experts sur la réalisation de l’AGI. Curieux d’en apprendre plus sur l’Intelligence Artificielle Générale et ses défis ? Découvrez l’article complet sur notre site Maliz.ai 👇
Maliz.ai
Business Intelligence Platforms
Monaco, Monaco 398 followers
Votre IA locale et sécurisée dédiée aux entreprises pour le traitement de vos données sensibles
About us
Grace à notre solution de customer support en local basé sur l’IA, automatisez et accélérez les prises de décisions de vos agents ou employés tout en conservant la main sur la sécurité de vos données sensibles dans l’entreprise.
- Website
-
https://maliz.ai/
External link for Maliz.ai
- Industry
- Business Intelligence Platforms
- Company size
- 2-10 employees
- Headquarters
- Monaco, Monaco
- Type
- Privately Held
- Founded
- 2023
Locations
-
Primary
Monaco, Monaco 98000, MC
Employees at Maliz.ai
Updates
-
🎄 𝗟𝗲𝘀 𝟭𝟮 𝗷𝗼𝘂𝗿𝘀 𝗱’𝗢𝗽𝗲𝗻𝗔𝗜 : 𝗣𝗿𝗲𝗺𝗶𝗲𝗿𝘀 𝗿𝗲𝘁𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝗹'𝗲́𝘃𝗲́𝗻𝗲𝗺𝗲𝗻𝘁 “𝗦𝗵𝗶𝗽𝗺𝗮𝘀” Depuis la semaine dernière, OpenAI célèbre le deuxième anniversaire de ChatGPT avec une initiative audacieuse et novatrice : les 12 jours de “𝗦𝗵𝗶𝗽𝗺𝗮𝘀”. Du 5 décembre au 18 décembre 2024, l’entreprise dévoile chaque jour une nouvelle fonctionnalité, un produit ou une avancée technologique majeure. Parmi ces annonces, trois d’entre elles attirent déjà tous les regards : le lancement du modèle de raisonnement avancé 𝗼𝟭, la présentation d'un abonnement premium 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 𝗣𝗿𝗼 et la sortie officielle du générateur de vidéos 𝗦𝗼𝗿𝗮. 🔍 𝗡𝗼𝘂𝘃𝗲𝗮𝘂 𝗺𝗼𝗱𝗲̀𝗹𝗲 𝗼𝗽𝗲𝗻𝗔𝗜 𝗼𝟭 Version optimisée et améliorée de GPT-4, réduit de 34 % les erreurs sur des questions complexes par rapport à son prédécesseur. Capable d’interpréter les nuances linguistiques et contextuelles avec une excellente précision grâce à des algorithmes perfectionnés. ⚡ 𝗟𝗮𝗻𝗰𝗲𝗺𝗲𝗻𝘁 𝗱𝗲 𝗖𝗵𝗮𝘁𝗚𝗣𝗧 𝗣𝗿𝗼 Abonnement mensuel de $200. Accès à toutes les fonctions de ChatGPT Plus, ainsi qu'un accès illimité à GPT-4 et o1, un accès illimité au mode vocal avancé et au modèle o1-pro (version encore plus performante du modèle o1, optimisée pour des tâches de raisonnement avancées.) 🎨 𝗖𝗿𝗲́𝗮𝘁𝗶𝗼𝗻 𝗮𝘂𝗱𝗶𝗼𝘃𝗶𝘀𝘂𝗲𝗹𝗹𝗲 𝗦𝗼𝗿𝗮 Génération de vidéos d'une résolution de 1080p avec durée maximale de 20 secondes. Accessible aux abonnés ChatGPT Plus et Pro, mais pas encore disponible en Europe en raison des réglementations strictes en matière d'IA. Alors que cet événement touche à sa fin, quelles nouvelles révélations OpenAI pourrait-elle encore nous offrir ? 🔥
-
🚀 𝗠𝗲𝘁𝗮 𝗱𝗲́𝘃𝗼𝗶𝗹𝗲 𝗟𝗹𝗮𝗺𝗮 𝟯.𝟯 𝟳𝟬𝗕 : 𝘂𝗻 𝗺𝗼𝗱𝗲̀𝗹𝗲 𝗱'𝗜𝗔 𝗽𝗹𝘂𝘀 𝗽𝗲𝘁𝗶𝘁 𝗲𝘁 𝗽𝗹𝘂𝘀 𝗲𝗳𝗳𝗶𝗰𝗮𝗰𝗲 Les semaines se suivent et se ressemblent ! Quelques jours après la présentation d’Amazon de ses nouveaux modèles d’IA “𝗡𝗢𝗩𝗔”, c’est au tour de Meta de dévoiler son dernier-né, le LLM 𝗟𝗹𝗮𝗺𝗮 𝟯.𝟯 𝟳𝟬𝗕. Ce modèle open-source de 70 milliards de paramètres réussit à égaler les performances de Llama 3.1, malgré ses 405 milliards de paramètres. Un exploit rendu possible grâce aux dernières avancées en matière de techniques de post-entraînement et à des exigences de calcul considérablement réduites. ▶️ Le modèle a été entraîné sur 𝟭𝟱 𝟬𝟬𝟬 𝗺𝗶𝗹𝗹𝗶𝗮𝗿𝗱𝘀 𝗱𝗲 𝘁𝗼𝗸𝗲𝗻𝘀 de texte provenant de sources publiques. ▶️ La phase de formation a nécessité environ 𝟯𝟵,𝟯 𝗺𝗶𝗹𝗹𝗶𝗼𝗻𝘀 𝗱’𝗵𝗲𝘂𝗿𝗲𝘀 𝗚𝗣𝗨 sur des clusters 𝗛𝟭𝟬𝟬-𝟴𝟬𝗚𝗕. Llama 3.3 est conçu pour fonctionner localement sur les postes de travail courants des développeurs, ce qui le rend accessible aux concepteurs ne disposant pas d'une infrastructure de niveau entreprise. Pour rester dans le sillage de ses principaux concurrents (𝘹𝘈𝘪, 𝘰𝘱𝘦𝘯𝘈𝘪…), Mark Zuckerberg a dû acquérir plus de 𝟭𝟬𝟬 𝟬𝟬𝟬 𝗚𝗣𝗨 𝗡𝘃𝗶𝗱𝗶𝗮, et compte encore accélérer la cadence en 2025. Les dépenses d’investissement de Meta ont en effet augmenté de 33 % au cours de l’année et atteignent 𝟴,𝟱 𝗺𝗶𝗹𝗹𝗶𝗮𝗿𝗱𝘀 𝗱𝗲 𝗱𝗼𝗹𝗹𝗮𝗿𝘀 contre 6,4 milliards en 2023. #maliz_actu#
-
𝗔𝗺𝗮𝘇𝗼𝗻 𝗱𝗲́𝘃𝗼𝗶𝗹𝗲 𝘀𝗮 𝗽𝗿𝗼𝗽𝗿𝗲 𝗶𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 : 𝗡𝗢𝗩𝗔 C’est lors de la conférence 𝗔𝗪𝗦 𝗿𝗲:𝗜𝗻𝘃𝗲𝗻𝘁, que le PDG d’Amazon Andy Jassy a présenté 𝗡𝗢𝗩𝗔, la première famille de modèles d'intelligence artificielle générative, intégrée à leur plateforme 𝗔𝗺𝗮𝘇𝗼𝗻 𝗕𝗲𝗱𝗿𝗼𝗰𝗸. Conçus pour des applications variées (texte, images, vidéos), les modèles 𝗡𝗢𝗩𝗔 se déclinent en six versions : ➡️ 𝗡𝗼𝘃𝗮 𝗠𝗶𝗰𝗿𝗼 : modèle économique textuel conçu pour traiter des réponses à faible latence. ➡️ 𝗡𝗼𝘃𝗮 𝗟𝗶𝘁𝗲 : modèle économique multimodal capable de traiter du texte, des images et des vidéos ➡️ 𝗡𝗼𝘃𝗮 𝗣𝗿𝗼 : modèle multimodal de haute vitesse qui s'impose selon Amazon comme le modèle le plus performant sur certains benchmarks ➡️ 𝗡𝗼𝘃𝗮 𝗣𝗿𝗲𝗺𝗶𝗲𝗿 : modèle haut de gamme destiné aux tâches complexes de raisonnement (disponible en 2025) ➡️ 𝗡𝗼𝘃𝗮 𝗖𝗮𝗻𝘃𝗮𝘀 : génération d'images à partir de prompts ➡️ 𝗡𝗼𝘃𝗮 𝗥𝗲𝗲𝗹 : génération de vidéos courtes de 6 secondes (passant à 2 minutes en 2025). Ces annonces faites lors de cette conférence marquent un grand pas pour Amazon, dont la réputation en matière d'intelligence artificielle a été fragilisée ces dernières années en raison de son retard. L'entreprise semble désormais bien engagée dans cette course effrénée 🚀 #maliz_actu#
-
🌍 La Chine s'invite dans la course à l'IA avec un puissant modèle open-source Par le biais de sa start-up 𝗕𝗮𝗶𝗰𝗵𝘂𝗮𝗻, le géant chinois 𝗔𝗹𝗶𝗯𝗮𝗯𝗮 a dévoilé cette semaine son nouveau modèle nommé “𝗤𝘄𝗤-𝟯𝟮𝗕-𝗣𝗿𝗲𝘃𝗶𝗲𝘄”. Axé sur le raisonnement, 𝗤𝘄𝗤-𝟯𝟮𝗕-𝗣𝗿𝗲𝘃𝗶𝗲𝘄 a obtenu de meilleurs résultats que o1-preview et o1-mini d'OpenAI sur les benchmarks populaires de tests mathématiques. ➡️ Modèle avancé basé sur 32,5 milliards de paramètres. ➡️ Approche open-source avec licence Apache 2.0. Alibaba n'est pas la première grande entreprise à publier un modèle open source (Meta, Mistral, Bloom…), cela dit son offre est assez restreinte face à ses concurrents occidentaux. Étant une entreprise chinoise, Alibaba est soumise à une évaluation par les autorités chinoises pour s'assurer que « les réponses de ses modèles incarnent les valeurs socialistes fondamentales ». 𝗤𝘄𝗤-𝟯𝟮𝗕-𝗣𝗿𝗲𝘃𝗶𝗲𝘄 présente aussi certaines limitations : ❌ Changements de langue parfois imprévisibles. ❌ Temps de traitement plus longs en raison de son mécanisme d’auto-vérification. ❌ Évite les sujets politiques et s’aligne sur les directives réglementaires. #maliz_actu#
-
IA Générative et RAG : Vers des chatbots plus intelligents et précis 🧠 L’IA générative révolutionne déjà la manière dont nous interagissons avec les machines, mais avez-vous entendu parler de la génération augmentée de récupération (RAG) ? 💡 Imaginez un chatbot capable de fournir des réponses fiables et contextuelles sur des sujets spécifiques à une entreprise ou à un gouvernement. Bien qu’un LLM dispose déjà d’un contexte général, il peut être enrichi par des données externes et intégrer des informations sensibles, telles que des données privées d’entreprises. Grâce à la RAG, le chatbot combine la richesse de ses connaissances générales avec la précision de données actualisées, tout en assurant une gestion stricte de la confidentialité et de la sécurité des informations. 🎯 Nous détaillons tout cela dans notre dernier article : ➡️ Comment fonctionne la RAG et pourquoi elle surpasse les modèles traditionnels. ➡️ Les avantages concrets pour les entreprises : assistance client, création de contenu, études de marché et bien plus. ➡️ Les défis de cette technologie émergente et son impact sur l’avenir de l’IA. Curieux de savoir comment intégrer cette innovation dans vos projets IA ? C’est pas ici 👇
-
Cette semaine, nous avons eu l’honneur de présenter Maliz.ai lors du Demoday chez MonacoTech. 🙌🏼 Une expérience enrichissante devant une audience d’experts, qui nous a offert une formidable opportunité de partager notre vision ainsi que les perspectives d’évolution de notre produit. Maliz.ai offre la possibilité de créer des chatbots personnalisables propulsés par l'intelligence artificielle, à destination des entreprises et des administrations publiques. Notre stratégie d’hébergement local permet aux utilisateurs de traiter des informations sensibles tout en restant souverains de leurs propres données. 🙏 Un grand merci à MonacoTech pour l’organisation et pour leur soutien aux entrepreneurs, ainsi qu'aux membres de l’audience pour leurs retours constructifs et inspirants. Si vous souhaitez en savoir plus sur nos solutions de chabots IA, n’hésitez pas à visiter notre site web ou à nous contacter pour une démo 👇
-
H, la pépite française de l'IA, dévoile "Runner H" 🤖 La start-up française d'intelligence artificielle H vient de lancer son tout premier produit, un peu plus d'un an après sa création. Baptisé 𝗥𝘂𝗻𝗻𝗲𝗿 𝗛, cet agent alimenté par IA est "le premier d’une longue série au service d’une ambition : celle de l’automatisation universelle", affirme l’entreprise. Un agent est un type d'IA capable d'opérer une suite de tâches relativement complexe de façon autonome. Dans la course à cette IA dite « agentique », la start-up française H avait déjà profité d’une levée de fonds record de plus 𝗱𝗲 𝟮𝟬𝟬 𝗺𝗶𝗹𝗹𝗶𝗼𝗻𝘀 𝗱'𝗲𝘂𝗿𝗼𝘀 au mois de mai dernier. Derrière cet agent se cachent deux modèles relativement compacts: un LLM de 2 milliards de paramètres et un VLM (modèle de vision et langage) de 3 milliards de paramètres. ➡️ Il permettra d'automatiser les processus de recrutement des entreprises. Via une seule instruction, l’agent pourra publier les offres d'emploi, compiler les CV et envoyer des relances personnalisées. ➡️ Il pourra aider le secteur de l'e-commerce en réduisant les charges de maintenance, mais aussi le secteur de la santé à mieux suivre les remboursements ou les réclamations de leurs clients. Espérons que ce premier agent ouvre la voie à une nouvelle ère pour la jeune start-up française 🚀 #maliz_actu#
-
Mistral AI dévoile Pixtral Large et muscle Le Chat pour rivaliser avec ChatGPT 💪🏻 La start-up française la plus en vue dans le domaine de l'IA continue à mettre le paquet sur le développement de ses solutions. Preuve en est avec son dernier modèle fraîchement publié : 𝗣𝗶𝘅𝘁𝗿𝗮𝗹 𝗟𝗮𝗿𝗴𝗲. Construit sur la base de 𝗠𝗶𝘀𝘁𝗿𝗮𝗹 𝗟𝗮𝗿𝗴𝗲 𝟮, il s'agit d'un modèle multimodal de 𝟭𝟮𝟰 𝗺𝗶𝗹𝗹𝗶𝗮𝗿𝗱𝘀 𝗱𝗲 𝗽𝗮𝗿𝗮𝗺𝗲̀𝘁𝗿𝗲𝘀. Pour rappel, “multimodal” est un terme pour identifier un grand modèle de langage capable de traiter du texte, des images, des vidéos ou des fichiers audio. Pixtral Large peut ainsi comprendre et expliquer des documents, des diagrammes, des images avec un niveau supérieur ou équivalent à GPT4-o, Claude 3,5 Sonnet, LLama 3.2 90B et Gemini 1.5 Pro, selon les benchmarks effectués par la startup. Le Chat boosté : une alternative sérieuse à ChatGPT Pour rappel, Le Chat est l’assistant conversationnel de 𝗠𝗶𝘀𝘁𝗿𝗮𝗔𝗜 . En plus d’être une vitrine pour les modèles de la start-up, Le Chat se pare de nouvelles fonctionnalités : ➡️ Recherche web intégrée avec citation des sources. ➡️ Canvas pour organiser et visualiser les idées (comme ChatGPT Canvas). ➡️ Génération d’images via Black Forest Labs Flux Pro. ➡️ Performances boostées et réponses plus rapides. Ces outils sont pour l’instant gratuits, mais des offres premium sont en préparation pour rivaliser avec ChatGPT Plus et Enterprise 🔥 #maliz_actu#
-
𝗔𝗺𝗮𝘇𝗼𝗻 𝗩𝗦 𝗡𝘃𝗶𝗱𝗶𝗮 : 𝗹𝗮 𝗰𝗼𝘂𝗿𝘀𝗲 𝗮𝘂𝘅 𝗻𝗼𝘂𝘃𝗲𝗹𝗹𝗲𝘀 𝗽𝘂𝗰𝗲𝘀 𝗱'𝗶𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 🚀 Ce mardi, Amazon Web Services a lancé une initiative ambitieuse pour concurrencer Nvidia dans le domaine des puces d’IA. AWS propose en effet 110 millions de dollars en crédits cloud gratuits pour permettre aux chercheurs d'explorer les capacités de ses puces personnalisées, dont le modèle 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺, conçu pour l'apprentissage profond. ➡️ 𝗨𝗻𝗲 𝗮𝗽𝗽𝗿𝗼𝗰𝗵𝗲 𝘁𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 𝗾𝘂𝗶 𝗺𝗶𝘀𝗲 𝘀𝘂𝗿 𝗹𝗮 𝗳𝗹𝗲𝘅𝗶𝗯𝗶𝗹𝗶𝘁𝗲́ 𝗲𝘁 𝗹’𝗼𝗽𝘁𝗶𝗺𝗶𝘀𝗮𝘁𝗶𝗼𝗻 Pour programmer les puces de Nvidia, la plupart des développeurs d'IA utilisent ce que l'on appelle 𝗖𝘂𝗱𝗮, le logiciel phare de Nvidia, plutôt que de programmer directement la puce. AWS prévoit plutôt de publier de la documentation sur la partie la plus fondamentale de sa puce - ce que l'on appelle l'architecture du jeu d'instructions - et de laisser les clients programmer la puce directement. ➡️ 𝗨𝗻 𝘀𝗼𝘂𝘁𝗶𝗲𝗻 𝗺𝗮𝘀𝘀𝗶𝗳 𝗮𝘂𝘅 𝗰𝗵𝗲𝗿𝗰𝗵𝗲𝘂𝗿𝘀 L'entreprise prévoit de mettre à disposition 𝟰𝟬 𝟬𝟬𝟬 𝗽𝘂𝗰𝗲𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺 de première génération pour ce programme, qui vise à démocratiser l'accès à la puissance de calcul en offrant une alternative aux GPU de Nvidia. Avec cette initiative, Amazon espère élargir son influence dans le domaine de l’IA et mise sur l’ouverture et la personnalisation pour attirer une nouvelle génération de développeurs et de chercheurs 🌐 #maliz_actu#