Google dévoile Trillium, ses TPU de 6e génération taillées pour l'IA, Il n'y a pas que les accélérateurs d'IA à base de GPU Nvidia sur le marché, bien au contraire. Avec ses TPU de sixième génération, Google entend tenir tête au géant des puces, pourtant considéré comme indétrônable. La firme promet un entraînement des modèles plus rapidement, avec une faible latence et à moindre coût. C’était lors de sa conférence Google I/O, que le géant de la tech a dévoilé un certain nombre de grands modèles de langage tels que Gemini 1.5 Flash, Imagen 3 et Gemma 2. Leur point commun : tous ces modèles ont été entraînés sur des TPU (Tensor Processing Unit). Estimant que le rythme d'innovation s'accélère, Google prend les devants et a annoncé cette semaine Trillium, des TPU de sixième génération, décrit comme les plus performantes et les plus économes en énergie à ce jour. #Tech #Innovation #Ai
Post de Grace wilfreid Monzele
Plus de posts pertinents
-
𝗔𝗺𝗮𝘇𝗼𝗻 𝗩𝗦 𝗡𝘃𝗶𝗱𝗶𝗮 : 𝗹𝗮 𝗰𝗼𝘂𝗿𝘀𝗲 𝗮𝘂𝘅 𝗻𝗼𝘂𝘃𝗲𝗹𝗹𝗲𝘀 𝗽𝘂𝗰𝗲𝘀 𝗱'𝗶𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 🚀 Ce mardi, Amazon Web Services a lancé une initiative ambitieuse pour concurrencer Nvidia dans le domaine des puces d’IA. AWS propose en effet 110 millions de dollars en crédits cloud gratuits pour permettre aux chercheurs d'explorer les capacités de ses puces personnalisées, dont le modèle 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺, conçu pour l'apprentissage profond. ➡️ 𝗨𝗻𝗲 𝗮𝗽𝗽𝗿𝗼𝗰𝗵𝗲 𝘁𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 𝗾𝘂𝗶 𝗺𝗶𝘀𝗲 𝘀𝘂𝗿 𝗹𝗮 𝗳𝗹𝗲𝘅𝗶𝗯𝗶𝗹𝗶𝘁𝗲́ 𝗲𝘁 𝗹’𝗼𝗽𝘁𝗶𝗺𝗶𝘀𝗮𝘁𝗶𝗼𝗻 Pour programmer les puces de Nvidia, la plupart des développeurs d'IA utilisent ce que l'on appelle 𝗖𝘂𝗱𝗮, le logiciel phare de Nvidia, plutôt que de programmer directement la puce. AWS prévoit plutôt de publier de la documentation sur la partie la plus fondamentale de sa puce - ce que l'on appelle l'architecture du jeu d'instructions - et de laisser les clients programmer la puce directement. ➡️ 𝗨𝗻 𝘀𝗼𝘂𝘁𝗶𝗲𝗻 𝗺𝗮𝘀𝘀𝗶𝗳 𝗮𝘂𝘅 𝗰𝗵𝗲𝗿𝗰𝗵𝗲𝘂𝗿𝘀 L'entreprise prévoit de mettre à disposition 𝟰𝟬 𝟬𝟬𝟬 𝗽𝘂𝗰𝗲𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺 de première génération pour ce programme, qui vise à démocratiser l'accès à la puissance de calcul en offrant une alternative aux GPU de Nvidia. Avec cette initiative, Amazon espère élargir son influence dans le domaine de l’IA et mise sur l’ouverture et la personnalisation pour attirer une nouvelle génération de développeurs et de chercheurs 🌐 #maliz_actu#
Identifiez-vous pour afficher ou ajouter un commentaire
-
#Business #LogicielsIA #Google #Microsoft #Nvidia La lutte acharnée entre Cerebras et Nvidia pour dominer l’IA générative: Le marché de l'IA générative connaît une transformation majeure. Les performances d'inférence deviennent désormais un […] L’article La lutte acharnée entre Cerebras et Nvidia pour dominer l’IA générative est apparu en premier sur https://lnkd.in/dFeCP5s .@ia
Identifiez-vous pour afficher ou ajouter un commentaire
-
L'avancée stratégique d'OpenAI dans le domaine du hardware pour l'IA 🤖 OpenAI prépare le développement de ses propres puces d'ici 2026 OpenAI amorce une nouvelle ère en s'associant à TSMC et Broadcom pour créer des puces personnalisées, pensées pour ses besoins spécifiques en IA. Prévue pour 2026, cette initiative vise à renforcer ses infrastructures tout en optimisant les performances et les coûts. Jusqu’à présent, OpenAI a essentiellement utilisé les GPU de NVIDIA pour entraîner ses modèles. Toutefois, dans une approche intermédiaire, l’entreprise mise également sur les puces AMD via Microsoft Azure pour davantage de flexibilité et de réduction de coûts. Grâce au partenariat avec TSMC, OpenAI accédera à la technologie A16 gravée en 1,6 nm, qui promet une avancée majeure en termes de rapidité, d’efficacité énergétique et de montée en charge. Le développement de ces puces sur mesure pourrait aussi permettre de contourner certaines contraintes d'approvisionnement rencontrées avec les GPU Nvidia. De son côté, Broadcom, déjà reconnu pour sa collaboration sur les TPU de Google, apportera son savoir-faire en infrastructures IA, renforçant ainsi la capacité d’OpenAI à créer des solutions entièrement optimisées pour ses propres modèles. Cette autonomie accrue pourrait aussi diminuer sa dépendance envers les fournisseurs externes, lui offrant un contrôle renforcé sur ses coûts et ses performances. En adoptant une approche personnalisée dans le développement de semi-conducteurs, OpenAI pourrait bien redéfinir les standards pour les grandes infrastructures IA. Cette initiative stratégique annonce une phase ambitieuse, où l’entreprise compte se doter d’un hardware véritablement à la hauteur de ses objectifs technologiques. 🔥🔥🔥 #IA #InnovationTechnologique #OpenAI #TSMC #Broadcom #AMD #StanmangoRH
Identifiez-vous pour afficher ou ajouter un commentaire
-
#Business #LogicielsIA #Google #Microsoft #Nvidia La lutte acharnée entre Cerebras et Nvidia pour dominer l’IA générative: Le marché de l'IA générative connaît une transformation majeure. Les performances d'inférence deviennent désormais un […] L’article La lutte acharnée entre Cerebras et Nvidia pour dominer l’IA générative est apparu en premier sur https://lnkd.in/eRuJ_xeD .@ia
La lutte acharnée entre Cerebras et Nvidia pour dominer l'IA générative
intelligence-artificielle.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
💡 Dans le domaine de l'intelligence artificielle, cette avancée pourrait permettre des analyses encore plus rapides et précises pour nettoyer les réseaux sociaux des fake news, des trolls et autres contenus nuisibles. ✅ Imaginez des algorithmes capables de détecter, en temps quasi réel, les manipulations d'informations et d'assurer une modération beaucoup plus efficace. La rapidité d'exécution du quantique ouvre ainsi la voie à des innovations qui pourraient transformer nos sociétés, notamment en renforçant la fiabilité et la transparence des espaces numériques, je l'espère 🤞 Et vous, quels autres usages imaginez-vous pour cette révolution quantique❓ 💡 Pour enrichir mon accompagnement des Entrepreneurs et des organisations, votre avis m'intéresse. #ia #quantique
L'incroyable exploit de #Google dans le quantique 🤯 Avec sa nouvelle puce #Willow, le géant américain a réalisé en 5 minutes un calcul qui prendrait des milliards de milliards d'années à un ordinateur classique. Un pas de géant dans l'univers #quantique. 🎙️ Anthony Morel
L'incroyable exploit de Google dans le quantique
Identifiez-vous pour afficher ou ajouter un commentaire
-
Blackwell, la nouvelle puce de Nvidia pour accélérer la course à l'intelligence artificielle La présentation de la nouvelle architecture de puces pour l'intelligence artificielle était très attendue. Et l'entreprise américaine, valorisée à plus de 2.000 milliards de dollars, a doublement répondu à ces attentes. Non seulement les puces Blackwell vont permettre de créer des modèles d'IA plus puissants, mais en plus, elles permettent à l'entreprise de renforcer sa mainmise sur l'industrie de l'IA. “ En 8 ans, nous avons accéléré par 1000 la vitesse de calcul. Au meilleur de la loi de Moore, cette multiplication n’était que 100 tous les 10 ans. » - Jensen Huang #technologie #ia #intelligenceartificielle #industriedufutur #innovation #semiconducteur
Avec Blackwell, Nvidia lance un accélérateur GPU taillé pour l'IA - Le Monde Informatique
lemondeinformatique.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
Google dévoile sa sixième génération de processeurs TPU lors de l’événement I/O Lors de son événement I/O, Google a fait plusieurs annonces majeures centrées sur l’intelligence artificielle, dont une focalisation sur la prochaine génération de ses processeurs maison, les TPU (Tensor Processing Unit). La sixième génération, nommée Trillium, sera lancée dans le courant de l’année au sein de l’infrastructure de Google Cloud. Sundar Pichai, CEO d’Alphabet, a souligné lors de la conférence de presse que Google est un pionnier dans le domaine des GPU depuis plus de dix ans, suggérant ainsi qu’il existe des alternatives à la domination de Nvidia sur le marché des accélérateurs IA à base de GPU. La nouvelle génération de TPU, Trillium, promet une performance de calcul multipliée par 4,7 par rapport à la génération précédente (TPU v5e). Google a augmenté les MXU (Matrix Multiply Unit) et doublé la bande passante de la mémoire pour atteindre ces performances. De plus, Trillium intègre la troisième génération de SparseCore, un accélérateur spécialisé dans le traitement des embeddings volumineux utilisés dans les workload de classement et de recommandation avancés. Cette intégration permettra d’entraîner les modèles plus rapidement, avec une faible latence et à moindre coût. Google met également l’accent sur la maîtrise de la consommation énergétique des TPU, étant donné la demande croissante en calculs d’apprentissage automatique. Sundar Pichai a souligné que la demande de calcul en apprentissage automatique a été multipliée par un million au cours des six dernières années. Google promet que les prochains TPU seront 67 % plus économes en énergie que les puces de cinquième génération. Les détails techniques et les consommations énergétiques réelles seront dévoilés lors du lancement officiel. Google Cloud prévoit également de lancer des instances avec sa puce ARM Axion, offrant ainsi une gamme étendue de solutions d’IA pour ses clients.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Quand 10,000,000,000,000,000,000,000,000 ans deviennent 5 minutes. Dites hello à #Willow ! #Willow est la toute nouvelle puce d'informatique #quantique de #Google - qui serait plus rapide que les superordinateurs les plus puissants du monde. - Elle est capable de résoudre en 5 minutes un problème qui aurait pris 10 septillions d’années - ce qui est plus long que l'âge de l'univers ! - Elle est en mesure de réduire les erreurs de manière exponentielle à mesure que l’on augmente le nombre de qubits, une problématique que le domaine du quantique cherche à résoudre depuis près de 30 ans. Quel impact pour l'#IA? : Pour Hartmut Neven, “L'IA avancée bénéficiera considérablement de l'accès à l'informatique quantique." En effet, l'informatique quantique deviendra indispensable pour l'entraînement des modèles, l'optimisation de certaines architectures d'apprentissage, et pour la modélisation des systèmes. A revoir en vidéo, le sujet dédié et très bien expliqué de Anthony Morel ⬇️ CC Foniadakis Constantin Sébastien Missoffe
L'incroyable exploit de #Google dans le quantique 🤯 Avec sa nouvelle puce #Willow, le géant américain a réalisé en 5 minutes un calcul qui prendrait des milliards de milliards d'années à un ordinateur classique. Un pas de géant dans l'univers #quantique. 🎙️ Anthony Morel
L'incroyable exploit de Google dans le quantique
Identifiez-vous pour afficher ou ajouter un commentaire
-
L'ordinateur et le calcul quantique, une rapidité pour le calcul avec une faible marge d'erreur. Le calcul quantique tire sa force du qubit, pour bit quantique. Les ordinateurs quantiques ne fonctionnent pas avec des données binaires ou des bits, codés en 0 et 1 (fermé ou ouvert), comme les ordinateurs ou les smartphones que nous utilisons. Un qubit peut être à la fois 0 et 1, et même n’importe quel mélange des deux, 10 % de 1 avec 90 % de 0, ou 33 % de 1 avec 67 % de 0… Les spécialistes parlent de superposition quantique. https://lnkd.in/eEwJa-pD https://lnkd.in/eGe4HS_y https://lnkd.in/eRBRCa3v https://lnkd.in/eRhm-Vdx https://lnkd.in/esvubSSg https://lnkd.in/eRMpPtZB https://lnkd.in/e8ufw6fK #quantique #calculquantique #qubit #bitquantique #ordinateurquantique #superpositionquantique #theoriequanta #quantum #quantumtheory
L'incroyable exploit de #Google dans le quantique 🤯 Avec sa nouvelle puce #Willow, le géant américain a réalisé en 5 minutes un calcul qui prendrait des milliards de milliards d'années à un ordinateur classique. Un pas de géant dans l'univers #quantique. 🎙️ Anthony Morel
L'incroyable exploit de Google dans le quantique
Identifiez-vous pour afficher ou ajouter un commentaire
Co-Founder of Altrosyn and DIrector at CDTECH | Inventor | Manufacturer
7 moisGoogle's unveiling of the sixth-generation Trillium TPUs marks a significant step in AI hardware, promising faster model training, lower latency, and reduced costs. The integration of these TPUs with advanced models like Gemini 1.5 Flash and Imagen 3 demonstrates their critical role in pushing AI capabilities forward. You mentioned Trillium's superior performance and energy efficiency. Considering these advancements, how do you foresee the competition between TPU-based and GPU-based AI accelerators evolving, particularly in terms of scalability and application in real-time AI tasks? Your insights on potential use cases in emerging AI applications would be enlightening.