𝗔𝗺𝗮𝘇𝗼𝗻 𝗩𝗦 𝗡𝘃𝗶𝗱𝗶𝗮 : 𝗹𝗮 𝗰𝗼𝘂𝗿𝘀𝗲 𝗮𝘂𝘅 𝗻𝗼𝘂𝘃𝗲𝗹𝗹𝗲𝘀 𝗽𝘂𝗰𝗲𝘀 𝗱'𝗶𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗮𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗲𝗹𝗹𝗲 🚀 Ce mardi, Amazon Web Services a lancé une initiative ambitieuse pour concurrencer Nvidia dans le domaine des puces d’IA. AWS propose en effet 110 millions de dollars en crédits cloud gratuits pour permettre aux chercheurs d'explorer les capacités de ses puces personnalisées, dont le modèle 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺, conçu pour l'apprentissage profond. ➡️ 𝗨𝗻𝗲 𝗮𝗽𝗽𝗿𝗼𝗰𝗵𝗲 𝘁𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 𝗾𝘂𝗶 𝗺𝗶𝘀𝗲 𝘀𝘂𝗿 𝗹𝗮 𝗳𝗹𝗲𝘅𝗶𝗯𝗶𝗹𝗶𝘁𝗲́ 𝗲𝘁 𝗹’𝗼𝗽𝘁𝗶𝗺𝗶𝘀𝗮𝘁𝗶𝗼𝗻 Pour programmer les puces de Nvidia, la plupart des développeurs d'IA utilisent ce que l'on appelle 𝗖𝘂𝗱𝗮, le logiciel phare de Nvidia, plutôt que de programmer directement la puce. AWS prévoit plutôt de publier de la documentation sur la partie la plus fondamentale de sa puce - ce que l'on appelle l'architecture du jeu d'instructions - et de laisser les clients programmer la puce directement. ➡️ 𝗨𝗻 𝘀𝗼𝘂𝘁𝗶𝗲𝗻 𝗺𝗮𝘀𝘀𝗶𝗳 𝗮𝘂𝘅 𝗰𝗵𝗲𝗿𝗰𝗵𝗲𝘂𝗿𝘀 L'entreprise prévoit de mettre à disposition 𝟰𝟬 𝟬𝟬𝟬 𝗽𝘂𝗰𝗲𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝘂𝗺 de première génération pour ce programme, qui vise à démocratiser l'accès à la puissance de calcul en offrant une alternative aux GPU de Nvidia. Avec cette initiative, Amazon espère élargir son influence dans le domaine de l’IA et mise sur l’ouverture et la personnalisation pour attirer une nouvelle génération de développeurs et de chercheurs 🌐 #maliz_actu#
Post de Maliz.ai
Plus de posts pertinents
-
Nvidia surévalué ou “Winner takes it all” ? +2.200% depuis 5 ans, fois 5 en 1 an. Plus de 2.000 milliards de capitalisation. Alors cette valorisation est-elle déraisonnable ? Petit rappel : Chat GPT est lancé le 20 novembre 2022 ! A partir de ce moment-là tout le monde veut de l’intelligence artificielle. Et là on se rend compte que les processeurs classiques qui ont été développés pour les clients de l’époque, ne sont pas utilisables pour le développement de l’IA. Seul Nvidia a développé des GPU (graphics processing unit) qui permettent ce développement. Une autre manière de faire les calculs. Nvidia se retrouve donc seul à des années lumières des autres fabricants de cartes graphiques. La concurrence : AMD a lancé sa première puce dédiée à l’IA. Sam Altman (le patron de Open AI, ChatGPT) mène une croisade pour lever des milliers de milliards pour concurrencer Nvidia ou en tout cas pour développer la production de puces. Mais pour l’instant Nvidia garde une avance qui le met à l’abri pour de nombreuses années. Selon les estimations le marché devrait être multiplié par 10 en 4 ans. (45 milliards en 2023 contre 400 milliards en 2027). Si le leader et seul en course aujourd’hui garde sa part de marché son CA va donc être multiplié par 10 d’ici 4 ans, moment où le marché sera sans doute mûr. Alors quid de la valorisation de Nvidia ? Le CA du dernier trimestre est de 22,1 milliards, le bénéfice net est de 12,29 milliards. Dans 4 ans cela signifierait 221 milliards de CA et 123 milliards de résultat net. On le multiplie par 4 cela donne 492 milliards de USD de résultat net en 2027. La valorisation aujourd’hui est donc d’un peu plus de 4 fois les résultats estimés en 2027. Pas cher ! Pour multiplier par 10 son résultat en 4 ans il faut faire environ 80% de progression par an ou 16% par trimestre. En 2023 Nvidia a augmenté son résultat entre +45% et +200%, chaque trimestre ou 1000% sur un an. Donc beaucoup plus mais il faut tenir le rythme. En conclusion : on peut prendre le pari que Nvidia sera la plus grosse capitalisation au monde dans quelques semaines (attention à Microsoft et ses 3.000 milliards de capitalisation). Mais on peut surveiller les progressions de ses bénéfices et de son CA pour se rassurer.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Tu travailles dans le monde de l'IA et tu n'as pas 30k€ 💸 pour t'offrir la dernière puce Nvidia ? Tu n'es pas la seule personne à chercher une alternative 🔎 👇👇👇👇👇👇 Pour les grands groupes, le but est souvent d'éviter de payer la taxe Nvidia pour les nombreux entrainements de modèle dont ils ont besoin : 🔦 - Meta veut créer la deuxième génération de puce parfaitement intégrée à PyTorch : https://lnkd.in/ebJzsdY6 😎 - Google est déjà à sa 5ème version de puce AI : le TPU. Celle-ci serait potentiellement aussi bonne que le fleuron (jusque là) de Nvidia : le H100. https://lnkd.in/eCB4G5dS. Le TPU serait aussi plus fiable que les offres cloud GPU grand public : https://lnkd.in/eW-HpJ24 De nombreuses startups essayent eux aussi de récupérer une part du gâteau sur les ventes de matériel pour l'IA : 🧞♀️- TinyGrad - Ils fabriquent un serveur deep learning basé sur les carte AMD, avec un objectif "cost-cutting" : https://tinygrad.org 🧠 - TensTorrent - Une approche différente, des cartes optimisées IA en visant l'interconnection par le réseau : https://lnkd.in/ebs7Cs5X 🚤 - Groq - Une puce NLP avec très peu de mémoire mais celle-ci est extrêmement rapide, ils sont souvent référencés pour les usages LLM avec des besoins de latence faible : https://lnkd.in/eDuZ65C6 🌶 - Intel Habana - Intel essaye aussi d'obtenir des parts de marché avec sa nouvelle gamme de puce datacenter Gaudi 2. https://lnkd.in/eNY7AYsx Enfin, il y a aussi des patches pour tirer plus du matériel consumer grade de Nvidia : 🛰 - Tinygrad, que l'on a mentionné juste avant, a réussi à trouver comment ré-activer des features "pro" sur des cartes nvidia "grand public" : https://lnkd.in/eTVxQ3PT References supplémentaires 📚 : - TinyCorp : their twitter, interesting to understand what is blocking in using something different than Nvidia : https://lnkd.in/ez3scBsi - P2P does not exist on 4090 : https://lnkd.in/eTVxQ3PT - An example of in-depth guide to build your optimally priced AI workstation : https://lnkd.in/eah6xsJs
Identifiez-vous pour afficher ou ajouter un commentaire
-
Nvidia, l'électronicien américain, se distingue par des résultats trimestriels éblouissants, avec une hausse de 262 % de son chiffre d'affaires, atteignant 26 milliards de dollars. Cette performance spectaculaire marque une croissance de plus de trois fois ses ventes comparativement à l'année précédente. Le bénéfice net de l'entreprise s'élève à 15 milliards de dollars, révélant une marge bénéficiaire impressionnante de plus de 57 %. Jensen Huang, le fondateur d’origine taïwanaise, prédit que cette croissance se poursuivra en 2024 et au-delà, propulsant la valorisation boursière de Nvidia à plus de 2 300 milliards de dollars, surpassant des géants comme Google ou Amazon. Historiquement, l’industrie informatique a vu des leaders comme IBM dans les années 1960-1980 et Microsoft avec Intel entre 1980 et 2000, suivi de Google et Apple dans l’ère d’Internet et du mobile. Aujourd'hui, l'ère de l'intelligence artificielle semble être dominée par le duopole OpenAI et Nvidia. La part de marché de Nvidia, qui dépasse les 80 % selon les analystes de la banque Citi, devrait se maintenir au-dessus de 60 % en 2030, malgré le fait que les puces sont produites par le taïwanais TSMC et non par Nvidia lui-même. Les concurrents de Nvidia, tels qu'AMD, Intel et Qualcomm, ainsi que de grands clients comme Google, Microsoft, Meta ou Apple, développent leurs propres systèmes. Toutefois, l'avantage de Nvidia réside dans son environnement logiciel, CUDA, développé sur vingt ans. Ce système est tellement intégré et efficace qu'il rend difficile pour les clients de changer de fournisseur, une stratégie similaire à celle employée par Google, Microsoft ou Apple avec leurs propres systèmes. Pour combler leur retard, la plupart des concurrents se tournent vers des solutions open source comme Triton, créé par le Français Philippe Tillet durant son doctorat à Harvard et maintenant employé par OpenAI. Cependant, changer la donne prendra du temps et nécessitera une évolution significative dans les cycles technologiques à venir.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Nvidia, l'électronicien américain, se distingue par des résultats trimestriels éblouissants, avec une hausse de 262 % de son chiffre d'affaires, atteignant 26 milliards de dollars. Cette performance spectaculaire marque une croissance de plus de trois fois ses ventes comparativement à l'année précédente. Le bénéfice net de l'entreprise s'élève à 15 milliards de dollars, révélant une marge bénéficiaire impressionnante de plus de 57 %. Jensen Huang, le fondateur d’origine taïwanaise, prédit que cette croissance se poursuivra en 2024 et au-delà, propulsant la valorisation boursière de Nvidia à plus de 2 300 milliards de dollars, surpassant des géants comme Google ou Amazon. Historiquement, l’industrie informatique a vu des leaders comme IBM dans les années 1960-1980 et Microsoft avec Intel entre 1980 et 2000, suivi de Google et Apple dans l’ère d’Internet et du mobile. Aujourd'hui, l'ère de l'intelligence artificielle semble être dominée par le duopole OpenAI et Nvidia. La part de marché de Nvidia, qui dépasse les 80 % selon les analystes de la banque Citi, devrait se maintenir au-dessus de 60 % en 2030, malgré le fait que les puces sont produites par le taïwanais TSMC et non par Nvidia lui-même. Les concurrents de Nvidia, tels qu'AMD, Intel et Qualcomm, ainsi que de grands clients comme Google, Microsoft, Meta ou Apple, développent leurs propres systèmes. Toutefois, l'avantage de Nvidia réside dans son environnement logiciel, CUDA, développé sur vingt ans. Ce système est tellement intégré et efficace qu'il rend difficile pour les clients de changer de fournisseur, une stratégie similaire à celle employée par Google, Microsoft ou Apple avec leurs propres systèmes. Pour combler leur retard, la plupart des concurrents se tournent vers des solutions open source comme Triton, créé par le Français Philippe Tillet durant son doctorat à Harvard et maintenant employé par OpenAI. Cependant, changer la donne prendra du temps et nécessitera une évolution significative dans les cycles technologiques à venir.
« L’âge de l’intelligence artificielle sera piloté par le duopole formé par OpenAI et Nvidia »
lemonde.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
#AgenceIAGénérative #Amazon #Anthropic #intelligenceartificielle Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation !: Nvidia n’a qu’à bien se tenir, Amazon se lance également dans la création de puce […] L’article Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation ! est apparu en premier sur https://lnkd.in/dFeCP5s .@ia
Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation !
intelligence-artificielle.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
Google dévoile sa sixième génération de processeurs TPU lors de l’événement I/O Lors de son événement I/O, Google a fait plusieurs annonces majeures centrées sur l’intelligence artificielle, dont une focalisation sur la prochaine génération de ses processeurs maison, les TPU (Tensor Processing Unit). La sixième génération, nommée Trillium, sera lancée dans le courant de l’année au sein de l’infrastructure de Google Cloud. Sundar Pichai, CEO d’Alphabet, a souligné lors de la conférence de presse que Google est un pionnier dans le domaine des GPU depuis plus de dix ans, suggérant ainsi qu’il existe des alternatives à la domination de Nvidia sur le marché des accélérateurs IA à base de GPU. La nouvelle génération de TPU, Trillium, promet une performance de calcul multipliée par 4,7 par rapport à la génération précédente (TPU v5e). Google a augmenté les MXU (Matrix Multiply Unit) et doublé la bande passante de la mémoire pour atteindre ces performances. De plus, Trillium intègre la troisième génération de SparseCore, un accélérateur spécialisé dans le traitement des embeddings volumineux utilisés dans les workload de classement et de recommandation avancés. Cette intégration permettra d’entraîner les modèles plus rapidement, avec une faible latence et à moindre coût. Google met également l’accent sur la maîtrise de la consommation énergétique des TPU, étant donné la demande croissante en calculs d’apprentissage automatique. Sundar Pichai a souligné que la demande de calcul en apprentissage automatique a été multipliée par un million au cours des six dernières années. Google promet que les prochains TPU seront 67 % plus économes en énergie que les puces de cinquième génération. Les détails techniques et les consommations énergétiques réelles seront dévoilés lors du lancement officiel. Google Cloud prévoit également de lancer des instances avec sa puce ARM Axion, offrant ainsi une gamme étendue de solutions d’IA pour ses clients.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Google dévoile Trillium, ses TPU de 6e génération taillées pour l'IA, Il n'y a pas que les accélérateurs d'IA à base de GPU Nvidia sur le marché, bien au contraire. Avec ses TPU de sixième génération, Google entend tenir tête au géant des puces, pourtant considéré comme indétrônable. La firme promet un entraînement des modèles plus rapidement, avec une faible latence et à moindre coût. C’était lors de sa conférence Google I/O, que le géant de la tech a dévoilé un certain nombre de grands modèles de langage tels que Gemini 1.5 Flash, Imagen 3 et Gemma 2. Leur point commun : tous ces modèles ont été entraînés sur des TPU (Tensor Processing Unit). Estimant que le rythme d'innovation s'accélère, Google prend les devants et a annoncé cette semaine Trillium, des TPU de sixième génération, décrit comme les plus performantes et les plus économes en énergie à ce jour. #Tech #Innovation #Ai
Identifiez-vous pour afficher ou ajouter un commentaire
-
#AgenceIAGénérative #Amazon #Anthropic #intelligenceartificielle Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation !: Nvidia n’a qu’à bien se tenir, Amazon se lance également dans la création de puce […] L’article Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation ! est apparu en premier sur https://lnkd.in/eRuJ_xeD .@ia
Amazon défie Nvidia : Une nouvelle puce IA révolutionnaire est en préparation !
intelligence-artificielle.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Nvidia dévoile Blackwell : La Nouvelle Révolution dans l'IA Nvidia, le géant de la technologie, frappe encore une fois fort avec l'annonce de sa toute nouvelle architecture, Blackwell. Mais qu'est-ce que Blackwell exactement ? 🧐 C'est bien plus qu'une simple mise à niveau technologique, c'est une révolution dédiée au monde de l'intelligence artificielle et des entreprises de grande envergure. 💡 🤖 Le Pouvoir d'Innovation de Nvidia Blackwell représente un bond en avant dans le domaine de l'IA, ciblant des acteurs majeurs tels qu'OpenAI, Midjourney, Google, et Adobe. Cette architecture n'est pas destinée à nos PC personnels, mais plutôt à alimenter les besoins massifs en puissance de calcul de ces entreprises. 💻 💰 L'Enjeu de la Puissance de Calcul L'entraînement des modèles d'IA nécessite des ressources considérables, et c'est là que Blackwell entre en jeu. Les entreprises cherchent à acquérir ces puces à tout prix, malgré leur coût élevé et leur disponibilité limitée. Nvidia détient le marché avec ses produits de haute qualité et sa capacité de production inégalée. 💪 🔮 Vers l'Avenir de l'IA Avec Blackwell, Nvidia repousse les limites de l'IA en offrant des performances exceptionnelles tout en réduisant la consommation d'énergie. Cette nouvelle architecture promet d'accélérer encore davantage les avancées dans le domaine de l'IA, ouvrant la voie à de nouvelles innovations et à une efficacité accrue. 🌟 On en discute ensemble les amis : 🎬 Renaud Varoqueaux, le Live-Webinar du digital, tous les midis ! On se retrouve donc en live ce midi. #Nvidia #IA #Blackwell
Identifiez-vous pour afficher ou ajouter un commentaire
400 abonnés