DATANOSCO

DATANOSCO

Technologie, médias et télécommunications

Versailles, France 1 054 abonnés

The DATA SOMMELIER

À propos

Similar to how a sommelier helps patrons choose the right wine to enhance their dining experience, a Data Sommelier assists both business and technical leaders in navigating the vast landscape of the data world. Beyond recommending the most relevant and impactful data for informed decision-making, he extends his expertise to technical leaders, aiding them in selecting the right tools to manage and analyze data effectively. The Data Sommelier possesses a nuanced understanding of various data sets, allowing them to recommend optimal « data pairings » tailored to specific business needs. Whether collaborating with business team to align data flavors with organizational objectives or guiding technical team in tool selection, the Data Sommelier brings forth a unique blend of technical proficiency and a refined comprehension of the business context. In doing so, he orchestrates a harmonious data experience that serves the diverse needs of the organization. In Latin, ‘nosco’ means ‘I know’ or ‘I am aware of.’ It is the first person singular form of the verb ‘noscere,’ which is generally translated as ‘to know’ or ‘to be aware.’ This word can be used to express the understanding or recognition of something or someone.

Secteur
Technologie, médias et télécommunications
Taille de l’entreprise
1 employé
Siège social
Versailles, France
Type
Société civile/Société commerciale/Autres types de sociétés
Fondée en
2024
Domaines
Data Strategy

Lieux

Employés chez DATANOSCO

Nouvelles

  • Voir la page d’organisation pour DATANOSCO, visuel

    1 054  abonnés

    Merci aux 500+ premiers abonnés ! Et déjà plus de 12 épisodes du #datasommelier ! S1E1 👉 Apache #Iceberg, vers un nouveau standard du stockage de la donnée ? avec Victor Coustenoble https://lnkd.in/eDXaW8Ua S1E2 👉 Découverte de The Apache Software Foundation Foundation, avec JB Onofré https://lnkd.in/esbzkhRC S1E3 👉 #FinOps, halte au gaspillage ... où les bonnes pratiques à mettre en place pour optimiser les coûts d'une plateforme data, avec Matthieu Rousseau et Ismael Goulani https://lnkd.in/eWrZvS6z S1E4 👉 Un #Lakehouse dans un cloud français, économiquement abordable et basé sur des composants #opensource interchangeables, c'est possible ? avec Vincent HEUSCHLING https://lnkd.in/evUk-qhh S1E5 👉 Talaxie, le fork Talend Open Studio. L'initiative de Jean Cazaux https://lnkd.in/ekpAxC2T S1E6 👉 De PowerMart à #IDMC, en passant par #PowerCenter, Christophe FOURNEL retrace les 30 dernières années d'Informatica https://lnkd.in/es-5-iH9 S1E7 👉 Le retour des 'Data Platforms'. Interview de Eric Mattern https://lnkd.in/evZ47CMP S1E8 👉 Le projet #Icehouse avec Victor Coustenoble, une plateforme #Lakehouse intégralement gérée, qui combine le moteur de requête #opensource #Trino et Apache Iceberg. https://lnkd.in/eTWmnUk3 S1E9 👉 Retour sur la conférence #Subsurface, organisée par Dremio qui s'est déroulée les 2 et 3 mai 2024 à New York. Charly Clairmont en profite pour nous rappeler ce qu'est Dremio et ses différents cas d'usages. https://lnkd.in/eYWGSyh2 S1E10 👉 La gouvernance de données, c'est d'abord une question organisationnelle ! Daniel MALOT nous parle de son expérience terrain et décrit les étapes nécessaires pour mener à bien un projet de gouvernance en nous faisant découvrir quelques aspects de sa solution META ANALYSIS. https://lnkd.in/eeP7HQw7 S1E11 👉 Pierre Villard retrace l'histoire de la solution Apache NiFi, véritable gateway universelle permettant le développement de pipelines de mouvements de données, aussi bien en mode batch qu'en streaming. https://lnkd.in/e-daVV7n S1E12 👉 Le streaming, une nouvelle façon de penser l'architecture des applications et d'améliorer les usages de la data ! Fred CECILIA constate que le #streaming s'impose naturellement lorsqu'on a vainement essayé d'optimiser les batch existants https://lnkd.in/edM24ybU S1E14 👉 Alexandre Guillemine de chez Foodles nous détaille toutes les étapes de son projet de migration de #PostgreSQL vers Snowflake ! https://lnkd.in/edA9M3qd S1E15 👉 Amphi, un ETL #opensource pour faire du RAG, développé par Thibaut Gourdel ! https://lnkd.in/eQuTgZ6q S1E16 👉 Cloudera, de l'ère Bigdata à l'ère de l'IA, interview de Denis FRAVAL https://lnkd.in/efgh4b6E S1E17 👉 DCP, la Data Platform ClickOps Self Service, avec le témoignage d'EDF. Interview de Frederic Collin et Edouard Rousseaux https://lnkd.in/gKuDQAHG

  • DATANOSCO a republié ceci

    Voir le profil de Pierre Gaubil, visuel

    Unlock your startup, The No-BS Method to Fix What's Holding You Back!  | Coached 300+ startups | CEO @ 34 Elements | Track record: 1 IPO & 2 M&A

    Startup Unlocked is now Available in English! Most startup books inspire and motivate but fall short on providing a holistic method to tackle the complexities of entrepreneurship. 👉 They spoon-feed tactics instead of empowering critical thinking. 👉 They oversimplify, stretch one idea across chapters, or focus solely on product or customer feedback. 👉 They sacrifice long-term vision for quick wins, leaving startups unprepared for sustainable growth. This book is different. It offers a proven, practical method to help you: ✅ Structure, develop, and unlock your entrepreneurial project. ✅ Overcome challenges with real strategies and actionable tools. ✅ Build a foundation for thoughtful and strategic success. This isn’t just theory—it’s your step-by-step companion to entrepreneurship with confidence and clarity. 🚀 Buy it here in the US: https://lnkd.in/daEe2aPf

    • Aucune description alternative pour cette image
  • DATANOSCO a republié ceci

    Voir le profil de Hugues Le Bars, visuel

    Chief Data Officer | Freelance | Unveiling the Data Universe | Marathon runner

    Valoriser et entretenir son patrimoine de données. Entre hommes et données, il existe un lien profond, tout comme entre les hommes et leurs histoires. À une époque où les données dominent, n'oublions pas qu'il est essentiel d'invoquer les sages de l'ancienne école – les linguistes, les philosophes, et les experts en gouvernance – pour structurer et nommer ce qui nous entoure. Découvrez pourquoi notre approche humaine reste au cœur de la gestion des données. Mais surtout, ne tolérez pas le désordre et la confusion qui naissent de ce "mal nommer les objets".

    Mal nommer les choses

    Mal nommer les choses

    Hugues Le Bars sur LinkedIn

  • DATANOSCO a republié ceci

    Voir le profil de Bertrand Duperrin, visuel

    Directeur People & Organisation. - Spécialiste de la transformation des entreprises

    Je redécouvre cet article sur un sujet qui m'a toujours été cher et qui a même été au coeur de mon activité pendant un temps le knowlege management. C'est peut être, d'ailleurs, lorsque je n'ai plus eu à travailler sur le sujet que je me suis rendu compte, en tant que personne devant mobiliser les savoirs pour faire avancer les choses, à quel point l'absence d'une pratique KM bien établie était pénalisante dans de nombreux domaines. Donc un article qui revisite 30 ans de pratique du KM et dont j'attendais la réponse à une question "où en est on aujourd'hui et a-t-on fait des progrès". En résumé... Le KM est apparu il y a trois décennies avec des ouvrages comme The Knowledge-Creating Company de Nonaka et Takeuchi et Working Knowledge de Davenport et Prusak. L'idée ? Capturer et partager l'expertise organisationnelle pour mieux innover et rester compétitif. Contrairement aux données ou informations, la vraie connaissance est intangible, souvent non documentée, et réside dans les esprits des collaborateurs. À ce jour, la plupart des entreprises peinent encore à identifier et exploiter pleinement leur savoir collectif, un défi accentué par des départs massifs comme ceux observés pendant la "Grande Démission". Il a connu trois étapes : 1: Années 90 : Focus technologique – grandes bases de données, mais désillusion rapide. 2: Années 2000 : Accent sur les personnes – émergence des communautés de pratique (CoPs). 3: Depuis 2018 : Adoption de la norme ISO 30401 et rôle croissant de l’IA comme facilitateur. Les tendances d'avenir sont l'IA, la rétention des connaissances, et le partage inter-fonctionnel. Mais attention à ne pas surévaluer la technologie : la clé reste l'humain. Comme le disait Lew Platt (HP) : « Si seulement HP savait ce que HP sait… ».... C'est d'ailleurs ce qui tendrait à me faire douter le plus que cela fonctionne mieux dans l'avenir qu'aujourd'hui. D'un côté, de par ma pratique, je vois bien comment l'IA aurait pu à un moment servir de catalyseur, de facilitateur, aurait peu aider à passer à l'échelle pour que le KM ne soit pas qu'un truc à l'usage des convaincus. Mais à un moment il reste le frein principal la connaissance n'est nulle part ailleurs que dans la tête des gens et faute de pouvoir l'extraire de force il faut un déclencheur pour qu'ils la partagent et là je ne vois pas comment la technologie seule peut y parvenir à moins qu'elle n'aille d'elle-même chercher où cette connaissance a pu être exprimée outils de collaboration, outils métier...mais cela pose des questions de privacy. Vous en pensez quoi ? #km #knowledgemanagement #IA

    La gestion des connaissances : retour vers le futur

    La gestion des connaissances : retour vers le futur

    hbrfrance.fr

  • DATANOSCO a republié ceci

    Voir le profil de Sanjeev Mohan, visuel

    Principal, SanjMo & Former Gartner Research VP, Data & Analytics | Author | Podcast Host | Medium Blogger

    Demystifying AI Agents: Your One-Stop FAQ! Yesterday, I posted my podcast. Today, I am sharing my Medium blog, a comprehensive FAQ to understanding AI agents! In this blog, we'll tackle everything you need to know, including: 1️⃣ What exactly are AI agents, and how do they work? 2️⃣ What are the different types of AI agents? 3️⃣ What is an agent development lifecycle? 4️⃣ How do you build your own AI agent? 5️⃣ What are the key components of an AI agent architecture? 6️⃣ What are AI agent frameworks, and how can they help you? 7️⃣ Plus, we'll explore valuable lessons learned and common pitfalls to avoid! https://lnkd.in/gtQCkVXC Thanks #AI #AIagents #machinelearning #artificialintelligence #LLM #chatbots #AIassistant #copilot

    Demystifying AI Agents: Frequently Asked Questions (FAQ)

    Demystifying AI Agents: Frequently Asked Questions (FAQ)

    sanjmo.medium.com

  • DATANOSCO a republié ceci

    Voir le profil de Oussama Ghanmi, visuel

    CEO at DinMo - The Composable Customer Data Platform (CDP) | Former Chief Data Officer

    Merci Stéphane pour l'invitation. Replay 👇

    Voir la page d’organisation pour Modern Data Stack France, visuel

    2 419  abonnés

    CDP ? Qu'est-ce qu'une Customer Data Platform ? (Replay) On en parle avec Oussama Ghanmi qui a développé DinMo, une Customer Data Platform (CDP) qui se différencie des solutions traditionnelles en s'intégrant directement aux modèles des systèmes sources comme Snowflake, Databricks ou BigQuery. DinMo fournit aux équipes marketing un accès facile et autonome à des informations enrichies pour une meilleure segmentation et personnalisation "clients". L'approche est modulaire et collaborative tout en offrant des fonctionnalités d'enrichissement, de segmentation, et d'activation omnicanal. Le modèle économique vise à rendre cette technologie accessible à des entreprises de toutes tailles.

    CDP ? Qu'est-ce qu'une Customer Data Platform ? (copy)

    CDP ? Qu'est-ce qu'une Customer Data Platform ? (copy)

    www.linkedin.com

  • DATANOSCO a republié ceci

    Voir le profil de Raffi Sarafian, visuel

    Project Director @ Insights & Data - Capgemini

    📊 À l'heure du prompting, de la GenAI 🤖 et de l'information en temps réel 🌐, quelle place pour la data visualisation ? Dans un monde où les modèles génératifs et l’IA transforment notre manière de consommer et de produire de l’information, la data visualisation reste un pilier fondamental pour comprendre et donner du sens aux données. Elle ne se contente pas de suivre l'évolution technologique, elle s'adapte et innove pour continuer à rendre l'information accessible et impactante. ✨ Un voyage dans l’histoire de la data visualisation, siècle après siècle : 📜 XVIIIe siècle : William Playfair Considéré comme le père de la data visualisation, William Playfair (1759–1823) est l’inventeur des graphiques à barres 📊, des graphiques linéaires 📈 et du camembert 🥧. Dans son célèbre ouvrage "The Commercial and Political Atlas", il montre comment les graphiques peuvent raconter des histoires puissantes sur les balances commerciales et la croissance économique. 📖 XIXe siècle : Charles Joseph Minard L’ingénieur français Charles Minard (1781–1870) est célèbre pour sa carte de la campagne de Russie de Napoléon 🎖️❄️. Ce chef-d'œuvre combine plusieurs dimensions de données (taille des troupes, température, distance) en une seule visualisation saisissante. C'est un exemple emblématique de la puissance des visuels pour transmettre des histoires complexes. 📘 XXe siècle : Edward Tufte Souvent surnommé le "Leonardo da Vinci de la Data Visualisation", Edward Tufte (né en 1942) a redéfini les standards de la visualisation avec ses ouvrages comme The Visual Display of Quantitative Information. L’un de ses principes fondamentaux est d’éliminer le "chartjunk" pour se concentrer sur la clarté et la précision. Son soutien à des visualisations riches en détails, comme les sparklines, a influencé de nombreux professionnels. 🌟 XXIe siècle (nouvelle génération) : Nadieh Bremer Nadieh Bremer est une data designer qui fusionne art et science pour créer des visualisations captivantes et innovantes 🎨. Son projet "Data Sketches", en collaboration avec Shirley Wu, explore les limites créatives de la data visualisation interactive. Avec ses créations élégantes et narratives, elle incarne une nouvelle génération qui mêle storytelling et technologie. 🚀 Et aujourd’hui ? Alors que les données explosent 📈, la data visualisation reste plus que jamais essentielle pour donner du sens à ce flux d’information et inspirer des décisions éclairées. 🤔 Et vous, quelles sont vos inspirations en matière de data visualisation ? ➡️ Êtes-vous fasciné par les chefs-d'œuvre historiques comme ceux de Playfair ou Minard ? ➡️ Ou préférez-vous expérimenter avec des visualisations modernes et interactives à la Nadieh Bremer ? #DataVisualisation #Datastorytelling 📜 #WilliamPlayfair 📊 #CharlesMinard 📖 #EdwardTufte 📘 #StephenFew 💡 #NadiehBremer 🌟 #GENAI 🤖

    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image
    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour DATANOSCO, visuel

    1 054  abonnés

    REPLAY - dbt en Live ! démo, prise en main, Q&A (copy) dbt en Live (replay du meetup DCube Modern Data Stack France du 3 décembre 2024) ! Animé par Céline Vicente, Julien FOURRE, Wilson Ruzindana Ngabo qui démontrent les fonctionnalités principales de l’outil, des cas d’usage concrets, des retours d’expériences et de mise en œuvre. 👉 Au programme : ● Contexte data/cloud de la transformation de données ● Concepts d’utilisation de dbt (comparaison avec procédures stockées) ● Avantages de l’outil (linéage, documentation, invite de commande, surcouche python,...) ● Type de matérialisation (tables, views, incremental,…) ● Documentation (format web) ● Snapshot (historisation) ● Test ● Macro/package (surcouche python) ● Seed (chargement csv) ● Architecture mise en place avec dbt

    dbt en Live ! démo, prise en main, Q&A (copy)

    dbt en Live ! démo, prise en main, Q&A (copy)

    www.linkedin.com

  • DATANOSCO a republié ceci

    Voir le profil de Emeric Chaize, visuel

    ☁️ Data Architect & Eclectic ☁️ - President and co-founder Olexya

    Plateforme Composable Open Source #7 : Platform Management Terminons notre exploration d'une plateforme de données composable open-source ! Aujourd'hui, focus sur les outils de gestion de plateforme, essentiels pour maintenir et optimiser vos opérations data. Pourquoi est-ce important ? Les outils de gestion de plateforme sont cruciaux pour : - Assurer la qualité et la gouvernance des données - Automatiser et orchestrer les workflows - Garantir la conformité et la sécurité - Optimiser l'impact environnemental Nous avons identifié 6 catégories principales d'outils : - Qualité des données : Great Expectations, Deequ, Elementary, Soda Core - Gouvernance : Datahub, Open Metadata, Amundsen, Apache Atlas, Marquez, Magda, Spline - Workflow Manager : Apache Airflow, Dagster Labs, Prefect, Argo Workflows, Kestra, Apache Dolphinscheduler, Luigi, Mage.ai - Automation : n8n, Zapier - Green IT : Cloud Carbon Footprint, Code Carbon, Green Analysis Tools, SCI - Conformité & Sécurité : ARX, Amnesia Ces outils se distinguent par leurs cas d'usage : - Les outils de qualité des données pour garantir la fiabilité - Les solutions de gouvernance pour la traçabilité et la documentation - Les gestionnaires de workflow pour l'orchestration des pipelines - L'automatisation pour simplifier les processus - Le Green IT pour réduire l'impact environnemental - La conformité pour protéger les données sensibles Avez-vous déjà utilisé ces outils ? Quelles sont vos expériences ? Quels sont vos favoris ? Vous pouvez retrouver l'ensemble des éléments sur la page GitHub en commentaire. Y a-t-il d'autres solutions open-source que vous recommanderiez ? Partagez vos insights dans les commentaires ! #OpenSource #Composable #DataQuality #DataGovernance #Workflow #Automation #GreenIT #DataSecurity #DataOps #DataManagement

    • Aucune description alternative pour cette image

Pages similaires