🎭 𝐋’𝐢𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐜𝐞 𝐚𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐞𝐥𝐥𝐞 : 𝐚𝐥𝐥𝐢𝐞́𝐞 𝐨𝐮 𝐦𝐞𝐧𝐚𝐜𝐞 𝐩𝐨𝐮𝐫 𝐥𝐚 𝐜𝐮𝐥𝐭𝐮𝐫𝐞? 🎨 L'IA peut-elle rivaliser avec nos capacités créatives? Si ChatGPT et d'autres outils produisent des résultats impressionnants, ils restent limités dans leur capacité à reproduire l'émotion humaine retrouver dans l'art ou la littérature. Dans notre publication récente, «𝑳’𝒊𝒎𝒑𝒂𝒄𝒕 𝒅𝒆 𝒍’𝑰𝑨 𝒔𝒖𝒓 𝒍𝒂 𝒅𝒆́𝒄𝒐𝒖𝒗𝒓𝒂𝒃𝒊𝒍𝒊𝒕𝒆́ 𝒅𝒂𝒏𝒔 𝒍𝒆 𝒔𝒆𝒄𝒕𝒆𝒖𝒓 𝒄𝒖𝒍𝒕𝒖𝒓𝒆𝒍», mise en ligne ce mois-ci, nous explorons cette thématique à travers plusieurs questions clés: ● Comment l’IA interprète-t-elle et reproduit-elle la créativité grâce à ses algorithmes? ● Jusqu’où sa capacité créative peut-elle retranscrire l’émotion et l’intention humaines? ● Quels impacts cette révolution technologique a-t-elle sur les artistes et leurs processus créatifs? Pour cette 7e édition de notre veille technologique, rédigée par Guy-Philippe Wells et réalisée en collaboration avec l’UQAM - LATICCE et Mitacs, nous vous invitons à explorer l'intersection entre technologie et créativité dans un monde en perpétuelle évolution. 🔗 Ne manquez pas cette analyse captivante ! https://bit.ly/3ZLA4fm #IA #IntelligenceArtificiel #Culture #Creativite #AI #GenAI #CoGen
CEIMIA
Technology, Information and Internet
Montreal, Quebec 3,781 followers
CEIMIA contributes to the responsible development of artificial intelligence.
About us
CEIMIA was created to play a leading role internationally by supporting GPAI activities and projects and thus contribute to the responsible development of artificial intelligence based on ethical principles, human rights, inclusion, diversity, innovation and economic growth, taking particular account of the interests and contribution of emerging and developing countries.
- Website
-
http://ceimia.org/en/
External link for CEIMIA
- Industry
- Technology, Information and Internet
- Company size
- 11-50 employees
- Headquarters
- Montreal, Quebec
- Type
- Nonprofit
- Founded
- 2020
- Specialties
- Artificial Intelligence
Locations
-
Primary
7260 Rue Saint-Urbain
602
Montreal, Quebec H2R 2Y6, CA
Employees at CEIMIA
-
Philippe Beaudoin
Co-Founder and CEO at Numeno
-
Sophie Fallaha
Executive Director at CEIMIA
-
Stefan Janusz
Responsible AI and Data Governance
-
Stephanie King
Director of AI Initiatives at CEIMIA | Operationalising Responsible AI for Social Good | Data, Climate Action, Global Health, Governance and Human…
Updates
-
🌟 Célébrons le leadership face à l'IA et de la gouvernance des données. 🧠 Au CEIMIA, nous avons le privilège de travailler aux côtés d'experts passionnés œuvrant à l'échelle mondiale afin de définir des cadres de pratiques éthiques relatives à IA et aux données. Aujoud'hui, nous tenions à souligner la contribution inestimable de nos deux groupes de travail : l'un sur l'𝐈𝐀 𝐫𝐞𝐬𝐩𝐨𝐧𝐬𝐚𝐛𝐥𝐞 et l'autre sur la 𝐠𝐨𝐮𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 𝐝𝐞𝐬 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. 👥 Sous la direction d'Amir Banifatemi et de Francesca Rossi, 𝒍𝒆 𝒈𝒓𝒐𝒖𝒑𝒆 𝒅𝒆 𝒕𝒓𝒂𝒗𝒂𝒊𝒍 𝒅'𝑰𝑨 𝒓𝒆𝒔𝒑𝒐𝒏𝒔𝒂𝒃𝒍𝒆 mène à bien des projets privilégiant la conception d’IA et la mise en place de politiques inclusives centrées sur le bien-commun. 𝐀𝐯𝐞𝐜 𝟒𝟖 𝐞𝐱𝐩𝐞𝐫𝐭𝐬 𝐝𝐞 𝟐𝟕 𝐩𝐚𝐲𝐬, le portfolio de 2024 aborde divers enjeux tels que la mise à l'échelle d’initiatives d'IA responsable, la question de diversité dans l'IA, et bien d’autres. Grâce à leur dévouement sans faille, ils ouvrent la voie vers un avenir plus juste pour l’IA. 🏦 Tandis que les données contribuent à l'essor de l'intelligence artificielle, il est impératif que leur utilisation soit encadrée de façon éthique. Dirigé par Bertrand Monthubert et Shameek Kundu, 𝒍𝒆 𝒈𝒓𝒐𝒖𝒑𝒆 𝒅𝒆 𝒕𝒓𝒂𝒗𝒂𝒊𝒍 𝒔𝒖𝒓 𝒍𝒂 𝒈𝒐𝒖𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆 𝒅𝒆𝒔 𝒅𝒐𝒏𝒏𝒆́𝒆𝒔 développe des solutions visant à répondre aux enjeux relatifs au droit d'accès aux données publiques et au processus d'inclusion lors de la conception d'écosystèmes numériques. Grâce à des projets favorisant la gestion des données gouvernementales et abordant les enjeux liés aux droits relatifs au contenu co-généré, ils contribuent à créer des bases solides sur lesquelles pourront se développer des écosystèmes numériques plus équitables. 🙏 Nous tenons à remercier sincèrement nos codirecteurs ainsi que tous les experts de ces deux groupes ayant fait preuve à la fois de vision et de dévouement sans relâche. Ensemble, nous contribuons à bâtir un avenir plus prospère et inclusif pour l'IA. Restez à l'écoute en 2025, alors que nous continuerons à vous partager nos projets en cours et ceux à venir ! #AI #IA #ArtificialIntelligence #IntelligenceArtificielle #NetZero #DataScience #ScienceDesDonnées
-
🌟 𝐂𝐞𝐥𝐞𝐛𝐫𝐚𝐭𝐢𝐧𝐠 𝐋𝐞𝐚𝐝𝐞𝐫𝐬𝐡𝐢𝐩 𝐢𝐧 𝐀𝐈 𝐚𝐧𝐝 𝐃𝐚𝐭𝐚 𝐆𝐨𝐯𝐞𝐫𝐧𝐚𝐧𝐜𝐞 🧠 At CEIMIA, we are privileged to work with brilliant minds shaping ethical AI and data practices worldwide. Today, we highlight the remarkable contributions of the 𝑹𝒆𝒔𝒑𝒐𝒏𝒔𝒊𝒃𝒍𝒆 𝑨𝑰 𝑾𝒐𝒓𝒌𝒊𝒏𝒈 𝑮𝒓𝒐𝒖𝒑 and 𝑫𝒂𝒕𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆 𝑾𝒐𝒓𝒌𝒊𝒏𝒈 𝑮𝒓𝒐𝒖𝒑. 👥 Under the stewardship of Amir Banifatemi and Francesca Rossi, the 𝑹𝒆𝒔𝒑𝒐𝒏𝒔𝒊𝒃𝒍𝒆 𝑨𝑰 𝑾𝒐𝒓𝒌𝒊𝒏𝒈 𝑮𝒓𝒐𝒖𝒑 is driving projects that prioritize human-centered design and inclusivity. With 48 experts from 27 countries, their 2024 portfolio addresses challenges like scaling responsible AI initiatives, ensuring diversity in AI, addressing sustainable strategies, and community-empowering digital ecosystems. Their dedication is paving the way for transformative impact. 🌐 Data powers AI, but ethics and governance must guide its use. Co-chaired by Bertrand Monthubert and Shameek Kundu, the 𝑫𝒂𝒕𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆 𝑾𝒐𝒓𝒌𝒊𝒏𝒈 𝑮𝒓𝒐𝒖𝒑 leads innovative solutions like data rights governance and inclusive digital ecosystems. With projects tackling repositories of public algorithms, supporting Governments providing data stewardship and addressing the landscape of co-generated rights, their efforts create a foundation for equitable digital ecosystems. 🙏 A heartfelt thank you to these leaders for their vision and to all Working Group experts for their relentless dedication. Together, we’re building a resilient, inclusive future for AI. 𝐒𝐭𝐚𝐲 𝐭𝐮𝐧𝐞𝐝 𝐟𝐨𝐫 𝟐𝟎𝟐𝟓 𝐚𝐬 𝐰𝐞 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐞 𝐭𝐨 𝐬𝐡𝐚𝐫𝐞 𝐨𝐮𝐫 𝐩𝐫𝐨𝐠𝐫𝐞𝐬𝐬 𝐚𝐧𝐝 𝐟𝐮𝐭𝐮𝐫𝐞 𝐢𝐧𝐢𝐭𝐢𝐚𝐭𝐢𝐯𝐞𝐬! #AI #ArtificialIntelligence #NetZero #DataScience
-
CEIMIA reposted this
💡 Attending the 2024 GPAI Summit in Belgrade as a representative of CEIMIA was an unforgettable experience. [ FR ↓ ] 💬 Co-moderating a panel with Aurélie Simard, we learned on the key success factors of multi stakeholders collaboration driving innovation, thanks to the insights and first hand experiences shared by Garry Chan, Dr. Sundar Sundareswaran, Dr. Vladimir Pavlovic, Dr. Ivan Rakonjac ! The discussion was so interesting, we were sad as co-moderators to cut the Q&A session for lack of time! 🤝 Contributing to the panel on the GPAI integrated partnership with the OECD - OCDE, it was great to build together with colleagues Abhishek Singh, Juraj Čorba, Uros Poluga, Yuko Harayama (NICT), Karine Perset, and Aurélie Simard (Inria) a shared vision on GPAI’s assets and paving the way to an impactful 2025 action plan. 🌐 The Summit marks an important step forward in positioning GPAI as a key actor of advancing the governance and practical solutions in the field of responsible, ethical, trustworthy and safe AI. CEIMIA is determined to turn these conversations into concrete actions. Stay tuned for more in 2025! — 💡 Représenter le CEIMIA lors du Sommet GPAI 2024 à Belgrade a été une expérience inoubliable. 💬 Co-modérer un panel au côté d’Aurélie Simard nous a donné l'opportunité d'en apprendre davantage sur les clés de succès de collaborations multipartites favorisant l'innovation. Merci à Garry Chan, Dr. Sundar Sundareswaran, Dr. Vladimir Pavlovic et Dr. Ivan Rakonja de nous avoir partagé vos connaissances et témoignages! 🤝 Le panel sur le partenariat intégré du GPAI avec l'OECD - OCDE a été l’occasion de bâtir une vision commune avec mes collègues Abhishek Singh, Juraj Čorba, Uros Poluga, Karine Perset, Yuko Harayama (NICT) et Aurélie Simard (Inria) quant aux opportunités du GPAI pour une année 2025 porteuse d’impact. 🌐 Ce sommet marque une étape importante positionnant le GPAI comme un acteur clé de la gouvernance et du développement de solutions concrètes, d’une IA responsable, éthique, digne de confiance et sécuritaire. CEIMIA est déterminé à transformer tous ces riches échanges en actions concrètes. Restez à l'affût en 2025!
-
🧪 Exploiter l'IA afin de renforcer notre résilience face aux pandémies. Les pandémies nécessitent la mise en place de solutions robustes, basées sur une analyse de données approfondie. Le rapport du GPAI « 𝑪𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒐𝒇 𝒂𝒏 𝑨𝑰-𝒄𝒂𝒍𝒊𝒃𝒓𝒂𝒕𝒆𝒅 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝒐𝒇 𝒎𝒐𝒅𝒆𝒍𝒔 𝒕𝒐 𝒊𝒏𝒇𝒐𝒓𝒎 𝒅𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝒎𝒂𝒌𝒊𝒏𝒈 », soutenu par le CEIMIA, présente une structure pour la mise en place de modèles d'ensemble calibrés par l'IA. 🌐 L'objectif de cette recherche est de fournir des prévisions fiables aux personnes responsables en combinant diverses approches de modélisation afin de mieux protéger les communautés autour du monde. Le rapport de cette année capitalise les leçons de 2023 afin d’offrir des pistes concrètes quant à l'avenir de la santé mondiale. 📈 Aperçu des observations clés: ● La combinaison de diverses approches permet d'améliorer la précision et la résilience des modèles d'ensemble. ● L'uniformisation des modèles ainsi que des ensembles de données facilite la collaboration au niveau mondial. ● Complémentaires aux stratégies d'intervention en cas de pandémie, les prévisions d'impact économique peuvent également être utilisées pour évaluer l'efficacité des mesures prises. ● L'équité, l'inclusivité et la transparence, les principes de l'IA responsable, restent au cœur de ces modèles. 🤝 L'approche de ce rapport consiste à combiner les points forts de divers modèles afin d'obtenir des prévisions plus précises, tout en prenant en compte différents points de vue en plus du degré d'incertitude de ces prédictions. Ces résultats sont cruciaux puisqu'ils renforcent la fiabilité des prédictions. Découvrez notre rapport 👉 https://bit.ly/4iyYYaV #IA #IntelligenceArtificielle #ScienceDesDonnées #RésiliencePandémique #IAResponsable #SantéPublique #SantéGlobale #Innovation #Collaboration
-
🧪 𝐇𝐚𝐫𝐧𝐞𝐬𝐬𝐢𝐧𝐠 𝐀𝐈 𝐟𝐨𝐫 𝐏𝐚𝐧𝐝𝐞𝐦𝐢𝐜 𝐑𝐞𝐬𝐢𝐥𝐢𝐞𝐧𝐜𝐞 Pandemics require robust, data-driven responses and GPAI “𝑪𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒐𝒇 𝒂𝒏 𝑨𝑰-𝒄𝒂𝒍𝒊𝒃𝒓𝒂𝒕𝒆𝒅 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝒐𝒇 𝒎𝒐𝒅𝒆𝒍𝒔 𝒕𝒐 𝒊𝒏𝒇𝒐𝒓𝒎 𝒅𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝒎𝒂𝒌𝒊𝒏𝒈“ report, supported by CEIMIA, introduces a framework for AI-calibrated ensemble models. 🌐 The research ambitions to support decision-makers with robust predictions, leveraging diverse modeling approaches to protect communities worldwide. This year’s report implements lessons of 2023 into actionable insights for the future of global health. 📈 𝐊𝐞𝐲 𝐈𝐧𝐬𝐢𝐠𝐡𝐭𝐬 𝐟𝐫𝐨𝐦 𝐭𝐡𝐞 𝐑𝐞𝐩𝐨𝐫𝐭 ● Ensemble models enhance accuracy and resilience by combining diverse approaches. ● Standardization of models and datasets enables global collaboration. ● Economic impact forecasting can complement pandemic response strategies. ● Responsible AI principles are maintained central: fairness, inclusivity, and transparency. 🔬 𝐌𝐞𝐭𝐡𝐨𝐝𝐨𝐥𝐨𝐠𝐲 𝐚𝐧𝐝 𝐂𝐚𝐬𝐞 𝐒𝐭𝐮𝐝𝐢𝐞𝐬 This framework calibrates models across various regions such as New Zealand, Kenya, and Sudan. Case studies demonstrate that automated calibration outperforms manual methods in predicting disease spread. 🤝 By combining strengths of diverse models, this approach delivers accurate predictions, various viewpoints, and prediction uncertainty estimates, a crucial development in this study that strengthens the reliability of the predictions. Discover our report 👉 https://bit.ly/4iyYYaV #AI #ArtificialIntelligence #DataScience #PandemicResilience #ResponsibleAI #PublicHealth #GlobalHealth #Innovation #Collaboration
-
🌐 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐠𝐨𝐯𝐞𝐫𝐧 𝐭𝐡𝐞 𝐩𝐨𝐰𝐞𝐫 𝐨𝐟 𝐀𝐈 𝐢𝐧 𝐬𝐡𝐚𝐩𝐢𝐧𝐠 𝐨𝐧𝐥𝐢𝐧𝐞 𝐞𝐱𝐩𝐞𝐫𝐢𝐞𝐧𝐜𝐞𝐬? The GPAI project “𝑺𝒐𝒄𝒊𝒂𝒍 𝑴𝒆𝒅𝒊𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆”, supported by CEIMIA, explores this critical question in its comprehensive 2024 summary of its work. Focusing on recommender systems, harmful content classifiers, and AI-generated content, the summary outlines actionable pathways to balance innovation and accountability. 2024 at a glance: ⚙️ AI-Generated Content: Work continued on how the EU's Digital Services Act (DSA) could be leveraged to study the effects of social media platforms. Researchers should be granted access to companies' experimental platforms, such as A/B testing, to better understand and mitigate the risks of recommender systems. 💻 Recommender Systems: A pilot project was conducted in India to classify political hate speech, using public annotations to create training sets for harmful content classifiers and addressing disagreements among annotators when making moderation decisions. 💢 Harmful Content Classifiers: A call was made for organizations developing AI generation systems to provide reliable detection tools for the content their systems generate before releasing it. This contributed to policy developments in both the EU and US, including the EU’s AI Act and President Biden's Executive Order on AI. This document connects these efforts to broader global initiatives, showcasing the vital role of governance in shaping a fair and informed digital future. 📄 Uncover the full summary 👉 https://bit.ly/3ZOHuzD #ArtificialIntelligence #AITransparency #SocialMedia
-
🌐 Comment devrions-nous gouverner la puissance de l'IA face à son impact sur nos expériences en ligne? Le projet GPAI «𝑺𝒐𝒄𝒊𝒂𝒍 𝑴𝒆𝒅𝒊𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆», soutenu par CEIMIA, explore cette question cruciale et présente les résultats de ses travaux pour l'année 2024 dans un résumé détaillé. 💡 Se concentrant sur les systèmes de recommandation, les classificateurs de contenu nuisibles et le contenu généré par l'IA, le résumé présente des pistes d'action pour équilibrer l'innovation et la responsabilité. En bref, pour l'année 2024 : ⚙️ Contenu généré par l'IA: les travaux se sont poursuivis afin de déterminer comment la loi sur les services numériques de l'UE pourrait être exploitée pour étudier les effets induits par les plateformes de médias sociaux. Les chercheurs devraient avoir accès aux plateformes expérimentales des entreprises, telles que les tests A/B, afin de mieux comprendre et d'atténuer les risques liés aux systèmes de recommandation. 💻 Systèmes de recommandation: un projet pilote a été mené en Inde afin de classer les propos haineux politiques. Pour ce faire, les annotations publiques ont été utilisées afin de créer des ensembles d'entraînement destinés aux classificateurs de contenu préjudiciable. Par la suite, les désaccords entre les annotateurs ont été traités lors des décisions de modération. 💢 Classificateurs de contenu néfaste: un appel a été lancé aux organisations qui développent des systèmes de génération d'IA dans le but qu'elles fournissent des outils de détection fiables pour le contenu généré par leurs systèmes avant sa diffusion. Cet appel a contribué à l'élaboration de diverses politiques, notamment la loi sur l'IA de l'UE et le décret du président Biden sur l'IA. Cette analyse met en évidence le rôle crucial de la gouvernance dans l'élaboration d'un avenir numérique équitable et éclairé, et montre en quoi ces efforts s'inscrivent dans des initiatives mondiales plus larges. 📖 Découvrez le résumé complet 👉 https://bit.ly/3ZOHuzD #IA #IntelligenceArtificielle #MédiasSociaux #GouvernanceDesDonnées
-
🌍 Comment la technologie peut-elle être exploitée afin de résoudre les enjeux spécifiques de certaines communautés? [EN ↓] 💡 Le dernier rapport GPAI, soutenu par CEIMIA, «𝑫𝒊𝒈𝒊𝒕𝒂𝒍 𝑬𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒂𝒕 𝑬𝒎𝒑𝒐𝒘𝒆𝒓 𝑪𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒊𝒆𝒔: 𝑬𝒙𝒑𝒍𝒐𝒓𝒊𝒏𝒈 𝒄𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒕𝒐 𝒅𝒆𝒗𝒆𝒍𝒐𝒑 𝒅𝒊𝒈𝒊𝒕𝒂𝒍 𝒆𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒆𝒐𝒓𝒚 𝒂𝒏𝒅 𝒕𝒆𝒎𝒑𝒍𝒂𝒕𝒆𝒔 𝒇𝒐𝒓 𝒕𝒆𝒄𝒉𝒏𝒐𝒍𝒐𝒈𝒚 𝒔𝒕𝒂𝒄𝒌𝒔», présente une approche centrée sur la communauté afin de résoudre des enjeux complexes locaux. 🔍 À l'aide de l'observation de 7 études de cas différentes, ce rapport illustre une approche d'intégration progressive d'outils tels que l'IA, les jumeaux numériques et la réalité virtuelle dans les processus de résolution de problèmes locaux, et ce, en plaçant les besoins et les valeurs de la communauté en amont. 🌐 Ce document examine comment les communautés peuvent : ● Utiliser l'IA et les jumeaux numériques afin de renforcer la compréhension de leur environnement en plus d'explorer collectivement certaines décisions. ● Répondre aux besoins en matière de souveraineté des données et veiller à ce que les décisions s'alignent bien aux valeurs établies par la communauté. ● Mettre de l'avant la collaboration afin d'obtenir des solutions innovantes. Découvrez comment ces technologies numériques peuvent contribuer au bien-être des communautés. Téléchargez le rapport ici 👉 https://bit.ly/3ZBASVb — 🌍 𝐇𝐨𝐰 𝐜𝐚𝐧 𝐜𝐨𝐦𝐦𝐮𝐧𝐢𝐭𝐢𝐞𝐬 𝐡𝐚𝐫𝐧𝐞𝐬𝐬 𝐝𝐢𝐠𝐢𝐭𝐚𝐥 𝐭𝐞𝐜𝐡𝐧𝐨𝐥𝐨𝐠𝐢𝐞𝐬 𝐭𝐨 𝐨𝐯𝐞𝐫𝐜𝐨𝐦𝐞 𝐭𝐡𝐞𝐢𝐫 𝐝𝐢𝐬𝐭𝐢𝐧𝐜𝐭 𝐜𝐡𝐚𝐥𝐥𝐞𝐧𝐠𝐞𝐬? 💡 The latest @GPAI report, supported by @CEIMIA, "𝑫𝒊𝒈𝒊𝒕𝒂𝒍 𝑬𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒂𝒕 𝑬𝒎𝒑𝒐𝒘𝒆𝒓 𝑪𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒊𝒆𝒔: 𝑬𝒙𝒑𝒍𝒐𝒓𝒊𝒏𝒈 𝒄𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒕𝒐 𝒅𝒆𝒗𝒆𝒍𝒐𝒑 𝒅𝒊𝒈𝒊𝒕𝒂𝒍 𝒆𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒆𝒐𝒓𝒚 𝒂𝒏𝒅 𝒕𝒆𝒎𝒑𝒍𝒂𝒕𝒆𝒔 𝒇𝒐𝒓 𝒕𝒆𝒄𝒉𝒏𝒐𝒍𝒐𝒈𝒚 𝒔𝒕𝒂𝒄𝒌𝒔", presents a community-centered approach to solving complex local issues. 🔍 Using a case study approach, this report proposes an evolutionary methodology for integrating tools such as AI, digital twins, and virtual reality into local problem-solving processes, putting community needs and values at the forefront. 🌐 This report examines how communities can: ● Use AI and digital twins to build understanding of their environment and explore decisions collectively. ● Address data sovereignty needs and ensure that decisions align with community values. ● Leverage collaboration for innovative solutions. 🗺️ With seven diverse case studies, from diabetes care in Indigenous communities to urban planning in Dakar, this report provides a clear pathway for empowering communities with digital ecosystems. Learn how digital technologies can improve community well-being. Read the full report here 👉 https://bit.ly/3ZBASVb #AI #IA #ArtificialIntelligence #IntelligenceArtificiel #DataScience #ScienceDesDonnées #Community #Communauté #WellBeing
-
🙏 To thank each and every person who gave their time to make this report a reality, we wanted to re-share one of our last report ( 𝑎𝑙𝑠𝑜 𝑠𝑖𝑛𝑐𝑒 𝐿𝑖𝑛𝑘𝑒𝑑𝑖𝑛 ℎ𝑎𝑠 𝑎 3000 𝑐ℎ𝑎𝑟𝑎𝑐𝑡𝑒𝑟𝑠 𝑎𝑛𝑑 25 @𝑚𝑒𝑛𝑡𝑖𝑜𝑛s 𝑙𝑖𝑚𝑖𝑡, 𝑤𝑒 𝑠𝑎𝑑𝑙𝑦 𝑐𝑜𝑢𝑙𝑑𝑛'𝑡 𝑎𝑘𝑛𝑜𝑤𝑙𝑒𝑑𝑔𝑒 𝑒𝑣𝑒𝑟𝑦𝑜𝑛𝑒 𝑖𝑛 𝑜𝑢𝑟 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝑝𝑜𝑠𝑡 ). 𝐖𝐞 𝐚𝐫𝐞 𝐠𝐫𝐚𝐭𝐞𝐟𝐮𝐥 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐝𝐞𝐝𝐢𝐜𝐚𝐭𝐢𝐨𝐧 𝐨𝐟 𝐞𝐚𝐜𝐡 𝐚𝐧𝐝 𝐞𝐯𝐞𝐫𝐲 𝐨𝐧𝐞, 𝐛𝐞𝐜𝐚𝐮𝐬𝐞 𝐰𝐢𝐭𝐡𝐨𝐮𝐭, 𝐚 𝐬𝐭𝐮𝐝𝐲 𝐨𝐟 𝐭𝐡𝐢𝐬 𝐬𝐜𝐚𝐥𝐞 𝐰𝐨𝐮𝐥𝐝 𝐧𝐨𝐭 𝐡𝐚𝐯𝐞 𝐛𝐞𝐞𝐧 𝐩𝐨𝐬𝐬𝐢𝐛𝐥𝐞. ✨ Global Track co-leads: Amir Banifatemi, Francesca Rossi, Sundareswaran Venkatraman African track co-leads: Thomas Hervé Mboa Nkoudou, Ojenge Winston, PhD Project team: Kelle Howson, Chahinez Bensari, Arnaud Q. + Laetitia Vu & Brigitte Nga Ondigui from CEIMIA, Scale up partners: Matthew Smith & Gillian Dowie from International Development Research Centre (IDRC) Global track mentors: Borys Stokalski, Anurag Agrawal, Stéphanie Camaréna PhD from Source Transitions, Caroline Gans Combe from INSEEC MSc, Gilles F. from IEEE, Benjamin Larson PhD from World Economic Forum, Monica Lopez, PhD, Zumrut Muftuoglu, Naohiro Furukawa, Sandro Radovanović, Nava Shaked, Amitabh Nag, Andrea A. J., Kudakwashe Dandajena, Ph.D, Ulises Cortés & Ricardo Baeza-Yates African track mentors (1/2): Shakira Barbirye from Infectious Diseases Research Collaboration (IDRC), Mamadou Samba CAMARA & idy DIOP from Université Cheikh Anta Diop de Dakar (UCAD), Prof. Ibra Dioum from LITA... ** 𝐴𝑑𝑑𝑖𝑡𝑖𝑜𝑛𝑎𝑙 𝑎𝑐𝑘𝑛𝑜𝑤𝑙𝑒𝑑𝑔𝑒𝑚𝑒𝑛𝑡𝑠 𝑤𝑖𝑙𝑙 𝑏𝑒 𝑓𝑜𝑢𝑛𝑑 𝑖𝑛 𝑡ℎ𝑒 𝑐𝑜𝑚𝑚𝑒𝑛𝑡𝑠 **
𝐒𝐜𝐚𝐥𝐢𝐧𝐠 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐀𝐈 𝐒𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬: 𝐀𝐧 𝐞𝐟𝐟𝐢𝐜𝐢𝐞𝐧𝐭 𝐦𝐞𝐧𝐭𝐨𝐫𝐬𝐡𝐢𝐩 𝐚𝐩𝐩𝐫𝐨𝐚𝐜𝐡 𝐭𝐨 𝐚𝐝𝐯𝐚𝐧𝐜𝐞 𝐭𝐡𝐞 𝐩𝐫𝐚𝐜𝐭𝐢𝐜𝐞 𝐨𝐟 𝐑𝐀𝐈 𝐰𝐨𝐫𝐥𝐝𝐰𝐢𝐝𝐞 📈 🌎 In reaction to the complexity of the important challenges of our time, an ever increasing number of innovators from all around the world develop ingenious solutions that leverage AI to support humanity and its environment to thrive. However, to achieve a successful transition to a sustainable, just and peaceful AI-enhanced world, it is crucial for those AI solutions to maintain responsible attributes from the design of prototypes to the scaling of AI products. 🤝 In its new output titled "𝑺𝒄𝒂𝒍𝒊𝒏𝒈 𝑹𝒆𝒔𝒑𝒐𝒏𝒔𝒊𝒃𝒍𝒆 𝑨𝑰 𝑺𝒐𝒍𝒖𝒕𝒊𝒐𝒏𝒔: 𝑩𝒖𝒊𝒍𝒅𝒊𝒏𝒈 𝒂𝒏 𝒊𝒏𝒕𝒆𝒓𝒏𝒂𝒕𝒊𝒐𝒏𝒂𝒍 𝒄𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒚 𝒐𝒇 𝒑𝒓𝒂𝒄𝒕𝒊𝒄𝒆 𝒂𝒏𝒅 𝒌𝒏𝒐𝒘𝒍𝒆𝒅𝒈𝒆-𝒔𝒉𝒂𝒓𝒊𝒏𝒈" the GPAI SRAIS project team supported by CEIMIA reports on its second year of activities. By connecting innovators and expert mentors, the project enabled the collaborative exploration of the profound meaning of RAI in different contexts and the development of tailored plans to scale responsibly. 🌐This study delves into the real-world challenges faced by AI teams as they scale their solutions, providing practical insights and recommendations to ensure ethical and responsible AI development for different topics and locations. This report highlights the importance of knowledge-sharing and collective action to address challenges such as: ● Data Governance and Informed Consent: Responsible scaling demands rigorous data governance, prioritizing data sovereignty, fair compensation, and informed consent. ● Transparency and Explainability: To build trust and facilitate adoption, AI systems must be transparent and explainable. This involves simplifying complex algorithms and disclosing system interactions. ● The Need for Responsible AI Literacy: A key takeaway is the need for improved understanding and awareness of RAI principles among stakeholders to ensure responsible AI development and scaling. Want to be part of the solution? Read the report 👉 https://bit.ly/3OEinZY #AI #ArtificialIntelligence #International #DataScience #DataEngineering