CEIMIA

CEIMIA

Technology, Information and Internet

Montreal, Quebec 3,772 followers

CEIMIA contributes to the responsible development of artificial intelligence.

About us

CEIMIA was created to play a leading role internationally by supporting GPAI activities and projects and thus contribute to the responsible development of artificial intelligence based on ethical principles, human rights, inclusion, diversity, innovation and economic growth, taking particular account of the interests and contribution of emerging and developing countries.

Industry
Technology, Information and Internet
Company size
11-50 employees
Headquarters
Montreal, Quebec
Type
Nonprofit
Founded
2020
Specialties
Artificial Intelligence

Locations

Employees at CEIMIA

Updates

  • View organization page for CEIMIA, graphic

    3,772 followers

    🧪 Exploiter l'IA afin de renforcer notre résilience face aux pandémies. Les pandémies nécessitent la mise en place de solutions robustes, basées sur une analyse de données approfondie. Le rapport du GPAI « 𝑪𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒐𝒇 𝒂𝒏 𝑨𝑰-𝒄𝒂𝒍𝒊𝒃𝒓𝒂𝒕𝒆𝒅 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝒐𝒇 𝒎𝒐𝒅𝒆𝒍𝒔 𝒕𝒐 𝒊𝒏𝒇𝒐𝒓𝒎 𝒅𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝒎𝒂𝒌𝒊𝒏𝒈 », soutenu par le CEIMIA, présente une structure pour la mise en place de modèles d'ensemble calibrés par l'IA. 🌐 L'objectif de cette recherche est de fournir des prévisions fiables aux personnes responsables en combinant diverses approches de modélisation afin de mieux protéger les communautés autour du monde. Le rapport de cette année capitalise les leçons de 2023 afin d’offrir des pistes concrètes quant à l'avenir de la santé mondiale. 📈 Aperçu des observations clés: ● La combinaison de diverses approches permet d'améliorer la précision et la résilience des modèles d'ensemble. ● L'uniformisation des modèles ainsi que des ensembles de données facilite la collaboration au niveau mondial. ● Complémentaires aux stratégies d'intervention en cas de pandémie, les prévisions d'impact économique peuvent également être utilisées pour évaluer l'efficacité des mesures prises. ● L'équité, l'inclusivité et la transparence, les principes de l'IA responsable, restent au cœur de ces modèles. 🤝 L'approche de ce rapport consiste à combiner les points forts de divers modèles afin d'obtenir des prévisions plus précises, tout en prenant en compte différents points de vue en plus du degré d'incertitude de ces prédictions. Ces résultats sont cruciaux puisqu'ils renforcent la fiabilité des prédictions. Découvrez notre rapport 👉 https://bit.ly/4iyYYaV #IA #IntelligenceArtificielle #ScienceDesDonnées #RésiliencePandémique #IAResponsable #SantéPublique #SantéGlobale #Innovation #Collaboration

    • No alternative text description for this image
  • View organization page for CEIMIA, graphic

    3,772 followers

    🧪  𝐇𝐚𝐫𝐧𝐞𝐬𝐬𝐢𝐧𝐠 𝐀𝐈 𝐟𝐨𝐫 𝐏𝐚𝐧𝐝𝐞𝐦𝐢𝐜 𝐑𝐞𝐬𝐢𝐥𝐢𝐞𝐧𝐜𝐞 Pandemics require robust, data-driven responses and GPAI “𝑪𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒐𝒇 𝒂𝒏 𝑨𝑰-𝒄𝒂𝒍𝒊𝒃𝒓𝒂𝒕𝒆𝒅 𝒆𝒏𝒔𝒆𝒎𝒃𝒍𝒆 𝒐𝒇 𝒎𝒐𝒅𝒆𝒍𝒔 𝒕𝒐 𝒊𝒏𝒇𝒐𝒓𝒎 𝒅𝒆𝒄𝒊𝒔𝒊𝒐𝒏 𝒎𝒂𝒌𝒊𝒏𝒈“ report, supported by CEIMIA, introduces a framework for AI-calibrated ensemble models. 🌐 The research ambitions to support decision-makers with robust predictions, leveraging diverse modeling approaches to protect communities worldwide. This year’s report implements lessons of 2023 into actionable insights for the future of global health. 📈 𝐊𝐞𝐲 𝐈𝐧𝐬𝐢𝐠𝐡𝐭𝐬 𝐟𝐫𝐨𝐦 𝐭𝐡𝐞 𝐑𝐞𝐩𝐨𝐫𝐭 ● Ensemble models enhance accuracy and resilience by combining diverse approaches. ● Standardization of models and datasets enables global collaboration. ● Economic impact forecasting can complement pandemic response strategies. ● Responsible AI principles are maintained  central: fairness, inclusivity, and transparency. 🔬 𝐌𝐞𝐭𝐡𝐨𝐝𝐨𝐥𝐨𝐠𝐲 𝐚𝐧𝐝 𝐂𝐚𝐬𝐞 𝐒𝐭𝐮𝐝𝐢𝐞𝐬 This framework calibrates models across various regions such as New Zealand, Kenya, and Sudan. Case studies demonstrate that automated calibration outperforms manual methods in predicting disease spread. 🤝 By combining strengths of diverse models, this approach delivers accurate predictions, various viewpoints, and prediction uncertainty estimates, a crucial development in this study that strengthens the reliability of the predictions. Discover our report 👉 https://bit.ly/4iyYYaV #AI #ArtificialIntelligence #DataScience #PandemicResilience #ResponsibleAI #PublicHealth #GlobalHealth #Innovation #Collaboration

    • No alternative text description for this image
  • 🌐 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐠𝐨𝐯𝐞𝐫𝐧 𝐭𝐡𝐞 𝐩𝐨𝐰𝐞𝐫 𝐨𝐟 𝐀𝐈 𝐢𝐧 𝐬𝐡𝐚𝐩𝐢𝐧𝐠 𝐨𝐧𝐥𝐢𝐧𝐞 𝐞𝐱𝐩𝐞𝐫𝐢𝐞𝐧𝐜𝐞𝐬? The GPAI project “𝑺𝒐𝒄𝒊𝒂𝒍 𝑴𝒆𝒅𝒊𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆”, supported by CEIMIA, explores this critical question in its comprehensive 2024 summary of its work. Focusing on recommender systems, harmful content classifiers, and AI-generated content, the summary outlines actionable pathways to balance innovation and accountability. 2024 at a glance: ⚙️ AI-Generated Content: Work continued on how the EU's Digital Services Act (DSA) could be leveraged to study the effects of social media platforms. Researchers should be granted access to companies' experimental platforms, such as A/B testing, to better understand and mitigate the risks of recommender systems. 💻 Recommender Systems: A pilot project was conducted in India to classify political hate speech, using public annotations to create training sets for harmful content classifiers and addressing disagreements among annotators when making moderation decisions. 💢 Harmful Content Classifiers: A call was made for organizations developing AI generation systems to provide reliable detection tools for the content their systems generate before releasing it. This contributed to policy developments in both the EU and US, including the EU’s AI Act and President Biden's Executive Order on AI. This document connects these efforts to broader global initiatives, showcasing the vital role of governance in shaping a fair and informed digital future. 📄 Uncover the full summary 👉  https://bit.ly/3ZOHuzD #ArtificialIntelligence #AITransparency #SocialMedia

    • No alternative text description for this image
  • 🌐 Comment devrions-nous gouverner la puissance de l'IA face à son impact sur nos expériences en ligne? Le projet GPAI «𝑺𝒐𝒄𝒊𝒂𝒍 𝑴𝒆𝒅𝒊𝒂 𝑮𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆», soutenu par CEIMIA, explore cette question cruciale et présente les résultats de ses travaux pour l'année 2024 dans un résumé détaillé. 💡 Se concentrant sur les systèmes de recommandation, les classificateurs de contenu nuisibles et le contenu généré par l'IA, le résumé présente des pistes d'action pour équilibrer l'innovation et la responsabilité. En bref, pour l'année 2024 : ⚙️ Contenu généré par l'IA: les travaux se sont poursuivis afin de déterminer comment la loi sur les services numériques de l'UE pourrait être exploitée pour étudier les effets induits par les plateformes de médias sociaux. Les chercheurs devraient avoir accès aux plateformes expérimentales des entreprises, telles que les tests A/B, afin de mieux comprendre et d'atténuer les risques liés aux systèmes de recommandation. 💻 Systèmes de recommandation: un projet pilote a été mené en Inde afin de classer les propos haineux politiques. Pour ce faire, les annotations publiques ont été utilisées afin de créer des ensembles d'entraînement destinés aux classificateurs de contenu préjudiciable. Par la suite, les désaccords entre les annotateurs ont été traités lors des décisions de modération. 💢 Classificateurs de contenu néfaste: un appel a été lancé aux organisations qui développent des systèmes de génération d'IA dans le but qu'elles fournissent des outils de détection fiables pour le contenu généré par leurs systèmes avant sa diffusion. Cet appel a contribué à l'élaboration de diverses politiques, notamment la loi sur l'IA de l'UE et le décret du président Biden sur l'IA. Cette analyse met en évidence le rôle crucial de la gouvernance dans l'élaboration d'un avenir numérique équitable et éclairé, et montre en quoi ces efforts s'inscrivent dans des initiatives mondiales plus larges. 📖 Découvrez le résumé complet 👉 https://bit.ly/3ZOHuzD #IA #IntelligenceArtificielle #MédiasSociaux #GouvernanceDesDonnées

    • No alternative text description for this image
  • 🌍 Comment la technologie peut-elle être exploitée afin de résoudre les enjeux spécifiques de certaines communautés? [EN ↓] 💡 Le dernier rapport GPAI, soutenu par CEIMIA, «𝑫𝒊𝒈𝒊𝒕𝒂𝒍 𝑬𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒂𝒕 𝑬𝒎𝒑𝒐𝒘𝒆𝒓 𝑪𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒊𝒆𝒔: 𝑬𝒙𝒑𝒍𝒐𝒓𝒊𝒏𝒈 𝒄𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒕𝒐 𝒅𝒆𝒗𝒆𝒍𝒐𝒑 𝒅𝒊𝒈𝒊𝒕𝒂𝒍 𝒆𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒆𝒐𝒓𝒚 𝒂𝒏𝒅 𝒕𝒆𝒎𝒑𝒍𝒂𝒕𝒆𝒔 𝒇𝒐𝒓 𝒕𝒆𝒄𝒉𝒏𝒐𝒍𝒐𝒈𝒚 𝒔𝒕𝒂𝒄𝒌𝒔», présente une approche centrée sur la communauté afin de résoudre des enjeux complexes locaux. 🔍 À l'aide de l'observation de 7 études de cas différentes, ce rapport illustre une approche d'intégration progressive d'outils tels que l'IA, les jumeaux numériques et la réalité virtuelle dans les processus de résolution de problèmes locaux, et ce, en plaçant les besoins et les valeurs de la communauté en amont. 🌐 Ce document examine comment les communautés peuvent : ● Utiliser l'IA et les jumeaux numériques afin de renforcer la compréhension de leur environnement en plus d'explorer collectivement certaines décisions. ● Répondre aux besoins en matière de souveraineté des données et veiller à ce que les décisions s'alignent bien aux valeurs établies par la communauté. ● Mettre de l'avant la collaboration afin d'obtenir des solutions innovantes. Découvrez comment ces technologies numériques peuvent contribuer au bien-être des communautés. Téléchargez le rapport ici 👉 https://bit.ly/3ZBASVb — 🌍 𝐇𝐨𝐰 𝐜𝐚𝐧 𝐜𝐨𝐦𝐦𝐮𝐧𝐢𝐭𝐢𝐞𝐬 𝐡𝐚𝐫𝐧𝐞𝐬𝐬 𝐝𝐢𝐠𝐢𝐭𝐚𝐥 𝐭𝐞𝐜𝐡𝐧𝐨𝐥𝐨𝐠𝐢𝐞𝐬 𝐭𝐨 𝐨𝐯𝐞𝐫𝐜𝐨𝐦𝐞 𝐭𝐡𝐞𝐢𝐫 𝐝𝐢𝐬𝐭𝐢𝐧𝐜𝐭 𝐜𝐡𝐚𝐥𝐥𝐞𝐧𝐠𝐞𝐬? 💡 The latest @GPAI report, supported by @CEIMIA, "𝑫𝒊𝒈𝒊𝒕𝒂𝒍 𝑬𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒂𝒕 𝑬𝒎𝒑𝒐𝒘𝒆𝒓 𝑪𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒊𝒆𝒔: 𝑬𝒙𝒑𝒍𝒐𝒓𝒊𝒏𝒈 𝒄𝒂𝒔𝒆 𝒔𝒕𝒖𝒅𝒊𝒆𝒔 𝒕𝒐 𝒅𝒆𝒗𝒆𝒍𝒐𝒑 𝒅𝒊𝒈𝒊𝒕𝒂𝒍 𝒆𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔 𝒕𝒉𝒆𝒐𝒓𝒚 𝒂𝒏𝒅 𝒕𝒆𝒎𝒑𝒍𝒂𝒕𝒆𝒔 𝒇𝒐𝒓 𝒕𝒆𝒄𝒉𝒏𝒐𝒍𝒐𝒈𝒚 𝒔𝒕𝒂𝒄𝒌𝒔", presents a community-centered approach to solving complex local issues. 🔍 Using a case study approach, this report proposes an evolutionary methodology for integrating tools such as AI, digital twins, and virtual reality into local problem-solving processes, putting community needs and values at the forefront. 🌐 This report examines how communities can: ● Use AI and digital twins to build understanding of their environment and explore decisions collectively. ● Address data sovereignty needs and ensure that decisions align with community values. ● Leverage collaboration for innovative solutions. 🗺️ With seven diverse case studies, from diabetes care in Indigenous communities to urban planning in Dakar, this report provides a clear pathway for empowering communities with digital ecosystems. Learn how digital technologies can improve community well-being. Read the full report here 👉 https://bit.ly/3ZBASVb #AI #IA #ArtificialIntelligence #IntelligenceArtificiel #DataScience #ScienceDesDonnées #Community #Communauté #WellBeing

    • No alternative text description for this image
  • View organization page for CEIMIA, graphic

    3,772 followers

    🙏 To thank each and every person who gave their time to make this report a reality, we wanted to re-share one of our last report ( 𝑎𝑙𝑠𝑜 𝑠𝑖𝑛𝑐𝑒 𝐿𝑖𝑛𝑘𝑒𝑑𝑖𝑛 ℎ𝑎𝑠 𝑎 3000 𝑐ℎ𝑎𝑟𝑎𝑐𝑡𝑒𝑟𝑠 𝑎𝑛𝑑 25 @𝑚𝑒𝑛𝑡𝑖𝑜𝑛s 𝑙𝑖𝑚𝑖𝑡, 𝑤𝑒 𝑠𝑎𝑑𝑙𝑦 𝑐𝑜𝑢𝑙𝑑𝑛'𝑡 𝑎𝑘𝑛𝑜𝑤𝑙𝑒𝑑𝑔𝑒 𝑒𝑣𝑒𝑟𝑦𝑜𝑛𝑒 𝑖𝑛 𝑜𝑢𝑟 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝑝𝑜𝑠𝑡 ). 𝐖𝐞 𝐚𝐫𝐞 𝐠𝐫𝐚𝐭𝐞𝐟𝐮𝐥 𝐟𝐨𝐫 𝐭𝐡𝐞 𝐝𝐞𝐝𝐢𝐜𝐚𝐭𝐢𝐨𝐧 𝐨𝐟 𝐞𝐚𝐜𝐡 𝐚𝐧𝐝 𝐞𝐯𝐞𝐫𝐲 𝐨𝐧𝐞, 𝐛𝐞𝐜𝐚𝐮𝐬𝐞 𝐰𝐢𝐭𝐡𝐨𝐮𝐭, 𝐚 𝐬𝐭𝐮𝐝𝐲 𝐨𝐟 𝐭𝐡𝐢𝐬 𝐬𝐜𝐚𝐥𝐞 𝐰𝐨𝐮𝐥𝐝 𝐧𝐨𝐭 𝐡𝐚𝐯𝐞 𝐛𝐞𝐞𝐧 𝐩𝐨𝐬𝐬𝐢𝐛𝐥𝐞. ✨ Global Track co-leads:  Amir Banifatemi, Francesca Rossi, Sundareswaran Venkatraman African track co-leads: Thomas Hervé Mboa Nkoudou, Ojenge Winston, PhD Project team:  Kelle Howson, Chahinez Bensari, Arnaud Q. + Laetitia Vu & Brigitte Nga Ondigui from CEIMIA, Scale up partners: Matthew Smith & Gillian Dowie from International Development Research Centre (IDRC) Global track mentors:  Borys Stokalski, Anurag Agrawal, Stéphanie Camaréna PhD from Source Transitions, Caroline Gans Combe from INSEEC MSc, Gilles F. from IEEE, Benjamin Larson PhD from World Economic Forum, Monica Lopez, PhD, Zumrut Muftuoglu, Naohiro Furukawa, Sandro Radovanović, Nava Shaked, Amitabh Nag, Andrea A. J., Kudakwashe Dandajena, Ph.D, Ulises Cortés & Ricardo Baeza-Yates African track mentors (1/2):   Shakira Barbirye from Infectious Diseases Research Collaboration (IDRC), Mamadou Samba CAMARA & idy DIOP from Université Cheikh Anta Diop de Dakar (UCAD), Prof. Ibra Dioum from LITA... ** 𝐴𝑑𝑑𝑖𝑡𝑖𝑜𝑛𝑎𝑙 𝑎𝑐𝑘𝑛𝑜𝑤𝑙𝑒𝑑𝑔𝑒𝑚𝑒𝑛𝑡𝑠 𝑤𝑖𝑙𝑙 𝑏𝑒 𝑓𝑜𝑢𝑛𝑑 𝑖𝑛 𝑡ℎ𝑒 𝑐𝑜𝑚𝑚𝑒𝑛𝑡𝑠 **

    View organization page for CEIMIA, graphic

    3,772 followers

    𝐒𝐜𝐚𝐥𝐢𝐧𝐠 𝐑𝐞𝐬𝐩𝐨𝐧𝐬𝐢𝐛𝐥𝐞 𝐀𝐈 𝐒𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬: 𝐀𝐧 𝐞𝐟𝐟𝐢𝐜𝐢𝐞𝐧𝐭 𝐦𝐞𝐧𝐭𝐨𝐫𝐬𝐡𝐢𝐩 𝐚𝐩𝐩𝐫𝐨𝐚𝐜𝐡 𝐭𝐨 𝐚𝐝𝐯𝐚𝐧𝐜𝐞 𝐭𝐡𝐞 𝐩𝐫𝐚𝐜𝐭𝐢𝐜𝐞 𝐨𝐟 𝐑𝐀𝐈 𝐰𝐨𝐫𝐥𝐝𝐰𝐢𝐝𝐞 📈 🌎 In reaction to the complexity of the important challenges of our time, an ever increasing number of innovators from all around the world develop ingenious solutions that leverage AI to support humanity and its environment to thrive. However, to achieve a successful transition to a sustainable, just and peaceful AI-enhanced world, it is crucial for those AI solutions to maintain responsible attributes from the design of prototypes to the scaling of AI products. 🤝 In its new output titled "𝑺𝒄𝒂𝒍𝒊𝒏𝒈 𝑹𝒆𝒔𝒑𝒐𝒏𝒔𝒊𝒃𝒍𝒆 𝑨𝑰 𝑺𝒐𝒍𝒖𝒕𝒊𝒐𝒏𝒔: 𝑩𝒖𝒊𝒍𝒅𝒊𝒏𝒈 𝒂𝒏 𝒊𝒏𝒕𝒆𝒓𝒏𝒂𝒕𝒊𝒐𝒏𝒂𝒍 𝒄𝒐𝒎𝒎𝒖𝒏𝒊𝒕𝒚 𝒐𝒇 𝒑𝒓𝒂𝒄𝒕𝒊𝒄𝒆 𝒂𝒏𝒅 𝒌𝒏𝒐𝒘𝒍𝒆𝒅𝒈𝒆-𝒔𝒉𝒂𝒓𝒊𝒏𝒈" the GPAI SRAIS project team supported by CEIMIA reports on its second year of activities. By connecting innovators and expert mentors, the project enabled the collaborative exploration of the profound meaning of RAI in different contexts and the development of tailored plans to scale responsibly. 🌐This study delves into the real-world challenges faced by AI teams as they scale their solutions, providing practical insights and recommendations to ensure ethical and responsible AI development for different topics and locations. This report highlights the importance of knowledge-sharing and collective action to address challenges such as: ● Data Governance and Informed Consent: Responsible scaling demands rigorous data governance, prioritizing data sovereignty, fair compensation, and informed consent. ● Transparency and Explainability: To build trust and facilitate adoption, AI systems must be transparent and explainable. This involves simplifying complex algorithms and disclosing system interactions. ● The Need for Responsible AI Literacy: A key takeaway is the need for improved understanding and awareness of RAI principles among stakeholders to ensure responsible AI development and scaling. Want to be part of the solution? Read the report 👉 https://bit.ly/3OEinZY #AI #ArtificialIntelligence #International #DataScience #DataEngineering

    • No alternative text description for this image
  • 🔎 𝐃𝐨𝐧'𝐭 𝐥𝐞𝐭 𝐀𝐈 𝐨𝐩𝐩𝐨𝐫𝐭𝐮𝐧𝐢𝐭𝐢𝐞𝐬 𝐬𝐥𝐢𝐩 𝐭𝐡𝐫𝐨𝐮𝐠𝐡 𝐲𝐨𝐮𝐫 𝐟𝐢𝐧𝐠𝐞𝐫𝐬. [ FR ↓ ] 📖 Our new booklet "𝑨𝒔𝒔𝒆𝒔𝒔𝒊𝒏𝒈 𝑹𝒆𝒂𝒅𝒊𝒏𝒆𝒔𝒔 𝒇𝒐𝒓 𝑨𝑰", a GPAI project supported by CEIMIA, provides a series of checklists, organized around five key themes, to help your organization understand how they can use AI to transition to net zero at low cost. While being industry-agnostic, four chosen “case study” sectors illustrate how this can be done (Electricity, Agriculture, Foundation industries, Transport). 📋 Key AI Readiness Criteria: ● Opportunity Identification: Can AI support delivery? ● Human Capacity: How about the organization’s AI talent? Skills? Training needs? ● Data for AI: Is data available? Good quality? ? Is data required for AI applications and data governance practices accessible? ● Digital Infrastructure: What’s the organization’s IT infrastructure like? Computing power? Storage? Networking capabilities? ● AI Governance: Are there ethical guidelines? Risk management protocols? Responsible AI practices that ensure the safe and beneficial use of AI? 🌐 Discover how organizations across sectors are leveraging AI to drive innovation and sustainability. Take the first step towards AI-driven innovation. Download our booklet now 👉 https://bit.ly/49sKjK2 _ 🔎 Ne manquez pas d'opportunités dans le domaine de l’AI 📖 Réalisé avec le soutien du CEIMIA, le nouveau livret du GPAI «𝑨𝒔𝒔𝒆𝒔𝒔𝒊𝒏𝒈 𝑹𝒆𝒂𝒅𝒊𝒏𝒆𝒔𝒔 𝒇𝒐𝒓 𝑨𝑰» fournit une série de check-lists organisées autour de cinq thèmes clés pour aider votre organisation à comprendre comment utiliser l'IA en vue d'une transition vers le net-zéro à un faible coût. Les principaux critères de préparation à l'IA: ● Identification des opportunités: l'IA peut-elle soutenir l'exécution? ● Capacité humaine: Qu'en est-il des capacités des employés de l'organisation en matière d'IA, de leurs compétences et des besoins de formation? ● Données pour l'IA: Les données sont-elles disponibles? De bonne qualité ? Est-ce que les données requises pour les applications d'IA et les pratiques de gouvernance des données sont accessibles? ● Infrastructure numérique: Comment est l'infrastructure informatique de l'organisation? Rapidité de vos serveurs ? Stockage? Capacités de mise en réseau? ● Gouvernance de l'IA: Existe-t-il u code éthique? Des protocoles permettant la gestion de risques? Y-a-t’il des pratiques mises en place garantissant l'utilisation responsable de l'IA? 🌐 Découvrez comment différentes organisations utilisent l'IA pour innover et assurer leur durabilité. Franchissez la première étape vers l'innovation axée sur l'IA. Téléchargez dès maintenant notre livret 👉 https://bit.ly/49sKjK2 #AI #IA #ArtificialIntelligence #IntelligenceArtificielle #NetZero #ClimateAction #Durability #Durabilité #Sustainability #Innovation #DigitalTransformation

    • No alternative text description for this image
  • CEIMIA reposted this

    We're very pleased to have been involved with this new report, commissioned by GPAI, delivered by the Open Data Institute and the Aapti Institute, with support from Pinsent Masons and CEIMIA. Data has become an important part of society - where it was once a by-product of industrial, commercial, consumer and other activities, it is now a resource in its own right. Data enables the development of new and improved technology that have become important parts of our lives. At the same time, access to data is critical to tackling some of society's biggest challenges, such as the climate crisis and health inequalities. The rapid expansion of the data economy raises serious questions for governments, businesses and the public about who has access to data, who gets to decide what data is used for, and ultimately who is able to realise the value of data. It also raises questions about how to limit the misuse of data, how to preserve people's privacy and how to hold those causing harm to account. There is increasing attention being paid to the notion that parties who have contributed to the generation of data should have some rights in the utilisation of such data. Find out more. #data #AI https://hubs.li/Q02-w7Sk0

    From co-generated data to generative AI: New rights and governance models in digital ecosystems

    From co-generated data to generative AI: New rights and governance models in digital ecosystems

    theodi.org

  • [ FR ↓ ] ⚙️ Supported by CEIMIA, GPAI report “𝑪𝒐𝒑𝒚𝒓𝒊𝒈𝒉𝒕 𝒂𝒏𝒅 𝑫𝒂𝒕𝒂 𝑷𝒓𝒐𝒕𝒆𝒄𝒕𝒊𝒐𝒏 𝑹𝒊𝒈𝒉𝒕𝒔 𝒊𝒏 𝑪𝒐-𝑮𝒆𝒏𝒆𝒓𝒂𝒕𝒆𝒅 𝑰𝒏𝒑𝒖𝒕 𝒂𝒏𝒅 𝑶𝒖𝒕𝒑𝒖𝒕 𝒐𝒇 𝑮𝒆𝒏𝒆𝒓𝒂𝒕𝒊𝒗𝒆 𝑨𝑰” explores the legal landscape of “co-generation of data,” which refers to the use of data and content in Generative AI. 🌐 Focusing on the legal frameworks of the European Union, the United States, and Japan, this report examines copyright and data protection considerations throughout the Generative AI lifecycle, including both co-generated input and output. As a continuation of the May 2023 report, "𝑵𝒆𝒘 𝒓𝒊𝒈𝒉𝒕𝒔 𝒂𝒏𝒅 𝒈𝒐𝒗𝒆𝒓𝒏𝒂𝒏𝒄𝒆 𝒎𝒐𝒅𝒆𝒍𝒔 𝒊𝒏 𝒅𝒊𝒈𝒊𝒕𝒂𝒍 𝒆𝒄𝒐𝒔𝒚𝒔𝒕𝒆𝒎𝒔" the 2024 project team of "Co-generated data to generative AI" has been working on: ● Understanding the concept of co-generation: Examining how human input and actions, combined with AI processes, lead to the creation of new data and content. ● Analyzing the legal frameworks of the EU, US, and Japan:  Comparing these jurisdictions’ approaches on copyright and data protection in the context of co-generation. Discover our report to gain valuable insights into the legal and ethical implications of co-generated AI 👉 https://bit.ly/3DezmzB — ⚙️ Soutenu par le CEIMIA, le rapport @GPAI «𝑪𝒐𝒑𝒚𝒓𝒊𝒈𝒉𝒕 𝒂𝒏𝒅 𝑫𝒂𝒕𝒂 𝑷𝒓𝒐𝒕𝒆𝒄𝒕𝒊𝒐𝒏 𝑹𝒊𝒈𝒉𝒕𝒔 𝒊𝒏 𝑪𝒐-𝑮𝒆𝒏𝒆𝒓𝒂𝒕𝒆𝒅 𝑰𝒏𝒑𝒖𝒕 𝒂𝒏𝒅 𝑶𝒖𝒕𝒑𝒖𝒕 𝒐𝒇 𝑮𝒆𝒏𝒆𝒓𝒂𝒕𝒊𝒗𝒆 𝑨𝑰» explore les droits d'auteur et la protection des données dans le cadre de la «co-génération de données», c'est-à-dire l'utilisation de données et de contenus dans l'IA générative. 🌐 En se concentrant sur les cadres juridiques de l'Union européenne, des États-Unis et du Japon, ce rapport examine les considérations relatives au droit d'auteur et à la protection des données tout au long du cycle de vie de l'IA générative, y compris les données d'entrée et de sortie co-générées. Poursuivant les travaux du rapport de mai 2023 intitulé «Nouveaux droits et modèles de gouvernance dans les écosystèmes numériques», l'équipe de projet 2024 de «co-génération de données à l’intelligence artificielle générative» a travaillé sur les enjeux suivants: ● Comprendre le concept de co-génération : examiner comment les données et les actions humaines, combinées aux processus d'IA, conduisent à la création de nouvelles données et de nouveaux contenus. ● Analyser les législations de l'UE, des États-Unis et du Japon : comparer les approches de ces juridictions en matière de droits d'auteur et de protection des données dans le contexte de la cogénération. Découvrez notre rapport pour obtenir des informations précieuses sur les implications juridiques et éthiques de l'IA co-générée 👉https://bit.ly/3DezmzB. #AI #IA #ArtificialIntelligence #IntelligenceArtificiel #DataScience #ScienceDesDonnées #GenAI #Copyrights #DroitsdAuteur

    • No alternative text description for this image
  • View organization page for CEIMIA, graphic

    3,772 followers

    🏦 Supported by CEIMIA, GPAI project "𝑨𝒍𝒈𝒐𝒓𝒊𝒕𝒉𝒎𝒊𝒄 𝑻𝒓𝒂𝒏𝒔𝒑𝒂𝒓𝒆𝒏𝒄𝒚 𝒊𝒏 𝒕𝒉𝒆 𝑷𝒖𝒃𝒍𝒊𝒄 𝑺𝒆𝒄𝒕𝒐𝒓", offers valuable insights and recommendations to enhance the transparency and accountability of AI systems used by public bodies. This year The Responsible AI and Data Governance Working Groups have worked on: 📄 𝐒𝐭𝐚𝐭𝐞-𝐨𝐟-𝐭𝐡𝐞-𝐀𝐫𝐭 𝐑𝐞𝐩𝐨𝐫𝐭: A comprehensive analysis of existing algorithmic transparency instruments, exploring their strengths, weaknesses, and potential impact. https://bit.ly/3OHz32Q 📋𝐂𝐚𝐬𝐞 𝐒𝐭𝐮𝐝𝐢𝐞𝐬: In-depth examinations of public algorithm repositories in Chile, the EU, and the UK, highlighting best practices and challenges. https://bit.ly/3OH6CSF 📃 𝐏𝐨𝐥𝐢𝐜𝐲 𝐑𝐞𝐜𝐨𝐦𝐦𝐞𝐧𝐝𝐚𝐭𝐢𝐨𝐧𝐬: Practical guidelines for governments to improve the transparency of public algorithms and thus foster public trust and ethical AI development. https://bit.ly/3OF5xe6 💡 This project aims to empower the civil society, researchers,  and policymakers in safeguarding their fundamental right to access to information and make informed decisions when AI is involved. Understanding of the inner workings of these algorithms participates in holding institutions accountable and ensuring that AI is used ethically. — 🏦 Soutenu par CEIMIA, le projet GPAI «𝑨𝒍𝒈𝒐𝒓𝒊𝒕𝒉𝒎𝒊𝒄 𝑻𝒓𝒂𝒏𝒔𝒑𝒂𝒓𝒆𝒏𝒄𝒚 𝒊𝒏 𝒕𝒉𝒆 𝑷𝒖𝒃𝒍𝒊𝒄 𝑺𝒆𝒄𝒕𝒐𝒓», propose des perspectives et des recommandations essentielles pour améliorer la transparence et la responsabilité des systèmes d'IA utilisés par le secteur public. Cette année les groupes de travail ont mis sur pied: 📄 Un état de l’art: une analyse complète des instruments de transparence algorithmique existants, explorant leurs forces, leurs faiblesses et leur impact potentiel. https://bit.ly/3OHz32Q 📋 Des études de cas: étude approfondie des répertoires publics d'algorithmes au Chili, dans l'UE et au Royaume-Uni, mettant en évidence les meilleures pratiques et les défis à relever. https://bit.ly/3OH6CSF 📃 Des recommandations politiques: des lignes directrices pratiques pour les gouvernements afin d'améliorer la transparence de leurs algorithmes et de favoriser la confiance du public ainsi que le développement éthique de l'IA. https://bit.ly/3OF5xe6 💡Ce projet vise à donner à la société civile, aux chercheurs et aux décideurs politiques les moyens de prendre des décisions éclairées sur l'utilisation de l'IA dans le secteur public et de garantir le droit fondamental d'accès à l’information. En explicitant les fonctionnements internes de ces algorithmes, les institutions peuvent davantage être tenues responsables et nous assurer que l'IA est utilisée de manière éthique. #AI #IA #ArtificialIntelligence #IntelligenceArtificielle #DataScience #ScienceDesDonnées #DataTransparency #TransparenceDesDonnées

    • No alternative text description for this image

Similar pages

Browse jobs