🏦 Supported by CEIMIA, GPAI project "𝑨𝒍𝒈𝒐𝒓𝒊𝒕𝒉𝒎𝒊𝒄 𝑻𝒓𝒂𝒏𝒔𝒑𝒂𝒓𝒆𝒏𝒄𝒚 𝒊𝒏 𝒕𝒉𝒆 𝑷𝒖𝒃𝒍𝒊𝒄 𝑺𝒆𝒄𝒕𝒐𝒓", offers valuable insights and recommendations to enhance the transparency and accountability of AI systems used by public bodies. This year The Responsible AI and Data Governance Working Groups have worked on: 📄 𝐒𝐭𝐚𝐭𝐞-𝐨𝐟-𝐭𝐡𝐞-𝐀𝐫𝐭 𝐑𝐞𝐩𝐨𝐫𝐭: A comprehensive analysis of existing algorithmic transparency instruments, exploring their strengths, weaknesses, and potential impact. https://bit.ly/3OHz32Q 📋𝐂𝐚𝐬𝐞 𝐒𝐭𝐮𝐝𝐢𝐞𝐬: In-depth examinations of public algorithm repositories in Chile, the EU, and the UK, highlighting best practices and challenges. https://bit.ly/3OH6CSF 📃 𝐏𝐨𝐥𝐢𝐜𝐲 𝐑𝐞𝐜𝐨𝐦𝐦𝐞𝐧𝐝𝐚𝐭𝐢𝐨𝐧𝐬: Practical guidelines for governments to improve the transparency of public algorithms and thus foster public trust and ethical AI development. https://bit.ly/3OF5xe6 💡 This project aims to empower the civil society, researchers, and policymakers in safeguarding their fundamental right to access to information and make informed decisions when AI is involved. Understanding of the inner workings of these algorithms participates in holding institutions accountable and ensuring that AI is used ethically. — 🏦 Soutenu par CEIMIA, le projet GPAI «𝑨𝒍𝒈𝒐𝒓𝒊𝒕𝒉𝒎𝒊𝒄 𝑻𝒓𝒂𝒏𝒔𝒑𝒂𝒓𝒆𝒏𝒄𝒚 𝒊𝒏 𝒕𝒉𝒆 𝑷𝒖𝒃𝒍𝒊𝒄 𝑺𝒆𝒄𝒕𝒐𝒓», propose des perspectives et des recommandations essentielles pour améliorer la transparence et la responsabilité des systèmes d'IA utilisés par le secteur public. Cette année les groupes de travail ont mis sur pied: 📄 Un état de l’art: une analyse complète des instruments de transparence algorithmique existants, explorant leurs forces, leurs faiblesses et leur impact potentiel. https://bit.ly/3OHz32Q 📋 Des études de cas: étude approfondie des répertoires publics d'algorithmes au Chili, dans l'UE et au Royaume-Uni, mettant en évidence les meilleures pratiques et les défis à relever. https://bit.ly/3OH6CSF 📃 Des recommandations politiques: des lignes directrices pratiques pour les gouvernements afin d'améliorer la transparence de leurs algorithmes et de favoriser la confiance du public ainsi que le développement éthique de l'IA. https://bit.ly/3OF5xe6 💡Ce projet vise à donner à la société civile, aux chercheurs et aux décideurs politiques les moyens de prendre des décisions éclairées sur l'utilisation de l'IA dans le secteur public et de garantir le droit fondamental d'accès à l’information. En explicitant les fonctionnements internes de ces algorithmes, les institutions peuvent davantage être tenues responsables et nous assurer que l'IA est utilisée de manière éthique. #AI #IA #ArtificialIntelligence #IntelligenceArtificielle #DataScience #ScienceDesDonnées #DataTransparency #TransparenceDesDonnées
Post de CEIMIA
Plus de posts pertinents
-
🇬🇧🇺🇸 Artificial intelligence makes many things possible, but there is a lot of work to be done to get there. “New technologies will allow us to move away from using surveys,” says STATEC Director Tom Haas. At STATEC, the Department of Scientific Research is focusing on the link between productivity and artificial intelligence. “AI should be seen as a great opportunity. Our processes can be optimized, and AI can help us improve the quality of statistics,” says Tom Haas. STATEC is also collaborating with SnT: “Researchers come to work at STATEC to help us develop AI-specific tools. It is strategically important for us to maintain exchanges with the academic community,” adds Tom Haas. 🇱🇺 D’Kënschtlech Intelligenz mécht villes méiglech, mee et ass vill Aarbecht bis dohinner, heescht et beim STATEC. „Nei Technologien wäerten ons erméiglechen, net méi iwwer Enquêten ze fueren“, mengt den Direkter Tom Haas. Beim STATEC intresséiert den Departement vun der Recherche scientifique sech fir de Lien tëschent der Produktivitéit an der KI. „KI muss een als grouss Opportunitéit gesinn. Ons Prozesser kennen optimiséiert ginn, D‘KI kann ons hëllefen, d’Qualitéit vun de Statistiken ze verbesseren“, seet den Tom Haas. De STATEC schafft dann och mam SnT zesummen: „Chercheure kommen op de STATEC schaffen, fir ons ze hëllefen, KI spezifesch Tools ze developpéieren. Et ass strategesch wichteg fir ons, den Austausch mam akademesche Milieu ze hunn“, sou den Tom Haas. 🇫🇷🇧🇪 L’intelligence artificielle rend beaucoup de choses possibles, mais il y a énormément de travail pour y arriver, entend-on au STATEC. « Les nouvelles technologies nous permettront de ne plus avoir recours aux enquêtes », estime le directeur Tom Haas. Au STATEC, le département de la recherche scientifique s’intéresse au lien entre la productivité et l’intelligence artificielle. « L’IA doit être perçue comme une grande opportunité. Nos processus peuvent être optimisés, et l’IA peut nous aider à améliorer la qualité des statistiques », dit Tom Haas. Le STATEC collabore également avec le SnT : « Des chercheurs viennent travailler au STATEC pour nous aider à développer des outils spécifiques basés sur l’IA. Il est stratégiquement important pour nous d’avoir des échanges avec le milieu académique », ajoute Tom Haas.
Identifiez-vous pour afficher ou ajouter un commentaire
-
#TechWithMC | IndiaAI Mission: MeitY ramps up efforts to ensure availability of AI-usable data across govt 🤖🌐 Aihik Sur explains more on this👇 https://lnkd.in/dhy5wfAk #IndiaAiMission #MeitY #Ai #Data
Identifiez-vous pour afficher ou ajouter un commentaire
-
To make AI safe, governments must regulate data collection #AI #ArtificialIntelligence #Canada #EU #DataCollection #OECD #Algorithm #GovernmentData #AISafety #DataCentres #GovernmentRegulation #DataOversight #LessDataAI
To make AI safe, governments must regulate data collection
https://the-14.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Nouvel article disponible sur le Blog Economie Numérique ! Découvrez-le ci-dessous. 📝 «Regulating AI: The Need for a Legal Framework » écrit par Rachid NAIR - https://lnkd.in/eM4RTdBz 📖 Nous vous souhaitons une agréable lecture ! 🌼
Regulating AI: The Need for a Legal Framework
blog.economie-numerique.net
Identifiez-vous pour afficher ou ajouter un commentaire
-
NEW: Open Data Institute has issued a stark warning about the future of AI in the UK, highlighting significant weaknesses in the country's technology infrastructure that could undermine the anticipated benefits of the AI boom. Read the full story ⬇ https://lnkd.in/euqbBjHT #AI #TechInfrastructure #DataGovernance #EdTech #Innovation #UKTech #Education #DataTransparency
ODI Report Highlights Risks to AI Boom from UK Tech Infrastructure Weaknesses — EdTech Innovation Hub
edtechinnovationhub.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
Le Contrôleur européen de la protection des données Wojciech Wiewiorowski publie aujourd'hui ses lignes directrices sur l'intelligence artificielle générative et les données à caractère personnel. Ces lignes directrices constituent une première étape vers des recommandations plus approfondies en réponse à l'évolution du paysage des outils d'IA générative. Elles mettent l’accent sur les principes fondamentaux de la protection des données, combinés à des exemples concrets, afin d’aider à anticiper les risques, les défis et les opportunités des systèmes et outils d’IA générative. Le Contrôleur publie aujourd'hui ces lignes directrices dans le cadre de son rôle d’autorité indépendante de protection des données personnelles. Une stratégie distincte est en cours de préparation dans le cadre de son nouveau rôle de supervision en vertu de la loi européenne sur l’intelligence artificielle en cours d'implémentation.
***PRESS RELEASE: Guidelines on generative #AI*** We have published today guidelines on generative Artificial Intelligence and personal data for EU institutions, bodies, offices and agencies (EUIs). The guidelines are part of the 20 initiatives celebrating our 20th Anniversary and aim to help EUIs comply with the data protection obligations set out in Regulation (EU) 2018/1725 (EUDPR), when using or developing generative AI tools. EUIs can find practical advice covering as many possible scenarios involving the use of generative AI, as this technology continues to evolve. This is the first step towards more extensive recommendations. Let’s embrace the opportunities of AI, whilst protecting people. 📍Read Press Release: https://europa.eu/!HHmPmv 📍Read Guidelines on Generative AI: https://europa.eu/!H9nrw3 #20Initiatives #EDPSXX #ArtificialIntelligence #AI
EDPS Guidelines on generative AI: embracing opportunities, protecting people
edps.europa.eu
Identifiez-vous pour afficher ou ajouter un commentaire
-
Salutations 🌟 réserve ta session OueBinaire :📸 focus : AI Mastery 🌟 ... 📅 Register now: June 6, 2024, 15:00 – 16:00 CET Rejoignez-nous pour une session enrichissante où nous passons des concepts d'IA à la production concrète. Découvrez comment intégrer les principes MLOps et "Sovereign AI", en prenant le contrôle total de votre IA à tous les niveaux. version 🇦🇺 🌟 Save the Date: AI Mastery Webinar 🌟 Join us for an enlightening session where we transition from AI concepts to concrete production. Discover how to integrate MLOps and Sovereign AI principles, taking full control of your AI at every level. 📅 Register now: June 6, 2024, 15:00 – 16:00 CET 🔗 https://lnkd.in/ea5snpSt #AI #MLOps #SovereignAI
Identifiez-vous pour afficher ou ajouter un commentaire
-
Despite its intentions to be a tech superpower, the UK may lack the key infrastructure necessary to participate – let alone lead – in the AI boom, according to the latest white paper form the Open Data Institute (ODI). #Tech | #News | #AI
UK May Be Missing Fundamental Key to AI Innovation
https://www.digit.fyi
Identifiez-vous pour afficher ou ajouter un commentaire
-
To make AI safe, governments must regulate data collection The-14 The Conversation Canada #AI #ArtificialIntelligence #Canada #EU #DataCollection #OECD #Algorithm #GovernmentData #AISafety #DataCentres #GovernmentRegulation #DataOversight #LessDataAI
To make AI safe, governments must regulate data collection
https://the-14.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
Are we on the verge of a self-improving AI explosion? L'auto-amélioration de l'intelligence artificielle est un domaine avec de nouvelles avancées qui peuvent avoir un impact fort sur l’évolution des IA. L'idée d'une IA capable de s'améliorer elle-même remonte aux années 60 avec le mathématicien I.J. Good. On parle aussi de SeedAI "an AI designed for self-understanding, self-modification, and recursive self-improvement." Aujourd'hui, cette vision devient progressivement réalité : - Meta développe des modèles "auto-récompensants" qui surpassent déjà Claude 2 et GPT-4 - Anthropic explore des IA capables de réécrire leurs propres fonctions de récompense - Microsoft et Google DeepMind multiplient les recherches sur l'auto-amélioration - GPT-4 démontre sa capacité à écrire du code qui s'optimise lui-même Malgré ces progrès impressionnants, plusieurs obstacles majeurs subsistent : - Un "point de saturation" apparaît généralement après 3 itérations d'auto-amélioration - L'évaluation subjective des capacités de raisonnement reste problématique - Les limites des données d'entraînement initiales constituent un goulot d'étranglement - Le risque de "model collapse" avec les données synthétiques soulève des inquiétudes Comme le souligne Dave Edwards : "Que signifie pour l'humanité de ne plus être la seule entité capable d'auto-amélioration ?" #ArtificialIntelligence #AI #Innovation #Technology #FutureOfTech #MachineLearning https://lnkd.in/etCVrtgR
Are we on the verge of a self-improving AI explosion?
arstechnica.com
Identifiez-vous pour afficher ou ajouter un commentaire
3 772 abonnés
We are thankfull for the dedicated work that make this project concrete | Nous remercions tous ceux qui ont contribué à la concrétisation de ce projet: Juan David Gutiérrez Rodríguez, Alison Gillwald, Sarah Muñoz-Cadena, Avik Sarkar, Ph.D. from Indian School of Business, Przemyslaw Biecek from Uniwersytet Warszawski, Seydina M. Ndiaye from Université numérique Cheikh Hamidou KANE (UN-CHK), Hamidou Diogoh K. from Université numérique Cheikh Hamidou KANE (UN-CHK), Abdul Majeed from Gachon University, Juliana Sakai from Transparência Brasil, Thierry Warin from HEC Montréal, Dafna Feinholz + Rosanna Fanni & Irakli Khodeli from UNESCO, Research ICT Africa, Universidad de los Andes - Colombia, María Paz Hermosilla, GobLab UAI, Robbert Bos, David Cabo, Fundación Civio, Marielle Chrisment, Etalab - Direction interministérielle du numérique (DINUM), Arnaud Q., Camille Séguin, Antoine Glory, Stephanie King, Shameek Kundu, Bertrand Monthubert, Francesca Rossi, Amir Banifatemi