Replay Meetup Data Science Responsable et de confiance - S05E01
Au programme de ce premier opus de la saison 5 :
Avec Jean-Pierre Lorre de Linagora : d'openLLM-France, des modèles Claire-7B et Lucie-7B, et des travaux de l'Open Source Initiative autour de la définition de ce qu'est une IA générative open source.
Avec Rémy Ibarcq, Caroline Jean-Pierre et Samuel Rincé de Dataforgood : du livre blanc sur les défis de la genAI, du projet "Gen AI impact" de calcul de l’empreinte environnementale des modèles appelés en API, et du serious game "La Bataille de l'IA"
Read More
Replay Meetup Data Science Responsable et de confiance - S04E04
Au programme de ce dernier opus de la saison 4 :
Une vision “patrimoine IA” pour gérer l’intégration d’un grand nombre de briques IA en production
Samuel Jaulin, Yann Golhen (MAIF)
Les coûts cachés (voire oubliés) des LLMs
Céline Alby (Axionable)
Read More
Replay Meetup Data Science Responsable et de confiance - S04E03
Au programme de ce troisième opus de la saison 4 :
"L'Union Européenne va-t-elle interdire ChatGPT ? Enjeux et sur les méthodologies d’audit des LLMs qui se dégagent dans le paysage réglementaire et scientifique."
Grégoire Martinon, Hao Li, Aymen Mejro, Hadrien Strichard (Quantmetry)
Synthèse du livre blanc "Generative AI Survey - The Technology, the Rewards & the Risks" pour l'élaboration duquel Artefact a interviewé plus de 50 entreprises
Hanan Ouazan (Artefact)
Read More
Replay Meetup Data Science Responsable et de confiance - S04E02
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)
Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Read More
Replay Meetup Data Science Responsable et de confiance - S04E01
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)
Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Read More
Replay Meetup Data Science Responsable et de confiance - S03E05
Au programme de ce meetup :
Xavier Lioneton de datacraft et Gwendal Bihan d'Axionable et Impact AI présentent l'AI Act Day, événement le 15 décembre 2022 à la Sorbonne pour comprendre, mettre en pratique et anticiper le futur règlement européen de l'IA
Read More
Tribune - Accélérons les certifications et labélisations de l’IA responsable
Entre innovations transformatrices et dérives dangereuses, l’IA doit impérativement perdre son côté boîte noire et s’appuyer sur des certifications voire des labels pour établir la confiance sans laquelle elle ne pourra s’imposer à long terme.
Read More
Replay Meetup Data Science Responsable et de confiance - S03E04
Au programme de ce meetup :
La MAIF présente Eurybia, sa nouvelle librairie open source permettant de surveiller les modèles de machine learning en production et d'éviter les dérives des modèles
Quantmetry présente sa méthode pour adapter des données temporelles impactées par le COVID-19 pour le machine learning
Read More
Artefact obtient le label LabelIA garantissant un haut niveau de maturité sur les enjeux d’IA responsable et de confiance
Artefact est fière d’annoncer l’obtention du label Labelia - IA Responsable et de Confiance décerné par l’association indépendante Labelia Labs.
Read More
Replay Meetup Data science responsable et de confiance - Saison 3 - Episode 1
Retrouvez le replay de notre premier Meetup de la saison 3 co-organisé avec Data for Good et la Fing.
Read More
Replay - Atelier Data Science Responsable - Saison 2, Episode 3
A l'occasion de ce 3ème meetup Data Science Responsable et de Confiance de l'année organisé par Substra Foundation et Data For Good du 21 juin 2021, nos invités ont défriché et discuté des perspectives d la proposition de réglementation européenne de l'Intelligence Artificielle.
Read More
Axionable obtient le premier label « Labelia - IA responsable et de confiance »
Pionnier des services et solutions d’IA responsable et à finalité durable en France et au Canada, Axionable double la mise après avoir été la première entreprise certifiée IA éthique par le LNE
Read More
Découvrez “Labelia”, le label IA responsable et de confiance
Labelia, le Label IA Responsable et de Confiance !
Alors que le projet de règlement européen sur l’IA a été dévoilé au printemps 2021 et dans un contexte où les risques liés aux Data Sciences sont de plus en plus prégnants, les organisations se doivent d’adopter des pratiques, des outils, des approches de l’IA qui soient responsables afin de donner confiance.
Read More
Going Differentially Private: techniques and tools of the trade (Part 2/2)
In the first part of this article, you had your first encounter with Differential Privacy and learned why it’s so awesome. In this second part, we’ll present to you three python libraries for implementing Differential Privacy: Difflibpriv, TensorFlow-Privacy and Opacus.
Read More
[Part 2/2] Using Distributed Learning for Deepfake Detection
In the first part of this article, we introduced a secure, traceable and distributed ML approach for a deepfake detection benchmark using the Substra framework. In this second part, we will present the technical details of the Substra framework and see the whole process of implementing an example on Substra, in order to allow you to submit your own algorithms or add your dataset to the Substra network.
Read More
The nuts and bolts of Differential Privacy (Part 1/2)
Does the term Differential Privacy ring a bell? If it doesn’t then you’re in for a treat! The first part of this article provides a quick introduction to the notion of Differential Privacy, a new robust mathematical approach to formulate the privacy guarantee of data related tasks. We will be covering some of its use cases, untangle its mechanisms and key properties and see how it works in practice.
This article has been written by Heytem Boumaza, intern at Substra Foundation.
Read More
Distillation de modèle et confidentialité
Cet article de blog est une introduction à la notion de distillation de modèle et son lien avec la privacy. Il a été écrit par Gijs Barmentlo dans le cadre de la saison 8 de Data For Good.
Read More
L'équité (Fairness) dans le Machine Learning
Cet article tente d'éclaircir le sujet complexe et vaste de l'équité dans le machine learning. Sans être exhaustif, il propose un certain nombre de définitions et d'outils très utiles que tout Data Scientist doit s'approprier pour aborder ce sujet.
Read More