Replay Meetup Data Science Responsable et de confiance - S05E01

Au programme de ce premier opus de la saison 5 :

  • Avec Jean-Pierre Lorre de Linagora : d'openLLM-France, des modèles Claire-7B et Lucie-7B, et des travaux de l'Open Source Initiative autour de la définition de ce qu'est une IA générative open source.

  • Avec Rémy Ibarcq, Caroline Jean-Pierre et Samuel Rincé de Dataforgood : du livre blanc sur les défis de la genAI, du projet "Gen AI impact" de calcul de l’empreinte environnementale des modèles appelés en API, et du serious game "La Bataille de l'IA"

Read More
Replay Meetup Data Science Responsable et de confiance - S04E03

Au programme de ce troisième opus de la saison 4 :

  • "L'Union Européenne va-t-elle interdire ChatGPT ? Enjeux et sur les méthodologies d’audit des LLMs qui se dégagent dans le paysage réglementaire et scientifique."
    Grégoire Martinon, Hao Li, Aymen Mejro, Hadrien Strichard (Quantmetry)

  • Synthèse du livre blanc "Generative AI Survey - The Technology, the Rewards & the Risks" pour l'élaboration duquel Artefact a interviewé plus de 50 entreprises
    Hanan Ouazan (Artefact)

Read More
Replay Meetup Data Science Responsable et de confiance - S03E05

Au programme de ce meetup :

  • Giada Pistilli, Principal Ethicist d'Hugging Face présente ses travaux sur l'éthique ainsi que sur OpenRail, nouveau cadre de licence open source des modèles d'IA

  • Xavier Lioneton de datacraft et Gwendal Bihan d'Axionable et Impact AI présentent l'­AI Act Day, événement le 15 décembre 2022 à la Sorbonne pour comprendre, mettre en pratique et anticiper le futur règlement européen de l'IA

Read More
Replay Meetup Data science responsable et de confiance - Saison 3 - épisode 2

Au programme :

  • Hafid Ait Sidi Hammou, chargé de mission chez la Métropole Européenne de Lille a présente certaines problématiques d’IA dans les organismes publics.

  • Alexis Leautier de la CNIL présente le guide d'auto-évaluation pour les systèmes d'intelligence artificielle et ses travaux sur l'IA.

  • Emmanuelle Legrand, de la Direction Générale des Entreprises intervient pour présenter les enjeux et le calendrier autour de la réglementation européenne de l'IA.

Read More
Labelia Labs
Découvrez “Labelia”, le label IA responsable et de confiance

Labelia, le Label IA Responsable et de Confiance !

Alors que le projet de règlement européen sur l’IA a été dévoilé au printemps 2021 et dans un contexte où les risques liés aux Data Sciences sont de plus en plus prégnants, les organisations se doivent d’adopter des pratiques, des outils, des approches de l’IA qui soient responsables afin de donner confiance.


Read More
Labelia Labs
[Part 2/2] Using Distributed Learning for Deepfake Detection

In the first part of this article, we introduced a secure, traceable and distributed ML approach for a deepfake detection benchmark using the Substra framework. In this second part, we will present the technical details of the Substra framework and see the whole process of implementing an example on Substra, in order to allow you to submit your own algorithms or add your dataset to the Substra network.

Read More
Labelia Labs
The nuts and bolts of Differential Privacy (Part 1/2)

Does the term Differential Privacy ring a bell? If it doesn’t then you’re in for a treat! The first part of this article provides a quick introduction to the notion of Differential Privacy, a new robust mathematical approach to formulate the privacy guarantee of data related tasks. We will be covering some of its use cases, untangle its mechanisms and key properties and see how it works in practice.

This article has been written by Heytem Boumaza, intern at Substra Foundation.

Read More
Labelia Labs