Privacy-Preserving Federated Learning

Substra Framework a rejoint LF AI & Data en tant que nouveau projet incubé !

Pour plus d’information, consultez le communiqué de presse.

 
Substra_Illustration_4.png
 

Approche et concepts clés de Substra


Différentes technologies de protection de la confidentialité (privacy-enhancing technologies) font l’objet de recherches et sont développées par la communauté ‘privacy’. Elles constituent une palette d’options pour renforcer la confidentialité des jeux de données et des modèles dans les projets de data science, et deviennent de plus en plus critiques.

Le framework Substra permet d’orchestrer des tâches de machine learning entre plusieurs partenaires, de manière sécurisée, traçable et distribuée. Il vient outiller les projets collaboratifs de data science. Il vise à être compatible avec un maximum de privacy-enhancing technologies afin de compléter leur usage et permettre la création de workflows de data science efficace, transparent, protecteur de la confidentialité des données. Son ambition est de permettre l’émergence de nouvelles collaborations scientifiques et industrielles en data science.

Pictos_Substra_Jaune_RVB_Blockchain.png

Données immobiles

Les jeux de données sont immobiles et restent dans les infrastructures des organisations qui les gèrent. Les algorithmes circulent sur le réseau sécurisé.

Traçabilité

Les traces des opérations effectuées sont enregistrées de manière immuable et incorruptible dans le registre distribué, permettant par exemple la certification de modèles.

Pictos_Substra_Vert_RVB_Modèle+résultan.png

Confiance décentralisée

Toutes les tâches de ML sont orchestrées par un registre distribué (DLT). Il devient possible de se passer d'un tiers de confiance, la sécurité est construite au coeur de l'application décentralisée.

Modularité

Différents régimes de permissions peuvent être configurés sur les objets (e.g. algorithmes, jeux de données...) afin de modéliser différents cas d'usage et les workflows de data science correspondants.