Il est un fait communément admis que l’apprentissage automatique requiert de grandes quantités de données. Fort heureusement, les sources d’information sont de plus en plus nombreuses et les quantités de données disponibles dans tous les domaines s’accroissent sans cesse. Cette évolution a néanmoins atteint un point tel qu’il n’est plus réaliste de penser stocker l’ensemble de données nécessaire à une tâche d’apprentissage automatique sur un seul ordinateur. Ceci a conduit J. Konecny, H.B. MacMahan et D. Ramage à proposer un nouveau modèle d’apprentissage dans lequel les données sont réparties sur des noeuds distribués et le modèle est appris d’une manière distribuée. Cette technique est connue sous le terme Federated Learning ou encore apprentissage fédéré.

L’apprentissage fédéré est classiquement mis en oeuvre pour l’apprentissage de réseaux de neurones. Il implique le partage de données, parfois très sensibles comme dans le domaine médical, et par suite, génère des craintes quant au respect de la vie privée. Des techniques d’anonymisation ont bien été proposées dans ce cadre mais se heurtent à des attaques qui peuvent potentiellement désanonymiser les données utilisées. Bâtissant sur l’intelligence artificielle symbolique, la programmation logique inductive offre un cadre plus sûre supportant naturellement les approches de cryptage. Le projet FILP vise à terme à montrer qu’il est possible d’apprendre une mini-théorie sur chaque noeud distribué et de combiner ces mini-théories pour produire une théorie générale.