Le PIAF propose un groupe de lecture hebdomadaire sur la sûreté de l’IA.

Principe

Lors d’une séance, un membre du groupe présente un exposé sur un article de recherche de son choix. Cette réunion permet à chacun d’apprendre plus sur la sûreté de l’IA et de se renseigner sur les avancées dans le domaine. L’exposé est accessible aux non-experts et est accompagné d’un temps de questions.

Organisation

Les séances du groupe de lecture sont ouvertes à tous et ont lieu en présentiel chaque dimanche. Pour vous tenir au courant des prochains rendez-vous, rejoignez notre serveur Discord.

À venir

Nous proposerons également des séances en semaine pour permettre plus de personnes d’y participer.

Nous aimerions inviter des doctorants, des enseignants et des chercheurs, à partager leur expertise en sûreté de l’IA et tout domaine proche.

Les conférences à venir

24/11/24

Data Ownership Verification with Data Poisoning

Empoisonner pour signer des données, plus puissant que le watermarking ?

Papier: DATA TAGGANTS: DATASET OWNERSHIP VERIFICATION VIA HARMLESS TARGETED DATA POISONING

01/12/24

Un framework pour penser la confiance en les IA

Comment formaliser l'idée de confiance en une IA pour pouvoir l'implémenter ?

Papier: Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and Goals of Human Trust in AI

Nos conférences passées

11/11/24

Introspection in LLMs

En un sens, on peut finetune les LLMs actuels pour qu'ils soient capables d'introspection

Papier: Looking Inward: Language Models Can Learn About Themselves by Introspection

20/10/24

Représentants algorithmiques

L'opportunité de donner nos droits de vote à des algorithmes

Papier: WeBuildAI: Participatory Framework for Algorithmic Governance

13/10/24

Privacy backdoors & MIA

Récupérer des données confidentielles qui ont servi à entrainer le modèle

Papier: Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models

6/10/24

Fundamentals limits of alignment in LLMs

Un résultat fondamental sur l'imperfection des IA

Papier: Fundamentals limits of alignment in LLMs

22/09/24

Watermarking LLMs

Comment introduire une signature invisible dans les textes générés par IA

Papier: A Watermark for Large Language Models
Article récapitulatif: ici

15/09/24

Limits of Machine Unlearning

Pourquoi on ne peut jamais vraiment faire oublier des IA

Papier: Machine Unlearning Fails to Remove Data Poisoning Attacks

08/09/24

Inference Time intervention using semantic vectors

Modifier les comportements des modèles de manière chiurgicale

Papier: Refusal in LLMs is mediated by a single direction
Article récapitulatif: ici

01/09/24

Introduction au RLHF

comment chatGPT est éduqué

Papier: Deep reinforcement learning from human preferences