Appel à communication – Journée de recherche sur la vie privée à Paris le 24 juin 2026
29 janvier 2026
La prochaine édition de la Journée de recherche sur la vie privée (Privacy Research Day) se tiendra dans le cadre du G7 des autorités de protection des données 2026 à Paris. L’appel à communication est ouvert à toutes les disciplines (informatique, sciences sociales, droit, conception d’interfaces, etc.).
Cinquième édition du Privacy Research Day
La cinquième édition du Privacy Research Day s’inscrit dans le cadre de l'accueil, par la CNIL, du G7 des autorités de protection des données en 2026. Cet évènement international réunira les pays membres du G7 – la France, les États-Unis, le Royaume-Uni, l'Allemagne, le Japon, l'Italie et le Canada – ainsi que l'Union européenne.
Organisé la veille de la table ronde du G7, le Privacy Research Day permettra de créer des ponts entre les chercheurs du monde entier, toutes disciplines confondues, et les représentants des autorités de protection des données des pays du G7.
L’évènement s'adresse à un large public familier des enjeux de la vie privée et de la protection des données personnelles. Il vise à favoriser un échange international unique entre experts juridiques, informaticiens, économistes, concepteurs d’interfaces, chercheurs en sciences sociales et régulateurs. L'interdisciplinarité étant au cœur de cette rencontre, les travaux de recherche croisant plusieurs domaines sont particulièrement encouragés.
Comme chaque année, cette édition sera résolument tournée vers l'international, et la CNIL encourage notamment les chercheurs issus des pays membres du G7 à soumettre leurs contributions.
Types de contributions
Plusieurs types de contributions peuvent être soumis :
- des articles de recherche récemment publiés dans des revues ou des conférences internationales à comité de lecture ;
- pour les sciences sociales : des résultats de recherches en cours, ainsi que des projets de recherche à un stade avancé ou en voie d’achèvement.
Appel à communication
Les propositions seront évaluées par les experts de la CNIL selon trois critères : la qualité des soumissions, leur pertinence vis-à-vis des travaux de la CNIL et des autorités de protection des données (APD) du G7, et la volonté de couvrir une diversité de thématiques représentatives de points de vue variés.
Le processus d'examen se déroulera en deux étapes :
- Une première phase basée sur le résumé (abstract), le lieu de publication ou le type de projet, et la description de l’article.
- Une deuxième étape consiste à regrouper les communications présélectionnées en fonction de leurs thématiques et avec l’idée de faire dialoguer les disciplines.
Pour plus d’informations, consultez les détails du processus de sélection sur le site du LINC.
Les auteurs des articles sélectionnés auront l’opportunité de présenter leurs travaux de recherche devant une large audience.
Les propositions de communication doivent être soumises via cette page :
Calendrier
Thématiques
Cette liste n'est pas exhaustive et les soumissions peuvent porter sur tout autre sujet pertinent relatif à la vie privée et à la protection des données.
« Protection des mineurs et des utilisateurs vulnérables »
Cette thématique explore les défis spécifiques en matière de vie privée et de sécurité auxquels sont confrontés les utilisateurs dont la situation personnelle, sociale ou professionnelle engendre des vulnérabilités particulières (public mineur ou âgé ou victime d’exclusion ou de marginalisation). L'accent sera mis sur les risques et usages émergents, qu'ils soient liés au déploiement de l' (santé mentale, hypertrucages ou deepfakes) ou aux nouvelles formes de contrôle et de protection (vérification de l'âge, , contrôle parental).
Les questions clés incluent notamment :
- Quels sont les risques spécifiques aux différents groupes d'utilisateurs ? Qu'est-ce qui, concrètement, rend un utilisateur vulnérable ?
- Quelles sont les stratégies de protection envisagées et/ou mises en œuvre par les mineurs et les utilisateurs vulnérables eux-mêmes ?
- Comment protéger ces utilisateurs tout en préservant leur autonomie ?
- Comment concevoir des services qui s'adaptent aux différents profils de risque ?
« Internationalisation des législations sur la vie privée »
On considère souvent que le RGPD a engendré un « Brussels Effect », avec aujourd'hui une prolifération de lois sur la protection des données produisant de nouveaux « effets ». Dans le contexte du G7, il serait particulièrement pertinent d'examiner les effets transfrontaliers de ces textes : le « California Effect » avec le CCPA / CPRA , le « Beijing Effect » avec la PIPL , le concept de vie privée dès la conception (privacy by design) originaire de l’Ontario (Canada), etc.
Ce thème est plus largement ouvert aux travaux portant sur la coopération internationale permise ou encouragée par ces règlementations, leurs effets sur les transferts de données, ainsi que sur le rôle des technologies protectrices de la vie privée (PETs ou Privacy Enhancing Technologies). Ces technologies offrent des garanties techniques indépendamment des cadres règlementaires et peuvent, de ce fait, agir comme des facilitateurs de conformité à l’international.
Les questions clés incluent notamment :
- Quels enjeux juridiques découlent de l'interaction entre les différentes législations nationales ou internationales ?
- Quels sont les dénominateurs communs entre ces différentes législations ?
- De quels outils juridiques et techniques disposent les exportateurs et les importateurs de données ?
- Les PETs facilitent-elles la mise en conformité avec certaines règlementations ?
- Comment les utilisateurs peuvent-ils être informés de leurs droits au sein de différents cadres juridiques ?
- Comment les standards de protection de la vie privée circulent-ils et s'adaptent-ils aux spécificités régionales ?
« L'intelligence artificielle au prisme de... » :
- La protection des données : les nécessitent de vastes volumes de données (souvent à caractère personnel) pour leur entrainement et brouillent la frontière entre les données et les modèles d'IA, dont des données personnelles peuvent souvent être extraites.
- La sécurité : les systèmes d'IA peuvent amplifier l'ampleur des cyberattaques et en permettre de nouvelles méthodes d’attaques (par exemple, les attaques par canaux auxiliaires (side-channel attacks) capables de déchiffrer les frappes au clavier grâce au son).
- La régulation : les régulateurs et les cadres juridiques évoluent et s'adaptent à ces défis, particulièrement ceux associés aux systèmes d'IA dits « agentiques », incluant les questions de responsabilité et l'usage potentiel de tels systèmes par les régulateurs eux-mêmes.
Les questions clés incluent notamment :
- Comment l'interface et le fonctionnement des systèmes d'IA contribuent-ils au traitement d'un volume croissant de données personnelles ?
- Quelles sont les nouvelles menaces émergentes, et comment l'IA modifie-t-elle les pratiques de sécurité ou l'exercice des droits ?
- De manière générale, comment les organismes de régulation sont-ils exposés à ces nouveaux défis ?
« Objets connectés et dispositifs portables (IoT) »
L'intégration de capacités d'analyse et d'une connectivité omniprésente permet aux objets connectés - dont la taille a considérablement diminué - d'analyser leur environnement en continu et de collecter des données. L'acceptabilité et l'usage de ces objets, en particulier les lunettes connectées, soulèvent de nouveaux défis en matière de vie privée. Cette thématique couvre également les équipements de la maison connectée (smart home), dont le déploiement au sein des foyers se fait de manière tout aussi discrète.
Les questions clés incluent notamment :
- Quelles sont les perceptions de la vie privée liées aux objets connectés et aux « wearables » (objets portables) ?
- Comment la réduction de la taille et de la visibilité des objets connectés affecte-t-elle la capacité de l'utilisateur à rester conscient de la collecte de données, et quels mécanismes peuvent être efficaces pour les appareils dépourvus d'écran ?
- Ces nouveaux objets soulèvent-ils des questions juridiques et des cas d'usage différents de ceux des smartphones ?
« Une régulation fondée sur la science »
Ce thème vise à explorer les cas où la recherche scientifique est mobilisée par ou destinée aux régulateurs, et à observer les situations dans lesquelles ces derniers transforment les travaux scientifiques en matière exploitable – c'est-à-dire des outils techniques ou des preuves empiriques utilisés pour motiver des décisions juridiques et façonner la doctrine. L'objectif est de mieux comprendre les défis concrets liés à l'utilisation des ressources scientifiques (typologies, résultats d'enquêtes, méthodes, outils, recommandations) au service de la régulation.
Les questions clés incluent notamment :
- Quelles conditions permettent une interaction efficace entre la science et la régulation ?
- Comment les régulateurs transforment-ils des données scientifiques complexes en une « objectivité règlementaire » et en preuve administrative ?
- Quelles contributions académiques ont été utilisées dans le cadre de contentieux ou de décisions de régulation, et de quelle manière ?
- Quelles méthodes quantitatives ou qualitatives sont utilisées pour quantifier et sanctionner les préjudices numériques, souvent « invisibles » ?
« Monétisation des données personnelles et modèles d'affaires dans l'économie numérique »
Ce thème accueille des contributions analysant les modèles d'affaires dans l'économie des plateformes sous une perspective pluridisciplinaire. En partant des enjeux économiques de la collecte et du traitement des données personnelles et des risques associés, les discussions porteront sur les évolutions actuelles et prévisibles de ces modèles (par exemple, les modèles dits « consentir ou payer » (consent-or-pay), le rôle des développements technologiques, les architectures de choix et les règlementations correspondantes.
Les questions clés incluent notamment :
- Comment la valeur économique des données personnelles est-elle perçue par les plateformes, et comment cette perception se compare-t-elle à celle des utilisateurs ?
- À quelles conditions le modèle « consentir ou payer » (consent-or-pay) respecte-t-il le consentement exigé par des règlementations telles que le RGPD ? Quel serait le prix approprié pour de tels modèles ?
- Dans quelle mesure les nouveaux cadres règlementaires (règlement sur les marchés numériques ou DMA, règlement sur les données ou Data Act, etc.) rééquilibrent-ils les rapports de force entre les « contrôleurs d’accès » (gatekeepers) et les utilisateurs ? Selon quelles dispositions et quels outils ?
« Sécurité des données : des outils techniques aux pratiques sociales »
Ce thème examine la protection de la vie privée à la fois comme un défi technique et comme une question d'appropriation sociale, en analysant comment les individus et les organisations s'équipent pour faire face aux vulnérabilités numériques.
- Mise en œuvre des technologies protectrices de la vie privée (PETs) : ce volet explore la façon dont des techniques telles que le chiffrement avancé, la (differential privacy) et les preuves à divulgation nulle de connaissance (zero-knowledge proofs) sont désormais intégrées dans les produits de grande consommation et les infrastructures. Les contributions peuvent analyser comment ces outils aident à répondre aux exigences du RGPD en réduisant nativement la collecte de données, en simplifiant les obligations administratives, en sécurisant les flux de données et, dans certains cas, en renforçant la compétitivité.
- Utilisabilité de la vie privée et de la sécurité (Usable Privacy and Security) : ce volet se concentre sur l'interface entre les outils et les utilisateurs, en s'appuyant sur la recherche en sciences sociales, le design et l'interaction homme-machine (IHM). L'enjeu est de comprendre la transition, souvent complexe, entre l'existence d'une solution technique (par exemple, les gestionnaires de mots de passe ou l'authentification à deux facteurs) et son adoption effective. Les travaux de recherche peuvent examiner les mécanismes de perception du risque, y compris les écarts entre les menaces réelles et les craintes exprimées par les utilisateurs.
Les questions clés incluent notamment :
- Comment les PETs émergentes concilient-elles une utilité élevée des données avec des garanties de sécurité robustes dans les produits commerciaux ?
- Dans quelle mesure les PETs peuvent-elles « automatiser » les exigences du RGPD (telles que la des données) et réduire la charge juridique pour les organisations ?
- Pourquoi existe-t-il un écart persistant entre la disponibilité des PETs et leur déploiement effectif ?
- En quoi les modèles mentaux et les « craintes exprimées » des utilisateurs diffèrent-ils des menaces techniques réelles, et comment cela influence-t-il leurs stratégies de défense ?
Prix CNIL–INRIA et Prix CNIL–EHESS
Cet appel s'accompagne d'appels à candidatures pour le Prix CNIL–Inria (sciences de l'informatique) et le Prix CNIL–EHESS (sciences sociales). Les candidatures à ces prix peuvent être déposées sur la plateforme de soumission du Privacy Research Day.
Lors de la soumission, les candidats peuvent en effet choisir de proposer également leur contribution pour l'un de ces prix, sous réserve de respecter les critères d'éligibilité (publication datant de moins de trois ans, rédigée en français ou en anglais, relevant des disciplines concernées, et impliquant un laboratoire situé dans l'Union européenne pour le prix CNIL–INRIA)
À la différence des contributions au Privacy Research Day, les lauréats des prix ne sont pas sélectionnés par les services de la CNIL mais par des jurys indépendants. Les critères de sélection portent sur la qualité scientifique globale, l'originalité, l'innovation, ainsi que la pertinence du sujet pour la CNIL et l'ensemble des parties prenantes — du grand public aux acteurs privés et publics — sur les questions de protection des données et de vie privée.
Le jour du Privacy Research Day, les lauréats seront invités sur scène pour recevoir leur prix des mains des représentants des institutions partenaires. Les gagnants pourront bénéficier d'une prise en charge de leurs frais de déplacement et d'hébergement pour l'évènement.
Date limite de soumission :
- Pour le Prix CNIL-EHESS : 22 mars 2026
- Pour le Prix CNIL-Inria : 20 février 2026
Plus d’information : privacyresearchday[@]cnil.fr