Appel à contributions pluridisciplinaires (informatique, sciences sociales, design, droit et économie) - Privacy Research Day le 4 juin 2024 à Paris

05 février 2024

Dans le cadre de la troisième édition du Privacy Research Day, la CNIL invite la communauté scientifique internationale à effectuer des présentations de publications académiques et de projets de recherche en informatique, en sciences sociales, en droit et en économie, sur le thème de la protection de la vie privée et des données personnelles.

Contexte

Le Privacy Research Day est une journée interdisciplinaire (sciences sociales, droit, informatique, design, économie, etc.) s'adressant à un large public familiarisé avec la protection de la vie privée et des données. L'objectif est de :

  • stimuler la collaboration interdisciplinaire entre experts juridiques, informaticiens, designers et chercheurs en sciences sociales ;
  • créer des ponts entre le monde de la régulation et le champ académique, permettant de conduire une action scientifiquement fondée ;
  • valoriser des travaux de recherches ayant un fort impact sur la protection des données et leurs régulations.

Plusieurs types de contributions peuvent être soumises :

  • des articles de recherche récemment publiés dans des conférences ou revues internationales à comité de lecture ;
  • pour les contributions en sciences sociales, design et droit, des résultats d’enquête en cours ;
  • des projets de recherche à un stade avancé ou en voie d'achèvement.

Appel à contributions

Les propositions de communications seront évaluées par les experts de la CNIL, sur la base d'une appréciation de la qualité des soumissions, de leur pertinence par rapport aux travaux de la CNIL, et de la nécessité de couvrir un éventail diversifié de sujets représentant une variété de points de vue.

Les contributions sont à déposer sur cette page.

Calendrier

  • Date limite de soumission : 8 mars 2024
  • Notification aux chercheurs : 19 avril 2024
  • Confirmation de la présentation : 26 avril 2024
  • Soumission de tous les documents : 24 mai 2024
  • Conférence : 4 juin 2024

Thématiques de recherche privilégiées (liste non exhaustive)

  1. Protection des personnes vulnérables (mineurs, séniors, personnes empêchées, etc.)

Différents types d’usagers peuvent être qualifiés de vulnérables du fait de leur situation personnelle ou professionnelle.

  • Comment les travaux en sciences sociales, en design et en droit appréhendent-ils cette diversité et mieux protéger ces publics ? Quelle est la spécificité associée à chaque type de vulnérabilité ou de public vulnérable ?
  • Comment la recherche en science informatique peut-elle participer à mettre les technologies et la régulation à leur service ? Comment détecter les pratiques qui ciblent uniquement certains types d’usagers ?

Une attention particulière sera donnée aux travaux portant sur la protection des mineurs, des séniors ou des publics perçus comme « éloignés » ou « empêchés ».

  1. Interface, design et droit à l’information

L’impact de l’information et du design est de plus en plus consacré dans la régulation, et interroge le contenu des informations à fournir à propos de traitements de données complexes ou opaques, mais également la façon de les fournir.

  • Comment les travaux en science informatique peuvent-ils participer à identifier la mise en œuvre de méthodes limitant le choix et l’information des personnes ?
  • Comment la recherche en design, en sciences cognitives, ou en économie comportementale peut-elle aider à informer les utilisateurs sur les bonnes pratiques et les orienter vers les acteurs les plus vertueux ?
  • Comment transcrire en droit les résultats et preuves apportées par ces différentes disciplines ?
  1. Cybersécurité et technologies de protection de vie privée

Les cyberattaques visent de plus en plus souvent à accéder à des données personnelles.

  • Quels risques et opportunités créent les IA générative notamment, via l’automatisation de certaines tâches et la création de contenus ? Les travaux en science informatique nous permettent-ils d’identifier les mesures les plus efficaces pour détecter et répondre à ce type d’attaque ? Quels sont les nouveaux vecteurs d’attaques permettant de voler des données ? Quelles sources de données sont utilisées pour améliorer les attaques ?
  • Les travaux en sciences sociales et design nous informent-ils sur les représentations des utilisateurs vis-à-vis de ces nouveaux risques ainsi que sur les façons de sensibiliser les utilisateurs ? 
  1. Effectivité de la régulation et études comparatives

Vérifier l’effectivité d’une politique est un problème historique de l’action publique. Il se pose ici avec d’autant plus de vigueur que les moyens du régulateur sont parfois contraints et que le citoyen est en demande de résultats.

  • Comment les travaux en sciences sociales (science politique, sociologie, économie) peuvent-ils nous permettre d’appréhender l’efficacité d’une régulation, à partir de quels facteurs ou indicateurs ? Comment s’intègrent les différentes composantes de la régulation (accompagnement, sensibilisation, dissuasion, intérêts économiques), ainsi que les différents acteurs (ONG, gouvernement, plateformes, intermédiaires, etc.) dans la mise en conformité ? Les autorités de protection des données produisent elles-mêmes des travaux en économie comportementale, en sociologie ou en design : quels enseignements ont pu en être tirés ?
  • Quels outils tirés des sciences informatiques permettraient de suivre les évolutions et de mesures les impacts ?

Seront particulièrement bienvenues les analyses comparatives de la régulation entre pays ou législations ou un suivi des évolutions.

  1. Intelligence artificielle, faire mieux avec moins

La frugalité apparaît comme un tabou dans le domaine des technologies d’intelligence artificielle.

La recherche en informatique peut-elle nous aider à concilier performance et minimisation, grâce à l’ablation des données d’entraînement (data/dataset pruning), par exemple ? Peut-elle également nous orienter vers les typologies de systèmes d’IA à promouvoir pour un traitement raisonné des données (systèmes embarqué, edge computing, exploration et mise en perspective des alternatives aux modèles statistiques centralisés) ? 

  1. Explicabilité et transparence des IAs

Les algorithmes d'IA sont souvent complexes et non linéaires, rendant difficile la compréhension de leurs décisions et posant des problèmes de confiance, de responsabilité et d’éthique.

  • Comment les travaux en sciences sociales peuvent-ils nous aider appréhender les rôles joués par les différents maillons de la chaine de la création de l’IA (concepteur, annotateur, utilisateurs) ? Comment se répartissent les responsabilités et les valeurs ?
  • Les travaux en design et en informatique peuvent-ils nous outiller pour expliquer, décrire, voire auditer, au mieux les systèmes d’IA ?
  • Comment la recherche en droit peut-elle accompagner un meilleur exercice des droits des personnes (accès, suppression) sans empêcher le développement de ces technologies ?
  1. Les technologies nées de la régulation

Le RGPD et maintenant le règlement sur les services numériques (DSA) et le règlement sur les marchés numériques (DMA) ont un impact significatif sur le développement de nouveaux services et de nouvelles technologies.

  • La recherche en informatique nous permet-elle d’identifier quelles technologies améliorant la confidentialité (Privacy Enhancing Technologies), ou toute autre technologie ayant un impact sur le traitement des données, permettent de mieux se conformer aux régulations ? Quels outils sont, au contraire, développée pour contourner les régulations ? 
  • Comment les sciences sociales peuvent-elles nous permettre de comprendre pourquoi ces technologies sont (ou ne sont pas) adoptées ? Comment expliquer les effets des technologies sur l’effectivité de la régulation, la mise en conformité et les responsabilités des acteurs ? Quelles stratégies, pratiques ou argumentaires émergent à ce moment-là ?
  1. Identifier, reconnaitre, contrôler les personnes : les risques de détournements des technologies protectrices

Le contrôle de l’âge, la protection des mineurs et lutte contre la fraude incite au déploiement de solutions de vérifications d’âge ou de détections de contenus. Certaines de ces solutions pourraient être détournés à des fins abusives, telles que la surveillance de masse ou la discrimination, ou contrôlés par des attaquants.

  • Comment la recherche en droit peut-elle aider à une utilisation de ces technologies qui soit efficace, responsable et conforme aux droits et aux attentes des personnes ?
  • La science informatique propose-t-elle des solutions permettent de limiter ces risques ?
  • Qu’est-ce que les travaux en sciences sociales nous disent sur les enjeux du déploiement accru de ces technologies ? Comment nous permettent-elles de mieux informer les personnes et les organisations sur les risques associés ?
  1. Surveillances interpersonnelles

Le déploiement de nouvelles technologies et services, accessibles au grand public (réseaux sociaux, caméras, balise de géolocalisation) renouvelle la question des différentes formes de surveillance non-descendantes et de contrôle entre pairs, amis, famille, collègue, conjoints…. 

  • Comment les sciences sociales nous permettent-elles d’appréhender ces formes de surveillance, et les risques qu’elles posent (harcèlement, emprise, manipulation, violence) ? Quel est le rôle des normes sociales dans l’utilisation, voire le détournement, de ces outils ?
  • Comment le droit peut-il aider à définir le rôle des pouvoirs publics, et du régulateur, en matière de sensibilisation, de contrôle et de sanction sur ces questions ?
  • Des outils issus de le recherche en science informatique permettent-ils de limiter les risques de surveillance interpersonnelle ?
  1. Les coûts et bénéfices économiques de la conformité au RGPD

Les études d’impact économiques ont jusqu’ici documenté les coûts de la conformité, mais peu les bénéfices que cette conformité peut apporter d’un point de vue économique. Les régulateurs ont besoin de plus d’éclairages sur ces bénéfices (nature, quantification, répartition dans l’économie) pour orienter leurs politiques et développer des outils de conformité adaptés.

Comment la recherche en sciences sociales, en particulier en économie, nous permet-elle d’appréhender les arbitrages entre le coût d’opportunité de la non-conformité et ses éventuels bénéfices économiques ? Quel rôle joue la confiance dans l’économie numérique, d’un point de vue micro comme macro, pour le développement des marchés et l’innovation ?

Contact

Pour toute question : privacyresearchday@cnil.fr