données inférées et consentement collectif

7 septembre 2018

Le 21 août dernier, j'étais invitée par Victoria de TTC Labs (une équipe de Facebook dont l'acronyme signifie Trust, Transparency and Control) à participer à un workshop sur le sujet très vaste de l'éducation aux données personnelles à Séoul, en Corée. Etant donné notre intérêt de très longue date pour ce sujet que nous avons déjà travaillé au sein du collectif BAM, notamment avec DataFiction, j'étais curieuse d'explorer le sujet de manière interdisciplinaire, cette fois-ci.

L'évènement rassemble en effet pendant une journée plus d'une cinquantaine de personnes, mélangeant des juristes coréens, des designers externes, des gens de facebook et l'équipe d'animation. Par équipe de 10 personnes, il nous est demandé d'explorer, proposer et prototyper une ébauche fonctionnelle. Le tout en une petite après-midi, la matinée étant dédiée à des exercices pratiques et des présentations courtes et efficaces sur le contexte juridique coréen. Dès le début de l'après-midi, mon équipe s'est entendue pour explorer deux sujets qui me semblent cruciaux et encore trop peu traités lorsque l'on parle de données personnelles.

Les données personnelles & inférées

Le premier, ce sont les données personnelles inférées par les algorithmes. En effet, lorsque l'on pense à la notion de données personnelles, on pense en général aux données de notre état civil, ou bien aux données que nous produisons nous mêmes, comme nos selfies ou autres commentaires. Mais lorsque l'on met en ligne une image sur facebook par exemple, plusieurs algorithmes vont analyser les images et inférer les personnes et les objets qui se trouvent sur cette image. Quel est le statut de ces données inférées qui nous sont attachées ? Au delà du débat juridique (qui a occupé pendant une bonne partie de l'après-midi les juristes de notre équipe), c'est aussi un des vrai angles morts de la politique de nos données personnelles. Car la plupart du temps, nous ne savons pas quelles sont ces données inférées et puisque nous ne les voyons pas, nous ne pouvons pas non plus les rectifier ou bien même les supprimer.

Au sein des grandes questions que soulèvent les données inférées, nous nous sommes concentrés sur le cas des algorithmes qui identifient objets et visages dans nos photos. Pour cela nous avons proposé une interaction qui, pendant les 2 ou 3 premières secondes après l'ajout d'une image, signifie qu'un algorithme s'aprête à analyser la photographie. En rendant visible et en ralentissant artificiellement un processus qui est normalement executé immédiatement et hors de notre portée, nous instaurons une fenêtre de temps pendant laquelle l'utilisatrice peut stopper le processus et ainsi éviter de voir sa photo analysée.

Bien entendu, cela ne doit pas dispenser du fait d'avoir le choix de refuser tout traitement automatique de ses photos dès le départ, mais cela permet de nuancer le consentement. En effet, ces données inférées peuvent (parfois) être très utiles, comme pour permettre la description automatique d'une image aux personnes malvoyantes qui utilisent des lecteurs d'écran. Cette approche permet de sortir du paradigme du consentement perpétuellement donné pour aller vers plus de granularité et permettre de refuser qu'un traitement algorithmique soit effectué sur une image ou un contenu en particulier.
Dans le cas où l'on souhaite effectuer un traitement algorithmique, alors les données inférées doivent être rendues perceptibles et praticables (pour reprendre les termes du collectif BAM).
Dans le cas où l'utilisatrice laisse la photo se faire analyser, elle peut alors accéder à “l'envers de l'image”, c'est à dire à l'ensemble des données inférées sous forme de tags. Elle peut alors en ajouter, en modifier ou bien encore en supprimer. Là encore, l'idée est de rendre perceptible et praticable ce nouveau type de données inférées.

La négociation d'un consentement collectif

La seconde proposition, plus expérimentale, portait sur la notion de consentement de groupe.
L'idée était de penser la politique des données personelles au delà de la personne, justement. Cela rejoint les réfléxions de certains penseurs et penseuses des communs qui nous rapellent “qu'il n’y a rien de plus collectif qu’une donnée personnelle” (Antonio Casilli et Paola Tubaro chez le toujours très juste Calimaq). Il devient alors intéressant de proposer une "négociation" à l'échelle du groupe plutôt que celui de la personne. Sans avoir le temps de véritablement explorer la question, nous avons tout de même tenu à proposer un système de négociation collectif des usages des données, à l'entrée d'un groupe. Et puis, poursuivant notre réflexion sur l'idée d'un consentement toujours révocable, nous avons proposé qu'il puisse être toujours possible de renégocier ces conditions au sein d'un groupe, à travers un système de vote.

Bien entendu, ces premières propositions ne remettent pas en question les questions plus larges que peuvent être la légitimité à inférer des données et ne remet pas encore vraiment en cause l'asymétrie qui existe entre les individus et les plateformes. Le travail du design se doit de se porter de ce coté là également. Pourtant, il me semble crucial de s'emparer de ces questions politiques, philosophiques et juridiques à travers le medium du design pour les confronter à la complexe matérialité de nos interactions.