fotos robinson club soma bay order soma soma'da soner emlak

the best way to get off of xanax generic xanax xanax ravimid

tramadol and other opiates order tramadol overnight tramadol hjärtklappning

can you use tramadol with suboxone tramadol 50 melange tramadol et ibuprofene

tramadol and dexamethasone in dogs tramadol 50mg tramadol better than hydrocodone

how long can side effects of ambien last buy ambien online can i take ambien with cymbalta

phentermine during breastfeeding buy adipex online is phentermine supposed to give you energy

valium working out valium online no prescription buy valium St. Petersburg

percocet after tramadol tramadol 50 mg efeitos do cloridrato de tramadol

xanax vs ambien high alprazolam price is it safe to take cold medicine with xanax

Dominique Cardon.

ALGORITHMES : REPRENDRE LA MAIN*

Dominique Cardon sociologue, Laboratoire des usages, Orange Labs, professeur associé, Université de Marne-la-Vallée

Publié le 11 Avr 2016
Couverture de la revue Parole publique n°11 - avril 2016.

*Titre complet de l’article paru dans la Parole publique :

« REPRENDRE LA MAIN SUR LES ALGORITHMES »

En opérant des calculs dans des domaines aussi variés que la culture, les transports, la finance, la santé et même l’amour, les algorithmes sont entrés dans notre quotidien : ils enlèvent les spams des boîtes mails, hiérarchisent l’information sur Google, font des recommandations, guident nos déplacements et personnalisent la publicité.

Les calculs prétendent décrire la société à partir des comportements, sans recours à des modèles ou à des catégorisations préalables du type CSP. Qui fabrique ces algorithmes ?

Il y a donc du calcul partout. L’omniprésence des chiffres et des indicateurs n’est pas nouvelle. Mais avec l’extension des traces numériques, les nouveaux calculs étendent leur emprise et surtout prétendent représenter la société d’une façon différente. Qui fabrique ces algorithmes ? Les informaticiens, les data scientists et les intérêts des plateformes qui les emploient. Même si les algorithmes ne sont pas les simples reflets des intérêts économiques de la Silicon Valley. Comme toute entité technique, ils construisent des formes, déploient des représentations statistiques de la société. Ils cherchent à organiser le monde d’une certaine façon. C’est en essayant de comprendre la diversité de leurs projets que l’on peut à la fois les apprivoiser et les critiquer.

Guide sans obliger, gouverner les conduites par la liberté et l’autonomie.

Quatre familles d’algorithmes

On peut identifier quatre familles de calculs destinés à classer l’information numérique, selon la place qu’occupe le calculateur par rapport au monde qu’il entend décrire : à côté, au-dessus, dans ou en-dessous des données numériques. 

  • Le monde de la popularité est celui des mesures d’audience qui dénombrent les clics des internautes et ordonnent la popularité des sites. Derrière cette représentation du public, on retrouve la représentation traditionnelle du public des médias ou des électeurs.
  • La famille de mesures issue du PageRank, l’algorithme de classement de l’information de Google, voudrait se situer au-dessus du Web, afin de hiérarchiser l’autorité des sites au moyen des liens hypertextes qu’ils s’échangent. C’est une mesure méritocratique, qui prétend isoler les excellents des médiocres à partir du jugement des autres.
  • La troisième famille correspond aux mesures de réputation qui se sont développées avec les réseaux sociaux et les sites de notations. Elle se positionne à l’intérieur du Web afin de donner aux internautes des compteurs qui valorisent la réputation des personnes et des produits. Cela donne des statistiques typiques du benchmark dans lesquelles internautes agissent réflexivement en fonction de la mesure qui leur est proposée pour se vendre, se promouvoir, être visible.
  • Enfin, les mesures prédictives, destinées à personnaliser les informations présentées à l’utilisateur, déploient des méthodes statistiques d’apprentissage pour calculer les traces de navigation des internautes et leur prédire leur comportement.

En entrant dans les algorithmes, quel monde voulons-nous voir ? Les choix qu’ils font pour nous doivent être discutés.

Les mondes de la popularité, de l’autorité, de la réputation ou de la prédiction comportementale ne sont pas du tout les mêmes. En entrant dans les algorithmes, quel monde voulons-nous voir ? Ce que tout le monde voit ? Ce que les plus experts ont jugé important ? Ce que voient nos amis ? Ce qui correspond à nos pratiques passées ? Dès qu’on ouvre la boîte noire des algorithmes, on se rend compte que les choix qu’ils font pour nous doivent être discutés parce qu’ils proposent des visions différentes de la société.

Mais cette nouvelle gouvernementalité algorithmique n’est ni censure ni enfermement, elle installe un environnement qui guide sans obliger. Il s’agit de gouverner les conduites mais par la liberté et l’autonomie, comme Michel Foucault le notait à propos du néolibéralisme. Les nouvelles techniques d’apprentissage, qui se développent à grande vitesse dans le monde des big data, calculent les individus en fonction de leurs comportements passés.

En calculant nos traces, les algorithmes reproduisent les inégalités de ressources entre les individus.

Si les personnes ont des comportements monotones, si leurs amis ont tous les mêmes idées et les mêmes goûts, si elles suivent toujours le même trajet, alors les calculateurs les enferment dans leur régularité. Si on n’écoute que Lady Gaga, on n’aura que Lady Gaga ! Si l’internaute fait montre de comportements plus divers, fréquente des chemins inattendus et des réseaux sociaux hétérogènes, alors les algorithmes vont élargir les choix et, parfois, faire découvrir des horizons nouveaux. En calculant nos traces, les algorithmes reproduisent en fait les inégalités de ressources entre les individus. 

Calculs contre calculs

Dans un monde de plus en plus horizontal, ouvert et individué, les calculs des big data prétendent décrire la société par le bas, à partir des comportements, sans avoir recours à des modèles ou à des catégorisations préalables du type CSP. Il y a le projet, d’inspiration libertaire ou libertarienne, de rendre la représentation de la société plus conforme à la libre auto-organisation des individus, des actions et des marchés que ne le ferait une régulation paternaliste, par le haut, avec des cadres, des catégories, des conventions : en calculant bien, avec les bonnes données, le gouvernement serait moins injuste, moins paternaliste, parce qu’il aurait compris la société à partir des actions des individus… C’est un mythe. Qu’il faut démystifier.

La meilleure arme est d’opposer aux calculs d’autres calculs, de mettre en avant une autre définition de notre intérêt par rapport au service que ces algorithmes rendent, pour les obliger à calculer autrement. Il faut de la rétro-ingénierie, de la recherche, s’appuyer sur l’État, sur le droit, sur les autorités, pour s’opposer à des calculs déloyaux et potentiellement néfastes : en calculant par le bas, sans catégories, on fabrique aussi du racisme, du sexisme ou de la discrimination. 

Mettre en avant une autre définition de notre intérêt par rapport au service que les algorithmes rendent, pour les obliger à calculer autrement.

Si on ne peut pas demander à un algorithme d’être neutre, on doit exiger qu’il soit loyal. Or, on peut présumer que certains calculs ne sont pas loyaux, qu’il y a un désajustement entre ce que la plateforme dit faire et ce qu’elle fait effectivement. En Europe, on reproche à Google de privilégier ses propres services dans ses résultats de recherche. Encore faut-il le prouver. Et, pour cela, que chercheurs et société civile créent des instruments de vérification et de contrôle. On peut s’interroger aussi sur le véritable objectif que Facebook a donné aux réglages de l’algorithme de son fil d’actualité : faire cliquer l’utilisateur sur des sites partenaires ou mesurer le temps qu’on passe sur le réseau social ?

Ne pas laisser les algorithmes étendre leur empire sans les socialiser et les introduire dans le débat public.

Le manque de vigilance ouvre la porte à des scandales type Volkswagen… Pour que nos sociétés maîtrisent les entités techniques qu’elles fabriquent, il faut encourager la recherche publique, les associations et favoriser le développement d’une culture numérique. Car nous devrons vivre avec les algorithmes : il est difficile d’imaginer un monde d’abondance informationnelle sans outils pour nous guider. Depuis très longtemps, nous nous sommes entourés de technologies cognitives comme le livre, le tableau comptable, la représentation statistique, etc. Les algorithmes constituent une nouvelle génération d’artefacts dans un monde où l’accès aux informations connaît une incroyable explosion. Il est d’autant plus important de ne pas les laisser étendre leur empire sans les socialiser et les introduire dans le débat public. Il faut reprendre la main en développant une culture critique de ces outils, pour anticiper, ajuster nos comportements en connaissant ce qu’ils font et la manière dont ils procèdent. Comprendre les algorithmes, les décoder, jouer avec eux, les régler de façon différente : il faut retrouver prise sur nos données et sur la manière dont nous sommes calculés.

VotreParole !

Une proposition d’initiative, une idée originale à partager, un projet à faire connaître, ou bien même un sujet pour la revue Parole publique : dites-nous et nous vous contacterons.

Écrivez-nous