xanax ou lysanxia buy xanax xanax used for back pain

tramadol kvalme buy cheap tramadol does tramadol show up in a urine drug test

efficacitГ© du tramadol buy tramadol online no prescription overnight tramadol en insuficiencia renal

what is tramadol medication tramadol 50mg tramadol chicago

can you take valium and clonidine together diazepam 5mg valium fear of needles

does tramadol raise your heart rate tramadol generic trouble sleeping after taking tramadol

can i take benadryl with zoloft and xanax buy cheap xanax propofol and xanax interaction

soma tech solutions llc buy soma soma küpü nasıl yapılır

order ambien Chula Vista buy ambien online can i take zyrtec with ambien

tramadol and ciprofloxacin tramadol 50mg tramadol bloody stool

L’humain ne doit pas perdre le pouvoir […]

Isabelle Falque-Pierrotin Présidente, Commission nationale informatique et libertés

Publié le 13 Mar 2018

Titre complet de l’article paru dans Parole publique :

L’humain ne doit pas perdre le pouvoir face à l’intelligence artificielle

 

L’intelligence artificielle est le grand mythe de notre temps. L’un annonce la destruction en masse de nos emplois, un autre l’émergence apocalyptique d’une conscience robotique hostile, un troisième la ruine d’une Europe écrasée par la concurrence. D’autres nourrissent le rêve d’un monde sur mesure, d’un nouvel Âge d’or d’où toute tâche ingrate ou répétitive serait bannie et déléguée à des machines ; un Eden où des outils infaillibles auraient éradiqué la maladie et le crime voire le conflit politique, bref auraient aboli le mal.

Sous ses avatars tour à tour fascinants ou inquiétants, solaires ou chtoniens, l’intelligence artificielle dit sans doute plus de nos phantasmes et de nos angoisses que de notre monde demain. À considérer l’attrait de ce type de discours eschatologiques en Europe, on en vient à penser que la technique cristallise une puissance de projection dans l’avenir qui fait parfois défaut à nos imaginaires politiques.

La technique cristallise une puissance de projection dans l’avenir qui fait parfois défaut à nos imaginaires politiques.

Désamorcer ces présentations sensationnalistes des nouvelles technologies est une chose. Il ne s’agit pas pour autant d’ignorer que l’irruption dans nos vies quotidiennes de ces assistants d’un nouveau type génère des bouleversements et des défis. L’intelligence artificielle, rappelons-le, désigne principalement une nouvelle classe d’algorithmes : les instructions à exécuter sont générées par la machine elle-même, qui « apprend » à partir des données qui lui sont fournies. Ces algorithmes d’apprentissage accomplissent des tâches dont sont incapables les algorithmes classiques, reconnaître un objet donné sur de très vastes corpus d’images, par exemple. En revanche, leur logique sous-jacente reste incompréhensible et opaque y compris à ceux qui les construisent.

L’intelligence artificielle désigne une nouvelle classe d’algorithmes : les instructions à exécuter sont générées par la machine elle-même, qui apprend à partir des données fournies.

Préservation de l’autonomie de la décision humaine face à des machines parfois perçues comme infaillibles, détection de discriminations générées involontairement par des systèmes mouvants, sauvegarde de logiques collectives parfois érodées par la puissance de personnalisation du numérique : les enjeux, aux implications déjà tangibles, questionnent certains des grands pactes et des équilibres sur lesquels repose notre vie collective.

Établir de façon claire et lucide ces enjeux est le premier devoir de la puissance publique, la condition pour pouvoir proposer des réponses adaptées, pour intégrer l’innovation technologique à la construction d’une vision déterminée de notre avenir. C’était le sens de la création de la mission de réflexion sur les enjeux éthiques soulevés par les technologies numériques que la Loi pour une République numérique a confiée à la CNIL. Garante de principes éthiques fixés par le législateur il y a quarante ans, la CNIL a toute légitimité pour être le point focal de cette réflexion éthique du numérique. Mais il est impensable qu’elle se prévale d’un monopole. Elle a ainsi fait le choix de susciter une démarche collective, de partir des usages : de janvier à octobre 2017, 45 manifestations organisées dans toute la France avec 60 partenaires (associations, entreprises, administrations, syndicats, etc.) ont permis de recueillir les éléments qui ont alimenté les recommandations du rapport publié en décembre dernier*.

Algorithmes et IA peuvent susciter des biais, des déséquilibres, des discriminations voire des exclusions.

Face à des systèmes socio-techniques de plus en plus complexes et compartimentés, face aux impacts parfois difficilement prévisibles d’artefacts en évolution constante, cloisonner le débat à quelques cercles d’initiés, c’est prendre le risque de susciter méfiance et défiance. Faire de l’ensemble de nos concitoyens des utilisateurs éclairés et critiques des technologies est au contraire un impératif tout à la fois éthique, démocratique et pragmatique.

Car le défi collectif majeur est de faire en sorte que ces nouveaux outils soient à la main humaine, à son service, dans un rapport de transparence et de responsabilité. L’objectif est clair : permettre à la personne humaine de ne pas perdre la main.

L’autonomie croissante des machines, l’hybridation émergente entre humains et machines questionnent l’idée d’une spécificité humaine irréductible.

Le débat public a d’abord permis d’identifier six grandes problématiques éthiques.

  • La confiance accordée à des machines jugées souvent infaillibles et « neutres » ne risque-t-elle pas de générer la tentation de se décharger sur les machines de la fatigue d’exercer des responsabilités, de juger, de décider ?
  • Les algorithmes et l’intelligence artificielle peuvent susciter des biais, des discriminations, voire des exclusions. Le réel enjeu est le développement des algorithmes d’apprentissage à l’insu même de l’homme. Comment y faire face ?
  • Le profilage et la segmentation de plus en plus fine rendent des services à l’individu. Mais cette logique de personnalisation peut aussi affecter des logiques collectives essentielles à la vie de nos sociétés : pluralisme démocratique et culturel, mutualisation du risque.
  • Consciente des risques qu’implique pour les libertés individuelles et publiques la constitution de grands fichiers, la législation promeut une minimisation de la collecte et de la conservation de données personnelle. Mais l’intelligence artificielle, reposant sur l’apprentissage, nécessite d’énormes quantités de données. Les promesses de l’IA justifient-elles une révision de l’équilibre construit par le législateur ?
  • L’intelligence artificielle implique d’établir une attitude critique et de ne pas nourrir une confiance excessive dans la machine.
  • L’autonomie croissante des machines de même que l’émergence de formes d’hybridation entre humains et machines questionnent l’idée d’une spécificité humaine irréductible. Est-il possible de parler au sens propre d’éthique des algorithmes ? Comment appréhender les robots humanoïdes, objets mais susceptibles de susciter chez l’homme des formes d’affects et d’attachement ?

À l’issue du débat, les recommandations ont été formulées de façon très large : les défis complexes soulevés par les algorithmes appellent une mobilisation, une attention et un questionnement de la part de l’ensemble de la société civile, citoyens, entreprises, associations. La plupart des recommandations peuvent ainsi donner lieu aussi bien à une traduction juridique contraignante qu’à une appropriation volontaire de la part des acteurs, plusieurs degrés étant envisageables entre ces deux extrêmes.

Deux principes de régulation, la loyauté et la vigilance, pourraient s’inscrire dans une nouvelle génération de droits de l’homme numériques, les droits-système.

Pour construire une intelligence artificielle au service de l’homme, le débat public a fait ressortir deux principes fondateurs de la régulation de ces assistants complexes que sont les algorithmes et l’IA. Le principe de loyauté des algorithmes vise à ce que l’outil algorithmique, qu’il traite ou non des données personnelles, intègre une dimension de loyauté envers les utilisateurs, en tant que consommateurs mais aussi en tant que citoyens, voire envers des communautés dont l’existence pourrait être affectée par des algorithmes.

Le principe de vigilance/réflexivité vise à répondre dans le temps au caractère instable et imprévisible des algorithmes à l’ère de l’apprentissage automatique, à contrebalancer le biais cognitif conduisant l’esprit humain à accorder une confiance excessive aux décrets des algorithmes : à l’égard de ces objets socio-techniques complexes et mouvants que sont les systèmes ou chaînes algorithmiques, l’objectif est d’organiser l’état de veille permanente de nos sociétés, un questionnement régulier, méthodique, délibératif et fécond de la part de tous les acteurs de la chaine algorithmique, du concepteur à l’utilisateur final.

Ces deux principes permettent le développement des algorithmes et de l’IA tout en intégrant leur mise sous contrôle par la communauté. Surtout, par la démarche universelle dont ils procèdent, ils pourraient bien s’inscrire dans une nouvelle génération de principes et de droits de l’homme : après les droits-libertés, les droits patrimoniaux et les droits sociaux, les droits-système organiseraient la dimension sous-jacente à notre univers numérique. À l’heure où se construisent les positions française et européenne sur l’intelligence artificielle, la question mérite d’être posée.

_______________________________________

* Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. CNIL 15 décembre 2017

VotreParole !

Une proposition d’initiative, une idée originale à partager, un projet à faire connaître, ou bien même un sujet pour la revue Parole publique : dites-nous et nous vous contacterons.

Écrivez-nous
Cancel