DOSSIER : L’Intelligence Artificielle : Une intelligence sans foi ni loi ?

Lundi 27 mai 2019, par Furyo // L’actualité Sociale

 Nous sommes arrivés à une époque où notre réalité d’aujourd’hui rattrape l’imagination des auteurs de science-fiction des années 50.

C’est donc l’avènement de l’ère de la robotique et de l’Intelligence Artificielle, telle que l’avait imaginé Isaac Asimov, ou même dans ce qu’elle a de plus dangereux, Georges Orwell.

Or, entre les deux visions d’un futur possible, la première où les humains seraient débarrassés des tâches subalternes au profit des robots, et la seconde où la machine contrôlerait l’humain, il y a un choix à faire.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) ont déjà choisi quel serait notre avenir en la matière. Et celui-ci est plus proche de « Big Brother » décrit par Georges Orwell dans « 1984 », que de celui de « Sous les feux du Soleil » d’Isaac Asimov.

 Pourquoi une telle affirmation ?

Si l’Intelligence Artificielle est caractérisée, selon la définition la plus basique, par la capacité que peut avoir la machine à appendre par elle-même, pour un bon apprentissage, il faut deux éléments : un programme d’apprentissage et des connaissances à acquérir.

Si la machine est par définition neutre, le choix du programme d’apprentissage et des connaissances à acquérir sont loin de l’être. Et l’Histoire humaine est parcourue d’endoctrinements de tout genre qui ont formaté, et formatent encore des millions d’individus de par le monde.

Une entreprise du numérique, ou non, a pour premier but de faire des bénéfices. Les programmes d’apprentissage des Intelligences Artificielles doivent donc répondre à leurs attentes. Et l’une des principales actuellement est d’accumuler des données qui serviront à l’apprentissage de la machine mais aussi à modéliser des scenarii pour pouvoir nous vendre plus de produits ou de services, mais aussi de contrôler notre activité afin de l’orienter commercialement ou non.

Prenons l’exemple des assistants domestiques comme « Google Home ». Officiellement, leur rôle se borne à nos permettre d’effectuer des recherches d’informations sans avoir à saisir la question sur un quelconque terminal (smartphone, tablette ou ordinateur).

Officieusement, c’est surtout pour les GAFAM un excellent moyen de récupération de données personnelles (composition de la famille, classe d’âge, goûts, comportements et habitudes de vie, etc.) qui se monnayeront chèrement ou seront utilisées à des fins encore moins avouables, comme dans le cas de l’élection de Donald Trump, avec l’utilisation des données de Facebook par le société Cambridge Analytica, afin d’influencer le vote en faveur du candidat républicain.

Nous pouvons affirmer dès lors que la programmation de machines est donc orientée et conditionnée. Le souci est que l’on tend à nous faire croire que la réponse apportée par la machine est la vérité absolue.

En effet, « La machine ne peut se tromper » ,nous dit-on. Or si la machine ne peut pas se tromper, ce qui reste à prouver, ses réponses peuvent être manipulées et orientées. Exemple : le résultat d’une recherche sur un moteur de recherche. Ce qui apparaît en premier n’est pas la réponse la plus pertinente mais celle qui est payée pour être placée là, ou qui a généré un fort trafic sans aucune assurance que le contenu soit fiable.

 Les conséquences de tout cela ?

Comme l’affirme le philosophe Eric SADIN, l’Intelligence Artificielle, telle qu’elle est développée actuellement, est une « mise au ban de l’humain ». Petit à petit, les décisions humaines, forcément faillibles doivent laisser la place à celles de la machine. Pour exemple le numéro 1 mondial de la relation client, TELEPERFORMANCE, a mis en place un logiciel qui organise la journée des téléconseiller.ère.s de leur prise de poste à la fin de celle-ci, en imposant les prises de pause déjeuner ou physiologiques.

Dans cette situation, ce n’est plus l’humain qui dicte sa loi à la machine, mais le contraire. Ce risque est donc loin d’être hypothétique.

Combien d’outils de décision sont mis en place pour évaluer les performances des salarié.e.s ou d’entreprises, avec leur couperet inéluctable ?

Il est grand temps pour nous de reprendre la main sur la machine, et à l’instar des « 3 lois de la robotique »(*) instituées par Isaac Asimov, créer nos propres règles de limitation de la machine.

Source : Lien syndical de la Fédération CGT des Sociétés d’Etudes

(*) Exposées pour la première fois dans sa nouvelle « Cercle vicieux » (Runaround, 1942) mais annoncées dans quelques histoires plus anciennes, les lois sont :

  • un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  • un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Répondre à cet article