Ethique et moral

L’éthique et la morale autour de l’Intelligence Artificielle

Le développement de l’Intelligence Artificielle pose des problèmes d’ordre éthique, philosophique et moral dans plusieurs domaines. Des craintes peu futuristes existent au sujet notamment de la manipulation des données personnelles ou de l’usage des machines à des fins militaires ou professionnelles mais le mouvement semble irrémédiablement en marche.

Le génial Ray Kurzweil (qui a, lui aussi, rejoint récemment Google pour y travailler sur le TALN…), inventeur hors pair en reconnaissance d’images et en traitement de signaux sonores (reco vocale et synthétiseur de vrais instruments, du même nom) a souligné les dangers de la technologie tout en expliquant que le progrès ne pouvait être arrêté et que toute tentative de le faire ne ferait que retarder les progrès des technologies de défense face aux technos malveillantes, augmentant ainsi le danger. Ceci donne un éclairage intéressant sur la lecture des problématiques éthiques en matière d’IA : certes le progrès est dangereux mais à l’inéluctable progrès malveillant doit faire face le progrès vertueux à même, lui, de nous défendre au besoin.

Même s’il est trop tôt pour le dire, l’aspect apparemment immatériel du digital et du numérique (l’algorithmique n’étant que lignes de texte) tend à faire oublier que « l’inéluctable » s’affranchit peut-être un peu trop vite des considérations matérielles physiques. En effet, le progrès technologique hardware n’est pas nécessairement seulement exponentiel comme les alarmistes voudraient le donner à penser.

Le cofondateur d’Intel, Gordon Moore a déclaré dès 1965 que le nombre de transistors par circuit de même taille (donc la puissance des ordinateurs) allait doubler tous les 18 mois et sa vision s’est avérée correcte jusqu’à nos jours. Mais ce même Gordon Moore a également prédit en 1997 que cette évolution plafonnerait vers 2017 pour des raisons physiques liées à la taille des atomes.

Ces considérations matérielles ou de capacité de développement statistique ne peuvent à elles-seules empêcher que les sujets éthiques soient préemptés le plus tôt possible par les responsables de tous ordres (chercheurs, politiques, investisseurs, etc…) et comme le pensent certains : si nous avons de l’avance pour anticiper sur ces questions morales, profitons-en pour nous les poser correctement et pour y répondre avec justesse et discernement.

Les craintes

La question de la vie privée ou des données personnelles

Les données sont le cœur de l’IA. Sans connaissances ingérée, point d’IA.

En matière d’usage d’intelligence artificielle en marketing prédictif B to C, on ne peut pas parler de données sans faire allusion aux informations personnelles. Les assistants numériques ont besoin d’accéder à un maximum de données sur la vie des populations pour fonctionner correctement, reconnaît Rand Hindi, entrepreneur et membre du Conseil National du Numérique.

Pour que l’IA puisse vous proposer des produits ou services en parfaite adéquation avec vos goûts, vos envies, vos besoins, elle a besoin de les connaître, de stocker ces informations, de les décortiquer, afin qu’un moteur de recommandation vous soumette des propositions. C’est ainsi qu’Uber travaille au tracking de vos déplacements ou à la durée de vos réunions pour qu’à terme un chauffeur vous attende ….sans même que vous ayez eu à le commander ! Ceci peut s’avérer effrayant : la machine pourra savoir que vous voudrez un taxi alors même que vous ne vous étiez pas vous-même posé la question.

Craintes
Craintes

Bien sûr, il reste possible, sur le papier de travailler sur des données anonymisées pour se mettre en conformité avec la CNI mais l’usage de données personnelles à des fins marketing soulève un autre problème philosophiquement dérangeant. Le fait que Netflix sache par exemple proposer des séries en fonction de celles que vous avez précédemment aimé est effrayant : ce faisant nous nous rendons bien compte d’une réalité, celle de la clusterisation possible des humains. La machine nous renvoie ainsi le reflet de ce que nous sommes vraiment, des êtres relativement prévisibles et segmentables. Nous le savions d’une certaine façon puisque depuis des années les marques ciblent leur clientèle en fonction de groupes (d’âge, catégories socio professionnelles, etc) mais cela nous gênait moins lorsque notre individu se fondait dans une masse.

Aujourd’hui, notre individu peut être logé dans une case et ce sentiment nous est très désagréable.

Chaque achat sur Internet, une requête sur un moteur de recherche, une action de géolocalisation sur un Smartphone, l’utilisation d’une carte de transport ou de crédit laisse des traces. Une importante quantité d’informations personnelle est collectée sur les habitudes de consommation, les goûts, les déplacements ou les opinions des utilisateurs.

Ces informations et données personnelles sont hautement exploitables et monnayables. Elles échappent de plus en plus aux citoyens au profit des entreprises.

On craint en outre que les chatbots comme Alexa d’Amazon enregistrent les conversations avec leurs interlocuteurs à leur insu.

Tout ceci doit interpeler les utilisateurs qui ne doivent pas laisser leur vie privée à l’abandon sur la jungle du cloud. Le traitement spécifique de ces données au local, sur la machine, pourrait s’avérer un premier pas d’amélioration même si aucune garantie de nous protège véritablement de l’aspiration de nos données par les éditeurs.

L’avenir de l’emploi

L’intelligence Artificielle est devenue un enjeu business pour de nombreuses sociétés précurseurs, ce qui a pour conséquence – dans un imaginaire plus si imaginaire que cela – la destruction potentielle de plus en plus importante de certains emplois.

Comme souvent en matière d’emploi, les entreprises sont rattrapées par les sirènes du progrès lorsqu’il promet à la fois un gain de chiffre d’affaires (ou de productivité) d’un côté et un allègement des coûts de l’autre, c’est-à-dire un allègement potentiel de la masse salariale (l’un des plus gros postes de charge dans un compte d’exploitation).

Le robot ne connaissant pas les 35h, il est sur le papier plus corvéable. Premier atout. Il n’entraine pas de versement de charges sociales. Second atout. Pire, il est potentiellement plus aidé/subventionné via les aides à l’innovation (CRI, BPI, JEI…).

Il n’augmente pas les effectifs déclenchant les seuils de création d’instances représentatives du personnel qui affolent les patrons.

Les avocats de la robotisation par l’IA clament haut et fort que les tâches ayant le moins de valeur ajoutée seront remplacées par des machines, ce qui permettra d’allouer des ressources à la création de plus de valeur. Ce qui est vrai. Pour autant, nombreux sont les hommes et les femmes employés à des tâches répétitives dans tous les secteurs d’activités : personnels aux comptoirs dont 90% des tâches sont les mêmes d’une journée à l’autre, personnels répondants en direct ou au téléphone à des questions (SAV, demandes de renseignements, etc…) dont le contenu est au moins 80% du temps le même…

Avenir de l'emploi
Robot

Ce sont des centaines de milliers d’emploi qui pourraient venir à disparaître, notamment en back-office où le contact avec un « humain » ne fait pas partie des premières attentes citées spontanément par les tiers (comme c’est au contraire le cas avec des clients finaux dans le commerce physique par exemple). L’automatisation de la saisine de factures développée par un IA d’Accenture est à ce titre effrayante : là où 20 comptables saisissait les factures, il ne suffira plus que d’un ou deux superviseurs pour contrôler la machine. En effet, un système de reconnaissance d’image peut parcourir un document papier pour le transformer en texte, le structurer afin de saisir automatiquement les champs dans un progiciel tel que SAP. En sortie, un chat bot pourra bientôt répondre très facilement à un fournisseur désireux de savoir où en est le règlement de sa facture.

Encore une fois, comme le disait Laurent Alexandre, si l’équation IA+homme = IA seule, l’humanité a deux choix potentiels : être totalement dépassée et c’est très inquiétant ou monter urgemment en compétence.

Il est en outre unanimement reconnu que ce chômage potentiel ne touchera pas seulement les ouvriers, l’automatisation des taches n’épargnera pas non plus les cols blancs.

On peut évoquer pour s’en convaincre le cas des emplois supprimés par Fukoku Mutual avec IBM Watson. La compagnie d’assurance japonaise a remplacé 30% de ses employés par la technologie d’IBM.

Watson sera utilisé pour déterminer le montant de l’indemnité pour chaque demande à partir de certains critères tels que les antécédents médicaux de l’assuré, les opérations subies, le diagnostic et les ordonnances du médecin, etc. La machine sera capable de trouver les clauses spéciales des contrats d’assurance des clients pour éviter les oublis de paiement.

Ce cas pourrait se multiplier au Japon et ailleurs dans le monde. La société Fukoku Mutual Life Insurance Co compte également remplacer près de 30% de son personnel du département des évaluations des paiements par l’informatique cognitive d’IBM Watson, soit environ 40 employés sur 131 collaborateurs.

Ironie du sort, ce sont les services RH qui font en ce moment même entrer le loup dans la bergerie : les robots conversationnels commencent déjà à soulager certains départements Ressources Humaines de taches rébarbatives ou répétitives (exemple : Sopra RH/living actor pour PSA). Les salariés peuvent ainsi trouver un interlocuteur RH 24/24 7/7 à même de leur fournir divers docs administratifs ou de les renseigner, les cadres des conseils en situations managériales, etc…

Les visées militaires de l’IA

Faut-il interdir les robots tueurs, ces armes autonomes capables de fonctionner sans intervention humaine ?

Les programmes militaires (en tout premier lieu la DARPA aux USA) se sont évidemment intéressés très tôt aux armes capables de fonctionner seules et dans un but originellement assez louable d’ailleurs : protéger du feux ses propres soldats. Ce sont ces organisations qui ont, les premières, développé ces nouveaux outils pour leur propre compte (on peut également penser, en vrac, au GPS, à internet, etc…).

Aussi, dans les années 60, de vastes programmes gouvernementaux ont été des investisseurs phares (avant certaines désillusions) et ce, dès les premières heures de l’IA.

Aujourd’hui, les dépôts de brevets en France sont d’ailleurs passés au peigne fin par le ministère de la défense pour que ce dernier ne passe pas à côté d’usage militaires premiers (ce fut le cas par exemple de l’exosquelette destiné à aider les combattants à porter des charges extrêmement lourdes avec plus d’aisance).

Des projets de défense militaire couplés à l’IA fourmillent partout dans le monde avec les dérapages que cela peut engendrer sur l’humanité. L’utilisation des drones pour détruire des cibles ennemies est déjà vivement critiquée et gardée relativement secrète.

L’US Army développe en ce moment une multitude d’exo-squelettes, de robots et de drones dont certains pourraient être équipés d’armes létales.

L’entreprise israélienne General Robotics, spécialisée dans le développement de systèmes autonomes, a mis au point Dogo, un robot autonome équipé d’un pistolet de type Glock de calibre 9 mm. Il peut lancer des gaz lacrymogènes comme des grenades aveuglantes, recevoir des ordres par la simple parole et servir de relais de négociation lors d’une prise d’otages. A partir de ce genre d’exemples, les fantasmes vont bon train quant au risque d’une supre-intelligence échappant à la maîtrise des humains (par auto programmation par exemple) et qui pourrait prendre le contrôle de cette armée automatisée à distance.

Le robot militaire SGR-A1, construit par Samsung, peut déceler de jour comme de nuit les mouvements d’un intrus sur un rayon de 4 kilomètres, grâce à son logiciel de «  tracking  ». Cet automate pour poste-frontière tire de façon indépendante sur toute personne ou véhicule qui s’approche.
«  Il faut un homme pour décider d’arrêter le tir et pour faire des prisonniers, pour reconnaître un soldat portant un drapeau blanc, pour évaluer si la riposte est équilibrée  », affirme un responsable de Human Rights Watch.

Un robot sentinelle comme SGR-A1 est incapable de faire ces choix. Il ne peut pas distinguer les civils des militaires, ni procéder à une évaluation pour apporter une riposte proportionnée par rapport aux menaces. C’est donc à juste titre que surgit la polémique quand apparait un robot muni d’armes.

Depuis 2012, cette tendance est régulièrement dénoncée par une cinquantaine d’ONG coordonnées par Human Rights Watch. Ce groupe s’est fait entendre dans le cadre de la campagne internationale «  Stop Killer Robots  » (Arrêtez les robots tueurs).

Le mouvement de protestation a été relancé à travers une lettre ouverte qui avait largement circulé pour faire interdire ces robot-tueurs. La pétition a été signée par d’éminents chercheurs et scientifiques en robotique du champ universitaire, de la Silicon Valley et de l’industrie high-tech. On peut citer le physicien Stephen Hawking, le PDG de Tesla Motors Elon Musk, Steve Wozniak, cofondateur d’Apple, Demis Hassabis, l’ingénieur en charge du projet AlphaGo de Google et le linguiste Noam Chomsky.

Hélicoptères miniatures Stuart Russell, spécialiste américain de l’intelligence artificielle (IA), prévient que ces armes vont être améliorées et développées très rapidement. Il assure qu’aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa) portent sur des hélicoptères miniatures capables de se diriger seuls dans des bâtiments ou endroits où toute information est brouillée. L’armement de ces robots pourrait selon lui avoir la taille d’insectes, rappelant le film Minority Report de Steven Spielberg.

Un rapport du spécialiste précise également que d’ici à vingt ans, des essaims de giravions miniatures pourront être réalisés. Ils seront équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes hypersoniques mortelles. Russell ajoute que ces armes pourraient fonctionner avec «  une létalité comparable à celle des armes nucléaires  », imparable pour les humains.

La singularité technologique

Si la machine peut apprendre, elle pourrait théoriquement être capable dans le futur de refaire elle-même son propre code, ce qui entrainerait une opacité à toute tentative d’intrusion humaine. Ne riez pas, même si pour l’instant la seule machine développée en ce sens n’a pu rédiger (en les copiant ailleurs via du machine learning) que 5 lignes de codes basiques, nous ne sommes pas dans de la totale fiction. Cette phase conduirait à la singularité technologique, un événement hypothétique lié à l’avènement d’une véritable Intelligence Artificielle.

Ainsi un ordinateur, un réseau informatique ou un robot pourraient théoriquement enclencher une auto-amélioration récursive (processus de perfectionnement auto-généré) ou concevoir et fabriquer d’autres ordinateurs ou robots de plus en plus intelligents et de plus en plus puissants. Une accélération de ce cycle aurait pour conséquence une explosion de l’Intelligence Artificielle, largement supérieure aux capacités intellectuelles humaines, d’où un risque de perte de contrôle sur la machine.

Singularité technologique

On atteindrait alors la singularité technologique lorsque l’intelligence humaine ne pourra ni prédire ni imaginer les événements.

Certaines situations pourraient donner du crédit à ce phénomène, notamment le problème du trading haute fréquence qui met en cause des logiciels «intelligents» exécutant à grande vitesse des transactions financières. Ces outils peuvent conduire à des crashs boursiers comme le Flash Crash de 2010.

Dans l’univers des chatbots, on se souvient de Tay qui a proféré des propos racistes sur Twitter et de Beauty, un juge dans un concours de beauté qui évitait de choisir les personnes de couleur.

Quelques organismes et actions de contrôle

Alliance des Sciences et Technologies du numérique (Allistene)

CERNA d’Allistene

La Commission de Réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique (CERNA) de l’Alliance des Sciences et Technologies du numérique (Allistene) a pour objectifs entre autres de :

  • Sensibiliser les chercheurs à la dimension éthique de leurs travaux
  • Encourager la prise en compte de la question éthique dans la formation des étudiants
  • Proposer des thèmes de recherche qui permettent d’approfondir la réflexion éthique dans un cadre interdisciplinaire et de prendre en compte le résultat des réflexions éthiques
  • Éclairer les décideurs et la société sur les conséquences potentielles des résultats de recherche

Projet
«France IA»

One Hundred Year
Study

Ethics and Governance of Artificial Intelligence Fund

Ce projet a pour but de traiter de l’éthique et également des financements, de la recherche, des ponts avec l’industrie, etc. Il doit définir les orientations stratégiques de la France dans le domaine de l’Intelligence Artificielle pour positionner le pays comme un acteur de premier plan dans les technologies d’IA, en favorisant son vivier de plus de 200 startups.

Eric Horvitz, directeur du laboratoire Microsoft Research à Redmond, a lancé au sein de l’Université de Stanford une étude de cent ans sur l’Intelligence Artificielle : One Hundred Year Study. Le projet, qui est financé par Horvitz et son épouse, vise à suivre l’impact de l’Intelligence Artificielle sur tous les aspects de la vie, de la psychologie publique à la vie privée.

Ce projet éthique a été créé par les fondateurs de Linkedin et d’Ebay. Il a pour objet de soutenir les travaux qui font progresser le développement de l’IA et qui respectent l’éthique dans l’intérêt public, en mettant l’accent sur la recherche appliquée et l’éducation.

Le mouvement transhumaniste

Le transhumanisme milite pour l’usage des sciences et des techniques dans l’amélioration des capacités physiques, intellectuelles et psychologiques de l’homme. Le but est d’éliminer le handicap, la maladie, le vieillissement et la mort. Ce mouvement étudie également les dangers et l’éthique du développement dans la mise en œuvre de ces technologies.

En conclusion, l’IA n’est pas en soi dangereuse ou destructrice, tout dépend de l’usage qu’on veut en faire. Il est nécessaire d’imposer des balises rigides pour éviter que cette avancée technologique sans précédent ne se transforme en cauchemar pour l’humanité toute entière.

D’autres articles sur le même thème

In Pincipio

Le but d’ In Principio, outre le fait de participer à la vulgarisation de l’Intelligence Artificielle au travers de ce site, est de développer un agent de dialogue à même d’entretenir une véritable conversation comme l’on peut en avoir dans la vie courante.

Les sciences cognitives

Les sciences cognitives s’intéressent aux mécanismes et au fonctionnement des processus mentaux.

L’IA forte

Les systèmes informatiques sont binaires. Leur intelligence repose sur les seules valeurs vrai ou faux, équivalentes au oui ou non des humains.

Hollywood et la science fiction

Hollywood dessine le futur avec ses films prémonitoires qui ouvrent un pan sur l’avenir de l’humanité tiré par le progrès technologique.