Cher Elon Musk, oublie les robots-tueurs, voici ce qui devrait vraiment t’inquiéter

 Pour la chroniqueuse Caroline Sinders, paniquer à cause des robots-tueurs tient du ridicule. C’est un écran de fumée qui masque les véritables enjeux de l’intelligence artificielle. Des enjeux bien plus urgents et concrets qui demandent notre attention immédiate.

Je livre ici une version française de sa lettre à Elon Musk (Zip2, PayPal, SpaceX, Tesla et SolarCity), avec l’aimable autorisation de son autrice. Le texte original a été publié sur le site fastcodesign. Caroline Sinders est designer d’interaction, chercheure et chroniqueuse chez Fast Company/Co.Design, son profil Twitter : @carolinesinders. Note : vu le ton employé, j’ai préféré le tutoiement au vouvoiement.

Cher Elon,

Nous ne nous sommes jamais rencontrés mais si j’ai bien une certitude, c’est que tout va bien se passer, promis. Pose ton café, ton whiskey. Les robots-tueurs ne vont pas venir toquer à nos portes, malgré tes inquiétudes du mois dernier (et plus récemment, ton appel à leur interdiction totale).

La singularité n’aura jamais lieu et les seuls dérèglements sévères qui devraient réclamer notre attention sont ceux du changement climatique, pas de l’intelligence artificielle. I, Robot était une fiction, son adaptation un navet. Tout ceci n’est pas notre futur.

Mais.

Tout un tas de choses inquiétantes pointent quand on en vient à aborder les questions de l’apprentissage machine et de l’intelligence artificielle. Et tu devrais t’en inquiéter. Vraiment.

Tu devrais jeter cet œil inquiet (et attentif) au Rapport AI Now (2016). Tu devrais te soucier des thèmes qu’ils mettent en lumière, notamment en ce qui concerne les impacts sur le travail, la santé, l’égalité et l’éthique à l’heure où l’intelligence artificielle s’insinue dans nos vies quotidiennes. Tu devrais te soucier de qui décide de ce que sera le futur pour qu’il reste un oeuvre collective. Tout le monde n’est pas à Washington ni dans la Silicon Valley.

Tu devrais réfléchir à la façon dont l’apprentissage machine change nos façons de travailler et le travail tout court. Tu devrais te préoccuper de l’impact de l’intelligence artificielle sur la création et la destruction de nos emplois, te soucier des questions éducatives, de formation à de nouveaux métiers et des allocations et modes de redistribution qui devraient résulter d’une reconfiguration du travail par l’IA. Tu devrais considérer la question de l’automatisation non pas seulement du point de vue de la robotique mais sous l’angle des infrastructures : comment les industries du transport, de la logistique, seront affectées par l’apprentissage machine ? Scoop : elles le sont déjà au prix de nombreux emplois. De très bonnes lectures à ce sujet, ici. En fait,Tu devrais regarder ces vidéos du congrès AI Now 2017. Par là aussi, quelques-unes de mes préférées. Mais si tu ne devais en regarder qu’une seule, c’est celle-ci.

Tu devrais te préoccuper des articles publiés par ProPublica sur les biais algorithmiques, notamment celui-ci qui explique comment les logiciels de police prédictive accusent de façon inconsidérée les noirs et beaucoup moins les blancs. Tu devrais te soucier de cet autre article de ProPublica qui indique que certains assureurs augmentent les prix pour les personnes de couleur. Les raisons sous-jacentes ne sont pas si claires mais selon ProPublica, des algorithmes prédateurs favorisent les quartiers blancs plus que les autres. La négligence derrière cette masse de données devrait t’inquiéter. De la même manière, tu devrais te soucier des défauts de conception évidents qui existent dans les logiciels de reconnaissance faciale et émotionnelle que nous utilisons déjà. Ce ne sont pas là des cas isolés, ces systèmes opèrent à de larges échelles.

Tu devrais t’inquiéter de la provenance des données qui entraînent ces algorithmes. Tu devrais t’offusquer de voir ces données récupérées sans consentement explicite, comme l’a montré The Verge dans cet article qui rapporte que des images de personnes transgenres en transition ont été utilisées sans leur consentement dans le cadre d’un projet de recherche portant sur la reconnaissance faciale grâce à l’intelligence artificielle. Tu ne devrais pas seulement te contenter d’être inquiet, tu devrais t’indigner de cette véritable faillite éthique.

J’ai l’impression de te faire la leçon, c’est le cas. Sans conteste, je te fais la leçon. Tu en as besoin. Tu es en position de pouvoir et en mesure d’impulser de vrais changements. A la place, tu fais du bruit, tu agites les peurs à propos de quelque chose qui n’arrivera jamais. Pourquoi créer cette panique qui n’a pas lieu d’être ? Il y a des choses bien plus critiques que les robots tueurs.

***

Les robots-tueurs : idiots utiles du faux débat qui agite l’intelligence artificielle

Elon, tu devrais t’inquiéter en lisant cet article de la MIT Technology Review qui aborde les failles de sécurité des voitures autonomes et des risques de piratages qui y sont liés. Tu devrais te soucier qu’une de tes voitures n’aie pas su gérer l’ensoleillement, ce qui a conduit à la mort d’une personne. Tu devrais t’inquiéter de comment les voitures sans chauffeurs côtoieront les automobilistes sur les routes.

Je n’essaie pas ici d’être alarmiste, juste réaliste. Chacun d’entre nous – consommateurs, créateurs, techniciens – doit s’inquiéter. La série que ProPublica a publié sur les biais algorithmiques ne concerne pas que l’apprentissage machine, elle révèle surtout à quel point ces technologies sont faillibles alors que la plupart des utilisateurs leur font confiance aveuglément, sans même se poser de questions. Dans ce rapport, ProPublica révèle aussi que le système de « scoring » établissant une possibilité forte de « commettre de nouveau un crime » généré par les logiciels de police prédictive était utilisé pour alourdir les peines. Les juges s’en servent comme d’une aide, une « preuve algorithmique » issue d’un nouvel outil au service du système judiciaire. Voici une préoccupation majeure.

Que se passe-t-il quand un utilisateur se retrouve coincé dans une série de systèmes sans pouvoir en sortir ? Que se passe-t-il quand un agent conversationnel est bloqué, quand des données sont fausses et qu’il n’y a personne pour proposer à l’utilisateur d’apporter des modifications ou des rectifications ? Les machines font des erreurs, un point c’est tout. La question est donc : comment ces systèmes gèrent-ils leurs propres erreurs ?

Les gens sont doués pour s’y retrouver dans les situations incertaines – nous avons cette intelligence de circonstance. Tu as déjà dû louer une voiture ou aller chez le médecin en ayant oublié ta réservation ? Une personne peut arranger ça. C’est ce qui fait les bons services de support, spécifiquement dans les bureaucraties lourdes comme la DMV (ndt : organisme public chargé, au niveau de l’État, de l’enregistrement des véhicules et des permis de conduire). Ils sont capables de résoudre des problèmes complexes, en discutant. Les systèmes d’intelligence artificielle sont loin d’avoir cette agilité. Aucun designer ni ingénieur ne souhaite construire un système frustrant pour les utilisateurs, mais un système conçu pour accomplir une tâche spécifique sera toujours rigide dans certains cas. Peu importe son degré de complexité ou d’entraînement.

Elon, tu devrais t’inquiéter des capteurs qui ne reconnaissent pas la peau noire. Tu devrais t’inquiéter des produits insensibles à certaines couleurs, comme par exemple ces distributeurs de savon qui ne réagissent pas aux mains noires. Tu devrais t’inquiéter des caméras qui suggèrent que les asiatiques ont « cligné des yeux » parce que leur système est majoritairement entraîné par des profils de type caucasien. Un autre exemple, avec ce site de renouvellement de passeport qui rejette les photos de personnes de type asiatique. Tu devrais t’en inquiéter car dans ces cas précis, les utilisateurs ne peuvent absolument rien faire parce que le problème est autonome, le problème est dans le code, dans la conception. Tu devrais t’inquiéter des produits aliénants, de ceux qui ne marchent pas pour tous les types d’utilisateurs. Tu es un homme d’affaires, j’imagine que ça t’importe.

Les robots ne vont pas penser « comme les humains ». Il y a tellement de choses inquiétantes aujourd’hui, pourquoi se focaliser sur le futur en mode science-fiction-qui-pourrait-arriver-dans-très-très-longtemps ?

Entre des algorithmes qui analysent des formes et des machines capables de penser et d’inférer comme des humains, il y a un monde. D’un côté, il s’agit d’analyser, de l’autre (ce qui semble soulever ton attention), il s’agit de comprendre l’origine de la pensée. Tu ne devrais pas t’inquiéter des voitures volantes ou des machines devenant trop intelligentes. Je sais que c’est cool, c’est sympa pour se faire peur. Mais ça n’existe pas, ça n’existera jamais. Les machines-devenant-humaines ne devraient pas plus t’inquiéter que de savoir si on vit ou pas dans une simulation à la Matrix. Tu devrais te préoccuper des systèmes susceptibles de nuire aux gens de tous les jours, ces gens qui utilisent tous les produits dans lesquels tu investis. Tu devrais te préoccuper de comment les gens sont affectés par les systèmes que tu créés, et tu devrais – sans cesse – te préoccuper de comment tes produits affectent tes utilisateurs.

C’est bon ? Ravie t’avoir pu discuter avec toi.

Respire.

Caroline.

16 comments

  1. Pingback: Quel est le QI de Laurent Alexandre ? - Mais où va le Web

  2. Pingback: L’androïd ou la tentation de la personnalité juridique - Mais où va le Web

  3. Pingback: Merci pour ces moments numériques : la retrospective 2017 - Mais où va le Web

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *