Intelligence artificielle : art ou artifice ?

L’intelligence artificielle (IA) alimente les fantasmes. Promesse de réponse, elle pose en retour bien des questions. Suivant les sensibilités, chacun y est a priori plutôt favorable ou défavorable. Sur le plan terminologique, l’IA s’oppose à la bêtise (naturelle) qu’il est difficile de lui préférer. En la soustrayant partiellement à la critique, son énoncé tend à glisser vers un totalitarisme qui interroge autant qu’il confine à l’interprétation. De là en découlent autant d’opportunités de scénarisation de son rapport à l’homme, aussi bien pour ses partisans que ses détracteurs. Pourtant, vu les enjeux visibilisés par les uns et les autres, il semble nécessaire de dépasser ces scénarisations en essayant de rendre apparents les rouages sous-jacents, puis de les questionner.

Cet article a été rédigé par Aurélien Grosdidier, chercheur indépendant fondateur de Latitude77, un espace de réflexion et de prospective à la confluence de l’anthropologie, de la sociologie et de la philosophie appliquées au questionnement technoscientifique et aux enjeux numériques. Contact: Latitude77, LinkedIn, Twitter.

Des critiques parfois étonnantes

Parmi les résistances francophones se trouve l’association AFCIA. Son Président Cédric Sauviat a justement été interrogé par Mais où va le web ? début 2017 sur le site Usbek&Rica. Il dénonce en particulier que derrière son objectif de renforcement du bien-être se dissimulent des motivations financières, et que la propagande mise en œuvre est performative. Il y défend également la possibilité d’être contre l’IA par principe.

Une posture de principe nécessite des arguments si puissants qu’ils rendent facultative la confrontation à la réalité. Pourtant, ce qui transparait de son intervention met plutôt en évidence que les paradigmes sur lesquels repose son argumentation sont très proches de ceux utilisés par les promoteurs de l’IA. J’ai souhaité saisir au vol l’étonnement que m’a inspiré cette interview pour questionner quelques-uns de ces paradigmes qui impactent par conséquent aussi bien les promoteurs de l’IA que certains de ces détracteurs. Cet article ne saurait être instrumentalisé pour porter préjudice à Cédric Sauviat ou à l’AFCIA, que je remercie d’avoir contribué indirectement à cette réflexion que je vous partage.

Au-delà de ces arguments, une posture d’opposition par principe est une stratégie de défense dont je doute de l’efficacité.

La résistance est au mieux palliative. En dénonçant sans proposer de vision, elle glisse vers la démagogie contestataire. Un agrégat fédéré sur une base de contestation s’expose à une hétérogénéité certaine sur le plan de l’adhésion, incapable de s’organiser autrement qu’autour d’un dogme finalement tout aussi totalitaire que celui de la bienveillance supposée des pro-IA. En aucun cas une résistance ne saurait donc déboucher sur une victoire, d’autant plus que la technique à laquelle il est question de s’opposer est déjà déployée sous certaines formes.

Au pire, cette résistance amplifie le problème. La répétition de paradigmes fondateurs réductionnistes et matérialistes partagés avec les pro-IA contribue à les crédibiliser. L’attitude est similaire à celle d’un jardinier qui taillerait les branches qu’il ne souhaite pas voir pousser, sans retirer la racine et en mettant à son insu de l’engrais sur cette dernière. Le procédé semble davantage relever de la taille revigorante d’un arbre fruitier que du déracinement de l’arbre qui menace une construction.

Partisans, détracteurs : une carte mentale en partage

Il est étonnamment possible de trouver des points communs entre les propos des promoteurs et ceux des détracteurs de l’IA. Pour les premiers, l’IA est une opportunité de nous soulager. Pour les seconds, l’IA menace de nous remplacer. Ces deux points de vue apparemment opposés que sont la synergie et la rivalité suggèrent pourtant d’une seule voix que l’humain et l’IA partagent le même territoire d’aptitudes et que ce dernier est le lieu d’un rapport de forces.

Par définition, ce territoire ne peut être partagé que si les formes spécifiques de cognition effective que permet l’IA sont fonctionnellement du même ordre que celle de l’intelligence humaine (IH). De fait, de la reconnaissance d’image ou vocale à la traduction automatique, les performances actuelles de l’IA interrogent. Pour certaines tâches, par exemple la reconnaissance faciale, la lecture sur les lèvres ou le jeu de Go, l’IA tend à supplanter l’IH.

Tant les promoteurs que les détracteurs de l’IA actent l’existence de ce territoire. La différence entre eux se résume par conséquent à la réponse qu’ils donnent à une question relativement simple : cette conquête progressive par l’IA d’un territoire historiquement réservé à l’IH peut-elle se solder par une expropriation de cette dernière au point de constituer un danger pour nous ?

Leur accord sur une équivalence potentielle entre IA et IH, donc sur un territoire de rivalité/synergie ne serait-ce que dans certains domaines, passe sous silence deux questions à mon sens absolument essentielles : « qu’est-ce que l’IA ? », ce qui implique en préalable de répondre à « qu’est-ce que l’IH ? ».

La clarification sémantique pourrait paraître anecdotique tant elle est loin de la réalité tangible des progrès observés entre autres dans les domaines susmentionnés. Elle est pourtant essentielle : l’enjeu est de pouvoir se situer face à une technologie décrite comme opportunité aussi bien que comme menace, qui telle un miroir nous ferait entrevoir notre propre reflet comme un double de nous-mêmes, un vis-à-vis. Ce n’est qu’une fois l’IA et l’IH clairement définies qu’il devient possible de circonscrire l’intersection de l’une avec l’autre. Par conséquent, ce travail de définition est impératif : il s’agit de savoir si l’intelligence dite « artificielle » relève de l’art (donc de la maîtrise ultime que serait celle de créer un vis-à-vis qui nous dépasse), de l’artifice (donc de l’illusion d’un vis-à-vis ou de son dépassement), ou des deux à la fois (de la maîtrise ultime de l’illusion que serait celle d’arriver à faire croire aux uns que d’autres créent un vis-à-vis qui les dépasse, ou de l’illusion de la maîtrise ultime que serait celle de croire que la réalisation d’un tel vis-à-vis est à notre portée).

Je vais intentionnellement laisser les discussions théoriques sur l’IA et l’IH de côté. Il me semble qu’elles ne sont nécessaires que dans la mesure où il s’agirait de décider s’il est préférable d’être pour ou d’être contre. Je crois que la priorité est de donner à comprendre la nature des rapports entre l’IA et l’IH et de la prolonger sur le terrain, c’est-à-dire dans la diversité des situations uniques qui caractérisent chacune de nos existences.

Un territoire qui échappe aux simplifications

Une IA qui en cache (beaucoup) d’autres

Les réseaux de neurones artificiels sont pour beaucoup dans le renouveau récent de l’IA. Leurs fondamentaux sont connus depuis longtemps, mais ce n’est que récemment et pour des raisons précises que leurs performances décollent. La quasi-équivalence fonctionnelle entre les neurones naturels et les neurones artificiels sonne comme la promesse de ne plus avoir à changer de paradigme pour atteindre l’altitude de l’IH.

Aujourd’hui, l’IA relève à la fois de la recherche, de la science, et de la technique. Ses applications sont déjà nombreuses, pourtant elle est crainte comme si elle restait à venir. Cet apparent paradoxe reflète une polysémie oscillant entre des IA faibles (multiples et spécifiques) et l’IA forte (généralisée).

De Wikipedia: le concept d’IA forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d’une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements ».

***

Également de Wikipedia: la notion d’IA faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l’intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d’humains face à d’autres humains lors d’un dialogue.

Seules des IA faibles sont aujourd’hui opérationnelles. Elles n’ont rien de mystique, mais sont techniques, fragmentées, factuelles et objets d’une connaissance tout à fait rationnelle. Toute intelligence doit premièrement apprendre. Pour l’instant, l’apparente intelligence des IA faibles n’est en grande partie que la nôtre qu’elle imite. Elle reproduit, souligne, voire révèle par conséquent nos propres biais. Il est possible de les analyser sous de multiples angles, que ce soit en interrogeant les données qui participent à leur construction, par les algorithmes sur lesquelles elles reposent, par leurs implémentations, leurs instances d’exécution, le contexte de ces dernières, ou encore par le biais de leurs usages ou des pratiques qu’elles entraînent. Voire même en leur demandant de nous rentre intelligibles leurs fonctionnements internes sans quoi ils s’apparentent souvent à des boites noires.

L’IA forte relève de la recherche, c’est-à-dire de l’intuition, laquelle est sous-tendue par des croyances. Son existence forte à venir repose sur une spéculation de ce qui pourrait être possible demain. Cette nature à venir est également ce qui la soustrait au factuel, donc au questionnement, donc à la science. Aujourd’hui, elle est un objet qui par son inexistence échappe à toute possibilité de réfutation. Son existence à venir relève du dogme, et ses conséquences éventuelles sont assujetties à l’interprétation de ce dogme. Pour qu’une IA devienne forte, il lui faudrait être en mesure d’apprendre seule, sans supervision humaine, par exemple grâce à l’apprentissage symbolique par renforcement, qui mobiliserait sans doute une aptitude à rêver similaire à celle des réseaux de neurones. Même si l’hypothèse réductionniste de l’intelligence aux neurones était valide et si tout ce cheminement s’avérait possible, il y a fort à parier que l’IA forte partagerait au final beaucoup de nos biais cognitifs ce qui limiterait par conséquent considérablement son intérêt. Encore une fois tout cela n’a aujourd’hui rien de scientifique et ne relève que de spéculations et de croyances.

Autrement dit, entre le point « IA » sur nos cartes mentales et la surface discontinue, fragmentée, et de nature variable qu’occupe l’IA sur le territoire du réel, opère une diffraction imputable au prisme de nos croyances. Elle ne peut être observée que par une exploration détaillée du territoire au cas par cas, au fur et à mesure des avancées des IA faibles. Ce travail analytique d’investigation systémique se heurte à l’endoctrinement de ceux qui mettent à profit le présent pour faire advenir les circonstances qui leur donneront un avantage compétitif, selon la devise d’Alan Kay, « la meilleure façon de prévoir le futur, c’est de l’inventer« .

Une IH indéfinissable

Parler d’une intelligence qui serait artificielle renvoie à une intelligence qui serait naturelle, en l’occurrence la nôtre. Outre l’opposition sujette à controverse entre le naturel et l’artificiel, cette référence à l’intelligence se réduit souvent implicitement à ce que nous expérimentons de nous-mêmes. Qu’elle soit abstraite, verbale, émotionnelle, analytique, etc., chacun ne peut expérimenter que la combinaison qui lui est propre. Par conséquent, l‘IH n’est en aucun cas réductible à la perception réflexive et subjective que nous en avons individuellement.

Les neurosciences permettent de questionner certains fonctionnements au plus proche de la structure anatomique du cerveau. L’enthousiasme que suscite les promesses d’approches analytiques dans ce domaine pourrait devoir être tempéré, car elles ne sont pas en mesure de comprendre le fonctionnement d’un microprocesseur pourtant très simple. De plus, certains outils sur lesquelles elles reposent ne sont pas toujours fiables, ce qui souligne leur caractère expérimental. La psychologie cognitive expérimentale s’essaie quant à elle non sans succès à la rétro-ingénierie des processus cognitifs. Cette nécessité d’empirisme se retrouve a fortiori lorsque s’éloigne la référence anatomique, ce qui ouvre un espace où d’autres contestent l’hypothèse réductionniste de l’intelligence au cerveau. L’IH donne lieu à diverses théories et à autant de métriques et d’origines potentielles qui s’opposent et/ou se complémentent. Sans doute faudrait-il également prendre en compte pour la qualifier des regards qui ne sont pas focalisés sur la cognition, mais ouverts vers la dimension affective, comme la psychologie clinique, la psychanalyse, ou encore la philosophie. Peut-être même serait-il nécessaire de sortir du sujet isolé car si l’IH est spécifiquement incarnée, donc délimitée, elle est également relationnelle/collective et expérimentale/liée à nos subjectivités.

Parce qu’elle décline sa multitude de dimensions en chacun dans une combinaison spécifique unique et variable en fonction du temps et du contexte, circonscrire l’IH supposerait de mobiliser l’ensemble d’une communauté humaine dynamique, polymorphe, et qui se renouvelle sans cesse et qui n’est pas sans rappeler la noosphère de Pierre Teilhard de Chardin.

La métaphore et l’imposture

Pour parler de l’IH, nous avons recours à des métaphores parmi lesquelles celle du traitement de l’information. Ces métaphores sont « des histoires que nous nous racontons pour essayer de saisir ce que nous ne comprenons pas » : notre cerveau ne traite pas d’information et n’est pas un ordinateur.

L’IA est une technique computationnelle. Elle est donc bien un cas particulier de ce traitement automatique de l’information (TAI). Qu’il puisse sembler réducteur de considérer l’IA comme telle montre à quel point nous la considérons déjà comme davantage que ce qu’elle est. Le territoire commun entre l’IH et l’IA est précisément celui du TAI: simplification métaphorique de l’une, il est généralisation empuissantisante de l’autre. Le TAI est le pivot qui permet de positionner l’IH au-delà et l’IA en deçà. Il montre par conséquent en quoi l’une et l’autre sont de nature tout à fait différentes au point que leur symétrie apparente, l’une naturelle et l’autre artificielle, relève de l’illusion. Cette mécanique interroge aussi sur les raisons de faire référence à une intelligence pour parler du TAI qu’est l’IA.

En effet, nous ne sommes pas capables de penser l’intelligence de façon critique, car elle est à la fois le lieu précis d’où émerge la critique, et l’outil nécessaire à la critique. Cet aveuglement vaut qu’elle soit qualifiée de naturelle ou d’artificielle et contribue à l’acceptation de l’IA sans distance critique. Il est par conséquent impératif de cesser d’alimenter et de dénoncer le stratagème qui consiste à utiliser le terme intelligence pour parler de ce qui se réduit à un TAI dont nous cherchons précisément à saisir les enjeux. C’est pourquoi nous avons tout à gagner à appeler l’IA par ce qu’elle est : un TAI.

Une métaphore est une simple analogie unidirectionnelle et simplificatrice qui ne vaut ni réciprocité ni identité. Dire qu’il est possible de s’aider à penser certaines dimensions spécifiques de l’IH en utilisant la métaphore du TAI ne donne aucunement le droit de penser qu’un TAI même ultimement sophistiqué pourrait permettre de faire émerger une IH hors humain. Cette croyance est une imposture qui découle d’une erreur logique.

Si cette erreur logique est communément consentie chez les pro-IA, il est plus étonnant de la retrouver chez certains anti-IA. Le Président de l’AFCIA est plus prudent: « Avec nos quelques milliards de neurones, nous ne pouvons pas dire qu’un ordinateur qui en aurait mille fois plus ne pourrait pas les équivaloir d’un point de vue ontologique. ». Si nous ne pouvons pas ne pas le dire, nous ne pouvons pas non plus le laisser croire. En effet, l’entretien de ce doute étonne d’autant plus que la démonstration n’est pas hors de portée.

À l’origine de cette erreur logique se trouve la vision réductrice que nous avons de nous-mêmes. Beaucoup de détracteurs de l’IA, étonnamment, ne s’en distancient pas. Le Président de l’AFCIA exprime clairement un point de vue qu’il partage sans doute avec beaucoup de pro-IA: « Je considère que l’esprit est une émanation du calcul réalisé par des neurones (pour les cerveaux des vertébrés), et par des micro-processeurs (pour une intelligence artificielle)« . La répétition de cette vision réductrice contribue à la crédibiliser en tant que fait, alors qu’elle ne relève au mieux que de l’hypothèse et au pire de l’opinion.

Si le TAI et l’IH semblent se rapprocher, ce n’est peut-être pas tant parce que le TAI s’élève au niveau de l’IH, que parce que nous consentons à réduire la perception réflexive de notre IH en action aux manifestations fonctionnelles de TAIs.

Singularité technologique ou singularités individuelles ?

La singularité technologique est traditionnellement définie comme un point précis dans le temps où émergerait une IA forte, supérieure à l’IH de laquelle elle s’affranchirait. Le caractère indéfinissable et propre à chacun de nous de l’IH rend impossible l’établissement d’une métrique universelle de comparaison de l’IH avec un TAI. Les enfants savent qu’on n’additionne pas des pommes et des oranges parce qu’elles ne sont pas comparables. Les défenseurs de la théorie de la singularité sont vraisemblablement restés de grands enfants. Faute de pouvoir établir cette métrique universelle, la théorie de la singularité se trouve par conséquent reléguée à la mise en scène d’une fiction binaire de l’humanité face à un pouvoir qu’elle pense qu’elle aura dans ce qu’elle imagine être son avenir.

Il apparait dès lors que l’IA relève à la fois de l’art et de l’artifice, et dans les deux combinaisons susmentionnées que ces derniers permettent. Depuis une position analytique, considérer l’efficacité de propagande des pro-IA témoigne de la maîtrise ultime de l’illusion que serait celle d’arriver à faire croire aux uns que d’autres créent un vis-à-vis qui les dépasse. Toujours depuis cette position analytique, il semblerait que beaucoup des pro-IA (mais aussi des anti-IA) croient vraiment qu’elle est/sera équivalente à l’IH au point que l’homme risque le remplacement. Ce cas-là illustre l’illusion de la maîtrise ultime que serait celle de croire que la réalisation d’un tel vis-à-vis est à notre portée. Les propos du Président de l’AFCIA soulignent la nécessité de rester humble quant à notre nature humaine : « Les gens qui considèrent qu’un ordinateur ne sera jamais capable de penser au même titre qu’un humain sont dans une sorte d’orgueil, ils considèrent que leur cerveau est le seul pouvant atteindre cette grâce« . À cette sorte d’orgueil s’en oppose une autre, celle de considérer qu’il nous serait possible de créer un ordinateur qui pense au même titre qu’un humain. L’humilité semble également nécessaire quant à nos aptitudes.

La faute logique qui consiste à réduire notre IH à la métaphore que nous en faisons avec le TAI explique la crispation autour de la singularité. Si un TAI s’avère plus efficace que nous pour traiter de l’information, alors nous serons chassés du territoire correspondant. Si c’est à ce territoire que nous avons réduit, par métaphore, notre IH, alors nous avons l’impression que notre IH n’aura plus de lieux où se réfugier. Pour qui se réduirait à son IH, l’exil s’étendrait jusqu’à son identité elle-même. Considérer le TAI comme un enjeu ontologique témoigne avant tout d’une profonde incompréhension, méconnaissance et réduction de nous-mêmes.

Il ne s’agit cependant pas d’en rejeter en bloc l’idée de la singularité. C’est même tout l’inverse : la singularité pourrait bien être l’arbre (hypothétiquement à venir) qui cache la forêt (qui serait déjà là, et depuis longtemps). Dans bien des domaines, l’activité de chacun est réductible à un traitement d’information. Pour chacune de ces activités, pour chacun de ces hommes, il existe une singularité spécifique à partir de laquelle un TAI sera tout à fait en mesure de remplacer cet homme précis pour cette activité précise. Par conséquent, qu’une éventuelle singularité soit proche ou encore lointaine n’a probablement pas d’importance opérationnelle aujourd’hui. D’ailleurs, dans la plupart des cas concrets, même des IA faibles ne sont pas nécessaires.

Il n’y a donc pas une seule singularité à considérer comme risque pour l’espèce humaine, mais une multitude de singularités individuelles comme autant de menaces — et d’opportunités — pour chacun.

Image en tête d’article : réalisation de Deepdream, le réseau de neurones « artisitique » made in Google.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *