La robotique sociale face à la tentation dataïste

Si les robots dits sociaux[1] sont encore loin d’accompagner notre quotidien, on peut d’ores et déjà s’interroger sur le projet dont ils sont porteurs. A l’heure où les pratiques numériques confortent plus que jamais l’analyse deleuzienne sur les sociétés de contrôle, la tentation est grande pour la robotique sociale, encore très malléable, de chercher son modèle économique du côté d’un capitalisme cognitif datavore et peu scrupuleux.  

Un texte De Julien de Sanctis (@JulienDeSanctis), doctorant en philosophie à l’UTC et chez Spoon, une entreprise de robotique sociale

L’illusion du déterminisme technique

Comme l’explique bien le philosophe canadien Andrew Feenberg (et bien d’autres avec lui) dans ses deux ouvrages (Re)penser la technique et Pour une théorie critique de la technique, les techniques n’évoluent pas de façon déterministe. Autrement dit, il n’existe aucune nécessité en la matière, bien que le marché s’apparente à un gigantesque (et invisible) « incubateur de destinée ». Comme toute technologie émergente, les robots sociaux sont amenés à embrasser différentes trajectoires dont certaines s’imposeront quand d’autres péricliteront. Les technologies étant sous-déterminées techniquement et sur-déterminées socialement, le succès où l’échec de tel ou tel artefact est bien plus lié à un processus de sélections sociales (au sens large) qu’à une quelconque inéluctabilité technique. Feenberg milite ainsi pour un décodage technologique consistant à remonter aux sources sociales des artefacts et des systèmes techniques que la matérialité des objets, le fonctionnalisme moderne et les discours technocratiques ne manquent pas d’occulter. Bien que balbutiante, on ne saurait que trop conseiller à la sociobotique[2] d’interroger ses genèse et « principe actif » sociaux pour se développer de façon responsable. Ici, je propose donc de me livrer à un exercice de décodage technique préventif.

Vers un « dataterminisme »

Comme l’atteste la série de faillites dans le secteur, le robot social peine à trouver sa raison d’être et son modèle économique en dehors des laboratoires de recherche universitaire ou de R&D. Si les débouchés thérapeutiques semblent intéressants[3], les choses se compliquent considérablement dès que l’on quitte la sphère médicale. L’innovation étant aujourd’hui en grande partie darwiniste, le marché fait face à des offres de « solutions » pour lesquels il n’existe pas encore de problème. Or, quel est aujourd’hui le critère de « sélection artificielle » sur le marché numérique (ou, du moins, l’un des plus déterminants) ? La donnée. Ou plutôt les données. Une façon assez prometteuse de survivre en étant sélectionné par le marché semble donc de se mettre en quête de ce saint Graal de l’économie numérique qu’est la collecte de données. Je nomme cette mécanique « dataterminisme » car, malgré le caractère illusoire du déterminisme technologique, le matraquage technocapitaliste en matière dataïste (tant en actes techniques et financiers qu’en paroles) obstrue le champ des possibles alternatifs. L’illusion idéologique selon laquelle il n’est point de salut en dehors de la donnée est ainsi renforcée.

Dans le sillage des enceintes connectées

A cet égard, le modèle des enceintes connectées type Google Home ou Amazon Alexa témoigne d’une réussite assez stupéfiante. Elles ne sont pourtant pas fonctionnellement différentes de tous les robots sociaux de types « compagnons » ou « assistants » domotiques qui échouent sur le marché. Des deux côtés, il s’agit à la fois d’exporter des fonctions à faible valeur ajoutée car déjà disponibles sur d’autres dispositifs portables tels que les téléphones et de proposer à l’utilisateur une nouvelle modalité d’interaction humain-machine (IHM) dévaluant la main au profit de la voix[4]. Dès lors, comment expliquer le succès des unes et l’échec des autres ? Si les enceintes connectées jouissent d’un fort effet de marque (Google, Amazon, Apple etc.), une part non négligeable de leur percée tient probablement à leur relative simplicité technique facilitant les économies d’échelle et donc des prix « abordables » pour l’utilisateur final.

A la réussite commerciale et sociale (adoption) s’ajoute une double réussite stratégique, à savoir l’accès aux deux nouveaux filons d’extractions de données que sont la vie de foyer et la voix elle-même. En effet, nos voix en disent long sur nous et, en quelques sortes, parlent à notre insu. De la propension à payer notre loyer en retard au risque de faire une crise cardiaque en passant par notre santé mentale, le marché de l’extraction de données vocales attire un nombre croissant d’entreprises.

Psychotechnie

Le passage d’IHM manuelle à des IHM vocale est loin d’être insignifiant. Il relève de ce que l’on peut appeler une psychotechnie. Le préfixe « psycho » vient du grec psukhê (dont le correspondant latin est animus) signant « esprit », « âme », « souffle vital ». Les psychotechniques sont donc des artefacts qui génèrent une impression d’animation propre, d’autonomie du vouloir, du mouvoir et du percevoir. Les effets psychotechniques peuvent convoquer le registre général de la sentience, c’est-à-dire la faculté d’éprouver, d’avoir des expériences vécues comme avec le blanchon Paro ou le dinosaure Pleo, ou celui plus anthropo-centré de la subjectivité avec des robots comme Spoon, NAO, Pepper, mais aussi avec des enceintes connectées ou autres assistants virtuels. La littérature récente dédiée aux mécanismes anthropomorphiques nous enseigne d’ailleurs qu’il n’est pas nécessaire qu’un artefact ressemble à un humain pour stimuler une impression de subjectivité et, avec elle, un sentiment de proximité avec la machine.

Les conséquences éthiques de ces effets psychotechniques ne sauraient être négligées. En effet, la capacité des robots sociaux à stimuler notre empathie et à générer des émotions est désormais bien connue. Cette capacité conditionne d’ailleurs la bonne intégration sociale de ces artefacts en ceci que l’humain semble préférer interagir avec un robot simulant des émotions (et donc « capable » d’en transmettre) qu’avec un robot apathique. Se pose alors la question de l’usage de ces facultés – que certains nomment « empathie artificielle » – et celle du système de finalités dans lequel il s’insère.

De l’expérience au service de la fonction à l’expérience comme fonction

On imagine aisément l’intérêt que représente l’empathie artificielle dans une économie où les techniques de contrôle comme le neuromarketing, les nudges et autres dark patterns  ne cessent de se développer. Alors que le pouvoir de persuasion des robots est un sujet d’étude émergent[5] et que de nombreux acteurs du numérique usent (et abusent) de nos biais cognitifs pour maximiser le temps que nous consacrons à leurs services ainsi que la récolte de données, il semble plus qu’opportun de questionner le positionnement à venir des robots sociaux au sein de cette économie.

Aujourd’hui plus que jamais, l’UX design (branche de la conception dédiée à la production d’expériences d’utilisations réussies) met en tension le couple fonction/expérience d’utilisation. Contrairement à ce que l’on pourrait penser au premier abord, il n’est pas évident que la seconde n’existe que pour servir la première. Certains artefacts, tels que les enceintes connectées, semblent d’ailleurs indiquer le contraire : comme nous l’avons vu, leurs fonctions (ce qu’elles réalisent, ce à quoi elles servent) n’ont que peu de valeur ajoutée, c’est pourquoi leur intérêt semble plutôt procéder de l’expérience d’utilisation, à savoir de l’interaction verbale. Ce n’est donc pas tant ce qu’elles réalisent qui compte que la façon dont elle le réalise. De là à dire que l’expérience d’utilisation devient la fonction de l’objet, il n’y a qu’un pas que certains robots sociaux franchissent. C’est le cas par exemple des robots Paro et Lovot dont la fonction n’est pas de réaliser quoi que ce soit, mais de faire acte de présence, de divertir, de rassurer et/ou de générer des émotions positives comme de l’attachement. Ainsi, leur fonction se déploie dans et par l’expérience, ce qui revient à dire qu’elle est l’expérience.

Si certains UX designer que j’ai pu rencontrer souhaitent maintenir la robotique sociale dans cette conception expérientielle de la fonction, le marché actuel ne semble pas pouvoir s’en satisfaire. Pour créer de la valeur et attirer les investissements, il est probable que la robotique sociale grand public doive, dans le sillage des enceintes connectées, se plier à la normativité économique du modèle dataïste et actualiser son potentiel d’aspirateur à données.

De l’accompagnement au conditionnement de l’expérience

Ces dernières années, les investissements massifs dédiés à l’intelligence artificielle ont entrainé une amélioration considérable des diverses technologies de captation et, plus précisément, du traitement des matériaux enregistrés par cette captation. Le couple captation/traitement étant au cœur de l’économie numérique, l’un des intérêts majeurs du data-capitalisme est d’étendre son périmètre de captation à la moindre parcelle d’existence pour maximiser le nombre et la diversité des données récoltées. Les technologies du numérique au sens large ne se contentent pas de nous accompagner le long d’un continuum technique assurés par nos téléphones, tablettes, ordinateurs, montres connectées et autres applications, elles génèrent une part importante des expériences qui donnent corps à ce continuum. La stratégie dataterministe est donc double : numériser les expériences jusqu’ici non numériques (comme la course à pied, par exemple) et créer de nouvelles expériences dont la source est le numérique lui-même (des innombrables applications aux sites de e-commerce en passant par les réseaux sociaux et les jeux en lignes). Ainsi, il s’agit de donner au numérique l’ampleur suffisante pour qu’il devienne un substrat, une matrice conditionnant un maximum d’expériences alimentant la datagenèse.  

Des artefacts extimisants

Les robots sociaux possèdent des atouts substantiels pour réaliser la double stratégie dataterministe, notamment celui de numériser et donc de « dataïser » la socialité hors-ligne, qu’il s’agisse des interactions interhumaines ou des IHM. On a pu entendre ici et là que la force des enceintes connectées consistait à « se faire toutes petites » pour se faire oublier et pénétrer au mieux notre quotidien. Toutefois, il n’est pas certain que leur immobilisme et leur froideur soient de nature à ouvrir toutes les portes de la fameuse « acceptabilité sociale » et à révéler les filons de données que l’intimité n’a pas encore livré. Il est à craindre que le modèle des enceintes connectées datavores soit l’un des avenirs possibles de la robotique sociale tout simplement parce que le potentiel interactif et émotionnel des sociobots fera d’eux de meilleurs explorateurs de notre intimité et des extracteurs de données plus efficaces. De nombreux capteurs peuvent être intégrés aux robots de compagnie, transformant l’utilisateur en « fonds disponible », pour reprendre l’expression heideggérienne. De la reconnaissance faciale à l’analyse vocale ou thermique en passant par la reconnaissance émotionnelle, ces technologies intégrables renferment un pouvoir d’extimisation sans précédent (bien qu’encore peu fiable), c’est-à-dire de captation instrumentale de l’intimité des utilisateurs. L’humain devient peu à peu transparent face à une technologie actualisant le rêve cybernétique de gouvernement[6] par le contrôle anticipatoire.  

La gouvernementalité algorithmique

Comme l’expliquent Antoinette Rouvroy et Thomas Bern dans un article de référence, l’intérêt des big data est de construire des « savoir probabilistes statistiques à des fins d’anticipation des comportements individuels, qui sont rapportés à des profils définis sur la base de corrélations découvertes par datamining.[7] » De là, les deux chercheurs forgent le concept de de gouvernementalité algorithmique qu’ils définissent comme « un certain type de rationalité (a)normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles.[8] » Le projet économique d’une telle rationalité est simple : accroître le contrôle sur l’acte d’achat en s’adressant à la part préréflexive du psychisme. En somme, notre « double statistique[9] » (i.e. notre profil) est utilisé pour « susciter l’acte d’achat, sur le mode de la réponse-réflexe à un stimulus d’alerte court-circuitant dans la réflexivité individuelle la formation du désir singulier. » Autrement dit, il s’agit « de produire du passage à l’acte sans formation ni formulation de désirs.[10] »

En misant sur la contrôlabilité de nos « moi » préréflexifs, la prédation dataïste obstrue ce qu’on nomme en philosophie les processus de subjectivation, c’est-à-dire les processus conduisant à nous constituer comme sujets capables de réflexivité. Vivre subjectivement relève du vivre ensemble en tant qu’un sujet est toujours multiple et qu’il procède d’une mosaïque d’éléments, d’influences, d’expériences à la fois très nombreuses et très diverses. La politique commence donc avec la vie subjective. Supprimer la possibilité de délibération avec soi-même en s’adressant à la part pulsionnelle du moi, c’est s’attaquer au cœur même de la politique qui commence avec et en soi. Dès lors, si le vivre ensemble du sujet est empêché, comment pourrait-on accepter le vivre ensemble intersubjectif ? Comment accepter l’autre sujet, l’autre tout court si je ne vis pas d’abord ce processus d’acceptation, de conciliation, de délibération en moi ? En outre, obstruer la subjectivation, c’est créer une docilité confinant à une « nouvelle servitude volontaire ». Pour toutes ces raisons, le projet dataterministe est éminemment dangereux. Il est porteur d’un projet social dépolitisant. Comme l’explique Antoinette Rouvroy : « La gouvernementalité algorithmique est un système immunitaire développé par le capitalisme pour lutter contre tout ce qui pourrait le mettre en crise. Les êtres humains ne sont capables de se rebeller que s’ils deviennent des sujets à part entière. Or la technologie vient les saisir un niveau infrasubjectif, au stade pulsionnel, et leur donne ce qu’ils veulent tout de suite.[11] »    

Politiser la dépolitisation : pour une éthique démocratique des techniques

On comprend désormais l’ensemble du schéma à l’œuvre : la numérisation croissante de nos existences mène à une augmentation des expériences médiatisées numériquement qui, elle-même, conduit à accroissement des données récoltables pour alimenter la gouvernementalité algorithmique. Dans ce contexte, le problème fondamental ne concerne pas tant le respect de la vie privée que la défense (et la promotion active !) d’une vie subjective individuelle et collective, bref d’une vie politique. C’est donc le (business) modèle dominant de l’économie numérique qui doit être révisé. 

L’instrumentalisation de l’économie des données par la gouvernementalité algorithmique, nous l’avons compris, est une menace pour l’idée même de politique. Mais la dépolitisation individuelle et collective doit être combattue par sa symétrique inverse, à savoir une repolitisation individuelle et collective. Il s’agit d’un défi démocratique et non technocratique. Nous vivons aujourd’hui un moment politique clé. Alors que les démocraties représentatives affrontent des défis d’ampleur inédite tels que la crise écologique et la menace d’un populisme désinformateur que de nombreux grands noms du numérique encouragent ou, au mieux, favorisent par leur inaction, la revalorisation de la citoyenneté via de nouvelles formes d’engagement politique et d’action-hors-les-urnes semble regagner du terrain. Cette « renaissance », en partie conduite par une jeunesse qui se sait plus que jamais menacée, témoigne d’un désir de politique. C’est là une formidable opportunité de revitalisation de la démocratie par l’exercice démocratique lui-même. Alors que la gouvernementalité algorithmique propose d’accentuer l’exsanguination politique au profit de la seule gestion économique,  saisissons-nous de ce moment  pour associer activement l’expertise à la citoyenneté et construire un avenir commun ; utilisons les outils connus et rigoureux de la démocratie technique (démocratie participative appliquée aux controverses et plus largement aux enjeux sanitaires, sociaux et économiques des politiques technologiques) pour réguler l’économie des données dominante et déterminer quelles sont les causes et modes légitimes de récoltes. 

Face à ce défi, la robotique sociale encore naissante devra choisir son camp : embrasser ce qui se fait déjà ou se développer selon un modèle alternatif où la notion de « robot compagnon » n’est pas l’hypocrite synonyme de « robot espion ». C’est dans cette ouverture à l’alternative que réside la véritable innovation, car miser sur un futur dataïste pour les sociobots n’est que la reproduction du Même sous une forme (à peine) différente. 


Julien De Sanctis est doctorant en philosophie à l’UTC et chez Spoon, une jeune entreprise de robotique sociale. Passionné par les approches philosophiques et politiques des technologies, Julien s’attache à pratiquer une philosophie de terrain assurant le va et vient entre théorie et pratique, entre acteurs et penseurs des techniques. Parallèlement à son travail sur les robots, il s’emploie à promouvoir la « philo hors-les-murs », une philosophie dépassant le seul cadre de l’Université pour s’étendre, sous divers modes, aux organisations


[1] Robots destinés à interagir directement avec l’humain dans une optique servicielle, thérapeutique ou ludique.

[2] J’utilise ce néologisme comme simple synonyme de « robotique sociale ».

[3] Citons par exemple (et parmi tant d’autres) le travail de « médiation robotique » mené au Living Lab de l’hôpital Broca sur le bien-être de personnes âgées atteintes de maladies neurodégénératives

[4] Il est intéressant, à cet égard, de se pencher sur le cas de la société française Hease Robotics qui, ayant compris que l’IHM verbale étant aujourd’hui encore très complexe à mettre correctement en œuvre, a décidé de ne pas faire parler son robot.

[5] Un exemple couramment cité est celui de cette étude sur le soutien dans la perte de poids où le robot apparaît comme un « coach » plutôt efficace.

[6] Le préfixe cyber vient du grec kubernêtikê qui signifie « gouvernail ».

[7] Rouvroy Antoinette et Berns Thomas, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013/1 n° 177, p. 163-196, p.171. DOI : 10.3917/res.177.0163

[8] ibid., p.173.

[9] ibid., p.180.

[10] Ibid., p.177.

[11] Propos recueillis par Alexandre Lacroix dans « Passer entre les mailles », interview croisée entre Antoinette Rouvroy et Alain Damasio, Philosophie Magazine, n°133, octobre 2019, p.62  

S’abonner
Notifier de
guest
1 Commentaire
Inline Feedbacks
View all comments
Sylvain
Sylvain
4 années il y a

Mais ce sont des machines juste des machines, des automates programmable