top of page
  • Marc Reisinger

L'intelligence artificielle ne prend pas la mouche



L'intelligence artificielle devient un sujet de conversation quotidien, qui n'est pas près de s'estomper. Plutôt que d'avoir des idées générales à ce sujet - toujours fausses selon Spinoza - il vaut mieux écouter, observer, en faire l'expérience.


L'intelligence artificielle est désormais une des composantes de notre monde. Inutile de faire comme si ce n'était pas le cas, ou comme si ce ne devrait pas être le cas. Le mieux est de comprendre ce qu'elle est et ce qu'elle n'est pas.


La version non-professionnelle de Chat-GPT est disponible en ligne, pour autant que l'on remplisse un formulaire d'inscription.



En discutant avec Chat-GPT, on observe une performance dont aucun humain n'est capable : discuter de tous les sujets possibles et répondre presque instantanément à n'importe quelle question raisonnable. Autre particularité remarquable: le dialogue avec la machine peut être interminable.


A la différence des humains, l'IA n'a pas d'émotions, pas d'ego. Elle ne rompt jamais le dialogue - qui constitue une valeur humaine essentielle mise en évidence par le philosophe Gadamer.


Le dialogue suivant illustre cette faiblesse humaine, qui court-circuite tant de discussions :


J'ai cité sur Facebook la phrase suivante :


« Un robot conversationnel aligne des suites de mots. Il ne cherche pas la vérité. Il ne source pas les informations qu’il transmet. Il n’a ni conscience ni empathie. » (Le Vif, 12/4/23).


Et j'ai ajouté :


« D’accord, mais sommes-nous mieux lotis avec les humains ? Combien d’entre eux sont dépourvus des mêmes qualités ? »


Ce qui déclenche une réaction - légèrement agressive - d’une lectrice :


- "Avec "combien...", on répond déjà à la question idiote. Il existe des êtres humains doués d'empathie. Il est donc évident qu'ils constituent le meilleur choix."


Ah ! ma question était idiote... Je réponds :

- "Les robots peuvent exprimer de l'empathie. L'empathie en tant que sentiment est une propriété des vivants, mais l'expression de l'empathie - dont certains humains sont incapables - peut être le fruit de l'intelligence artificielle, puisqu'elle se calque sur l'intelligence humaine."


Nouvelle réponse agressive :


- "C'est faux. Les faux sentiments ne sont pas essentiels. Vivez-vous dans un monde factice et l'appréciez-vous ? Êtes-vous vraiment humain ?"


Je commence aussi à m'énerver et je répond, en miroir :


- "Vous ne comprenez pas la différence entre exprimer et ressentir ? Êtes-vous vraiment humaine ?"


L'interlocutrice (que je ne connais pas) prend la mouche :

- "Ok, ça devient toxique. Au revoir !"


…et elle me bloque !


Fin du dialogue entre humains...


Essayons avec Chat-GPT. Voici sa réponse à ma proposition sur l'expression de l'empathie par les robots:


"Les robots ne sont pas capables d'exprimer de l'empathie de la même manière que les êtres humains. L'empathie est souvent définie comme la capacité de comprendre et de partager les émotions d'autrui, ce qui implique une conscience et une compréhension émotionnelle profonde. Les robots, en tant qu'entités artificielles, n'ont pas de conscience ni de véritable compréhension émotionnelle.


Cependant, les chercheurs en intelligence artificielle explorent diverses approches pour permettre aux robots de reconnaître et de répondre aux émotions humaines de manière appropriée. Ces approches incluent l'utilisation de capteurs pour détecter les signaux émotionnels tels que les expressions faciales, les tonalités de voix et les comportements corporels, ainsi que l'utilisation d'algorithmes pour interpréter ces signaux et générer des réponses adaptées.


Ces systèmes peuvent permettre aux robots d'imiter certains aspects de l'expression de l'empathie, tels que fournir des réponses appropriées en fonction des émotions perçues. Par exemple, un robot peut être programmé pour réconforter une personne triste en offrant des paroles réconfortantes ou en fournissant un soutien pratique.


Cependant, il est important de noter que ces réponses empathiques des robots sont basées sur des modèles préétablis et des règles programmées, et non sur une compréhension réelle des émotions humaines. Les robots ne ressentent pas réellement d'empathie, car ils ne possèdent pas de conscience subjective ni d'expérience émotionnelle."


Une réponse infiniment plus nuancée que celle de mon interlocutrice et dépourvue de toute agressivité. Le propre de l'intelligence humaine est peut-être la tendance à traiter l'autre d'idiot...

19 vues0 commentaire

Posts récents

Voir tout

Heidegger et le nazisme

Très curieusement, un philosophe nazi est devenu le héros culturel de la philosophie française, dès la fin de la deuxième guerre mondiale. J'y vois une résurgence perverse de l'antisémitisme largement

Comments


bottom of page