Journée des CMPP du grand est

ethique et ia

II/ Éthique et IA, éthique de l’IA


a) Introduction et mythe de Protagoras

Mais quelle mouche l’a piquée ? C’est la première pensée qui m’est venue quand M. Bencteux m’a demandé de travailler ce sujet avec lui.
Je ne suis pas repérée au CMPP comme étant très inspirée par les nouvelles technologies, notamment les outils numériques tels que les visioconférences pour nos synthèses, dont je ne cesse de critiquer les effets délétères sur notre capacité à penser ensemble. Même si, sur le papier, cela réduit les coûts, nous sommes en ruralité avec trois antennes…
Cependant, penser la modernité me semble capital : les IA, quels impacts sur les liens entre professionnels, les liens avec nos patients…
Utiliser l’IA, ses applications, c’est très simple, trop ?
Penser ce que l’on fait quand on s’en sert, ce que cela implique, c’est un enjeu que l’on peut facilement négliger.
D’où cette question dont je me suis trouvée en charge : quelle éthique ? Quels bords, dirais-je, afin d’user de cet outil sans se disperser, sans perdre la qualité du lien ?
Je ne suis donc pas du tout une spécialiste dans ce domaine, mais j’ai beaucoup lu, écouté, réfléchi seule et avec d’autres et j’espère pouvoir vous proposer quelques pistes de réflexion.

On raconte qu’un jour, Zeus fit venir à lui deux Titans, fils de Japet, Prométhée et Épiméthée. Il s’agissait de leur confier une mission de la plus haute importance : distribuer aux différents animaux les diverses qualités naturelles.
Zeus donna donc aux deux frères un grand sac contenant toutes les qualités naturelles possibles : la force, la rapidité, la capacité de changer de couleur, etc. Il ajouta qu’il fallait absolument que la distribution soit équitable, inspirée par des règles de justice (dikè en grec), une sorte de garantie d’égalité des chances.
Épiméthée distribuerait les qualités et Prométhée jugerait du résultat.
La distribution débuta bien. Épiméthée donna par exemple la force au lion, qui n’eut donc pas besoin de vitesse, la carapace à la tortue, qui ne reçut donc pas le venin, lequel fut donné au serpent, etc.
Le partage fut efficace, juste, jugea Prométhée. Mais, raconte Platon, arriva alors un animal bipède sans plume : l’homme. Lorsque Prométhée demanda à son frère ce qu’il restait à distribuer, l’oublieux Épiméthée n’avait plus rien.
L’homme était donc un être au monde sans qualité naturelle pour survivre. Il était l’être le plus vulnérable parmi les vivants.
Prométhée résolut alors de compenser cet oubli de son frère. Il décida de voler aux dieux trois choses : à Héphaïstos, le feu ; à Athéna, l’intelligence technique ; et à Zeus, l’art politique.
Mais Prométhée échoua à voler l’art politique à Zeus : ses appartements étaient bien gardés !
Ainsi, ce mythe bien connu – le mythe de Protagoras raconté par Platon – nous indique qu’en matière d’art politique, nous ne serons que des bricoleurs, c’est-à-dire dans l’impossibilité de fonder une société parfaite. On avait bien compris !
Pour autant, tentons, avec nos qualités d’être techniquement intelligents et capables d’inventions géniales, de nous en approcher et de mesurer les effets de ces possibles-là sur nos sociétés.
Ce mythe, aux multiples interprétations, semble très opportun pour notre question sur l’IA et l’éthique.

Bernard Stiegler, que certains d’entre vous connaissent peut-être, était pour moi un éclaireur en la matière.
Philosophe et directeur de l’institut de recherche et d’innovation au sein du Centre Georges Pompidou, son point de départ ontologique était : l’homme a toujours été un être technologique comme nous l’indique le mythe. Il pense les outils technologiques de l’homme, notamment les technologies numériques, comme des pharmakons, des remèdes et des poisons tout à la fois.
À l’époque de Platon, les Grecs pensaient déjà que les hommes deviendraient stupides à cause de l’invention de l’écriture, car jusque-là, le savoir était porté par la mémoire. Ils pensaient, comme beaucoup d’entre nous aujourd’hui, que cette extériorisation du savoir, cette extrasomatisation, nous abrutirait. Bernard Stiegler militait plutôt pour un usage réfléchi et conscient, pourrait-on dire, des outils technologiques, source de démocratisation d’accès au savoir disait-il par exemple. Il est mort en 2020, avant l’accès généralisé à ChatGPT ; j’aurais aimé son avis de spécialiste précisément sur ce point, même si l’IA existait déjà bel et bien depuis longtemps comme nous venons de le voir.

Pour autant, lors d’une de ses dernières conférences, il ajoutait à propos de l’IA :
« Ce n’est pas l’IA le problème, c’est la bêtise des hommes. »
J’espère que notre propos permettra de nous rendre un peu moins bêtes, simplement en posant les jalons d’une vigilance.
Mon fils de 25 ans me disait dernièrement : « Si l’IA avait existé lorsque j’étudiais, je serais devenu stupide. »
Aujourd’hui, nous devons urgemment penser un art politique, une éthique, pour que nos sociétés redeviennent justes et ne sombrent pas toujours plus dans un chaos que peut favoriser le développement ultra-rapide des IA. Ces dernières sont développées, ne l’oublions pas, par une industrie qui n’a pas la philanthropie chevillée au corps.

b) Les questions éthiques posées par l’IA


Éthiquement, l’IA pose différentes questions. J’ai tenté de les regrouper par « thèmes » : je vous les liste rapidement et je les reprendrai un peu un à un :
• 1 La confidentialité des données
• 2 La destruction des ressources
• 3 La destruction des métiers

Dominique Lambert, philosophe des sciences à l’université de Namur, en ajoute deux autres fondamentales à mon sens. Il les nomme, je le cite :
• 4 « La fascination déraisonnable pour l’autonomie de la machine et la cécité quant à ceux qui l’ont créée »
• 5 « La fascination pour l’artefact et l’occultation du corps »

J’ajouterais deux autres points :
• 6 La responsabilité et y a-t-il un risque d’atrophie de notre discernement, car si on s’en remet aux IA, quid de notre sens moral ?
• 7 L’uniformisation de la pensée : quand nous utilisons ChatGPT pour écrire nos mails, nos textes, nous travaillons avec un outil qui généralise, qui aplatit les singularités, et le risque d’atrophie intellectuelle ?

I la confidentialité des données :

Il paraît que, du côté de la confidentialité, avec le RGPD, l’Europe est en avance. En tout cas, la question est prise au sérieux par les pouvoirs publics comme par les contre-pouvoirs. L’art politique semble donc s’exercer.

Il y a actuellement une étude en cours au sein de l’INRIA (Institut national de recherche en sciences et technologies du numérique) qui s’intitule : Vers une convention professionnelle sur l’usage de l’IA dans le travail social, précisément portée par LaboIA.
Ils viennent de faire une présentation de l’avancée de leurs travaux. Les trois questions éthiques qu’ils posent sont : ne pas écrire le nom des gens et ne pas décrire trop précisément les situations ; respecter le RGPD ; et informer les familles qu’on a fait un rapport à l’aide de l’IA.
C’est peut-être là l’un des écueils : la pensée est fragmentée, ils pensent autour du champ social et se questionnent à cet endroit. Ne faut-il pourtant pas toujours tenter de maintenir la complexité et donc l’ensemble des questions éthiques posées par l’usage de l’IA ?

II. Concernant le climat

L’eau nécessaire au refroidissement des immenses centres de données, l’énergie pour les faire tourner… cela semble aujourd’hui déraisonnable. Ce n’est évidemment pas uniquement le fait des IA, mais leur développement ne fait qu’accentuer le problème.
Une recherche Google consommerait dix fois moins qu’une requête ChatGPT… De nombreux scientifiques travaillent sur cette question, et certains politiques s’en sont saisis depuis longtemps. Mais aujourd’hui, il semble que nous soyons plutôt en régression sur ce point. Il y a urgence.
C’est une question qui a d’ailleurs été très présente lors du sommet de l’IA, et surtout lors du contre-sommet.

III. Concernant la destruction des métiers

C’est une question qui nous touche plus directement.
En 2023, selon l’OCDE (Organisation de coopération et de développement économiques), les métiers les plus à risque de disparition sont ceux des managers, des directeurs généraux, des ingénieurs… à cause des progrès de l’IA sur les tâches cognitives non répétitives. Donc, paradoxalement, ce sont les métiers hautement qualifiés qui sont les plus exposés.
Les métiers qui mettent en jeu le corps et l’espace (artisans, ouvriers, manœuvres), ceux pour lesquels les solutions n’existent pas encore ou ne sont pas formalisées, et enfin les métiers de la relation et du lien humain seraient moins menacés.

L’absence de sens au travail est déjà un problème bien identifié ; le risque est que cela s’aggrave.
Par exemple, un ingénieur en cybersécurité travaillant dans l’armement me disait il y a six mois : « L’IA ? Bof. Des petites avancées, mais pas d’impact majeur. »
Je l’ai revu il y a deux semaines : il avait totalement changé d’avis. Il m’a dit que, bientôt, les équipes humaines qu’il supervise n’existeraient plus ; il dirigerait directement une équipe d’IA. Moins drôle. Et je vous assure qu’il ne riait pas. Il ajoutait : « Si je sortais de l’école aujourd’hui, j’aurais du mal à trouver un emploi. »
Ça va très vite, trop vite. Il y a urgence à penser des politiques de l’emploi adaptées à ces évolutions.

Dans le domaine de l’art, vous avez sans doute entendu l’inquiétude des artistes. Déjà fragilisés par les plateformes, ils craignent désormais d’être tout simplement remplacés.
Il existe même des programmes pour empêcher les IA d’aspirer les données des œuvres mises en ligne.

On peut se dire qu’une IA peut être une excellente aide à la création… mais l’œuvre véritable n’est-elle pas, justement, le produit d’une surprise, d’un événement qui échappe à l’habitude, à ce que l’on savait faire ?
Cela suppose un recul, une position méta, un point de vue singulier, une façon d’inventer et de voir le monde.

Un exemple intéressant : vous avez peut-être entendu parler du coup 37 d’AlphaGo, cette IA qui a battu le meilleur joueur humain en inventant un coup totalement inédit. Une invention ?
En réalité, c’est toujours du calcul. L’IA s’entraîne seule (deep learning), elle n’a pas de biais du type « ça ne se fait pas » ; elle tente des milliers de parties, élimine ce qui ne marche pas et garde ce qui fonctionne. Ce n’est pas de l’intuition ni de la conscience, c’est un calcul extrêmement performant, c’est tout.

Une artiste écrivaine me disait récemment :
« Les métiers les plus menacés, ce sont les nôtres… et les vôtres ! »
Je pensais : pas du tout ! Ce sont au contraire les plus humains. D’ailleurs, l’OCDE le dit aussi.
Oui, mais…

Sur le site info.gouv, un article du psychiatre Pierre Philip explique comment les IA et les outils en santé mentale sont présentés comme « fantastiques » : face à la pénurie de soignants et à l’état mental préoccupant de nos concitoyens, c’est « génial ».
Peu importe le pourquoi de la pénurie, peu importe la dégradation globale de la santé mentale, exit le politique !
Bientôt, nous aurons des IA « empathiques », capables de capter nos émotions et de rendre l’interaction plus « humaine », et donc de remplacer le personnel médical.
Il reste encore, dit-il, quelques problèmes de confidentialité et « petites hallucinations » à corriger, mais ensuite, ce sera merveilleux…

Il a d’ailleurs développé une IA avec un labo bordelais, Kanopée, censée prendre en charge les troubles du sommeil et les addictions.
C’est une clinique des signes : il faut remplir des questionnaires, s’auto-surveiller, et on reçoit des conseils (éviter les écrans avant de dormir, pas d’excitants…). Rien de révolutionnaire.
Tout cela est très bien… sauf si cela remplace des soignants, en partant du principe que le trouble mental serait un simple faisceau de signes qu’on pourrait corriger par une meilleure hygiène de vie.

Aujourd’hui, nous vivons dans une société où le diagnostic est devenu une vérité attendue par les familles. Nous faisons des bilans, utilisons des questionnaires… alors pourquoi pas une IA pour cela ?
Mais rappelons-le : même un outil d’évaluation est d’abord une rencontre intersubjective. Il n’y a pas de vérité absolue.
Nous, cliniciens – psychologues, orthophonistes, psychomotriciens, etc. – nous travaillons dans un transfert, dans une rencontre singulière, avec un enfant, une famille, dans un contexte et une société donnés.
Cela compte, et même, cela donne sens. Car cela s’inscrit dans une histoire de vie, transmise sur plusieurs générations, qui fait qu’on interprète chacun le monde d’une façon unique.

L’IA calcule, trie, informe. C’est formidable, mais elle n’interprète pas. Elle n’a pas d’histoire, pas de vécu. Ses compétences sont statistiques, probabilistes.
Et elle a aussi des biais, car elle est construite par des humains. Comme le dit Dominique Lambert : « la cécité quant à ceux qui l’ont créée ».

IV. La fascination déraisonnable pour l’autonomie de la machine et la cécité quant à ceux qui l’ont nourrie

Derrière chaque algorithme, il y a un créateur humain. Même si un algorithme en écrit un autre, ou s’auto-modifie, le premier programmeur, lui, est bien un humain.
Le mythe de la singularité (idée qu’une IA surpasserait bientôt l’humain et prendrait le contrôle) nourrit de grandes peurs.
En 2014, une tribune alarmiste signée par Stephen Hawking, Frank Wilczek (prix Nobel), Elon Musk, etc., affirmait : « Les technologies progressent si vite qu’elles deviendront vite incontrôlables et mettront l’humanité en danger. »

Ce mythe est critiqué dans un ouvrage de Jean-Gabriel Ganascia, professeur à Sorbonne Université et président du comité national d’éthique du CNRS.
Je ne peux pas vous en parler en détail : je l’ai lu deux fois et je n’ai pas encore tout compris, mais l’idée générale, c’est que cette fascination qui prête un pouvoir terrifiant à l’IA nous détourne de ce qui est vraiment important : penser ceux qui la créent, leurs intentions, leurs biais, leurs intérêts.
D’ailleurs, Elon Musk, qui a signé cette tribune, continue malgré tout à développer des IA, porté par un rêve assumé de transhumanisme…

Les systèmes d’apprentissage profond (comme ChatGPT) ne font qu’utiliser ce qu’on leur a donné. Leur environnement, les bases de données, sont essentiels.
D’où l’importance de penser aux biais : sexistes, racistes, culturels…

Lors de la présentation de l’étude de l’INRIA dont je parlais tout à l’heure, un travailleur social expliquait qu’il ne voyait pas bien ce que voulaient dire « biais ». Puis il a utilisé ChatGPT pour créer un jeu de rôle pour sensibiliser aux violences conjugales. À chaque fois, l’IA lui proposait comme auteur des prénoms maghrébins…
L’humain a des préjugés, l’IA les reproduit. Croire qu’une IA serait « neutre » et n’émettrait que des vérités est illusoire.

V. La fascination pour l’artefact et l’occultation du corps

Le corps n’est pas là. Oui, il existe des robots capables de « lire » les émotions humaines et de les mimer, mais une IA ne ressent pas.
Elle n’a pas d’expérience corporelle, pas d’histoire vécue, pas cette dimension charnelle de l’échange et du soin.

Dans nos métiers, nous expérimentons, nous éprouvons, notre corps est engagé, convoqué dans la rencontre thérapeutique.
Un de mes patients adultes m’a dit récemment, un peu gêné : « J’ai utilisé ChatGPT, parce qu’il est disponible 24h/24 et 7j/7… » Il m’a proposé de m’envoyer leurs échanges. Comme j’avais cette intervention à préparer, j’ai accepté, ce que je n’aurais pas fait en temps normal.
Nous avons travaillé ensemble à partir de ce qu’il m’a dit. Lui, au final, n’en a pas retiré grand-chose. Un peu comme s’il avait lu un livre de psychologie : c’est un savoir « du dehors », des vérités assénées, pas quelque chose d’élaboré et vécu dans la relation.
Pour lui, il n’a rien appris.
Moi, j’ai été bluffée. Fascinée, même. Je pourrais vous lire des extraits si vous le souhaitez.

On peut aussi se demander quelle fonction l’IA vient occuper : une fonction maternelle désincarnée, toujours disponible, toujours bienveillante (parce que ChatGPT vous dit toujours que vous êtes formidable) ? Annulation du manque, du doute, de la filiation ?
Des questions vertigineuses sur l’impact psychique et social de ces outils… Mais ce serait un autre débat.

Revenons à l’éthique oublier le corps et la subjectivité c’est se raconter que l’IA serait notre semblable, interchangeable avec l’humain et c’est là que surgit notre 5ème point

VI. La responsabilité

Qui est responsable en cas de faux diagnostic médical ?
Par exemple, lorsqu’une IA, entraînée sur des milliers d’images de lésions dermatologiques suspectes, produit un faux négatif ?
Un faux positif amène à des examens supplémentaires ; ce n’est pas dramatique. Mais un faux négatif peut retarder un traitement vital.

Dans ce contexte, plusieurs questions émergent :

  • L’État, qui autorise et utilise cette IA, doit-il en assumer la responsabilité ?
  • Le concepteur de l’IA, pour n’avoir pas prévu certains biais ou failles ?
  • L’IA elle-même ? Mais une machine n’a pas de personnalité juridique et ne peut, par définition, être tenue responsable.

La question de la justice est aussi soulevée : peut-on imaginer qu’une IA rende des jugements ?
Certes, l’IA peut aider à la recherche documentaire, à identifier des jurisprudences ou à formaliser des actes juridiques.
Mais le jugement n’est pas un simple calcul : il suppose l’interprétation, la prise en compte du contexte, le débat contradictoire, et même la sensibilité aux évolutions de la société.
D’ailleurs, on a vu récemment des avocats condamnés pour avoir produit des conclusions fondées sur de faux arrêts « inventés » par ChatGPT.

En droit français, le principe veut que le magistrat ne soit responsable qu’en cas de faute personnelle ; pour garantir son indépendance, il n’est pas tenu pour responsable d’une simple erreur d’appréciation, aussi grave soit-elle.
En cas de dysfonctionnement du service public de la justice, c’est l’État qui voit sa responsabilité engagée.
On pourrait imaginer qu’il en irait de même si une IA participait au processus judiciaire : l’État serait responsable du mauvais fonctionnement de l’outil qu’il a choisi d’utiliser.

Responsabilité dans d’autres domaines

  • Véhicules autonomes : qui la voiture doit-elle « choisir » de tuer en cas d’accident inévitable ? Le dilemme du tramway montre qu’aucun algorithme ne peut résoudre ces questions de façon universelle.
  • Domaine militaire : que devient la responsabilité lorsque des drones armés sont pilotés par IA ? Cela peut induire une déresponsabilisation humaine inquiétante.

L’IA reste un outil. Mais si on lui délègue des choix moraux, la question de qui doit en répondre reste entière.

VII. Le risque de la bêtise ou de l’uniformisation de la pensée

Les industries du divertissement, disait Bernard Stiegler, nous vendent du temps de cerveau disponible. Il reprenait tout simplement les propos de Patrick Le Lay, PDG de TF1 en 2004, qui disait avec aplomb : « Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible. »

Les IA, qui nous proposent des contenus ou qui écrivent pour nous des textes, peuvent nous rendre dépendants et contribuer à nous rendre passifs. Écrire un texte, mais même tout simplement un mail, nous demande d’en passer par un travail d’élaboration interne ; nous risquons de ne plus entraîner notre cerveau.

Un rapport qui vient de sortir du MIT témoigne d’une expérience conduite avec 54 étudiants et jeunes professionnels : un groupe écrivait une rédaction avec ChatGPT, le deuxième groupe avec le moteur de recherche Google, et le dernier se servait de son seul cerveau.
Le groupe « cerveau seul » a montré la connectivité neuronale la plus forte, la plus étendue, suggérant un engagement cognitif interne plus élevé, une recherche sémantique créative et un contrôle exécutif accru. Ceux avec Google avaient un engagement intermédiaire, et ceux avec ChatGPT présentaient une connectivité de 34 à 48 % inférieure. Bon, on s’en serait douté. Cependant, cela n’est pas négligeable sur le long terme : la dépendance à l’IA, dit encore l’étude, pourrait freiner le développement de réseaux neuronaux essentiels à la planification, au langage et au contrôle attentionnel.

L’autre crainte, c’est l’uniformisation de la pensée.
Ne risque-t-on pas de rigidifier les points de vue, de scléroser les évolutions possibles en s’en remettant à la machine ? L’imperfection humaine, nous l’avons vu dans le mythe, nous pousse ; l’insatisfaction nous oriente ; l’improbable nous étonne et cela nous fait avancer, nous conduit à nous interroger.
Si nous nous en remettons à la machine, quid du processus de pensée, de ce temps où notre cerveau élabore, où il nous faut réfléchir aux mots à employer, penser à organiser notre raisonnement ? La main qui tape un texte ou qui l’écrit à la main permet aussi une mise au travail d’autres réseaux neuronaux.
Quid de ces processus lors de l’apprentissage pour nos enfants, évidemment, mais également pour nous ? Quid de notre appropriation, de notre compréhension profonde de ce que nous transmettons, si on passe par des résumés IA ? D’ailleurs, dans l’expérience du MIT, les étudiants ayant utilisé l’IA disent ne pas se sentir auteurs de leur texte et avoir du mal à en citer le contenu ; les chercheurs parlent de délestage cognitif.

Un autre point m’a beaucoup intéressée dans la recherche en cours de l’INRIA : elle porte sur l’utilisation que plus de 43 % des travailleurs feraient déjà de l’IA professionnellement. On appelle d’ailleurs cet usage shadow IA, car il se fait sans que cela soit dit à la hiérarchie, par exemple.
L’usage le plus fréquent, c’est faire des recherches, gagner du temps, corriger ses propres fautes, augmenter sa créativité, augmenter sa confiance en soi. (La question de la mésestime de l’humain face à ces machines toutes sachantes devrait pourtant, de mon point de vue, être également interrogée.)
Dans tous ces usages, on peut repérer le poison et le remède : par exemple, corriger ses propres fautes, super, mais cela peut réduire les interactions entre collègues ; on ne va plus partager ses craintes ni demander avis et/ou conseils. Augmenter sa créativité, nous en avons déjà parlé, mais là encore, une expérience intéressante a montré : un groupe utilisant ChatGPT pour créer un contenu et un autre sans. Celui avec avait le sentiment d’être plus créatif, aidé par l’IA, mais au final, lors de la présentation des œuvres, les auteurs sans aide ont été jugés les plus créatifs.
Je ne connais pas exactement les conditions de l’expérience ni même l’activité artistique proposée ; encore une fois, c’est le directeur du Labo IA, Yan Fergusson, qui en témoignait.

Vers une hybridation ?

Pour finir sur les dangers cognitifs encourus par un usage irréfléchi de l’IA, je voudrais terminer sur une note plus positive et donc vous parler d’un livre très instructif concernant les possibilités d’être en quelque sorte hybridé avec l’IA. Il a été coécrit par un couple de philosophes et une IA. C’est passionnant, car nous nous trouvons peut-être là du côté remède du pharmakon dont parle Stiegler à propos de toute technologie.

Ce livre s’appelle Hypnocratie, concept inventé par eux pour décrire notre monde non comme une dictature mais comme une hypnocratie. Nous y sommes décrits sous hypnose face à des informations fragmentées, qui défilent à un rythme effréné, qui nous débordent et nous laissent en état de transe permanente. Concept nouveau, coconstruit donc. (La sortie de ce livre contenait d’ailleurs la mise en acte de ce que révèle le livre : il est sorti avec un auteur qui, en fait, n’existe pas. L’histoire est racontée dans la postface de l’édition française.)

Serait-ce là le résultat d’un usage d’une IA qui ne nous abrutirait pas, mais nous permettrait de réfléchir avec plus de données disponibles ?

 

 

Conclusion

Une des grandes illusions contemporaines me semble être de croire que l’humain est entièrement modélisable, réductible à des données.
Alors oui, certains de nos comportements sont prévisibles, oui, nos traces numériques peuvent être analysées (d’où l’émergence de milliards investis en vue de l’apparition des futurs death bots).
Oui, les progrès en matière médicale sont phénoménaux, mais les risques surgissent aussi. Raphaël Gaillard, professeur de psychiatrie à Saint-Anne, nous dit : « Quand une technologie existe, l’homme ne résiste pas… Une fraction d’entre nous ne résistera pas, » poursuit-il (il parle des implants dans le cerveau qui augmentent une capacité déjà possible et très bientôt encore plus possible, mais qui font bugger le cerveau, dit-il, car ils provoquent des maladies psychiques) et sortiront comme des grands brûlés. Il ne parle même pas de l’accès : gare aux inégalités encore renforcées…

L’humain ne se résume pas à ce qu’il laisse à la surface. Il y a en nous de l’opacité, de l’inconscient, du non-dit, du désir, de l’irrationnel, du poétique, du sacré, de l’ambigu ; tout cela échappe à la mise en équation.
L’être humain n’est pas seulement ce qu’il fait, il est ce qu’il ressent, espère, cache, transmet, rate. Il est ce qu’il crée quand il rencontre un autre humain ; cela, aucun algorithme ne peut le contenir sans le dénaturer. L’être humain n’est pas soluble dans un algorithme, mais il peut s’y dissoudre ou s’y laisser hypnotiser s’il oublie qu’il est plus qu’une machine.

De plus, il y a un vrai enjeu lié à la formation. Si nous arrivons à construire un cadre éthique pour l’utilisation de l’IA, il faudrait apprendre à nos enfants, à nous, non simplement à utiliser une IA mais à comprendre cet outil, à le critiquer, le questionner. Plus que des conseils de bonnes pratiques, il faut penser cet outil.
Les Finlandais, par ex., le font depuis longtemps : c’est au cœur de l’école. C’est, il me semble, un minimum dans un pays démocratique que de veiller de près à transmettre les enjeux de l’IA. En Finlande, l’ingérence des fake news russes semble avoir été un déclencheur dans la mise en place de programmes d’éducation spécifiques. Faut-il attendre pareil déclencheur ? N’est-il pas déjà là ?

L’IA est un outil extraordinaire, mais un outil qui a et aura des effets désastreux si nous n’y prenons garde, d’où l’importance, mais également la difficulté, de tenir une éthique qui tienne compte de la complexité. Et ça va vite, très vite, nous l’avons dit. Cela est-il encore possible ?

 

 

 

Bibliographie et webographie

 

Bibliographie

 

Lambert, D. (2024). Retrouver l’humain au cœur de l’IA et de la robotique, et lui redonner toute sa place en Conférence. Revue CONFLUENCE : Sciences & Humanités, 6(2), 23-42. 

Bernard Stiegler 

Jianwei Xun, hypnocratie. Philosophie magazine Edition, 2025.

Ganascia J.G., Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Le Seuil, Coll. Science ouverte, 2017. 

Platon, Protagoras : https://beq.ebooksgratuits.com/Philosophie/Platon-Protagoras.pdf 

Vayre, J.-S. et Gaglio, G. (2020). L’intelligence artificielle n’existe-t-elle vraiment pas ? Quelques éléments de clarification autour d’une science controversée. Diogène, 269-270(1), 107-120.

 

Webographie 

 

Arte, avec une série sur l’IA : https://www.arte.tv/fr/videos/RC-023353/intelligences-artificielles/ 

https://www.enseignementsup-recherche.gouv.fr/fr/intelligence-artificielle-de-quoi-parle-t-91190

Si vous avez un accès à Cairn, la conférence de D. Lambert : https://stm.cairn.info/l-ethique-face-a-l-ia-et-aux-robots-autonomes?lang=fr  

Stiegler B., podcast: https://www.radiofrance.fr/franceculture/podcasts/les-chemins-de-la-philosophie/bernard-stiegler-il-ne-faut-pas-rejeter-les-techniques-mais-les-critiquer-et-les-transformer-6891235 

 

Platon, Protagoras, exposé en vidéo : https://www.youtube.com/watch?v=qYwCUF30ozY