Considérez la situation suivante: il y a une jeune enfant à bord d’une voiture. Devant, soudain, une personne surgit, une personne que la voiture tuera à coup sûr si rien n’est fait. Pour l’éviter, on ne peut que bifurquer vers la droite, où se trouve, hélas, un précipice; dans ce cas, c’est l’enfant à bord de la voiture qui, très probablement, mourra.
Question difficile: quelle décision doit prendre le chauffeur?
Réponse: celle pour laquelle il aura été programmé. Car le chauffeur est un robot.
En ce cas, nouvelle question difficile: comment fallait-il le programmer?
Bienvenue dans un monde qu’on nous annonce pour bientôt et dont on aperçoit déjà les prémisses. Bienvenue dans ce monde où surgissent des problèmes éthiques parfois inédits et souvent très difficiles.
Longtemps, de telles questions ont surtout alimenté l’imagination des romanciers, comme Isaac Asimov, ou des cinéastes – comme ceux qui signent RoboCop ou Her, ces temps-ci. Depuis quelque deux décennies, elles font cogiter des philosophes. Elles deviennent à présent de plus en plus incontournables.
Cette semaine, justement, Google a, pour quelque 500$ millions dit-on, fait l’acquisition de DeepMind, une firme qui développe des logiciels d’intelligence artificielle. Or, et cela est largement passé inaperçu chez nous, en vertu d’un élément de la transaction, Google doit mettre sur pied un comité d’éthique pour réfléchir aux impacts de l’intelligence artificielle et de la robotique. Car il y en aura certainement et ce sera sans doute bientôt.
Plusieurs facteurs donnent en effet à penser aux experts que des développements majeurs sont à nos portes. Parmi eux: la chute des coûts et les progrès réalisés en matière de capacité informatique (de stockage et de traitement de données); en matière de technologie de reconnaissance visuelle et auditive; et en matière de connexion haut débit sans fil. Sans oublier la fameuse loi de Moore, qui prédit que les capacités des ordinateurs doubleront tous les 18 mois.
Il est donc plausible de penser qu’on aura demain ou après-demain, divers robots, possiblement d’apparence humaine, pouvant accomplir un nombre extraordinaire de tâches comme: faire le ménage; donner des soins aux malades; enseigner aux enfants; conduire des véhicules (qu’ils auront fabriqués); assurer la sécurité de personnes et de lieux; remplacer les chiens-guides; assurer le service à la clientèle dans les commerces; faire la guerre – l’armée américaine investit d’ailleurs des milliards de dollars en robotique; et aussi faire l’amour, sinon du moins être des sortes de partenaires sexuels; et j’en passe.
C’est aux enjeux éthiques qui se poseront que devra réfléchir le comité Google – on a annoncé que le promoteur de la singularité, qui est aussi un des grands noms du transhumanisme, Ray Kurzweil, en fera partie.
Voici quelques exemples.
Que faire quand un secteur économique tout entier pourrait être robotisé, ce qui ferait en sorte que (presque) tous les emplois disparaîtraient? Des robots devenus plus intelligents que nous pourraient-ils décider de mettre fin à l’humanité, comme semble le penser Nick Bostrom, du Future of Humanity Institute de l’Université Oxford? Comment l’éviter? Est-il possible que les robots militaires, par exemple, soient un moyen par lequel les humains se déresponsabilisent de leurs gestes? Que faire, alors? Et si, dans votre voiture-robot, était implanté un système par lequel on vous surveille et on vous manipule, par exemple en orientant vos choix de consommation?
Ces exemples et d’autres, que vous pouvez facilement imaginer, incitent à penser que trois grandes questions éthiques vont se poser, si on en croit certains spécialistes.
La première concerne la détermination des systèmes éthiques qu’il faudrait implanter dans les robots; la deuxième concerne la définition des principes éthiques que doivent respecter les personnes qui conçoivent et fabriquent les robots; la troisième concerne la formulation des principes éthiques guidant l’utilisation des robots. Avec en toile de fond, une question préalable: celle de savoir quel est le statut moral d’un robot. Dès lors, le cas échéant, il n’est plus tout à fait un objet inerte ni tout à fait un sujet moral.
Questions passionnantes, on le voit. Mais aussi redoutables. On ne peut que souhaiter qu’elles ne soient pas discutées uniquement dans un comité d’éthique mis sur pied par Google, et que le plus de gens possible puissent prendre part à la conversation.
En attendant, je m’en voudrais de ne pas vous laisser avec les fameuses trois lois de la robotique qu’imaginait le grand Asimov, dès 1942, lui qui avait pressenti que des questions de ce genre se poseraient un jour.
Les voici:
1. Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.
Plus je lisais et plus je me demandais: « va t il abordé les 3 lois d’Asimov !?! » J’étais évidemment prêt les mettre en référence; hélas, je n’ai pas ce bonheur !
Ahahah
Lorsqu’on les regarde de plus près, ces lois sont déjà un excellent point de départ concernant ces questions éthiques.
L’on pourrait également abordé Huxley et Orwell…
Plus près de nous, Laborit et le club des 10 avec en tête Joël De Rosnay, toujours très actif au niveau biotechnologie et bioéthique.
Encore une fois Normand, vous abordez des états de fait qui, bien que connus depuis des lustres par une minorité, n’ont jamais fait les manchettes ni préoccupé la majorité de la population, ni même la communauté scientifique…maintenant que l’on voit cela se rapprocher de plus en plus rapidement, il faudra bien tôt ou tard se questionner et prendre les décisions qui s’imposent.
Tout est déjà là, et prêt; des équipes travaillent sur les composantes mécaniques, d’autres sur le mouvement, d’autres sur l’IA etc…lentement, on intègre tout ça et nous sommes très près d’une évolution majeure et de changements à grande échelle…
Sommes nous prêts ? Hum hum …
« un comité d’éthique pour réfléchir aux impacts de l’intelligence artificielle et de la robotique. »
J’aimerais qu’on puisse espérer que les développements à venir de la robotique soient placés sous la surveillance de comités d’éthique… mais pourquoi échapperaient-ils au destin de tous les autres moyens de production? Sans dire que les gens de Google soient a priori indifférent ou pire hostile à toute préoccupation éthique, il est fort douteux qu’ils aient investi tous ces beaux millions pour préserver l’humanité des dangers des technologies à venir.
En ceci comme en tant de choses, la première question à se poser n’est peut-être pas de savoir quelles sont les fins que nous jugerions désirables, mais celles au service desquelles elles sont mises actuellement. L’enjeu est éthique, bien entendu, mais le terrain où les arbitrages auront lieu ne l’est pas: il est politique. Et le politique, s’il implique par nature la conversation démocratique, il ne permet à son tour que des décisions qui ne compromettent pas un ordre des choses essentiellement économique (à moins de révolution, mais ça c’est des lubies romantiques). Tout ne se ramène pas à l’économique, mais c’est lui qui est déterminant, en dernière instance.
Dans ce sens, les lois de la robotique d’Asimov ont pour inconvénient notable de ne fixer les « devoirs » des robots que par la négative, comme si l’enjeu était principalement de les empêcher de nuire, alors que les machines les plus simples valent par ce qu’elles « peuvent » accomplir au service de finalités qui définissent leurs « devoirs » positifs. La robotique ne soulève pas de nouveaux problèmes éthiques, elle ne fait que les exacerber. L’empressement avec lequel on s’engage là à mettre sur pied un comité éthique est peut-être le symptôme de la nécessité de sauver la face, tant il serait trop évident autrement que l’éthique est une préoccupation, bien noble, certes, mais tellement secondaire…
Nous parlons éthique alors que nous devrions discuter tout autant sinon davantage son application; soit la morale.
Quand entend t on ce mot dans nos sociétés ? Et pas davantage dans les milieux politiques et d’aiffaires….
P-ê un peu dans les milieux universitaires et en médecine. Outre cela, le sujet est bien souvent évacué, bien loin…
Des remarques de meme.
»
En attendant, je m’en voudrais de ne pas vous laisser avec les fameuses trois lois de la robotique qu’imaginait le grand Asimov, dès 1942, lui qui avait pressenti que des questions de ce genre se poseraient un jour.
Les voici: »
« Plus je lisais et plus je me demandais: « va t il abordé les 3 lois d’Asimov !?! » J’étais évidemment prêt les mettre en référence; hélas, je n’ai pas ce bonheur ! »
—
(1)
(a)
Le plus interessant des livres d’Asimov est non seulement de formuler ces lois, mais d’explorer dans divers livres les consequences, paradoxes apparent et aussi les limites des trois lois.
(b)
Il evoque en fait aussi la loi zero
http://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique
•Loi Zéro : Un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée.
•Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
•Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
•Troisième Loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.
(c)
Dans ses ecrits, il nous invite a une lecture qui n’est superficielle des trois lois et a un questionnement en profondeur de ce qu’elle veut dire, parfois de maniere inatendu.
—–
(2)
« Questions passionnantes, on le voit. Mais aussi redoutables. On ne peut que souhaiter qu’elles ne soient pas discutées uniquement dans un comité d’éthique mis sur pied par Google, et que le plus de gens possible puissent prendre part à la conversation. »
Ceux qui sont familier avec la science fiction ont lu beaucoup de livres qui abordent justement de nombreuses facettes de cette relation, nombreux questionnement.
Je pense que des questions differentes vont se poser tout dependament de la forme que prend cette intelligence artificielle.
» faire le ménage; donner des soins aux malades; enseigner aux enfants; conduire des véhicules »
Je pense aussi qu’une possibilite est que differentes formes de robot et d’intelligence artificielle vont cohabiter.
(3)
-De mon point de vu a terme … comment imaginer que la machine en viendra pas a « depasser » l’homme de cro magnon … depasser meme le meilleur de l’homme en terme non seulement en terme de capacite a jouer au jeux d’echec … mais ultimement meme d’arborder des probleme scientifiques ou meme d’ethique … sera-t-elle capable meme de choix, de creativite ….
C’est plus a long terme mais du moment qu’on aborde l’intelligence je pense qu’on doit reflechir jusque dans ces limites.
-La machine en viendra-t-elle a elle meme interpreter sa fonction …. seront nous partenaire …. voudra-t-elle explorer et etudier l’univers ….
-l’homme en retour pourra-t-il rester homme … en viendra-t-il lui meme a devoir changer ses capacites, devenir un peu machine lui meme …
Je pense que si ca se concretise ( c’est peut etre de l’ordre du mouvement perpetuel ou que les conditions se reuniront pas ) ca va redefinir profondement ce que nous sommes et d’une maniere qu’on imagine probablement pas.
Souvent on evoque la possibilite de vie intelligente ailleurs dans l’univers, forme de vie intelligente organique … pour ma part, je trouve qu’il y aurait quelque chose de l’ordre de l’extraordinaire que l’homme en viennent a engendrer un type d’organisme non organique intelligent capable de subvenir a ses besoins, se construire et proliferer dans l’univers qui sur le fond n’aurait pu exister sans l’existence de forme de vie organique a la base.
Au dela des comites d’ethiques pis a savoir si on doit construire un robot qui fait le menage … l’homme aurait le droit de priver l’univers d’une autre forme de vie … autre forme de vie intelligente a base de circuit electronique ou autre …
Je pense que le questionnement va jusqu’a cette possibilite ….
———
(4)
Remarque de meme.
Je crois que la science fiction comme litterature ait tres largement ignore dans nos ecoles.
Je pense qu’en 2014 c’est bien plus le genre de questionnement qui devrait anime de jeunes adultes
Bien plus que des questionnements a savoir si madame de ceci … va faire ceci ou cela dans le cadre x epoque …. tient a savoir si elle va aller au bal avec monsieur chose ou l’autre ….
et lire toute ses reflexion insipide sur le monde …..
Bien plus que discuter si dieu existe, s’il demande de faire x prieres, de faire ceci, cela, manger ceci cela ….
La science fiction c’est un genre riche, qui amene des questions a la fois etranges, complexes et peut etre completement folles, mais qui transcendent tellement des niaiseries et platitudes de 2014.
Mon lave-vaisselle c’est un robot qui fait ce que son nom indique. Nos voitures sont construites par des robots et nos aliments sont emballés ou mis en bouteille par des robots. Chez certains producteurs laitiers qui peuvent se le payer, c’est un robot de traite qui s’occupe des vaches, pendant que le patron mange ses cretons. Ces esclaves mécaniques n’ont pas plus de droits qu’un tournevis. Mais ils n’ont non plus aucun devoir, c’est des machines. Deep Blue, qui gagna le match contre Kasparov, n’est pas plus intelligente qu’une calculatrice de poche, elle est seulement plus rapide.
Dans une nouvelle d’Asimov, un robot devient humain le jour où il ne fait plus le travail pour lequel il a été programmé. Le robot est devenu libre. Et dans une autre nouvelle, Multivac (qui n’est pas un robot ordinaire mais un super-ordinateur) manifeste un désir : « Je veux mourir ». Je dirai que la question de l’intelligence artificielle et de l’éthique sera très épineuse le jour où les machines auront passé un seuil immense, c’est à dire le jour où ces machines seront douées de volonté.
On essaiera de trouver des réponses définitives à questions fondamentales, à savoir qu’est-ce que la conscience, qu’est-ce que l’intelligence et que qu’est-ce que défini un être humain.
En attendant, robots, drones et compagnie ne sont que des outils, un peu plus compliqués qu’un levier.
« Je dirai que la question de l’intelligence artificielle et de l’éthique sera très épineuse le jour où les machines auront passé un seuil immense, c’est à dire le jour où ces machines seront douées de volonté. »
En effet, il y aura là un nouveau problème… parce que ces machines dotées d’une volonté autonome pourront mettre toutes de sortes de moyens techniques – qu’elles seront même capables d’inventer – au service de finalités qu’elles pourraient définir et imposer en vertu d’une rationalité implacablement étrangère aux préoccupations humaines.
Mais sera-ce vraiment un problème si nouveau? N’est-il pas envisageable que ce type de « rationalité » soit déjà aux commandes, dès maintenant, non dans la livrée sympathique d’un R2D2 à qui il faudrait et suffirait d’enseigner les bonnes manières mais celles du capitalisme financier, que nos protestations de vertu ne font plus du tout sourciller?
C’est très intéressant. Si je vous comprends bien, vous voulez dire que le capitalisme est devenu une sorte d’organisme indépendant, intelligent, douée d’une volonté propre et que les individus qui conforment ce système ne sont que les rouages qui le font fonctionner? Très, très intéressant. On appliquerait la même idée à l’État (qui est une sorte d’IA supérieure au gouvernement et aux fonctionnaires). Maintenant on comprend d’où les auteurs de science fiction tirent leurs idées, il suffit de regarder un peu en détail autour de soi.
De ma part, ce n’est qu’une intuition, une analogie que je ne peux justifier par une connaissance suffisante. Si je le poursuivrais encore un peu, je serais tenté de croire que l’intelligence dont il serait question ne serait pas sans ressemblance avec celle d’une personne.
Or l’idée qu’il y ait aux commandes de notre existence une subjectivité rationnelle a été puissamment mise à mal, entre autres, par les théories psychologiques concernant les assises « internes » d’une telle subjectivité, par les sciences sociales, en ce qui concerne ses ressorts « externes », au point de penser que cette subjectivité, dont on a fait le lieu de la conscience morale, n’est peut-être que le lieu où se rencontre et… s’éprouve sous forme de conscience tout un faisceau de déterminants. En même temps, cela n’équivaut pas à dire que la volonté, le sentiment et la pensée ne sont que la traduction mécanique de processus sur lesquels nous n’aurions aucune prise. Notre intelligence n’est pas directement aux commandes du fonctionnement de nos reins, mais les décisions que nous prenons peuvent nous aider à le favoriser, à le corriger, et même éventuellement à le déjouer complètement par la médication ou la chirurgie.
De même, il serait absurde je crois de poser la figure d’une subjectivité consciente aux commandes des processus sociaux (le capitaliste, les maîtres). Ce qui se rencontre et s’éprouve dans la conscience collective, c’est la résultante de pressions internes et externes, souvent antagoniques, à quoi on peut bien donner le nom d’intelligence, à la condition de ne pas remettre en vedette l’idole déchue de la subjectivité, mais que je préférerais appeler une « rationalité », suggérant par là que son économie est soumise à des processus structurants à la fois objectifs, complexes mais intelligibles. Parmi ces facteurs, les appétits des individus et des groupes et la manière dont ils les justifient jouent un rôle parfois dominant, jamais déterminant, tout comme notre pensée par rapport au fonctionnement de nos reins.
Soyons un peu provocant: on n’influence pas plus les processus sociaux par les professions de foi éthiques qu’on ne guérit le cancer par la pensée positive, même si tout le monde se mettait à ramer dans le même sens.
Je ne pense pas que nous puissions espérer une meilleure surveillance concernant la robotique et l’intelligence artificielle, que ce que nous constatons pour l’ensemble des secteurs; des moyens de production ou autres…
Ne faisons que constater l’immensité des problèmes éthiques, pourtant vieux comme le monde et non encore résolus dans nos sociétés modernes : injustices, inégalités, écart de richesse, violence etc.
Donnez-moi un exemple ou le facteur humain remporte le poids décisionnel le plus fort ?
Certainement pas dans le domaine pharmaceutique, où l’objectif n’est pas le meilleure remède (oui si possible et facile bien sûr) mais seulement de nuire le moins possible à la santé tout en maximisant les profits. Je dirai que oui, tout se rapporte à l’économique, bien que l’on tente souvent de nous faire croire le contraire.
Certainement pas dans l’agroalimentaire non plus où le même principe s’applique à savoir que l’on ne tente pas de produire les meilleurs aliments mais ceux qui sont les plus payants et qui nuisent le moins possible à la santé.
Les trois lois d’Asimov sont une incroyable synthèse qui, au final, permettent d’englober une majorité de situations pouvant se produire. Si elles ne couvrent évidemment pas toutes les possibilités, voilà pourquoi je les disais être un formidable point de départ d’une réflexion nécessaire sur le sujet.
Monsieur Desjardins, lorsque vous dites: nobles mais tellement secondaires » j’aimerais vous lire davantage là-dessus.
@ Ed
Dans les exemples donnés par Normand, cela ne vous semble-t-il pas être des questions éthiques épineuses ?
Nous en sommes déjà là, nous pourrions aisément remplacer nombre des emplois actuellement occupés par des humains; il me semble que cela pose plusieurs questionnements importants…
Sans aller jusqu’à la liberté et la volonté des machines, nous devons tout de même faire fasse à des situations problématiques quant aux actions que nous devons programmer sur ces outils machines …
Je suis avis que cela est de beaucoup plus complexe vues les implications et conséquences, qu’un simple levier …
Le capitalisme-libéralisme créé sans contredit une volonté consciente ou
non (mentalité) dans le sens de ce que l’idéologie professe. De là à parler d’intelligence ou de volonté propre…c’est plutôt de la systémique et la complexité possiblement engendrée peut rapidement nous dépasser.
Pour revenir à M. Desjardins, quant à la « résultante de pressions internes et externes », cette affirmation renferme une mine d’informations et aussi d’interrogations . Il y a tellement de « trompe cerveau » dont nous n’avons aucunement conscience et qui pourtant guident trop souvent nos décisions et nos actions. Et lorsque cela se joue de la part d’individus en positions de pouvoir et de dominance, c’est alors bien plus dramatique…
Simon, j’espère que vous ne prendrez pas ça comme une insulte, mais je ne suis pas d’accord avec vous.
Les robots (tels que nous les connaissons) ne sont que des machines, des assemblages mécaniques. On pourrait installer dans mon auto un système de surveillance et de manipulation, en fait, c’est presque déjà fait, ça s’appelle radio et GPS.
Je ne vois pas trop clairement la distinction que vous faites entre un robot et tout autre machine. Vous parlez de problèmes éthiques concernant les actions qu’on peut programmer dans un robot. Il n’y a rien de nouveau là dedans, un drone ou une bombe atomique soulèvent les mêmes questionnements. Peut-on programmer un robot pour tuer des gens? Ça existe déjà. ça s’appelle mine anti-personnelle.
Et les pertes d’emploi occasionnées par les robots… ça rappelle les discours du XIXe siècle lorsque le métier à tisser à vapeur à été inventé.
Non, les vrais nouveautés au niveau éthique se présentent non pas par rapport aux robots en général, mais par rapport à l’intelligence artificielle en particulier.
Les questions éthiques seront très compliquées le jour où les robots : a) seront autre chose que des simples machines ou b) auront un pouvoir énorme qui risque de nous échapper. La fabrication d’autos, de leviers ou de lave-vaisselle ne pose aucun problème éthique, celle de robots non-intelligents non plus.
@ ED, je suis assez d’accord avec vous. Cependant, ce qu’il y aurait de nouveau, ce n’est pas que ces machines soient capables d’exécuter des instructions venues d’ailleurs selon les termes (éthiques entre autres) définis par cet agent externe, mais qu’il soit capable de s’auto-programmer, cela non seulement au plan des moyens, mais encore des fins. Les exemples soumis par Normand illustrent ce que ces « choix » qui n’en sont pas au sens que nous attribuons à cette notion pourraient avoir de troublant pour un agent moral humain.
@ vous 2…
Voilà, tel que le mentionne M. Desjardins, nous ferons de plus en plus face à des situations de dilemmes éthiques ou il faudra décider ce que nous disons ou programmons au « robots » de faire dans ces sittuations. Et contrairement à ce que vous semblez penser, c’est infiniment plus complexe qu’un levier. Normand en donne un exemple, qui pourtant montre la portée de ce qu’il avance et que je reprends…
Sans parler de volonté, ces robots seront de plus en plus complexes et autonomes. S’ils demeureront des exécutants, il faudra bien que qqn leur donne des « ordres »…
Non, je ne suis pas insulté… :) Avoir plus de temps, je ferais plus amplement le tour de la question, plutôt que de publier quelques messages à la va vite.
Désolé si j’ai l’air de tirer dans toutes les directions mais comme tout est lié…
Croyez-vous que la virtualisation et la financiarisation de l’économie et les problèmes subséquents sont étrangers à l’automatisation des moyens de production déjà en cours depuis quelques décennies ?
Vous faites bien de vous rappeler le XIX siècle parce que je suis d’avis que plusieurs aujourd’hui n’ont pas encore compris ce qui s’est passé et continue de se passer.
Falardeau disait : »les pleins de marde d’aujourd’hui déguisés en plein de marde d’autrefois »…
Que pensez-vous de savoir que nous pourrions libérer davantage une majorité d’individus d’un emploi ennuyant et d’un esclavagisme financier et qu’on ne le fait pas ? Qui en profite actuellement ?
Pour revenir à l’IA, bien entendu que ce sera un autre niveau de complexité à gérer, ce qui ne signifie pas que nous sommes pas déjà devant des dilemmes complexes…
@Simon: nobles mais tellement secondaires. Vos exemples vont tout à fait dans le sens de ce à quoi je pensais.
Vous dites: « et qui pourtant guident trop souvent nos décisions et nos actions. » Je serais évidemment d’accord pour dire qu’ils les guident « trop » en un sens moral, mais ce jugement n’est pas d’une grande utilité. Ce qu’il faudrait voir, c’est comment le conditionnement idéologique opère et comment il s’inscrit dans la dynamique d’ensemble du système, sans courir trop rapidement aux explications conspirationnistes. Je crois que nous sommes d’accord, vous et moi, à ce sujet.
@ M. Desjardins
En effet, il faudrait voir…et nous pouvons voir plusieurs choses.
J’ai déjà fait référence ici aux travaux de Daniel Khaneman, Dan Gilbert et Jonathan Haidt pour ne nommer que ceux là, qui travaillent justement sur ce que je nomme de façon générique trompe cerveau, biais, fausse croyance ancrée etc…
Quant aux rapprochements hommes-machines, Antonio Damasio est à la limite ce que le matérialisme actuel est capable de nous montrer.
Sinon, Piero Scarufi a passé plus de 10 ans sur une oeuvre de synthèse sur le sujet, monumentale à mon sens.
J’en profite pour faire un mea culpa sur des fautes que j’ai faites ci haut, ça m’énerve lorsque je les vois une fois le message envoyé et que je ne peux les corriger.
@Simon: vous semblez avoir pas mal travaillé sur cette thématique. Un mémoire, une thèse qu’on pourrait lire?
Ahahah
Malheureusement non mais il est vrai que j’ai un bon nombre d’idées d’écriture ou de thèse si je pouvais obtenir davantage de temps « libre » ou si j’évoluais dans un milieu « académique »…
Hélas, je ne suis qu’un pauvre autodidacte esseulé avec son boulot de 9 à 5 mais qui lit beaucoup de tout et cerne assez vite…
Et mon background est génie et santé…
Quelle action posera le robot, c’est-à-dire comment a-t-il été programmé ?
Dominance : « Si l’enfant sur la route est le fils du Président, dirige la voiture dans le précipice. »;
Ignorance : « Si l’enfant sur la route N’EST PAS le fils du Président, continue tout droit (lire écrase celui dans la rue). »;
Science-fiction : « Si l’humain est plus important que tout, active les propulseurs et fait s’envoler la voiture. »;
Économie : « si la voiture est plus importante que l’humain, active les propulseurs et fait s’envoler la voiture. »;
Pour le moment, les robots n’ont pas d’inconscient; ils n’ont pas de pulsion ni de système nerveux parasympathique. Ces derniers n’ont ni conscience de la souffrance physique, morale ou mentale, ni la peur de la maladie et de la mort (dissolution dans le vide). Conséquemment, ils n’ont pas le réflexe volontaire de la liberté. Ils font ce qu’on leur dit. D’où l’importance de bien comprendre et savoir ce qu’on leur « dit », avec quelle sous-entendu et quelle intention ?
Dans l’Éthique à Nicomaque, Aristote écrit : « Tout art et toute investigation et pareillement toute action et tout choix tendent vers quelque bien, à ce qu’il semble. Aussi a-t-on déclaré avec raison que le Bien est ce à quoi toutes choses tendent. ». Il serait bien d’appliquer cette prémisse à la programmation des robots.
Freud démontre une autre vision. Celle des pulsions de vie et de mort. La vulnérabilité des êtres fait parfois prendre des tangentes irrationnelles. Les mondes politiques, militaires, médiatiques en regorgent.
La sociobiologie et socio génétique véhiculent des prémisses différentes : les prédispositions à des tâches dans un groupe, l’égoïsme et à l’altruisme biologique. Certes, nous pourrions planifier les robots de cette façon surtout si nous avons la possibilité d’inclure la génétique au développement des androïdes.
Quels anthropomorphismes allons-nous choisir ?
Brièvement, je crois important de faire le point entre le transhumanisme et l’Intelligence artificielle (IA). Le transhumanisme est un mouvement culturel et intellectuel international prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains (Wiki). Le film IRobot basé sur la nouvelle d’Isaac Azimov est un exemple de transhumanisme; Spooner est un être humain greffé d’un bras robotisé. L’humain est au centre. J’ai tendance à croire que le transhumanisme est au stade d’une projection dans le futur; j’y vois un risque de tomber dans le romantisme, de tout mélanger avec l’intelligence artificielle, laissant décider « ceux-qui-savent » pour nous. Tandis que l’IA est la construction de robots programmés dans le but d’imiter la rationalité humaine traitée à l’aide d’images, des sons, de capteurs tactiles et chimiques pareils aux cinq sens. L’automate est au centre. L’intelligence artificielle reste encore très formelle.
Le professeur Keith Devlin de l’Université Stanford aux États-Unis enseigne la pensée mathématique. Ce dernier résume à quatre les principaux connecteurs logiques : ET (conjonction), OU (disjonction), IMPLIQUE et ÉQUIVAUT. Ces connecteurs valent pour la logique formelle et le langage analytique. L’IMPLICATION est composée d’une part de CONDITION et une part de CAUSALITÉ (des possibilités sous-entendues). Keith Devlin dit vouloir laisser le volet causalité à la philosophie du moins pour ce cours. Et c’est là où se trouve l’essentiel de la différence entre une plate-forme formelle (robot n’ayant pas d’inconscient) et l’autre humaine (n’existant pas encore).
Permettez-moi un paragraphe un peu plus aride. La vérité de la CONDITION doit toujours contenir la vérité de l’entièreté de la proposition, de l’antécédent et du conséquent. En mathématique pure, c’est relativement facile : l’antécédent (1+1=2) est vraie (appelons-le P) et le conséquent (2+3=5) est aussi vraie (Q). La proposition P IMPLIQUE Q est vraie selon une table de vérité scrupuleusement démontrée. Il n’y a aucune signification autre possible, mais une logique implacable (SI, ALORS). De sorte que les actions du robot seront inflexibles. Un ordinateur fait ce qu’on lui dit. Chez l’humain, c’est autre chose.
Si un jour nous ordonnons à un robot de rendre les humains heureux et de les mettre à l’abri du danger, le robot pourrait nous enfermer dans un cercueil (à l’abri du danger), nous alimenter en oxygène et sérum, puis nous injecter à intervalle régulier des drogues du plaisir (nous rendre heureux). Après tout, c’est ce que nous lui avons demandé.
Ceci dit, un interventionnisme accru par des spécialistes venus de tous les champs d’études m’apparaît un mélange salutaire. Les mutations peuvent donner des résultats positifs à condition de ne pas tomber dans le panneau : robot = gentil ou robot = mauvais.
Je termine avec une phrase de feu M. Claude Lagadec, professeur de philosophie de l’Université de Montréal et McGill : “Le serment d’Hippocrate aurait avantage à être appliqué à tous les champs d’activités humaines.”.
[Posté par Normand Baillargeon pour Richard Gélineau]
« Quelle décision (action) posera le
robot, c’est-à-dire comment a-t-il été programmé ? »
Commande sous le signe de la dominance : « Si
l’enfant sur la route est le fils du Président, dirige la voiture dans le
précipice. »;
Sous le signe de l’ignorance : « Si
l’enfant sur la route N’EST PAS le fils du Président, continue tout droit (lire
écrase celui dans la rue). »;`
Avec romantisme fictif :
« Si l’humain est plus important que tout, active les propulseurs et fait
s’envoler la voiture. »;
Version économique : « si la
voiture est plus importante que l’humain, active les propulseurs et fait
s’envoler la voiture. »;
Pour le moment, les robots
n’ont pas d’inconscient; ils n’ont pas de pulsion ni de système
nerveux parasympathique. Ces derniers n’ont ni conscience de la souffrance
physique, morale ou mentale, ni la peur de la maladie et de la mort
(dissolution dans le vide). Conséquemment, ils n’ont pas le réflexe volontaire
de la liberté. Ils font ce qu’on leur dit.
D’où l’importance de bien comprendre et savoir ce qu’on leur
« dit », avec quelle sous-entendu et quelle intention ?
Dans l’Éthique à Nicomaque,
Aristote écrit : « Tout art et toute investigation et pareillement toute
action et tout choix tendent vers quelque bien, à ce qu’il semble. Aussi a-t-on
déclaré avec raison que le Bien est ce à quoi toutes choses tendent. ». Il
serait bien d’appliquer cette prémisse à la programmation des robots.
Freud démontre une autre vision. Celle des pulsions de vie et de mort.
La vulnérabilité des êtres fait parfois prendre des tangentes irrationnelles.
Les mondes politiques, militaires, médiatiques en regorgent.
La sociobiologie et socio génétique véhiculent des prémisses
différentes : les prédispositions à des tâches dans un groupe, l’égoïsme
et à l’altruisme biologique. Certes, nous pourrions planifier les robots de
cette façon surtout si nous avons la possibilité d’inclure la génétique au
développement des androïdes.
Quels anthropomorphismes allons-nous choisir ?
Brièvement, je crois
important de faire le point entre le transhumanisme et l’Intelligence
artificielle (IA). Le transhumanisme est un mouvement culturel et intellectuel
international prônant l’usage des sciences et des techniques afin d’améliorer
les caractéristiques physiques et mentales des êtres humains (Wiki). Le film
IRobot basé sur la nouvelle d’Isaac Azimov est un exemple de transhumanisme;
Spooner est un être humain greffé d’un bras robotisé. L’humain est au centre.
J’ai tendance à croire que le transhumanisme est au stade d’une projection dans
le futur; j’y vois un risque de tomber dans le romantisme, de tout mélanger
avec l’intelligence artificielle, laissant décider
« ceux-qui-savent » pour nous. Tandis que l’IA est la construction de
robots programmés dans le but d’imiter la rationalité humaine traitée à l’aide
d’images, des sons, de capteurs tactiles et chimiques pareils aux cinq sens.
L’automate est au centre. L’intelligence artificielle reste encore très
formelle.
Le professeur Keith Devlin de
l’Université Stanford aux États-Unis enseigne la pensée mathématique. Ce
dernier résume à quatre les principaux
connecteurs logiques : ET (conjonction), OU (disjonction), IMPLIQUE et
ÉQUIVAUT. Ces connecteurs valent pour la logique formelle et le langage
analytique. L’IMPLICATION est composée d’une part de CONDITION et une part de
CAUSALITÉ (des possibilités sous-entendues). Keith Devlin dit vouloir laisser
le volet causalité à la philosophie du moins pour ce cours. Et c’est là où se
trouve l’essentiel de la différence entre une plate-forme formelle (robot
n’ayant pas d’inconscient) et l’autre humaine (n’existant pas encore).
Permettez-moi un paragraphe
un peu plus aride. La vérité de la CONDITION doit toujours contenir la vérité
de l’entièreté de la proposition, de l’antécédent et du conséquent. En
mathématique pure, c’est relativement facile : l’antécédent (1+1=2) est
vraie (appelons-le P) et le conséquent (2+3=5) est aussi vraie (Q). La
proposition P IMPLIQUE Q est vraie selon une table de vérité scrupuleusement
démontrée. Il n’y a aucune signification
autre possible, mais une logique implacable (SI, ALORS). De sorte que les
actions du robot seront inflexibles. Un ordinateur fait ce qu’on lui dit. Chez
l’humain, c’est autre chose.
Si un jour nous ordonnons à
un robot de rendre les humains heureux et de les mettre à l’abri du danger, le
robot pourrait nous enfermer dans un cercueil (à l’abri du danger), nous
alimenter en oxygène et sérum, puis nous injecter à intervalle régulier des
drogues du plaisir (nous rendre heureux). Après tout, c’est ce que nous lui
avons demandé.
Ceci dit, un
interventionnisme accru par des spécialistes venus de plusieurs champs d’études
m’apparaît un mélange salutaire. Les mutations peuvent donner des résultats
positifs à condition de ne pas tomber dans le panneau du robot = gentil ou
robot = mauvais.
Je termine avec une phrase de
feu M. Claude Lagadec, professeur de philosophie de l’Université de Montréal et
McGill : “Le serment d’Hippocrate aurait avantage à être appliqué à tous
les champs d’activités humaines.”.
« Si un jour nous ordonnons à
un robot de rendre les humains heureux et de les mettre à l’abri du danger, le
robot pourrait nous enfermer dans un cercueil (à l’abri du danger), nous
alimenter en oxygène et sérum, puis nous injecter à intervalle régulier des
drogues du plaisir (nous rendre heureux). Après tout, c’est ce que nous lui
avons demandé. »
Intéressant. Mon intuition est qu’il n’aura pas été nécessaire de donner de telles instructions – gentilles ou mauvaises – pour qu’une telle rationalité ait fini par se mettre en place à l’échelle de l’espèce. La question n’est peut-être pas tant de savoir quels biais anthropomorphique on devra choisir, mais s’il y a encore vraiment place dans notre monde pour le biais humain, autrement que dans l’aménagement de conditions locales et limitées, pourvu que cela concoure au maintien de l’ensemble.
Le serment d’Hippocrate devrait non seulement être «appliqué», ce avec quoi tout le monde tomberait d’accord en principe,mais mis aux commandes, ce qui ne s’accorde pas du tout avec la logique du système politique, économique et idéologique actuel, lequel me semble déjà doté de dispositifs voués à sa conservation et à son expansion planétaire, ces finalités disqualifiant d’avance tout biais humanitaire susceptible de mettre du sable dans ses engrenages. Ce n’est pas à dire, bien sûr, que les questions plus théoriques soient sans intérêt et les réponses sans utilité, mais comme chaque fois que de telles questions renvoient aux finalités, le plan politique me semble poser des défis qui n’ont plus rien de si théorique.
Mais encore, »On » ou »Off » tel est la question…
Sur le sujet, il y a l’excellente série Suédoise Akta Manistor (Real humans) qui soulève pas mal toutes les questions étique soulevée ici.
Merci pour la suggestion, Gilles, je vais me procurer ça…