Prise de tête

Google, DeepMind et nous

Considérez la situation suivante: il y a une jeune enfant à bord d’une voiture. Devant, soudain, une personne surgit, une personne que la voiture tuera à coup sûr si rien n’est fait. Pour l’éviter, on ne peut que bifurquer vers la droite, où se trouve, hélas, un précipice; dans ce cas, c’est l’enfant à bord de la voiture qui, très probablement, mourra.

Question difficile: quelle décision doit prendre le chauffeur?

Réponse: celle pour laquelle il aura été programmé. Car le chauffeur est un robot.

En ce cas, nouvelle question difficile: comment fallait-il le programmer?

Bienvenue dans un monde qu’on nous annonce pour bientôt et dont on aperçoit déjà les prémisses. Bienvenue dans ce monde où surgissent des problèmes éthiques parfois inédits et souvent très difficiles.

Longtemps, de telles questions ont surtout alimenté l’imagination des romanciers, comme Isaac Asimov, ou des cinéastes  comme ceux qui signent RoboCop ou Her, ces temps-ci. Depuis quelque deux décennies, elles font cogiter des philosophes. Elles deviennent à présent de plus en plus incontournables.

Cette semaine, justement, Google a, pour quelque 500$ millions dit-on, fait l’acquisition de DeepMind, une firme qui développe des logiciels d’intelligence artificielle. Or, et cela est largement passé inaperçu chez nous, en vertu d’un élément de la transaction, Google doit mettre sur pied un comité d’éthique pour réfléchir aux impacts de l’intelligence artificielle et de la robotique. Car il y en aura certainement et ce sera sans doute bientôt.

Plusieurs facteurs donnent en effet à penser aux experts que des développements majeurs sont à nos portes. Parmi eux: la chute des coûts et les progrès réalisés en matière de capacité informatique (de stockage et de traitement de données); en matière de technologie de reconnaissance visuelle et auditive; et en matière de connexion haut débit sans fil. Sans oublier la fameuse loi de Moore, qui prédit que les capacités des ordinateurs doubleront tous les 18 mois.

Il est donc plausible de penser qu’on aura demain ou après-demain, divers robots, possiblement d’apparence humaine, pouvant accomplir un nombre extraordinaire de tâches comme: faire le ménage; donner des soins aux malades; enseigner aux enfants; conduire des véhicules (qu’ils auront fabriqués); assurer la sécurité de personnes et de lieux; remplacer les chiens-guides; assurer le service à la clientèle dans les commerces; faire la guerre – l’armée américaine investit d’ailleurs des milliards de dollars en robotique; et aussi faire l’amour, sinon du moins être des sortes de partenaires sexuels; et j’en passe.

C’est aux enjeux éthiques qui se poseront que devra réfléchir le comité Google – on a annoncé que le promoteur de la singularité, qui est aussi un des grands noms du transhumanisme, Ray Kurzweil, en fera partie.

Voici quelques exemples.

Que faire quand un secteur économique tout entier pourrait être robotisé, ce qui ferait en sorte que (presque) tous les emplois disparaîtraient? Des robots devenus plus intelligents que nous pourraient-ils décider de mettre fin à l’humanité, comme semble le penser Nick Bostrom, du Future of Humanity Institute de l’Université Oxford? Comment l’éviter? Est-il possible que les robots militaires, par exemple, soient un moyen par lequel les humains se déresponsabilisent de leurs gestes? Que faire, alors? Et si, dans votre voiture-robot, était implanté un système par lequel on vous surveille et on vous manipule, par exemple en orientant vos choix de consommation?

Ces exemples et d’autres, que vous pouvez facilement imaginer, incitent à penser que trois grandes questions éthiques vont se poser, si on en croit certains spécialistes.

La première concerne la détermination des systèmes éthiques qu’il faudrait implanter dans les robots; la deuxième concerne la définition des principes éthiques que doivent respecter les personnes qui conçoivent et fabriquent les robots; la troisième concerne la formulation des principes éthiques guidant l’utilisation des robots. Avec en toile de fond, une question préalable: celle de savoir quel est le statut moral d’un robot. Dès lors, le cas échéant, il n’est plus tout à fait un objet inerte ni tout à fait un sujet moral.

Questions passionnantes, on le voit. Mais aussi redoutables. On ne peut que souhaiter qu’elles ne soient pas discutées uniquement dans un comité d’éthique mis sur pied par Google, et que le plus de gens possible puissent prendre part à la conversation.

En attendant, je m’en voudrais de ne pas vous laisser avec les fameuses trois lois de la robotique qu’imaginait le grand Asimov, dès 1942, lui qui avait pressenti que des questions de ce genre se poseraient un jour.

Les voici:

1. Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger.

2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.

3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.