Dans la série « Prendre la vitesse de vitesse » je m'en voudrais de ne pas signaler le billet de Normand Baillargeon dans le Voir.ca de ce 12 février 2014 qui met à jour le questionnement éthique au regard des avancées technologiques possiblement assez rock'roll qui plus tôt que tard vont s'introduire en galopant dans nos humbles chaumières.
Baillargeon prend au vol l'annonce de la gougoune (pour les intimés), Google pour parler clairement, qui vient d'acquérir pour 500 millions de dollars DeepMing qui fait dans le développement de logiciels d'intelligence artificielle. Ça fait beaucoup de ciels, mais ça pourrait être un beau dommage infernal si personne ne se préoccupe de réfléchir à, disons-le d'un seul mot, l'avenir, le proche à venir. N'écoutant que sa bonne intelligence, Google a donc procédé à la création d'un comité d'éthique « [...] pour réfléchir aux impacts de l’intelligence artificielle et de la robotique. »
Le fin mot de l'éthique, le mot le plus important de l'éthique, disait mon distingué professeur Georges Auguste Legault, c'est le mot dialogue. Or c'est précisément ce vers quoi nous interpelle le philosophe (et anarchiste) Normand Baillargeon dans le texte qui va suivre. Il écrit en effet : « On ne peut que souhaiter qu’elles (les questions éthiques) ne soient pas discutées uniquement dans un comité d’éthique mis sur pied par Google, et que le plus de gens possible puissent prendre part à la conversation. »
L'éthique a tout à voir avec le vivre ensemble, avec les valeurs qui nous animent et nous font agir concrètement, avec la coconstruction du sens, de ce qu'on veut et de ce qu'on peut faire ensemble pour le mieux dans les circonstances données. On est donc sur un terrain distinct de la morale qui pour sa part relève davantage du devoir.
L'arrivée prochaine des robots « intelligents » et sans doute un brin astineux dans la vie quotidienne va être des plus comiques au début. Succès commerciaux assurés aussi percutants que ceux des Apple, Microsoft et Cies depuis 25 ans. Mais en même temps, des questions inédites se posent alors que déjà, pour ne parler que de Google, notre profil « démocratique » de citoyen dans la cité est fiché, partagé, monnayé at large par les quasi invisibles petits serveurs-robots qui sucent nos allées et venues. D'ailleurs, à très court terme, le motif premier de l'acquisition de DeepMind serait « [...] d'arriver à modéliser le comportement des internautes pour trouver des patterns cachés [...] et d'exploiter au mieux toutes les données collectées sur les utilisateurs afin [...] de prédire leurs achats...» . (Amélie Charnay, Pourquoi Google rachète l'énigmatique start-up DeepMind, Olnet , 28/01/2014.) En attendant, Google se paye les meilleurs cerveaux et les Jojo Savard de l'ingénierie en futurologie tel Ray Kurzweil. Ouf! Ouf! Wouf! Wouf!
Google, DeepMind et nous
- Par Normand Baillargeon
Question difficile: quelle décision doit prendre le chauffeur?
Réponse: celle pour laquelle il aura été programmé. Car le chauffeur est un robot.
En ce cas, nouvelle question difficile: comment fallait-il le programmer?
Bienvenue dans un monde qu’on nous annonce pour bientôt et dont on aperçoit déjà les prémisses. Bienvenue dans ce monde où surgissent des problèmes éthiques parfois inédits et souvent très difficiles.
Longtemps, de telles questions ont surtout alimenté l’imagination des romanciers, comme Isaac Asimov, ou des cinéastes – comme ceux qui signent RoboCop ou Her, ces temps-ci. Depuis quelque deux décennies, elles font cogiter des philosophes. Elles deviennent à présent de plus en plus incontournables.
Cette semaine, justement, Google a, pour quelque 500$ millions dit-on, fait l’acquisition de DeepMind, une firme qui développe des logiciels d’intelligence artificielle. Or, et cela est largement passé inaperçu chez nous, en vertu d’un élément de la transaction, Google doit mettre sur pied un comité d’éthique pour réfléchir aux impacts de l’intelligence artificielle et de la robotique. Car il y en aura certainement et ce sera sans doute bientôt.
Plusieurs facteurs donnent en effet à penser aux experts que des développements majeurs sont à nos portes. Parmi eux: la chute des coûts et les progrès réalisés en matière de capacité informatique (de stockage et de traitement de données); en matière de technologie de reconnaissance visuelle et auditive; et en matière de connexion haut débit sans fil. Sans oublier la fameuse loi de Moore, qui prédit que les capacités des ordinateurs doubleront tous les 18 mois.
Il est donc plausible de penser qu’on aura demain ou après-demain, divers robots, possiblement d’apparence humaine, pouvant accomplir un nombre extraordinaire de tâches comme: faire le ménage; donner des soins aux malades; enseigner aux enfants; conduire des véhicules (qu’ils auront fabriqués); assurer la sécurité de personnes et de lieux; remplacer les chiens-guides; assurer le service à la clientèle dans les commerces; faire la guerre – l’armée américaine investit d’ailleurs des milliards de dollars en robotique; et aussi faire l’amour, sinon du moins être des sortes de partenaires sexuels; et j’en passe.
C’est aux enjeux éthiques qui se poseront que devra réfléchir le comité Google – on a annoncé que le promoteur de la singularité, qui est aussi un des grands noms du transhumanisme, Ray Kurzweil, en fera partie.
Voici quelques exemples.
Que faire quand un secteur économique tout entier pourrait être robotisé, ce qui ferait en sorte que (presque) tous les emplois disparaîtraient? Des robots devenus plus intelligents que nous pourraient-ils décider de mettre fin à l’humanité, comme semble le penser Nick Bostrom, du Future of Humanity Institute de l’Université Oxford? Comment l’éviter? Est-il possible que les robots militaires, par exemple, soient un moyen par lequel les humains se déresponsabilisent de leurs gestes? Que faire, alors? Et si, dans votre voiture-robot, était implanté un système par lequel on vous surveille et on vous manipule, par exemple en orientant vos choix de consommation?
Ces exemples et d’autres, que vous pouvez facilement imaginer, incitent à penser que trois grandes questions éthiques vont se poser, si on en croit certains spécialistes.
La première concerne la détermination des systèmes éthiques qu’il faudrait implanter dans les robots; la deuxième concerne la définition des principes éthiques que doivent respecter les personnes qui conçoivent et fabriquent les robots; la troisième concerne la formulation des principes éthiques guidant l’utilisation des robots. Avec en toile de fond, une question préalable: celle de savoir quel est le statut moral d’un robot. Dès lors, le cas échéant, il n’est plus tout à fait un objet inerte ni tout à fait un sujet moral.
Questions passionnantes, on le voit. Mais aussi redoutables. On ne peut que souhaiter qu’elles ne soient pas discutées uniquement dans un comité d’éthique mis sur pied par Google, et que le plus de gens possible puissent prendre part à la conversation.
En attendant, je m’en voudrais de ne pas vous laisser avec les fameuses trois lois de la robotique qu’imaginait le grand Asimov, dès 1942, lui qui avait pressenti que des questions de ce genre se poseraient un jour.
Les voici:
1. Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.»
2 commentaires:
Ou alors reste à espérer que le modèle futur soit davantage celui de la Culture : http://yannickrumpala.wordpress.com/2009/10/02/lanarchie-dans-un-monde-de-machines/
Merci pour la référence. Semble y avoir de l'air frais. J'irai lire au complet.
Publier un commentaire