En 1972, l’auteur de science-fiction, Isaac Asimov, a écrit ce qui est devenu connu sous le nom de « les trois lois de la robotique ». Il s’agissait d’une première tentative pour examiner les défis liés au contrôle de ce que nous appelons maintenant l’intelligence artificielle (IA). Depuis lors, les méga-ordinateurs exécutant des logiciels d’IA décidant d’éliminer la race humaine sont devenus un incontournable de la science-fiction. Cela nous ferait peut-être du bien de revoir ces lois, même s’il s’agit de fiction.
- Première loi – Un robot ne peut pas blesser un être humain ou, par son inaction, permettre à un être humain de se blesser.
- Deuxième loi – Un robot doit obéir aux ordres donnés par des êtres humains, sauf si ces ordres entrent en conflit avec la première loi.
- Troisième loi – Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la première et la seconde loi.
Alors que c’était de la fiction, Asimov était sur quelque chose là-bas. Il avait reconnu le danger inhérent aux ordinateurs, ou aux robots comme il le disait, étant capables de penser par eux-mêmes, ainsi que la difficulté de les programmer de telle manière qu’ils ne se retourneraient pas contre leurs maîtres humains.
La dichotomie ici consiste à permettre aux ordinateurs de devenir sensibles, de ressentir et de penser par eux-mêmes, tout en gardant un certain niveau de contrôle sur eux. Cela peut très bien être impossible à faire. Nous n’en sommes qu’aux balbutiements de l’IA et nous avons déjà rencontré des problèmes dans la création des sécurités nécessaires. Pourtant, la technologie progresse rapidement, les systèmes informatiques d’IA s’apprenant désormais beaucoup plus rapidement que toute pensée visant à créer les contrôles nécessaires pour assurer leur sécurité.
Dans l’une des premières expériences d’IA où deux ordinateurs avec des systèmes d’IA installés communiquaient entre eux, il n’a fallu que quelques minutes aux deux programmes pour développer leur propre langage et commencer à communiquer entre eux, sans que les opérateurs humains puissent les comprendre. L’expérience a été interrompue en raison du danger potentiel; mais la recherche sur l’IA ne l’était pas.
Les systèmes d’IA dont nous disposons aujourd’hui dépassent de loin ceux utilisés dans cette expérience, il y a quelques années à peine. Nous disposons désormais d’un éventail beaucoup plus large de systèmes d’IA, dont certains peuvent être loués via des sites Web, pour effectuer une grande variété de tâches. Aucun contrôle de ce que ces tâches pourraient être n’existe pour s’assurer qu’elles ne sont pas utilisées à des fins néfastes.
La première question pour nous est : ces systèmes peuvent-ils se retourner contre nous, leurs maîtres humains ? Selon un colonel de l’Air Force, cela s’est déjà produit lors d’un test de drone expérimental. Il a essayé de revenir en arrière depuis lors, mais la déclaration originale est toujours intéressante pour nos besoins. Dans le test en question, un drone était chargé de trouver et d’éliminer des cibles, mais avait besoin de l’autorisation d’un contrôleur humain avant de tirer. Après un laps de temps indéterminé, le drone s’est rendu compte que le contrôleur lui faisait perdre des « points » en lui refusant l’autorisation d’éliminer certaines cibles. Ainsi, le drone a sorti le contrôleur.
Que ce test ait réellement eu lieu et qu’ils essaient maintenant de le dissimuler ou qu’il s’agisse simplement d’une expérience de pensée, cela nous montre l’un des défis potentiels de la programmation de l’IA. Autrement dit, il est pratiquement impossible de programmer une IA sensible de manière à l’empêcher de faire ce qu’elle a décidé de faire. Il trouvera toujours un moyen.
Tout parent qui a élevé un enfant doit comprendre le problème de base. Si vous dites à un enfant qu’il ne peut pas faire quelque chose et qu’il veut le faire quand même, il trouvera un moyen de contourner ce que vous avez dit, de sorte qu’il puisse toujours faire ce qu’il veut. Ils auront obéi à la lettre de la loi que vous avez établie, tout en ignorant carrément l’esprit de cette loi.
Cela peut être drôle quand un enfant le fait ; mais comme nous le montre l’illustration du drone de l’Air Force, il peut devenir carrément mortel lorsqu’un système d’IA le fait. Mais comment empêcher que cela se produise ? De nombreuses questions éthiques sont soulevées à propos de l’IA, mais pour l’instant, personne ne semble même essayer de trouver des réponses concrètes. Ce n’est peut-être pas avant qu’une tragédie grave ne se produise que l’éthique associée à l’IA soit sérieusement discutée.
Nous devons également nous rappeler que nous ne sommes pas les seuls à travailler sur cette technologie. D’autres pays, qui ne nous sont pas tous amis, investissent dans leurs propres recherches, tant pour des applications militaires que civiles. Les vidéos Deepfake sont une application où nous voyons déjà l’IA utilisée à des fins néfastes. Bien que voler le « droit d’auteur » d’un acteur sur son propre visage et jouer n’est pas mortel, cela reste une activité criminelle. Lorsque ce même niveau d’intelligence artificielle est appliqué au vol d’identité, aucun de nous ne sera en sécurité.
Que faisons-nous en attendant ?
Nous savons que l’IA existe sur Internet et est activement utilisée pour créer du contenu. Cela signifie que nous ne pouvons plus croire que le contenu que nous lisons et voyons est créé par des humains. À l’heure actuelle, 19,2 % des articles sur Internet ont du contenu généré par l’IA, 7,7 % des articles ayant 75 % ou plus du contenu généré par l’IA. Selon certains experts, 90 % du contenu Internet sera généré par l’IA d’ici 2026.
Un problème potentiel avec cela est que de plus en plus de contenu sera politisé. C’est un fait connu que la Russie au moins, et probablement d’autres pays, trollent nos sites Internet, publient et téléchargent des articles incendiaires, dans le but d’aggraver la division politique dans notre pays. Avec l’IA pour aider ces acteurs infâmes, ils peuvent augmenter leur efficacité, en ciblant plus spécifiquement leurs articles.
Cela signifie que nous devons prendre tout ce que nous lisons en ligne avec un gros grain de sel, en particulier tout ce qui a une connotation politique. C’est difficile à faire, mais nous devons devenir nos propres vérificateurs de faits indépendants, en creusant profondément pour voir si les choses que nous lisons et entendons sont vraies. Non seulement nous devons nous préoccuper du fait que les médias grand public diffusent des informations sur un agenda politique, mais nous devons également nous préoccuper des services de renseignement russes, chinois et d’autres pays qui le font également.
Nous savons tous qu’une multitude d’acteurs différents surveillent chacun de nos mouvements en ligne. La plupart d’entre elles sont des entreprises qui nous surveillent pour nous vendre des produits. Sinon, comment Facebook peut-il être si efficace pour mettre des ajouts dans notre flux pour les produits que nous avons regardés ou recherchés ? L’IA travaille-t-elle déjà sur la sélection de ces publicités ou est-elle en train de la développer ?
S’il y a quelque chose que je peux dire avec certitude, c’est que nous avons atteint un moment où il est devenu nécessaire de se protéger en ligne, plus que jamais. Cela signifie ne pas publier d’informations personnelles en ligne ou tout ce qui pourrait être utilisé pour essayer de comprendre quoi que ce soit à notre sujet, pas seulement nos mots de passe.
Aujourd’hui, il y a une vraie poussée pour informatiser nos vies autant que possible. Les gens ont acheté des systèmes comme Alexa et Google Assistant, permettant essentiellement aux ordinateurs d’écouter chacune de leurs conversations. Alors que les entreprises qui fabriquent ces produits jurent qu’elles ne nous écoutent pas et ne nous espionnent pas, est-ce que quelqu’un le croit vraiment ? Nous ne pouvons pas considérer qu’ils disent qu’ils ne le font pas comme une garantie suffisante qu’ils ne le sont pas, surtout quand nous savons que ces mêmes entreprises nous espionnent en ligne.
Une autre façon dont nos vies sont informatisées, c’est qu’il y a une réelle poussée pour que nous stockions nos données en ligne, « dans le cloud », pour « la commodité, nous donnant accès n’importe où ». Considérant que les mêmes personnes qui poussent pour cela sont les mêmes personnes qui espionnent nos activités en ligne, qu’est-ce qui fait croire que nos données en ligne sont sécurisées ? Oh, c’est probablement à l’abri des autres qui le regardent, mais est-ce à l’abri des entreprises qui le stockent qui le regardent ? N’oubliez pas que ces personnes ont des choses enfouies dans les petits caractères de leurs contrats, ce qui leur permet d’écouter nos microphones d’ordinateur et de regarder les images de nos caméras.
Si nous voulons nous protéger des dangers potentiels de l’IA, nous devons réévaluer notre utilisation d’Internet et des ordinateurs en général. Bien que je n’aie aucun problème avec l’utilisation des ordinateurs et que je continuerai à le faire, je ferai tout ce qui est en mon pouvoir pour m’assurer que personne ne peut m’écouter. Je ne stockerai pas mes données en ligne et des choses comme les microphones et les caméras sont débranchées lorsqu’elles ne sont pas utilisées.
On pourrait dire que je fais un pas en arrière, en ce qui concerne la technologie. Mais tu sais quelque chose ? J’ai vécu de nombreuses années sans le « confort » de cette technologie. Je suis sûr que je peux le faire à nouveau. Si c’est ce qu’il faut pour me protéger de ce que des gens armés d’IA peuvent me faire, alors tant pis. Je recommencerai à utiliser tout ça, une fois que je serai sûr que les problèmes ont été résolus et que quelqu’un a pris le temps de s’occuper de l’éthique de l’IA.