Une Intelligence Artificielle capable de destruction ?
Facebooktwittergoogle_plusredditpinterestlinkedinmail

Le Journal of Defense Management décrit l’événement comme une avancée déterminante de l’Intelligence Artificielle. Alpha, la fameuse Intelligence Artificielle qui avait battu le sud-coréen Lee Sedol au jeu de Go, vient de gagner un autre type de duel face à l’homme : les combats aériens…

Cette semaine, Gene Lee, formateur des pilotes de l’armée de l’air américaine depuis 1980, allait mener un combat pour le moins singulier. Le spécialiste US de la simulation de vol et de combat aérien a en effet affronté Alpha, l’Intelligence Artificielle de la firme Psibernetix. Et au final, le résultat est sans appel : Gene Lee a perdu toutes les manches de la simulation de combat aérien, malgré le fait que l’IA était privée d’une partie de ses armes et de ses outils de navigation… et que ses performances étaient réduites pour limiter sa puissance ! Et pour en rajouter une couche, même si l’IA fonctionnait sur le Raspberry Pi, un mini-ordinateur, elle était capable d’établir ses stratégies de combat 250 fois plus rapidement que notre homme… Et pour cause : l’IA n’a pas besoin de préserver un corps humain, qui subit le stress dû aux accélérations, à la gravité et à la pression. Sans contraintes physiques, les avions de chasse pourraient devenir bien plus compacts, allant ainsi au-delà des limites humaines.

« J’ai été surpris par sa réactivité. Alpha semblait au fait de toutes mes intentions et réagissait instantanément à mes changements de vol et mes déploiements de missile » raconte Gene Lee. « Je suis rentré lessivé, épuisé mentalement ». Une déclaration plutôt inquiétante… Que les Hommes n’aient aucune chance face à une intelligence lors d’un jeu de Go, c’est une chose. Mais qu’ils n’aient aucune chance lors d’une guerre, c’est déjà plus grave.

Servir ou détruire ?

Cet événement fait écho aux inquiétudes énoncées dans la lettre ouverte de Toby Walsh, professeur, chef de groupe de recherche, membre du groupe de recherche en optimisation au NICTA (National ICT Australia, principal pôle de recherche australien en technologies de l’information et de la communication) du 28 juillet 2015, qui avait fait la une et avait été signée par des personnalités comme Elon Musk, Stephen Hawking ou Steve Wozniak. Cette dernière prône une utilisation et un développement de l’Intelligence Artificielle durable pour résoudre certains problèmes actuels, comme les inégalités, la pauvreté, le réchauffement climatique, mais certainement pas pour faire la guerre.

silex_ia

Toby Walsh résume parfaitement cette idée : « nous pensons que l’Intelligence Artificielle possède un grand potentiel bénéfique pour l’humanité et que l’objectif sur le terrain ne devrait être que ça. Lancer une course à l’armement IA est une mauvaise idée et devrait être empêchée grâce à une interdiction des armes autonomes offensives sans contrôle humain significatif ». En gros, tout développement de l’IA doit permettre de servir et non de détruire.

Une Intelligence Artificielle démoniaque ?

« Avec l’IA, nous invoquons un démon » avait ajouté Elon Musk… Et certains faits lui donnent raison. Par exemple, le Sentry SGR-A1 est une forme d’IA mise en place entre la Corée du Nord et la Corée du Sud. Cette dernière a une mission très simple : supprimer tout ce qui bouge, grâce à son logiciel de tracking et sa caméra infrarouge. Les killers robots seraient capables de choisir des cibles sans aucune validation, sans aucun contrôle humain, et donc, sans empathie. Même si les voix s’élèvent contre le développement de l’IA, il n’empêche que ce type de robot prend une place de plus en plus grande dans la recherche militaire. En avril dernier, Bonnie Docherty, de la Human Rights Watch tirait la sonnette d’alarme. « Désormais, il y a un véritable danger que les humains abandonnent ce contrôle et délèguent à des machines des décisions de vie ou de mort. Un résultat positif de ces travaux ne sera possible que si les pays adoptent des politiques et des mesures législatives permettant de s’assurer que les humains gardent le contrôle des systèmes d’armement avant que les progrès de la technologie n’aillent trop loin ».

Pour dédramatiser, ce type d’Intelligence Artificielle n’existe pas encore à un stade opérationnel, même si les avancées sont rapides. Il est donc nécessaire de se poser une question, dès aujourd’hui : est-ce vraiment nécessaire d’apprendre l’art de la guerre à nos machines ?

Anaïs Bozino

Facebooktwittergoogle_plusredditpinterestlinkedinmail
AUTHOR

Silex ID

All stories by: Silex ID