Technologie: Dans cinq ans, l’Intelligence Artificielle pourrait provoquer une catastrophe planétaire avertit l’ancien PDG de Google
De nos jours, l’Intelligence Artificielle (IA) occupe une place importante dans le monde de la technologie. Il est vrai que l’IA permet à des systèmes techniques de percevoir leur environnement, gérer ces perceptions, résoudre des problèmes et entreprendre des actions pour atteindre un but précis. Mais l’évolution vertigeuse de cet outil tecnologique donne de l’inquiétude. C’est le cas pour l’ex PDG de Google, Eric Schmidt qui prédit que toute l’humanité serait en danger dans cinq ans..
Lors de sa participation au sommet organisé par le média Axios, le 28 novembre 2023, Eric Schmidt a souligné qu’il n’y avait pas assez de mesures de sécurité en place pour maîtriser la technologie et l’empêcher de causer d’importants dégâts. Le journal en ligne Slate.fr rapporte que Schmidt a même comparé l’intelligence artificielle aux bombes atomiques lancées sur le Japon en 1945.
«Après Nagasaki et Hiroshima, il a fallu dix-huit ans pour parvenir à un traité sur l’interdiction des essais nucléaires et d’autres choses de ce genre», a-t-il déclaré à Mike Allen, confondateur d’Axios. Le président de la National Security Commission on Artificial Intelligence estime que nous n’avons pas ce temps aujourd’hui. Selon les informations relayés par Slate, Eric Schmidt pense que l’IA pourrait devenir suffisamment puissante pour nuire à l’humanité d’ici cinq à dix ans seulement.
De l’avis de Schmidt, le plus mauvais scénario se produira lorsque les ordinateurs auront la capacité de prendre leurs propres décisions. Et à ce moment-là, s’ils sont capables d’accéder à des systèmes d’armements ou d’atteindre d’autres capacités terrifiantes, les machines pourraient réussir à mentir aux humains et agir derrière notre dos.
Pour éviter ce genre de catastrophe, Eric Schmidt a demandé la création d’une organisation non gouvernementale, comme le GIEC, pour aider les responsables politiques à prendre des décisions au moment où l’intelligence artificielle deviendra trop puissante.
Cependant, le directeur de Meta et chercheur en intelligence artificielle pense le contraire. Yann Le Cun a fait savoir que la technologie était loin d’être assez intelligente pour menacer l’humanité. Il a confié ces propos au quotidien économique et financier britannique Financial Times, en cotobre 2023.
«Le débat sur le risque existentiel est très prématuré tant que nous n’aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d’apprentissage», avait-il affirmé. Comme souvent, il est difficile de trancher entre ces deux extrêmes. Il semblerait, avance Futurism, que le niveau d’inquiétude que nous pouvons légitimement avoir se trouve quelque part au milieu.
Sources: Slate, Futurism
Image Google pour illustration