Montrer le sommaire Cacher le sommaire
Il y a quelques années, l’intelligence artificielle (IA) n’existait que dans les œuvres de science-fiction. Des films comme le blockbuster I, Robot, avec Will Smith, nous mettaient d’ailleurs en garde : quand cette intelligence s’émancipe du contrôle humain, elle est dangereuse.
Nous n’en sommes pas (encore ?) là. Cependant, en 2025, l’IA est désormais une technologie omniprésente qui bouleverse les habitudes et notre société. Mais alors que la fascination pour ses possibilités grandit, les voix d’experts s’élèvent pour alerter sur les risques majeurs concernant son développement rapide. Geoffrey Hinton, le « père de l’IA », fait partie de ceux qui tirent la sonnette d’alarme.
Les promesses et les dangers d’une révolution technologique
L’IA est aujourd’hui un outil incontournable. En plus de nous conseiller et de nous assister, elle automatise plusieurs aspects de notre quotidien. Au travail comme dans notre vie personnelle, elle nous fait gagner du temps.
Geoffrey Hinton, pionnier dans le domaine et lauréat du Prix Nobel de physique pour ses travaux sur les réseaux neuronaux, reconnaît que l’IA pourrait transformer des secteurs comme l’éducation, la médecine ou encore la lutte contre le changement climatique.
À lire Cette fonction peu connue du téléphone portable peut vous sauver des hackers et des voleurs
Sur plusieurs aspects, l’intelligence artificielle peut révolutionner positivement notre vie et notre société. Elle pourrait, par exemple, être capable de déceler des maladies bien avant la connaissance humaine.
Cependant, il met en garde : la société n’a pas encore pleinement conscience de ce qui arrive. Selon Hinton, nous sommes comme des enfants jouant avec un « bébé tigre » : sa puissance nous fascine, mais sans certitude sur ce qu’il adviendra lorsqu’il grandira. Il estime même qu’il existe un risque de 10 à 20 % que l’IA prenne un jour le contrôle sur l’humain (Okdiario).
IA : un sérieux problème de régulation ?
L’une des préoccupations de Geoffrey Hinton concerne la faible régulation du secteur. Il critique ouvertement les grandes entreprises technologiques (Google, OpenAI ou X-AI) qui privilégient la rentabilité au détriment de la sécurité.
Il quitte d’ailleurs la société Google en 2023 afin de s’exprimer plus librement sur ces enjeux de sécurité et de régulation (ledevoir.com).
Alors que les sociétés affirment soutenir la régulation, elles s’opposent souvent aux mesures que proposent les législateurs et investissent peu dans la recherche sur la sécurité de l’IA.
Hinton recommande que les entreprises consacrent au moins un tiers de leur puissance de calcul à la sécurité, bien plus que la faible part actuelle.
Un appel à la vigilance et à la responsabilité collective
Les craintes de Hinton ne tombent pas dans l’oubli. Elles arrivent aux oreilles de figures importantes comme Sundar Pichai (Google), Elon Musk (xAI) ou Sam Altman (OpenAI). Eux aussi expriment des inquiétudes sur le potentiel incontrôlable de l’IA.
Le message est clair. Il est urgent de repenser nos priorités et de renforcer la recherche sur la sécurité et l’éthique. Sinon, nous risquons de voir l’IA évoluer plus vite que notre capacité à la contrôler.
Derrière une avancée révolutionnaire peut se cacher un véritable défi pour l’humanité. Une prise de conscience collective s’impose. Les gouvernements, sans doute, devront agir et légiférer autour de l’IA. À terme, cette technologie peut devenir une menace. En tant que société, notre travail est de faire en sorte qu’un tel avenir ne voie jamais le jour.