Le « parrain de l’IA » alerte : un seul PDG tech perçoit les véritables dangers

Le "parrain de l'IA" alerte : un seul PDG tech perçoit les véritables dangers

Geoffrey Hinton, surnommé le « parrain de l’intelligence artificielle », lance un avertissement sévère concernant les dangers potentiels de l’IA. Dans un récent podcast, il affirme que parmi tous les dirigeants de la tech, un seul semble véritablement conscient des risques majeurs liés à cette technologie révolutionnaire. Cette prise de position intervient dans un contexte où l’IA connaît une expansion fulgurante dans tous les secteurs.

Les inquiétudes du « parrain de l’IA » face aux risques sous-estimés

Geoffrey Hinton, célèbre pour ses travaux pionniers sur les réseaux neuronaux, a récemment exprimé ses préoccupations lors de l’émission « One Decision ». L’ancien chercheur de Google a quitté l’entreprise après plus d’une décennie de collaboration pour pouvoir s’exprimer plus librement sur les dangers potentiels de l’intelligence artificielle. Selon lui, de nombreux dirigeants technologiques comprennent parfaitement les risques associés à l’IA mais choisissent délibérément de les minimiser en public.

« Je crois que beaucoup de personnes travaillant dans les grandes entreprises minimisent publiquement les risques », a-t-il déclaré lors de l’épisode diffusé le 24 juillet. Cette attitude révèle un décalage préoccupant entre la connaissance interne des risques et la communication externe des géants de la tech, soucieux de maintenir l’engouement autour de leurs innovations.

Hinton n’hésite pas à qualifier les dirigeants des grandes entreprises technologiques « d’oligarques », ciblant particulièrement des figures comme Elon Musk et Mark Zuckerberg. Lorsqu’on lui demande s’il leur fait confiance, sa réponse est sans équivoque : « Je pense que si je les ai appelés oligarques, vous connaissez déjà la réponse à cette question. »

Cette méfiance s’inscrit dans un contexte où le développement accéléré des systèmes d’IA soulève des questions éthiques et sécuritaires majeures, notamment concernant l’autonomie croissante de ces technologies et leur impact potentiel sur la société.

Demis Hassabis: l’exception parmi les dirigeants tech

Au milieu de ces critiques, Hinton identifie une exception notable : Demis Hassabis, PDG de Google DeepMind. « Demis Hassabis, par exemple, est conscient des risques et souhaite véritablement faire quelque chose pour les contrer », affirme le chercheur. Cette reconnaissance singularise Hassabis comme le seul dirigeant tech majeur prenant pleinement en considération les dangers potentiels de l’IA.

Le parcours de Hassabis est particulièrement significatif dans l’écosystème de l’IA :

  • Cofondateur de DeepMind en 2010
  • Vente de l’entreprise à Google en 2014 pour 650 millions de dollars
  • Négociation de la création d’un comité d’éthique pour l’IA comme condition de la vente
  • Récipiendaire du prix Nobel pour ses contributions scientifiques

Initialement, Hassabis espérait que les universitaires et scientifiques mèneraient la course à l’IA, préservant ainsi une approche plus prudente et éthique. Aujourd’hui, il se retrouve au cœur de la stratégie de Google en matière d’intelligence artificielle, avec certains observateurs le considérant même comme un potentiel successeur au poste de PDG de l’entreprise.

En février dernier, Hassabis a publiquement reconnu les risques à long terme de l’IA, mettant en garde contre des systèmes basés sur des agents qui pourraient « échapper à tout contrôle ». Il s’est également positionné en faveur de la création d’un organisme international de régulation pour encadrer le développement de ces technologies.

Position sur l’IA Geoffrey Hinton Demis Hassabis Autres PDG tech
Reconnaissance des risques Élevée Élevée Faible (publiquement)
Action concrète Sensibilisation Comité d’éthique, appels à régulation Limitée
Communication Transparente Équilibrée Minimise les risques

Les manifestations croissantes pour la transparence de l’IA

L’inquiétude exprimée par Hinton trouve un écho dans la société civile. Fin juin 2025, des manifestants se sont rassemblés devant les bureaux londoniens de DeepMind pour exiger davantage de transparence dans le développement des systèmes d’intelligence artificielle. Ce mouvement illustre une préoccupation grandissante concernant le développement rapide de technologies potentiellement disruptives sans contrôle démocratique suffisant.

Cette mobilisation s’inscrit dans un contexte plus large où les préoccupations concernant l’IA dépassent le cercle des experts pour atteindre le grand public. Les questions de biais algorithmiques, de surveillance de masse, d’automatisation du travail et de systèmes autonomes potentiellement dangereux sont désormais au cœur du débat public.

Les critiques formulées par Hinton soulèvent des questions fondamentales sur la gouvernance de l’IA :

  1. Qui doit contrôler le développement des technologies d’IA avancées?
  2. Comment assurer une transparence suffisante concernant les risques?
  3. Quel cadre réglementaire international pourrait encadrer efficacement ces innovations?
  4. Comment équilibrer progrès technologique et sécurité collective?

Face à ces défis, le contraste entre l’approche prudente de Hassabis et l’attitude des autres dirigeants tech qualifiés « d’oligarques » par Hinton illustre une tension fondamentale dans le secteur. D’un côté, la course à l’innovation et aux parts de marché pousse à une adoption rapide de l’IA; de l’autre, les préoccupations éthiques et sécuritaires appellent à une démarche plus mesurée et collaborative.

Alors que l’IA continue de transformer rapidement notre monde, la position unique de Hassabis, reconnue par le « parrain de l’IA » lui-même, suggère qu’une prise de conscience des risques réels est possible même au sein des plus grandes entreprises technologiques. La question reste de savoir si cette conscience se traduira par des actions concrètes suffisantes pour éviter les écueils potentiels de cette révolution technologique.

Sophie Bernard
Retour en haut