Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024, incarne une position rare dans le secteur de l'intelligence artificielle : celle d'un architecte de la technologie qui refuse d'en minorer les dangers. Dans un portrait publié début avril 2026 par Le Monde dans le cadre d'une série consacrée aux figures influentes de l'IA, il est décrit comme un « optimiste prudent » — convaincu du potentiel révolutionnaire de l'IA, mais attentif aux conditions dans lesquelles ce potentiel se déploie.
Un Nobel au service de la science
Le prix Nobel de chimie décerné en octobre 2024 à Demis Hassabis et à son collègue John Jumper récompensait leurs travaux sur AlphaFold, le système de prédiction de la structure des protéines développé par DeepMind. Cette reconnaissance scientifique — confirmée par le comité Nobel et relayée par de nombreuses sources indépendantes — a conféré à Hassabis une légitimité inhabituelle parmi les dirigeants de l'industrie technologique. Contrairement à la plupart de ses pairs, il n'est pas seulement un entrepreneur : il est aussi un chercheur dont les travaux ont eu des applications concrètes en biologie moléculaire et en médecine.
Hassabis affirme vouloir utiliser l'IA pour accélérer les découvertes scientifiques, notamment dans des domaines comme la biologie, la physique et la médecine. Cette ambition, cohérente avec la trajectoire de DeepMind depuis sa fondation en 2010 — et son acquisition par Google en 2014 —, se traduit par des projets de recherche fondamentale que la division poursuit en parallèle de ses activités commerciales au sein d'Alphabet.
Des risques pris au sérieux, pas minimisés
Ce qui distingue Hassabis d'autres dirigeants du secteur, selon le portrait du Monde, c'est sa volonté de nommer les risques sans les édulcorer. Il cite deux préoccupations majeures : le détournement de l'IA par des acteurs malveillants — qu'il s'agisse d'États ou d'organisations criminelles — et le risque d'un « emballement incontrôlé » des systèmes, c'est-à-dire la possibilité que des modèles d'IA très avancés adoptent des comportements imprévus et difficiles à corriger.
Ces inquiétudes ne sont pas nouvelles dans le débat public sur l'IA, mais elles prennent un relief particulier lorsqu'elles viennent du responsable d'un laboratoire qui figure parmi les plus avancés au monde. Google DeepMind développe depuis plusieurs années des recherches sur la sécurité des systèmes d'IA, domaine connu sous le nom d'« AI safety », et Hassabis a régulièrement appelé à un encadrement international du développement de ces technologies.
Une trajectoire singulière à la tête d'Alphabet
Enfant prodige des échecs, concepteur de jeux vidéo avant de se tourner vers les neurosciences, puis vers l'IA, Hassabis a fondé DeepMind à Londres avec Shane Legg et Mustafa Suleyman — ce dernier ayant depuis rejoint Microsoft pour diriger ses activités IA. Depuis la fusion de DeepMind et de Google Brain annoncée en 2023, Hassabis dirige une entité unifiée sous le nom Google DeepMind, avec un mandat élargi qui couvre à la fois la recherche fondamentale et le déploiement de modèles dans les produits Google.
À mesure que la course aux modèles d'IA générative s'intensifie entre Google, OpenAI, Anthropic et Meta, la position d'Hassabis — ni triomphaliste ni alarmiste — continue de définir la tonalité publique de DeepMind. La question de savoir si cette prudence revendiquée se traduit effectivement dans les choix de développement du laboratoire reste, pour l'heure, ouverte.