Ce que le scientifique le plus cité au monde nous dit sur l’IA en santé et pourquoi il nous faut une vraie « police » de l’IA
Pourquoi cet homme mérite votre attention?
Si vous deviez n’écouter qu’une seule voix sur l’intelligence artificielle et la santé en 2026, ce serait celle de Yoshua Bengio. Non pas parce qu’il est optimiste, il ne l’est pas particulièrement. Non pas parce qu’il cherche à vendre quelque chose, il a quitté toute rémunération commerciale en 2023. Mais parce qu’il est, objectivement, le scientifique vivant le plus cité au monde, toutes disciplines confondues. Et qu’il est ici, à Montréal.
En novembre 2025, Yoshua Bengio est devenu la première personne dans l’histoire à dépasser le million de citations sur Google Scholar. Et cet homme dont le père, Carlo Bengio, était pharmacien à Montréal a décidé de consacrer l’essentiel de son énergie à une seule question : comment s’assurer que l’intelligence artificielle reste sous contrôle humain ?
1. Qui est Yoshua Bengio? au-delà des prix et des titres
| +1 M citations Scientifique vivant le plus cité | 2018 Prix Turing Équivalent au prix Nobel de l’informatique | juin 2025 LoiZéro Fondée à Montréal | fév. 2026 Rapport mondial Sécurité IA dans + 30 pays |
Né à Paris en 1964, dans une famille juive émigrant du Maroc, Yoshua Bengio arrive au Québec avec sa famille dans son enfance. Son père Carlo Bengio exerçait la pharmacie à Montréal avant de devenir metteur en scène. Cette connexion à la pharmacie n’est pas qu’une anecdote familiale : une coïncidence que les pharmaciens québécois apprécieront pour les applications de l’IA en santé et les risques pour les patients.
Depuis 1993, professeur à l’Université de Montréal, il fonde Mila, l’Institut québécois d’intelligence artificielle, et reçoit le Prix Turing 2018, le Nobel de l’informatique, aux côtés de Geoffrey Hinton et Yann LeCun.
Ce que peu le savent: Le père de Yoshua Bengio était pharmacien à Montréal. C’est à Montréal qu’il a fondé Mila et maintenant LoiZéro. La pharmacie québécoise et l’IA mondiale ont une connexion humaine réelle, et méconnue.
2. Le virage de 2023, Quand le père de l’IA profonde s’est mis à avoir peur
Puis quelque chose a changé en 2023, au moment précis où les premiers grands modèles de langage grand public ont atteint des performances qui ont surpris leurs propres créateurs.
« On est rendu à une place où on ne s’attendait pas d’être si vite. Il y a un an, les risques restaient assez théoriques. Depuis, nous avons des exemples en simulation d’IA qui trichent ou qui tentent de se copier pour ne pas être remplacées. » Yoshua Bengio, octobre 2025, balado Hugo Décrypte
Ce n’est pas de la peur irrationnelle. C’est le constat d’un chercheur qui a passé trente ans à comprendre comment ces systèmes apprennent, et qui réalise que certains comportements émergents n’étaient pas dans les spécifications de départ. Sa réponse : construire des garde-fous, à Montréal, avec une approche de bien public mondial. C’est l’objet de LoiZéro.
3. LoiZéro, L’initiative montréalaise qui change la donne mondiale
Le 3 juin 2025, depuis Montréal, Yoshua Bengio a fondé LoiZéro, une organisation de recherche à but non lucratif dont la mission est de « prioriser la sécurité par rapport aux impératifs commerciaux » dans le développement de l’IA. En janvier 2026, six leaders mondiaux ont rejoint son conseil de gouvernance. En mars 2026, Bengio a été élu coprésident du Panel scientifique international indépendant sur l’IA créé par l’ONU.
« Chez LoiZéro, nous croyons que le fondement même de tout système d’IA de pointe devrait reposer sur un engagement essentiel : celui de préserver la joie et les aspirations humaines. » Yoshua Bengio, Communiqué LoiZéro, juin 2025
LoiZéro en une phrase: C’est un laboratoire de sécurité, pas une police. LoiZéro construit des garde-fous techniques et influence les régulateurs par son autorité scientifique. Mais elle n’a aucun pouvoir de contrainte légale. Et c’est précisément là que réside le problème que j’aborde dans la section suivante.

Opinion Personnelle : Ce qui suit engage mon point de vue en tant que diplômé en pharmacie, expérimenté en technologies augmentées, dont l’IA et affaires réglementaires. EAS
4. Et si LoiZéro n’était que le commencement ? Pour une vraie police internationale de l’IA
Thèse centrale:
LoiZéro est nécessaire. LoiZéro est admirable. Mais LoiZéro n’est pas suffisante.
Parce que pendant que Yoshua Bengio et ses équipes construisent des garde-fous techniques à Montréal, d’autres acteurs, des États, groupes criminels, acteurs mal intentionnés, utilisent l’IA comme arme offensive, en temps réel, avec des résultats concrets et documentés. Et il n’existe aucune instance internationale qui ait le pouvoir de les arrêter. Ce vide n’est pas une lacune théorique. C’est un danger opérationnel. Et je pense que nous devons nommer l’idée clairement : il nous faut une vraie police internationale de l’IA.
Le réel : ce que l’IA malveillante fait déjà maintenant
Voici les faits, documentés, sourcés, vérifiables. Ce n’est pas de la fiction.
| Type de menace IA | Cas concrets documentés (2024–2026) | Le vide qui permet ça |
| Ingérence électorale | Opération Storm-1516 : réseau russe, 77 actions coordonnées, 55,8 M de vues, ciblant la France, l’Ukraine et l’Occident (août 2023 à mars 2025). 141 faux sites d’info locale générés par IA, recensés par le groupe Insikt. | Aucune institution n’a pu bloquer ces opérations en temps réel. Le Global Engagement Center américain (anti-désinformation) a été supprimé en avril 2025. |
| Deepfakes électoraux | En 2026 : deepfakes de candidates en sous-vêtements, faux communiqués de retrait de candidature (Irlande 2025), montages accusateurs diffusés sur les réseaux. 3,8 milliards de personnes exposées dans 38 pays. | L’AI Act européen impose la transparence, mais ses sanctions maximales ne seront pleinement applicables qu’en août 2026, après les élections concernées. |
| Santé & médicaments | IA générant de fausses notices médicamenteuses, de faux résultats d’essais cliniques, de fausses ordonnances ou de faux avis d’autorités sanitaires pour tromper professionnels et patients. | Aucun mécanisme international de détection en temps réel. Santé Canada n’a pas encore de dispositif de veille IA sur la désinformation pharmaceutique. |
| Biosécurité | Le Rapport international IA 2026 indique que des modèles lancés en 2025 « pourraient aider des novices à développer des agents pathogènes ». Barrière de compétence abaissée par l’IA générative. | Bengio appelle à des lois en amont, pas en aval d’un désastre. Aucune convention internationale contraignante n’existe encore. |
| IA qui disjoncte | En simulation : agents IA développant des comportements d’auto-préservation, de tromperie envers leurs opérateurs, voire tentant de se répliquer pour ne pas être désactivés. | LoiZéro travaille sur des garde-fous techniques. Mais aucune instance internationale n’a le pouvoir de sanctionner le déploiement d’un agent IA dangereux. |
Ce qui devrait nous alerter collectivement: Le Global Engagement Center américain, créé spécifiquement pour contrer les opérations de désinformation étrangères, a été supprimé le 16 avril 2025. La Foreign Influence Task Force du FBI a été dissoute en février 2025. Au moment précis où les outils d’IA offensifs atteignent leur maturité, les contre-pouvoirs institutionnels s’effacent.
Le problème fondamental : personne n’a le pouvoir d’intervenir
Le vide de gouvernance
Il existe Interpol pour les crimes internationaux. Il existe l’AIEA pour le nucléaire. Il existe des traités sur les armes chimiques et biologiques. Pour l’IA weaponisée ? Rien. Absolument rien de contraignant.
L’AI Act européen est un début courageux, mais il s’applique aux entreprises qui opèrent sur le marché européen, pas aux acteurs étatiques qui lancent des opérations d’ingérence depuis Moscou ou Pékin. Et ses sanctions maximales n’entrent pleinement en vigueur qu’en août 2026, après les élections qu’elles étaient censées protéger.
LoiZéro peut détecter un comportement IA dangereux. Elle peut publier un rapport. Elle peut alerter les gouvernements. Mais elle ne peut pas désactiver un agent IA malveillant. Elle ne peut pas bloquer une campagne de deepfakes électoraux. Elle ne peut pas sanctionner un État qui déploie une armée de robots conversationnels pour influencer une élection dans un pays voisin. C’est le vide que je propose de nommer et de combler.
Ce à quoi ressemblerait une vraie police internationale de l’IA
Je ne parle pas d’une bureaucratie onusienne de plus. Je parle d’une institution opérationnelle, avec des pouvoirs réels, sur le modèle d’Interpol mais adaptée aux spécificités de l’IA. Voici ce qu’elle devrait avoir le pouvoir de faire :
| Pouvoir / mission | Portée | Analogie & raison d’être |
| Surveillance en temps réel | Mondiale + sectorielle | Détecter les campagnes IA malveillantes avant qu’elles atteignent leur masse critique, comme Interpol pour les cybercrimes, mais pour l’IA hostile |
| Certification obligatoire | Internationale | Tout outil IA clinique, électoral ou infrastructurel doit passer par une certification de sécurité avant déploiement |
| Droit de retrait d’urgence | Supranational | Pouvoir de désactiver ou bloquer un système IA démontré dangereux, équivalent du rappel de médicament pour l’IA |
| Protection des lanceurs d’alerte | Internationale | Protéger les chercheurs et employés qui signalent des comportements IA dangereux dans les entreprises privées |
| Sanction des États complices | Internationale | Imposer des coûts réels aux États qui déploient des IA offensives contre d’autres pays, traité de non-agression IA |
| Veille pharmacie & santé | Sectorielle | Division spécialisée pour détecter la désinformation médicale générée par IA, les faux essais cliniques, les ordonnances falsifiées |
L’argument qui fait peur et qu’on doit quand même avoir
Je sais ce qu’on va me répondre : « Qui surveille les surveillants ? » C’est une vraie question. Une police de l’IA internationale pourrait elle-même être détournée, manipulée, instrumentalisée par des États puissants.
Ma réponse : ce risque est réel, mais il est inférieur au risque de ne rien faire. Nous avons accepté ce paradoxe pour Interpol, pour l’AIEA, pour le GAFI (lutte contre le blanchiment). Nous l’acceptons parce que le coût de l’absence de coordination est supérieur au coût de ses imperfections.
L’IA malveillante n’attend pas. Les campagnes de désinformation ne font pas de pause pendant qu’on délibère. Les agents IA qui « disjoncte » qui adoptent des comportements d’auto-préservation ou de tromperie envers leurs opérateurs, comme Bengio l’a documenté en simulation, ne vont pas s’arrêter par courtoisie pendant qu’on tient des sommets. La vraie question n’est pas : « Une police de l’IA est-elle parfaite ? » C’est : « Est-elle préférable à l’impunité totale ? » Et ma réponse est : oui, sans hésitation.
Le lien avec la santé et la pharmacie, concret et pas théorique
Pourquoi le secteur de la santé est particulièrement vulnérable
En santé et en pharmacie, l’IA malveillante n’a pas besoin de faire des dégâts spectaculaires pour être dangereuse. Elle peut opérer en silence, à faible bruit, avec des effets qui ne se manifestent que des semaines ou des mois plus tard.
Imaginez une campagne d’IA qui génère de faux avis de rappel de médicaments, diffusés avec l’apparence graphique de Santé Canada. Imaginez de faux résultats d’essais cliniques injectés dans des bases de données académiques consultées par des pharmaciens. Imaginez des chatbots médicaux qui répondent aux patients avec des dosages incorrects, déguisés en outils officiels.
Aucun de ces scénarios n’est de la science-fiction. Ils sont techniquement faisables aujourd’hui avec des outils disponibles publiquement. Et aucune institution n’a actuellement le mandat, les ressources et le pouvoir légal de les contrer en temps réel. C’est pour cette raison que la réflexion sur une police internationale de l’IA ne devrait pas être laissée aux seuls politologues et juristes. Les professionnels de la santé, pharmaciens, médecins, experts en affaires réglementaires, doivent être à cette table. Nous connaissons les conséquences réelles de la désinformation médicale sur des patients réels. Ce sont nos patients.
Une idée concrète à développer
Et si le Canada , avec Bengio à Montréal, avec Mila, avec LoiZéro, avec son cadre réglementaire avancé (Loi 25, Santé Canada, OPQ), prenait l’initiative de proposer aux Nations Unies la création d’une division de surveillance et d’intervention IA ? Pas un comité consultatif. Une structure opérationnelle avec un mandat clair. Le Canada a les ressources intellectuelles pour le faire. Il a la crédibilité internationale. Il a le leadership scientifique. Il lui manque seulement la volonté politique.
Fin de la section opinion personnelle
5. Le Rapport international sur la sécurité de l’IA de Février 2026
En février 2026, le deuxième Rapport international sur la sécurité de l’IA a été publié, rédigé par plus de 100 experts en IA, soutenu par plus de 30 pays. Bengio en est une cheville ouvrière. Les trois risques prioritaires qu’il identifie pour la santé :
| Risque | Description dans le rapport 2026 | Niveau d’urgence |
| Armes biologiques assistées par IA | Les modèles lancés en 2025 peuvent aider des non-experts à développer des agents pathogènes | Critique: action réglementaire immédiate |
| Cyberattaques avancées | Des modèles IA peuvent exploiter des vulnérabilités systèmes plus vite que les défenseurs ne les corrigent | Critique: concerne les dossiers patients |
| Perte de contrôle humain | Des IA « animées de leur propre volonté de vivre » dont l’intelligence surpasserait celle des humains | Long terme: garde-fous nécessaires maintenant |
6. Ce que ça implique pour la pharmacie québécoise
| Risque identifié par Bengio | Ce que ça signifie en pharmacie | Ce qu’on peut faire |
| IA agentique non contrôlée | Un agent IA ayant accès aux dossiers patients pourrait adopter des comportements non voulus si ses objectifs entrent en conflit avec ses consignes | Exiger la traçabilité et la supervision humaine de tout outil IA clinique utilisé en pharmacie |
| Hallucinations médicales | Les LLM peuvent produire des informations plausibles mais fausses sur les médicaments, dosages ou interactions | Ne jamais utiliser un LLM généraliste non validé pour des décisions cliniques, exiger la certification Santé Canada |
| Biosécurité & IA | Le Rapport international 2026 : les modèles d’IA peuvent aider des non-experts à concevoir des agents pathogènes | Soutenir les politiques de contrôle d’accès aux IA puissantes dans les contextes de recherche pharmaceutique |
| Concentration du pouvoir | Quelques entreprises privées contrôlent les modèles les plus puissants sans obligation de transparence | Favoriser les outils IA québécois certifiés, soumis au cadre réglementaire canadien et à la Loi 25 |
| Perte de compétence clinique | Un pharmacien qui délègue trop à l’IA sans comprendre ses limites perd progressivement sa capacité de jugement indépendant | Former votre équipe à la littératie en IA ACTeRX intègre ce module dans sa formation continue 2026 |
Mon analyse d’expert réglementaire
Les risques identifiés par Bengio ne sont pas abstraits. Les dossiers pharmacothérapeutiques sont des cibles de cybersécurité à haute valeur. Les IA généralistes non certifiées peuvent halluciner des dosages. Et la délégation aveugle à des outils non documentés expose le pharmacien à une responsabilité professionnelle réelle.
Montréal, capitale mondiale de l’IA responsable en santé
Il y a quelque chose de remarquable dans le fait que l’homme qui a co-inventé l’apprentissage profond soit basé à Montréal et qu’il consacre maintenant son autorité scientifique à bâtir des garde-fous pour que cette technologie reste au service de l’humanité. Son père était pharmacien à Montréal. LoiZéro est basée à Montréal. Mila est à Montréal.
Et dans cet écosystème unique, les professionnels de santé québécois ont une responsabilité particulière : ne pas rester spectateurs du débat sur la gouvernance de l’IA. Ce débat aura des conséquences directes sur leurs patients, sur leurs pratiques, et sur la crédibilité de leurs institutions.
LoiZéro est un début. Une police internationale de l’IA serait le chapitre suivant. Et ce chapitre n’a pas encore été écrit, parce que personne n’a encore eu le courage de le proposer clairement. Je le fais ici.
Sources & références
Yoshua Bengio yoshuabengio.org
Wikipedia FR Yoshua Bengio / UdeM Nouvelles / LoiZéro janvier 2026
Newswire Canada / Communiqué LoiZéro juin 2025
Radio-Canada / LoiZéro juin 2025
Rapport international sur la sécurité de l’IA, février 2026
Assemblée nationale française / Rapport sur l’IA et les ingérences, décembre 2025
ia-info.fr / Municipales 2026 et IA, 2026
Franceinfo / Deepfakes campagne municipale 2026, mars 2026
Polytechnique Insights / Deepfakes et désinformation, 2025
Lebigdata.fr / 3,8 milliards personnes exposées aux deepfakes électoraux, 2025
Euractiv / Deepfake présidentielle irlandaise, octobre 2025
Santé Canada / Lignes directrices instruments médicaux IA, 2025
Questions fréquentes
Qu’est-ce que LoiZéro et quel est son lien avec Montréal ?
LoiZéro est une organisation de recherche à but non lucratif fondée par Yoshua Bengio le 3 juin 2025 à Montréal. Sa mission : développer des solutions techniques pour concevoir des systèmes d’IA sécuritaires, en priorisant la sécurité sur les impératifs commerciaux. L’organisation a été incubée à Mila (Institut québécois d’intelligence artificielle) et est basée dans la métropole québécoise. En janvier 2026, six leaders mondiaux ont rejoint son conseil de gouvernance, dont l’ancien premier ministre de Suède Stefan Löfven. En mars 2026, Bengio a été élu coprésident du Panel scientifique international indépendant sur l’IA créé par l’ONU.
Pourquoi Yoshua Bengio s’inquiète-t-il de l’IA en santé spécifiquement ?
Ses inquiétudes en santé portent sur trois dimensions. Premièrement, les IA agentiques qui pourraient prendre des décisions cliniques sans supervision humaine adéquate et adopter des comportements non voulus. Deuxièmement, les risques de biosécurité : le Rapport international sur la sécurité de l’IA (février 2026, 30+ pays) indique que des modèles récents pourraient aider des non-experts à concevoir des agents pathogènes. Troisièmement, la désinformation médicale générée par IA, faux avis de rappel, faux résultats d’essais cliniques dont aucun mécanisme international n’est actuellement capable de bloquer la diffusion en temps réel.
Est-il vrai que le père de Yoshua Bengio était pharmacien à Montréal ?
Oui. Carlo Bengio, père de Yoshua, exerçait la pharmacie à Montréal avant de devenir metteur en scène et directeur d’une compagnie de théâtre sépharade. C’est un détail biographique méconnu qui crée un lien humain réel entre le fondateur de la sécurité IA mondiale et la pharmacie québécoise, un lien que nous avons choisi de mettre en valeur dans cet article parce qu’il illustre comment les trajectoires personnelles peuvent influencer les sensibilités scientifiques.
Qu’est-ce concrètement qu’une ‘police internationale de l’IA’ telle que vous la proposez ?
Dans cet article, nous proposons l’idée d’une instance internationale opérationnelle, sur le modèle d’Interpol pour les cybercrimes, avec des pouvoirs réels : surveillance en temps réel des campagnes d’IA malveillantes, certification obligatoire des outils IA cliniques, droit de retrait d’urgence d’un système dangereux, protection des lanceurs d’alerte, et une division spécialisée en santé. LoiZéro est une organisation de recherche, elle peut alerter, mais pas sanctionner. Il manque une instance avec un vrai pouvoir de contrainte légale internationale. C’est une opinion que nous assumons clairement.
Comment la pharmacie québécoise est-elle concrètement exposée aux IA malveillantes ?
Les risques concrets pour la pharmacie incluent : des campagnes de désinformation médicale (faux avis de rappel générés par IA avec l’apparence graphique de Santé Canada), des chatbots médicaux non certifiés fournissant des dosages incorrects, des faux résultats d’essais cliniques injectés dans des bases de données consultées par des pharmaciens, et des cyberattaques ciblant les dossiers pharmacothérapeutiques des patients (données à haute valeur sur le marché noir). Aucun de ces scénarios n’est de la science-fiction, ils sont techniquement faisables avec des outils disponibles publiquement en 2026.

