titre_lefil
Proplan

7 mai 2026

IA contre vétérinaire : match pour le meilleur diagnostic ?

par Mathieu Lamant

Temps de lecture  4 min

Quand l'écran affiche le verdict, le vétérinaire, lui, affronte le silence. La compassion, la contention douce, le mot juste : autant de compétences qu'aucune IA ne sait reproduire (illustration générée par Mathieu Lamant avec Image-2 de OpenAI).
Quand l'écran affiche le verdict, le vétérinaire, lui, affronte le silence. La compassion, la contention douce, le mot juste : autant de compétences qu'aucune IA ne sait reproduire (illustration générée par Mathieu Lamant avec Image-2 de OpenAI).
 

« Il est masochiste de faire des études de médecine aujourd'hui. Médecin plus IA, c'est moins bien que l'IA sans médecin ». La phrase choc, lancée par le chirurgien Laurent Alexandre lors d'une audition parlementaire sur l'intelligence artificielle le 7 avril 2026, a de quoi faire bondir tout praticien. Devant les députés, il a enchaîné : « nous ne sommes pas très loin du moment où il sera interdit à un médecin de faire un diagnostic […], il serait raisonnable que nous soyons obligés de demander l'autorisation de l'IA avant de faire une prescription », et de poursuivre, « on a allongé la durée des études médicales au moment où il fallait la diminuer ». Selon lui, la désynchronisation entre l'école et la technologie serait « absolument intolérable ».

Provocation rhétorique ou signal d'alarme légitime ? Que dit aujourd'hui la littérature scientifique ? Et, surtout, ces affirmations sont-elles transposables à la médecine vétérinaire ?

En médecine humaine, le duo l'emporte sur le solo

L'étude la plus robuste est celle de Zöller et al. (PNAS, 2025). Les auteurs ont croisé plus de 40 000 diagnostics différentiels posés par des médecins avec ceux de cinq grands modèles de langage sur 2 133 scénarios cliniques. Leur conclusion contredit frontalement la thèse de Laurent Alexandre : les collectifs hybrides humain-IA sont significativement plus précis que les groupes constitués uniquement d'humains ou uniquement d'IA. Le mécanisme repose sur la complémentarité lors d'erreurs : quand la machine se trompe, le clinicien corrige, et inversement.

Une méta-analyse (Kumar et al., Sci, 2026) confirme toutefois que l'IA seule surpasse les non-spécialistes : elle obtient 81 % de précision contre 71 % face aux généralistes, et 95 % contre 82 % face aux non-experts. Les spécialistes expérimentés, eux, restent compétitifs.

Le biais d'automatisation, un vrai danger

Une autre étude, de Kücking et al. (Int J Med Inform, 2026), interpelle directement le praticien. Sur 1 338 décisions diagnostiques, les recommandations correctes de l'IA améliorent la précision du clinicien, mais les recommandations incorrectes la dégradent substantiellement. Ce phénomène s'appelle le biais d'automatisation : accepter sans esprit critique ce que propose la machine.

Les facteurs protecteurs identifiés sont l'expérience, la qualification et un bon niveau de performance de base. Plus le praticien est formé, mieux il réagit aux erreurs de l'IA. Un argument qui plaide davantage pour renforcer la formation que pour la raccourcir comme le propose le Dr Alexandre.

En médecine vétérinaire, des performances encore fragiles

Qu'en est-il de notre côté de la table d'examen ? Ndiaye et al. (Front Vet Sci, 2025) ont confronté le logiciel SignalRAY à onze radiologues vétérinaires sur cinquante études radiographiques canines et félines. Les résultats montrent que l'IA affiche une haute spécificité mais une sensibilité inférieure à celle des experts pour détecter les anomalies. Sa précision globale atteint le niveau du meilleur radiologue. Toutefois, l'étude pilote de Ma et al. (JAVMA, 2026) tempère cet optimisme : six plateformes IA commerciales évaluées sur des clichés de terrain révèlent des déficiences significatives. L'IA performante en laboratoire peut décevoir en conditions réelles.

En ophtalmologie, les résultats sont contrastés. Sur des cas simples d'ophtalmologie féline, ChatGPT-4.5 atteint 90 % de précision, rivalisant avec les spécialistes (Okur et al., Vet Ophthalmol, 2026). Mais sur les cas complexes de fond d'œil, les experts reprennent nettement l'avantage (Kibar et al., Vet Ophthalmol, 2026).

Finalement, le consensus conjoint des collèges américain et européen d'imagerie vétérinaire (ACVR/ECVDI, Appleby et al., JAVMA, 2025) est formel : le vétérinaire doit rester dans la boucle pour toute interprétation assistée par IA.

Piloter la machine, ne pas la subir

Laurent Alexandre a raison sur un point : la désynchronisation entre formation et technologie est réelle. Mais sa conclusion – l'humain est en trop dans l'équation – est contredite par les données d'études. La réponse scientifique, en médecine humaine comme vétérinaire, converge : ni l'IA seule, ni le praticien seul, mais les deux ensemble remportent le match, à condition que le clinicien conserve son esprit critique.

Le vétérinaire de demain ne sera pas celui qui « sait tout », mais celui qui sait piloter les outils d'IA et offrir ce qu'aucune machine ne peut : la contention douce d'un animal apeuré, la compassion lors d'une euthanasie, l'annonce d'un pronostic difficile les yeux dans les yeux. L'intelligence artificielle ne remplace pas la compétence clinique. Elle l'amplifie – pour qui veut bien apprendre à s'en servir.

Schéma réalisé par Mathieu Lamant avec l'assistance de Claude (Anthropic).