En juillet 2025, la Commission européenne a publié un Code de bonnes pratiques pour encadrer les modèles d'intelligence artificielle «à usage général » (GPAI), comme ChatGPT ou d'autres IA polyvalentes (Commission européenne, 2025). L'objectif: préparer l'entrée en vigueur de l'AI Act, le futur règlement européen sur l'IA, et inciter les fournisseurs à adopter dès maintenant des règles de transparence, de sécurité et de gouvernance responsable.
Parmi les mesures proposées, un formulaire standardisé permet aux développeurs de documenter un modèle : description des capacités, limites, données d'entraînement et tests réalisés (UGGC Avocats, 2025). Le code recommande aussi d'exclure les sites de piratage pour respecter le droit d'auteur, et de mettre en place des pratiques pour limiter les risques (discours haineux, erreurs critiques, atteinte aux droits fondamentaux).
Des promesses... mais sans obligation
Ce code reste volontaire : aucune sanction n'est prévue en cas de non-respect (L'Express, 2025). Certains grands acteurs ont signé (Google, Microsoft, IBM...), d'autres non, comme Meta, estimant que le texte va « au-delà » de l'AI Act (Chee, 2025). Même parmi les signataires, des réserves existent: Google a alerté sur un possible frein à l'innovation si la transparence exige de dévoiler des secrets industriels.
Pourquoi c'est important pour la santé
Dans la santé, les IA généralistes sont déjà utilisées pour analyser des images médicales, aider au diagnostic ou accélérer la recherche de médicaments (Commission européenne - DG Santé, 2025 ; Brac de La Perrière, 2025). Mais un outil imparfait peut entraîner des erreurs graves: un chatbot médical mal contrôlé pourrait donner une posologie dangereuse. Or, le Code GPAI ne prévoit ni validation indépendante, ni mécanisme clair de responsabilité en cas de problème.
Vers des règles contraignantes
À partir du 2 août 2025, certaines obligations de transparence de l'AI Act deviendront légales, puis pleinement applicables en août 2026, avec des sanctions allant jusqu'à du chiffre d'affaires mondial (Commission européenne, 2025). En attendant, la confiance repose sur la bonne volonté des fournisseurs.
Pour les patients et les professionnels, cette période transitoire appelle à vérifier les garanties offertes par les IA utilisées : performance médicale documentée, données filtrées contre les biais, garde-fous en place. La transparence ne doit pas rester une promesse : dans la santé, elle doit devenir une preuve vérifiable.