Comprendre les exigences de l'AI Act : ce que le code de conduite change pour les développeurs et intégrateurs d'IA

📅 publié le 08/09/2025
⏱️ 3 min de lecture

Depuis l'adoption du règlement (UE) 2024/1689, les acteurs de l'intelligence artificielle opérant en Europe doivent se conformer à un cadre juridique renforcé. Parmi les initiatives structurantes : la publication d'un Code de conduite volontaire pour les modèles d'intelligence artificielle à usage général (General-Purpose AI, ou GPAI). Ce code vise à offrir un référentiel de bonnes pratiques pour anticiper ou démontrer la conformité, notamment sur trois volets sensibles : la transparence, la sécurité, et le respect du droit d'auteur.

Transparence : documenter et expliquer

Le chapitre consacré à la transparence insiste sur la nécessité de rendre les modèles plus lisibles pour les utilisateurs, les régulateurs et le grand public. Les signataires s'engagent notamment à :

  • Documenter les capacités du modèle, y compris ses limitations et les domaines d'usage recommandés ou déconseillés.
  • Rendre publiques les méthodes d'évaluation utilisées pour tester le modèle.
  • Fournir un résumé structuré des données d'entraînement, incluant leur origine, leur typologie, et les modalités de collecte.

L'objectif est de lutter contre l'opacité des modèles IA dits « boîtes noires », tout en renforçant la confiance. Ces éléments doivent être mis à jour régulièrement et intégrés dans un référentiel technique transmis à l'AI Office.

Droit d'auteur : une vigilance renforcée

Le chapitre sur le droit d'auteur répond à une inquiétude croissante autour de l'usage de contenus protégés dans l'entraînement des IA. Les signataires du code s'engagent à :

  • Mettre en place une politique interne de respect du droit d'auteur, qui doit inclure l'identification des œuvres sous droits et des mécanismes pour respecter les réserves exprimées (robots.txt, métadonnées, etc.).
  • Ne pas extraire de contenus sur des sites identifiés comme violant régulièrement les droits d'auteur à l'échelle commerciale.
  • Implémenter des systèmes techniques pour éviter la reproduction d'œuvres protégées dans les sorties des modèles.
  • Désigner un point de contact pour les ayants droit souhaitant signaler des infractions.

Cette approche est complémentaire aux résumés de données d'entraînement exigés par l'AI Act, mais elle constitue une avancée notable en matière de conformité proactive.

Sécurité et fiabilité : prévenir les usages malveillants

Le chapitre sur la sécurité vise à réduire les risques de mésusage ou de détournement des modèles, notamment dans les contextes sensibles. Il impose aux signataires de :

  • Définir et surveiller des indicateurs de sécurité et de robustesse, comme la résistance aux attaques adversariales ou aux hallucinations.
  • Mettre en œuvre des systèmes d'authentification des utilisateurs en cas de fonctionnalités sensibles (ex. : génération de code, simulation de voix).