La Commission a publié aujourd’hui un premier projet de code de bonnes pratiques sur le marquage et l’étiquetage des contenus générés par l’intelligence artificielle, conformément au calendrier prévu pour la finalisation du code en juin 2026.
L’article 50 du règlement sur l’intelligence artificielle (« AI Act ») prévoit des obligations pour les fournisseurs de systèmes d’IA de marquer les contenus générés ou manipulés par l’IA dans un format lisible par machine, ainsi que pour les utilisateurs qui déploient des systèmes d’IA générative à des fins professionnelles, de mentionner clairement les deepfakes (« hypertrucages ») et les textes générés par l’IA portant sur des questions d’intérêt public. Afin d’aider les fournisseurs et les utilisateurs à se conformer à ces exigences, la Commission facilite l’élaboration d’un code de bonnes pratiques volontaire, rédigé par des experts indépendants, en amont de l’entrée en application de ces règles.
Le projet de code de bonnes pratiques se compose de deux sections. La première section porte sur les règles relatives au marquage et à la détection des contenus générés par l’IA et s’applique aux fournisseurs de systèmes d’IA générative. La seconde section concerne l’étiquetage des deepfakes et de certains textes générés ou manipulés par l’IA portant sur des questions d’intérêt public, et s’adresse aux déployeurs de systèmes d’IA générative.
La Commission recueillera les retours des participants et des observateurs du code de bonnes pratiques sur ce premier projet jusqu’au 23 janvier. Un deuxième projet sera élaboré d’ici la mi-mars 2026, le code devant être finalisé d’ici juin de l’année prochaine.
Les règles relatives à la transparence des contenus générés par l’IA deviendront applicables le 2 août 2026. Plus d’informations sont disponibles en ligne.

