Intelligence artificielle et création de contenus : quelle éthique ?

A l’ARPP, la question se traite sous deux angles :

    • L’IA et la création de contenus éthique et responsable (Good AI)
    • L’IA au service de l’influence responsable (AI for good)

1. L’IA et la création de contenus éthique et responsable (Good AI)

Les enjeux juridiques et éthiques liés à l’utilisation de l’intelligence artificielle (IA) et des créateurs virtuels sur les réseaux sociaux sont nombreux et complexes. Ils concernent la protection de la vie privée, la lutte contre les biais cognitifs susceptibles de générer des stéréotypes ou discriminations, la protection de la propriété intellectuelle, la promotion de normes corporelles réalistes… Il est aussi crucial de prévenir les effets négatifs sur la santé mentale, particulièrement des jeunes publics. Enfin, ces enjeux incluent la transparence des influenceurs virtuels, la lutte contre les deepfakes (hypertrucages) et la désinformation. Les acteurs utilisant ces technologies doivent impérativement se fixer un cadre éthique, basé notamment sur les principes suivants :

  • Respect des droits des tiers : Les modèles d’IA générative, qui créent des images, de la musique ou du texte, sont souvent formés à partir de grandes quantités de données, parfois incluant des œuvres protégées par des droits d’auteur. Si ces œuvres sont utilisées sans autorisation, cela constitue une violation des droits d’auteur. De plus, l’IA peut générer des images de personnes sans leur consentement ou d’individus fictifs ressemblant à des personnes réelles, ce qui peut violer le droit à l’image. La Recommandation de l’ARPP « Communication publicitaire numérique » interdit de représenter une personne sans son autorisation, y compris via des deepfakes.
  • Influenceurs virtuels : Bien qu’ils offrent des avantages en termes de rapidité et d’adaptabilité, ils posent des risques liés aux normes irréalistes et aux biais des personnes qui les mettent en œuvre. La diversité des équipes impliquées dans leur création et la transparence sont cruciales pour limiter ces risques.
  • Garbage in – Garbage out : La qualité des résultats d’une IA dépend de la qualité des données d’entrée. Les données utilisées pour former les modèles d’IA doivent être représentatives, précises, et exemptes de préjugés, pour éviter que l’IA ne perpétue ou n’amplifie des erreurs ou des discriminations.
  • Impact carbone et IA : L’entraînement des modèles d’IA, en particulier ceux basés sur l’apprentissage profond, consomme beaucoup de ressources informatiques et d’énergie, augmentant ainsi l’impact carbone. Cependant, une utilisation raisonnée et optimisée de l’IA, limitée aux besoins essentiels, pourrait réduire ces effets.

Conclusion :
Alors que l’IA continue de façonner le paysage numérique, les créateurs de contenus, leurs agents, les marques et leurs agences doivent trouver un équilibre entre l’exploitation de ses capacités créatives et le respect des pratiques éthiques. Nous le savons aujourd’hui, les créateurs de contenus qui privilégient la transparence et l’authenticité nouent des relations de confiance plus fortes avec leur public et prospèrent davantage dans le paysage en constante évolution des médias sociaux et de l’influence commerciale.

2. L’IA au service de l’influence responsable (AI for Good)

Si l’intelligence artificielle, depuis son apparition dans nos sociétés modernes, suscite des inquiétudes souvent légitimes (biais cognitifs, discrimination, violation de la propriété intellectuelle, vie privée, emploi…), à l’ARPP elle peut être considérée comme une opportunité de se défaire de tâches à faible valeur ajoutée.

L’introduction progressive de l’IA dans les processus opérationnels de contrôle opérés par l’ARPP découle en partie d’ateliers animés en 2019 par l’ARPP à l’École des Mines avec l’industrie publicitaire. Aujourd’hui ces travaux se poursuivent avec les juristes de l’ARPP.

Ces travaux ont permis de nous interroger sur la manière dont nos métiers pouvaient tirer profit de l’IA et comment envisager l’avenir de la régulation professionnelle des contenus publicitaires.

Différents travaux et projets ont été lancés sur cette base, comme l’automatisation des observatoires de l’ARPP suivants :

  • L’Observatoire relatif à la représentation féminine et masculine dans les publicités télévisées (modèles de classification entrainés à identifier les genres, les classes d’âge et la voix).
  • L’Observatoire des pratiques publicitaires digitales permettant la détection automatique de suspicions de manquements dans la publicité programmatique, en partie facilitée par INVENIO, un dispositif de collecte automatique de messages publicitaires numériques et de computer vision (détection et classification automatique des contenus audiovisuels grâce aux réseaux de neurones profonds).
  • L’Observatoire de l’Influence Responsable, qui au moyen de technologies avancées mis en oeuvre en partenariat avec des partenaires technologiques comme Kolsquare, Kuli, Reech ou TraackR, afin d’identifier automatiquement les discours à teneur commerciale et détecter des suspicions de manquements.

L’année 2024 a été marquée par l’intégration au sein d’un Observatoire de l’Influence Responsable d’un dispositif de retranscription Speech-to-text (reconnaissance vocale automatique).

En 2025, l’ARPP prévoit d’intégrer de modèles LLM (modèles de langage de grande taille) permettant la détection de manquements, de manière continuelle, en quasi-temps réel.

Avec l’automatisation de ces tâches les équipes économisent environ un tiers du temps consacré aux Observatoires. Assurément, l’IA constitue une opportunité grandissante pour les systèmes d’autorégulation européens qui collaborent étroitement aujourd’hui sur ce sujet, au sein d’un groupe de travail intitulé Data-Driven Self-Regulation (l’autorégulation fondée sur les données).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *