« IA et publicité : quand la réalité rattrape les promesses »

L’intelligence artificielle n’est pas magique.
Et surtout, elle ne remplace pas l’œil exercé du juriste.

Depuis bientôt dix ans, à l’ARPP, nous travaillons sur l’intégration de l’IA dans la régulation des contenus publicitaires : d’abord via des modèles de machine learning, aujourd’hui via des Large Language Models (LLM).
Notre objectif : aider les juristes à détecter plus rapidement les manquements aux règles déontologiques de la publicité.

En septembre dernier, nous avons lancé notre tout dernier modèle, fruit de 2 ans et demi de collaboration avec les équipes tech de Google France et intégré à notre nouveau système ARPP.pub/IDcrea.
Cette IA n’est pas un gadget : elle est calibrée sur la doctrine ARPP, issue de plus de 30 ans de pratique, et intègre des centaines de règles, d’exceptions, de cas d’usage.

Mais soyons lucides :
👉 Tout n’est pas automatisable.
Les manquements purement binaires (taille de police, mentions obligatoires, lisibilité, etc.) sont bien couverts.
Les manquements éthiques ou contextuels (tromperie, stéréotypes, perception du public) ne peuvent pas l’être à 100 %, loin s’en faut.
Une IA ne sait pas encore interpréter le ton, l’intention ou le ressenti.

🔎 Premier retour d’expérience (RETex) :

  • Sur l’ensemble des avis à modifier pour la publicité audiovisuelle, 66 % sont couverts par l’IA.
  • Sur ces 66 % :
    • la détection des problèmes de lisibilité est fiable à 91 %.
    • mais sur des manquements pourtant binaires (image, texte, son), la fiabilité chute à 50 %. Nous observons 32 % de faux positifs et 18 % de faux négatifs.

Nous savons comment améliorer ces scores. Mais la supervision humaine reste indispensable — non pour « corriger la machine », mais pour interpréter le réel, ce que l’IA ne sait pas faire.

Aujourd’hui, nous voyons fleurir les discours de certaines startups ou sociétés « bien établies » promettant des IA capables « d’analyser la conformité juridique » de contenus ou de publicités.
🎯 C’est faux.
🎭 C’est du marketing.
⚠️ Et c’est dangereux, car susceptibles de mettre en difficulté des entreprises, avec une fausse impression de conformité.

À l’ARPP, nous croyons à l’IA — mais à une IA responsable, transparente et supervisée par l’humain.
L’IA est un formidable outil d’aide à la décision.
Mais la décision, elle, reste humaine.

💡 Et si on commençait par réguler aussi les promesses faites autour de l’IA ? 😉

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *