Site icon Le Blog de l'ARPP

« IA et publicité : quand la réalité rattrape les promesses »

Image illustrant l'intelligence artificielle

L’intelligence artificielle n’est pas magique.
Et surtout, elle ne remplace pas l’œil exercé du juriste.

Depuis bientôt dix ans, à l’ARPP, nous travaillons sur l’intégration de l’IA dans la régulation des contenus publicitaires : d’abord via des modèles de machine learning, aujourd’hui via des Large Language Models (LLM).
Notre objectif : aider les juristes à détecter plus rapidement les manquements aux règles déontologiques de la publicité.

En septembre dernier, nous avons lancé notre tout dernier modèle, fruit de 2 ans et demi de collaboration avec les équipes tech de Google France et intégré à notre nouveau système ARPP.pub/IDcrea.
Cette IA n’est pas un gadget : elle est calibrée sur la doctrine ARPP, issue de plus de 30 ans de pratique, et intègre des centaines de règles, d’exceptions, de cas d’usage.

Mais soyons lucides :
👉 Tout n’est pas automatisable.
Les manquements purement binaires (taille de police, mentions obligatoires, lisibilité, etc.) sont bien couverts.
Les manquements éthiques ou contextuels (tromperie, stéréotypes, perception du public) ne peuvent pas l’être à 100 %, loin s’en faut.
Une IA ne sait pas encore interpréter le ton, l’intention ou le ressenti.

🔎 Premier retour d’expérience (RETex) :

Nous savons comment améliorer ces scores. Mais la supervision humaine reste indispensable — non pour « corriger la machine », mais pour interpréter le réel, ce que l’IA ne sait pas faire.

Aujourd’hui, nous voyons fleurir les discours de certaines startups ou sociétés « bien établies » promettant des IA capables « d’analyser la conformité juridique » de contenus ou de publicités.
🎯 C’est faux.
🎭 C’est du marketing.
⚠️ Et c’est dangereux, car susceptibles de mettre en difficulté des entreprises, avec une fausse impression de conformité.

À l’ARPP, nous croyons à l’IA — mais à une IA responsable, transparente et supervisée par l’humain.
L’IA est un formidable outil d’aide à la décision.
Mais la décision, elle, reste humaine.

💡 Et si on commençait par réguler aussi les promesses faites autour de l’IA ? 😉

Quitter la version mobile