La crise de la pub n’est pas drôle

Partager cet article
LINKEDIN

L’apparition de supports publicitaires en ligne à partir de 1998 a eu des effets dévastateurs sur l’organisation du marché publicitaire. Et par contre-coup sur toute l’économie des médias et pour finir sur la démocratie. L’ensemble de ces supports, d’abord marginaux, n’a mis qu’une douzaine d’année pour constituer dans la plupart des pays développés le premier segment du marché publicitaire, devant la télévision. Les conséquences de cette transformation ne sont pas toutes heureuses et ses causes ne sont pas toutes justes.

1 : Un marché global en panne depuis près de vingt ans.

Ce qu’on appelle le marché publicitaire présente deux faces. La première est celle des dépenses des annonceurs, des investissements préfère-t-on dire dans la pub (dépenses dites de communication). La seconde est celle des recettes effectives qu’en tirent les médias, la télévision, la radio, la presse et donc, désormais le « digital ». La seconde face est plus petite que la première : les intermédiaires de publicité (agences, régies) prennent au passage leur rémunération et d’autre part toutes les dépenses publicitaires ne vont pas aux médias, certaines vont à l’affichage, à la publicité sur les lieux de vente, aux « imprimés sans adresse » qui encombrent les boites aux lettres ou à d’autres types d’opération de promotion. Ainsi en 2017, les « dépenses de communication » des entreprises et des administrations étaient en France de 30,7 milliards d’euros selon une étude publiée par le CSA mais les recettes publicitaires des médias de 10,1 milliards seulement selon l’IREP.

La différence est importante en valeur, du simple au triple, même s’il faut signaler un certain brouillard statistique en ce qui concerne le marché publicitaire, encore pire quand on veut faire des comparaisons internationales.  Mais pour ce qui nous intéresse ici l’évolution est la même quel que soit l’instrument de mesure et quel que soit le pays. Et elle est très mauvaise sur le long terme. Jusqu’en 2000 les dépenses des annonceurs croissaient toujours plus vite que le PIB et parfois beaucoup plus vite. En France par exemple le PIB a crû de plus de 3,5% par an dans la période 1997-2000 mais la pub de plus de 6%. Cependant depuis 2000 tout s’est bloqué et même inversé. La publicité a régulièrement crû moins vite que le PIB et parfois même diminué en valeur absolue comme dans la période 2004-2009. Il faut souligner que ce phénomène est historique dans l’histoire du capitalisme français d’une part, et s’observe d’autre part dans le monde entier, et en particulier aux Etats-Unis. L’année 2018 a cependant été bien meilleure que celles de la décennie précédente, avec une croissance de 4,2% du marché selon l’IREP, portée exclusivement par les recettes “digitales” (+17%).

Cet arrêt de la croissance des dépenses des annonceurs a évidemment frappé les intermédiaires de publicité, mais a été encore pire pour les médias. Dans les vingt dernières années non seulement le volume de recettes n’a plus augmenté mais il a fallu faire de la place à deux nouveaux venus, Google et Facebook, qui ont pris à eux deux un tiers du total. Le résultat est connu : la presse écrite a perdu la moitié de ses recettes (les trois quarts si on part de 1990) et la télévision est retombée à son niveau de 1996. Pour bien comprendre ce que cela signifie pour la stratégie des chaines de télévision commerciales, et leurs actionnaires, la courbe ci-dessous est éloquente :

Extrait de l’étude de Bearing point pour le CSA

Les chaînes privées sont apparues dans la deuxième moitié des années quatre-vingt attirées par des perspectives commerciales très favorables. Dans la décennie 1985-1995 leurs recettes ont pratiquement triplé en France, passant en gros d’1 milliard d’euros à trois. Puis, à partir de la pointe de 2000, elles ont connu une pente descendante, avec des soubresauts. En 2018, elles sont retombées à leur  niveau de vingt auparavant. Dans n’importe quel autre secteur il en faudrait moins pour qu’on parle d’accident industriel. Le rebond de 2018 (+2,4%) ne fair qu’atténuer la tendance et reste pour l’essentiel dû aux activités numériques des groupes de télévision.

Selon les prévisions du cabinet e-marketer pour le marché américain de 2019, le «digital » sera majoritaire avec 54% du marché. Sur ces 54% deux entreprises seulement en capteront 60% à elles seules : Google (37,2%) et Facebook (22,1%). La presse écrite perdra encore 18% et la radio et la télévision 2%.

2 : Comment le secteur de la publicité s’est-il adapté ?

La première évolution profonde du secteur avait précédé l’irruption des supports numériques, avec une vague spectaculaire de concentration à la fin des années quatre-vingt. La plupart des grandes enseignes de publicité des années fastes ont ainsi disparu : Ogilvy, RSCG, Carat, J. Walter Thomson, TBWA, entre autres, qui tenaient le haut du pavé dans les « années fric » ont été absorbées entre 1987 et 1993. Le mouvement s’est poursuivi par la suite quoique de manière plus étalée dans le temps, pour aboutir en 2019 à quatre grands groupes d’agences mondiales seulement: les américaines Interpublic (ex McCann Erikson) et Omnicom (BBDO, DDB, TBWA), la britannique WPP (J Walter Thomson, Ogilvy, Youg & Rubicam, TNS Sofres, Kantar) et le français Publicis (Leo Burnett, FCA). Derrière ces quatre on trouve encore le japonais Dentsu (ayant racheté l’anglais Aegis qui avait lui-même absorbé Carat) et enfin Havas. Ces concentrations portant sur des dizaines de milliers d’emplois dans une centaine de pays n’ont pas été sans difficultés. WPP par exemple, en 2009 avait licencié d’un coup 14000 personnes.

Le numérique a eu ensuite deux effets considérables sur le secteur. Le premier est la conséquence de la manière dont les espaces publicitaires sont commercialisés sur les supports numériques, ce qu’on appelle le « programmatique ». Dans ce cas l’achat d’espace publicitaire, la mise en place des campagnes et leur diffusion sont réalisés de manière automatisée, et sur les grands supports numériques le tarif est établi par un système d’enchères lui-même automatisé. Ce système, au départ celui de Google, tend à se répandre également à la télévision. Dans ce cas il y a à la fois une destruction d’emplois par robotisation et aussi un transfert de compétences : une partie de celles qui relevaient naguère des intermédiaires de publicité a tendance à se loger désormais directement chez les annonceurs. Entre 2010 et 2015 les agences de publicité, selon une étude réalisée par BPIgroup pour l’AFDAS, ont ainsi perdu discrètement 8,6% de leurs effectifs et les régies publicitaires 5,8%, soit au total près de 10.000 suppressions de postes, à peu près les effectifs totaux de France Télévision.

Ce nouveau système dominant dans la vente d’espace n’est pas comme on pourrait le croire une simplification, une désintermédiation. Au contraire le nouveau système repose sur des systèmes techniques complexes, très bien maîtrisés par des entreprises technologiques comme Google ou Facebook, mais beaucoup moins par les acteurs traditionnels de la publicité. De nouveaux intermédiaires apparaissent qui fournissent des dispositifs soit de réalisation de la transaction (DSP, Ad Exchange, SSP) soit de contrôle (Ad fraud, Ad ratings etc..). Un des problèmes récurrents de cette forme de vente est en particulier qu’ils vendent de l’audience, mais sans spécifier toujours au côté de quels contenus cette audience sera réalisée. En février 2019 par exemple des publicités pour Nestlé ont été vues sur Youtube à côté de contenus pédophiles. Se développent alors des intermédiaires spécialisés pour surveiller ce type de risque. Au total on considère que ces intermédiaires techniques, qu’il faut rémunérer, peuvent absorber la moitié du budget d’une campagne. Les grandes agences ont toutes racheté des entreprises spécialisées dans ces outils.

Mais dans un contexte de diminution du marché global, ce profond changement dans les métiers de la publicité pose un grave problème de ressources humaines non seulement aux agences de publicité, mais aussi aux régies et aux médias. Dans ces domaines on avait beaucoup recruté dans les années quatre-vingt, il y a trente ans, essentiellement des commerciaux avec une formation plutôt littéraire. Aujourd’hui le secteur a besoin de matheux, de geeks. Cette pyramide des âges vieillissante ne facilite pas la compétition contre les entreprises californiennes.

D’autant plus qu’à côté de ces changements de métiers, le numérique engendre une seconde menace pour les acteurs traditionnels du domaine avec l’apparition d’un nouveau concurrent, très puissant en particulier chez les grands annonceurs : les sociétés de conseil. Accenture, Price Waterhouse, Deloitte ont commencé au début des années 10 à racheter des agences spécialisées pour proposer un « service global » allant du conseil en organisation au marketing et la définition et la mise en œuvre des stratégies de promotion. Les grands noms du conseil ou de l’audit ont généralement des points d’entrée dans les grands groupes supérieurs hiérarchiquement à ceux des agences de publicité. Accenture va parler au PDG quand Publicis se contentera du directeur du marketing. Et les discours sur la révolution numérique, les changements profonds de métiers, la nécessité de « penser global » sont de bonnes cartes de visite pour les nouveaux entrants sur ce marché en mutation.

3 : Pourquoi le numérique a-t-il réussi ?

La question peut paraître au mieux passéiste, au pire ridicule. L’évidence générale est qu’il s‘agit d’un processus schumpetérien de destruction créatrice. Les supports numériques ont une audience désormais énorme, ils sont plus souples, permettent un ciblage aussi fin qu’on le souhaite. Ils rendent donc un meilleur service à la fois à leurs utilisateurs et aux annonceurs. Ils gagnent parce qu’ils sont meilleurs. Seulement ?

On peut voir les choses autrement. A commencer par l’audience. Comme le soulignait la remarquable étude confiée par le CSA au cabinet Bearing Point (page 40) il est étrange de constater qu’en 2017 une baisse de 2 minutes du temps passé par utilisateur sur Facebook se traduise par une hausse du revenu publicitaire, toujours par utilisateur, de 49% ! Cela indique clairement que Facebook vend autre chose que de l’audience. Par ailleurs, on pourra tordre les données d’audience dans tous les sens, il est impossible de soutenir que Google et Facebook représentent le tiers du temps passé ou du nombre de contacts de tous les médias. Pour ce qui est du temps passé, on est plutôt de l’ordre de 10 à 20% au maximum du temps de la seule télévision. Si on ajoute le temps passé à écouter la radio ou à lire la presse qui existe encore, on devrait considérer que ces deux entreprises, grâce à leur spectaculaire succès, « mériteraient » une part de marché de l’ordre de 10%.  Pourtant ils sont au triple, et même au-delà aux Etats-Unis.

Il faut donc chercher d’autres arguments que le volume d’audience. Il y a en a au moins trois. Le premier est d’être moins réglementés. La télévision a payé son ancien statut de média-roi d’une attention particulière de la part des autorités de régulation : limitation du temps des écrans, des coupures publicitaires, liste de secteurs interdits de publicité télévisée, sanctuarisation des émissions d’informations, interdiction de la publicité « ciblée ». La liste varie selon les pays, mais partout en Europe les régies publicitaires de Google, de Facebook ou de Twitter expliquent aux annonceurs avec succès que chez elles on est plus libre.

 Le second argument, et le principal, est la qualification de l’audience. Facebook, Google et Twitter vendent une audience ciblée grâce à la gigantesque accumulation de données personnelles dont ils disposent. Même si les régies des autres médias ne sont pas totalement désarmées dans ce domaine, seuls les grands du numérique peuvent proposer d’atteindre des cibles précises croisant des critères d’âge, de sexe, de géographie et surtout de goûts.

Le troisième « bon » argument sur le marché ce sont les faiblesses des médias concurrents. Pour la presse quotidienne le problème était antérieur à l’irruption du numérique. Un lectorat qui s’effrite et surtout qui vieillit. Mais la télévision, même en l’absence de Google et Facebook est un support publicitaire en déclin. Son argument principal en effet était de pouvoir fournir de très fortes audiences instantanées, et il s’érode. Sur le marché publicitaire un spot regardé par cinq millions de spectateurs se vend nettement plus cher que cinq écrans d’un million. Cette prime au leader est essentielle pour la rentabilité des chaînes commerciales. Il n’est pas très intéressant d’avoir 15% de part d’audience à chaque heure de la journée, il est nettement plus rentable d’avoir 20% en prime time et 5 le reste du temps. Or, lentement mais sûrement, le prime time des chaînes leader s’effrite. La multiplication des chaînes en est la plus ancienne cause, mais s’y ajoute désormais la concurrence des nouvelles formes de télévision à la demande. Les chaînes commerciales, à reculons, proposent elles aussi leur propre concurrence en offrant un accès gratuit à la demande à leurs programmes. Pourtant elles peinent à le rendre commercialement intéressant. Mais comme tout le monde s’y met… En effet la publicité sur une émission on-line est plus facile à esquiver pour le téléspectateur et on ne peut pas y faire tenir ces longs tunnels si rentables sur le linéaire. Et la consommation de vidéos en ligne, qu’elle soit sur PC, sur mobile ou sur téléviseur tend à épouser la même courbe horaire que la télévision. YouTube, Facebook, Netflix et Amazon contribuent donc elles aussi à éroder l’audience de prime-time. C’est ce que pointait une note de la banque Morgan Stanley en juin 2018 qui fit grand bruit sur les marchés boursiers européens, mais elle faisait jouer à Netflix un rôle de soliste qui est en réalité interprété par un orchestre numérique où jouent de nombreux instruments.

Le Conseil Supérieur de l’Audiovisuel a publié à cet égard en octobre 2017 un remarquable avis destiné à l’Autorité de la Concurrence au sujet du marché publicitaire[1]. Un chiffre en particulier est à retenir, celui de la division par deux entre 2007 et 2016 du nombre de « spots très puissants », c’est-à-dire obtenant plus de 5 millions de téléspectateurs. Ils représentaient 27% des espaces publicitaires en 2007, au début de la TNT, mais 8% seulement de l’offre en 2016. Et même si le volume global de publicité à la télévision, grâce à l’augmentation du nombre de chaînes, a crû de 62%, les recettes totales n’ont pas augmenté et même baissé de près de 25% en euros constants. Ce qui signifie que la valeur d’un spot publicitaire s’est écroulée dans la période. Bien entendu la concurrence frontale des supports numériques n’y est pas pour rien, mais le mouvement s’était amorcé bien avant que Facebook et Google ne prennent une large place sur le marché.

Les supports numériques se sont donc engouffrés dans une brèche que l’évolution générale des médias analogiques avait creusée. Mais on peut se demander si cela suffit à expliquer l’écart considérable entre leur audience réelle et leur succès publicitaire. On peut en particulier pointer deux anomalies dans le fonctionnement du marché. La première porte sur les tarifs. Par leur poids d’une part, par leur mode de financement d’autre part, Facebook comme Google sont dans une position que les économistes appellent de « price maker », de faiseur de prix. Bien sûr ils veulent maximiser leurs recettes, mais leur véritable horizon c’est le Nasdaq, pas leurs recettes particulières sur un marché particulier. Ils sont tout-à-fait en situation de supporter une baisse de tarif dans un pays pour affaiblir leurs concurrents, en sachant que leur part de marché oblige les autres à s’aligner. Sur le marché des pré-rolls vidéo il est clair que YouTube est dans ce cas : un inventaire publicitaire pratiquement infini et une part de marché qui dépasse 50%. C’est ainsi qu’ont évolué les « coûts par mille », c’est-à-dire le prix demandé à l’annonceur pour une audience de mille personnes. En France par exemple, quand les grandes chaînes essaient de vendre leur antenne entre 20 et 23 euros pour mille téléspectateurs, Google peut proposer moins de 10 euros, parfois moins de 5. Les campagnes sur Facebook, si l’on en croit les données d’audience fournies par le support, peuvent coûter encore moins cher. En apparence.

Le 20 mars 2019, la Commission de l’Union Européenne a condamné Google ) une amende d’1,49 milliard d’euros pour abus de position dominate de sa régie, plus particulièrement de son système AdSense consistant à un partage de revenu des recettes des sites tiers. On lira avec intérêt la demonstration des pratiques illégales de Google pendant dix ans dans le communiqué détaillé de la décision.

D’autre part, la seconde anomalie sur le marché est l’extravagante situation où ces supports mesurent eux-mêmes leur performance.  Il y a une vieille règle plus que séculaire dans le monde des médias : leur audience doit être mesurée par un tiers neutre et objectif. Quand le seul média était la presse papier, les annonceurs pouvaient demander de vérifier chez l’imprimeur combien d’exemplaires avaient été produits contenant leur annonce et ils ne s’en privaient pas. Quand la radio est apparue, très vite sont nés avec elle des instituts spécialisés pour mesurer son audience, comme Nielsen dès les années vingt. La télévision a adopté le même système avant de le perfectionner avec les audimètres installés dans un échantillon de plusieurs milliers de foyers. Mais le numérique n’a pas jugé bon de respecter cette tradition. L’audience de YouTube est fournie par YouTube, celle de Facebook par Facebook. Sherryl Sandberg, qui fut la directrice commerciale de Google avant de devenir celle de Facebook, et qu’on peut considérer comme la docteur Frankenstein de la publicité sur Internet, a été une virtuose de ce système. Car bien entendu, on n’est jamais aussi bien servi que par soi-même. A l’été 2016, les grandes agences de publicité mondiales comme Publicis ont fini par découvrir le pot aux roses et Facebook s’excusa, reconnaissant candidement avoir surestimé son audience depuis plusieurs années. C’est le principal problème, toujours non résolu : comment faire confiance à des chiffres invérifiables et fournis par des acteurs qui ont intérêt à les gonfler. (Une analyse plus détaillée de ce problème figure ici sur ce site)

L’étude de Bearing Point déjà citée énumérait (p55) quatre des dix « erreurs » reconnues par Facebook en 2017 :

• Surestimation du trafic généré depuis Facebook en redirection sur le site de l’annonceur.

• Surestimation du temps passé sur Instant Articles, d’environ 7%,

 • Surestimation du taux de visualisation sur les publicités placées avant une vidéo,

 • Surestimation des vidéos vues : pendant 2 ans, Facebook a surestimé le temps passé par utilisateur à regarder des vidéos, parfois de 80%,

4 : Les dégâts de la grande mutation de la publicité

La publicité n’a, politiquement, pas bonne réputation. Elle est associée dans les milieux de gauche au fric, à la dictature des marchands de soupe, et dans les milieux de droite à la vulgarité. Ses hérauts n’ont d’ailleurs pas toujours manqué les occasions de se taire entre « le commerce de cerveaux disponibles » de Patrick Le Lay et la Rolex sans laquelle on ne peut pas avoir réussi sa vie à cinquante ans de Jacques Séguéla. Pourtant se réjouir des difficultés actuelles de la publicité serait une grave erreur pour qui est attaché à la démocratie.

Pour les groupes de télévision, déjà concurrencés par YouTube et Netflix pour l’audience et par l’ensemble des plateformes américaines pour leur alimentation en programmes, la stagnation des recettes publicitaires entraîne une baisse de leur valeur boursière, les deux phénomènes se conjuguant pour asphyxier leur capacité à investir. Le numérique est un boa constrictor pour la télévision commerciale. On pourrait penser que ce serpent fait partie de la loi de la jungle, et que c‘est de bonne guerre. Mais ce serait méconnaître le fonctionnement de l’écosystème audiovisuel au sein desquels les chaînes commerciales jouent un rôle essentiel que ne remplissent pas leurs concurrents sur le marché publicitaire. Google et Facebook ne contribuent pas à la production audiovisuelle, marginalement à la rémunération des auteurs et encore moins au cinéma. Il est évident que les formes nouvelles de la télévisons présentent de nombreux avantages pour les consommateurs, et il serait vain de s’arcbouter sur la défense des « vieux » médias audiovisuels. Toutefois la concurrence doit être équilibrée et si on veut que les groupes de télévision aient toutes leurs chances de s’adapter ou de proposer des alternatives, c’est-à-dire puisse investir pour l’avenir, leurs recettes doivent être protégées des anomalies du marché.

Mais la principale victime de l’évolution du marché publicitaire est bien entendu la presse écrite. Le déclin du lectorat de la presse quotidienne était amorcé depuis longtemps, au moins depuis les années soixante-dix. Avant même que les recettes publicitaires ne s’écroulent, le numérique lui avait déjà arraché les petites annonces, parties sur eBay, puis sur Le Bon Coin. En France la pesanteur des corporatismes et d’une organisation générale datant de la Libération peuvent être invoquées pour trouver des causes françaises à un mal français, mais en réalité le problème est commun à tous les pays occidentaux. Le numérique a cependant étendu le mal à la presse magazine : ici la baisse des recettes a souvent précédé la baisse du lectorat, amorçant une spirale mortelle : baisse des recettes, baisse des effectifs de journalistes, baisse de la pagination, baisse du lectorat, nouvelle baisse des recettes et ainsi de suite. On pourrait penser que, malheur aux vaincus, le marché propose désormais une alternative gratuite et plus performante à ce vieux média. Mais comme on l’a vu, ce « marché » est très imparfait, donc ses effets illégitimes, et surtout le problème est que la presse emploie des journalistes, produit des informations et des analyses, ce que ni Google ni Facebook ne font. En 2017 encore la presse écrite employait plus des deux tiers des journalistes en France. La baisse des recettes se traduit non seulement par des baisses d’effectifs (moins 2000 tous médias confondus depuis 2011) mais aussi par une précarisation et des baisses de salaires rendant le métier de moins en moins attractif. Sauf pour ceux qui se réjouiraient de se contenter de médias écrits par des robots et des articles américains passés par Google Translate (les deux commencent à apparaître), il y a un risque d’appauvrissement à la fois culturel et démocratique sérieux.  Les technoptimistes avaient promis dans les années 2016-2017 que la relève allait être assurée par des « pure players » lancés par des jeunes équipes adaptées au nouveau monde, les Buzzfeed, Vice, Huffpost et autres Brut. Hélas, les 2000 suppressions d’emplois annoncées pour 2019 dans ce domaine sont venues doucher cet enthousiasme. Ce sont les Britanniques qui se sont les premiers émus du problème. Facebook, sous la pression, a annoncé donner 4,5 millions de livres sterling à la formation de journalistes locaux.  La classe politique britannique, consciente du rôle de désinformation joué par les réseaux sociaux et de moins en moins contrebalancés de l’information crédible, surtout au niveau local, a engagé une réflexion pour l’instant assez radicale.  Le ministère de la culture (et des sports) prône une réglementation de Facebook, ses algorithmes et ses recettes. Un fonds de subventions pour la presse locale, assis sur une taxation des recettes publicitaires numériques, a été envisagé par la Première Ministre Theresa May. Au Canada et surtout en Australie on s’engage sur la même voie. Les considérables dépenses de lobbying de Facebook et Google seront-elles suffisantes pour arrêter cela ?

Et, au fait, en France, on fait quoi?

Alain Le Diberder


[1] Réponse du Conseil supérieur de l’audiovisuel à la consultation publique de l’Autorité de la concurrence portant sur le fonctionnement de la concurrence dans le secteur de la publicité sur internet. Disponible sur le site du CSA.

Partager cet article
LINKEDIN

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *