Les avatars du multimédia : une bonne idée et un mot raté

Partager cet article
Follow Me
Tweet
LINKEDIN

Résumé : le mot multimédia possède plusieurs sens précis et un sens général très vague. Mais ce brouillard sémantique masque deux histoires exemplaires, emmêlées mais distinctes. Dans l’une « média » signifie « manière de coder l’information », alors que dans l’autre le mot recouvre des branches des industries de la communication.  La première est un cas exemplaire de pensée abstraite concrétisée, une bonne illustration de l’intérêt des recherches fondamentales théoriques. La seconde tradition, réincarnée dans le thème de la convergence au moment de la « bulle technologique », fournit un très bon exemple de l’autonomie de l’économie par rapport à la technologie. La première histoire est celle d’un succès, la seconde celle de deux vagues d’échecs.

Le futur multimédia vu par ATT en 1986

Le mot « multimédia » est aujourd’hui (automne 2005) dans une situation très ambiguë. D’un côté, son succès est indéniable. A la bourse des mots, c’est-à-dire le nombre de réponses dans les plus grands moteurs de recherche, il dépasse les 400 millions de références. Du letton au turc, du portugais au coréen, il jouit du rare privilège d’être présent dans toutes les langues. On trouve plus de réponses pour « multimédia » que pour « love », ce à quoi aucun néologisme ne saurait prétendre. Pourtant, ce remarquable succès cache un grand vide sémantique. Car peu de mots récents partagent une même dispersion des signifiés. « Multimédia » paie son succès aussi cher que Faust son immortalité : ce mot universel ne veut plus rien dire.

Quelques exemples : une « formation multimédia » désignera l’enseignement des techniques du web ou de la vidéo numérique mais également n’importe quelle formation si les cours utilisent des cd-roms, des sons ou des images. En tant qu’adjectif le terme peut donc recouvrir autant la méthode utilisée que le sujet traité. Aujourd’hui un « ordinateur multimédia » est presque un pléonasme, et quand l’expression est utilisée dans une publicité elle signifie simplement que l’on peut lire des DVD avec, ce qui a peu à voir avec le sens précédent. Une « communication multimédia », préconisée par une agence de publicité, signifie en pratique une campagne qui utilise, entre autre, le web. Un « groupe multimédia » est une entreprise qui possède des activités dans plusieurs « médias », comme la télévision, la presse écrite ou la radio. Quant à « stratégie multimédia », il s’agit d’une expression d’autant plus répandue qu’elle peut recouvrir n’importe quoi.

Cette dispersion ne s’estompe pas quand on passe de l’adjectif au substantif. « Le » multimédia est parfois un euphémisme pour désigner les jeux vidéo, comme dans « Association des Producteurs d’œuvres Multimédia » (APOM), le syndicat professionnel des studios français de développement de jeux vidéo. Il désigne également, dans l’univers des techniques de l’information et de la communication, la cohabitation des images, des sons et des textes sur un même réseau ou sur une même machine. Il était souvent compris, à la fin des années quatre-vingt-dix, comme une commodité pour désigner en même temps Internet et les cd-roms. Il n’a pas le même sens pour les opérateurs de téléphone portable ou pour l’administration. On se met au multimédia, on n’oublie pas le multimédia, on est de moins en moins rétif au multimédia. On n’éprouve pas vraiment le besoin de savoir ce qu’on entend par là. D’ailleurs, le mot est concurrencé par des termes tout aussi vagues comme numérique, interactif ou cyber, qui empiètent sur ses platebandes. C’est sans doute la rançon du succès.

C’est qu’en fait deux traditions technologiques (au sens que Jacques Ellul donne au mot technologie, c’est-à-dire science de la technique) s’entremêlent depuis un quart de siècle, et se sont retrouvées dans les années quatre-vingt autour du même mot de multimédia.

1 : Une vision réalisée

La première tradition nait en 1945 d’une réflexion extrêmement ambitieuse de Vannevar Bush, ancien coordinateur de la recherche américaine pendant la seconde guerre mondiale, parue dans la revue Atlantic Monthly : « How we may think »[1] est une vision d’une future machine, nommée Memex, qui permettrait de retrouver, annoter, diffuser l’information dans cette nouvelle situation de prolifération des textes, schémas, photos qui caractérise désormais le monde occidental. Pendant plus de trente ans, les meilleurs laboratoires, aux Etats-Unis comme en Europe ou au Japon vont s’efforcer de concrétiser la vision de Bush. C’est d’abord Théodore Nelson, qui imaginera Xanadu, une machine fondée sur l’idée de liens hypertextes, mais qui ne verra pas le jour, sauf sous la forme d’un livre paru en 1980, Literary Machines[2]. Une des préoccupations de Nelson, passée assez inaperçue à l’époque, était d’incorporer un système de gestion des droits d’auteurs (DRM, Digital Rights Management), problème auquel on ne s’attèlera réellement que trente ans plus tard. C’est ensuite le Palo Alto Research Center de Xerox, qui poursuivra explicitement le même but, concrétiser la vision de Bush, et qui mettra au point au cours des années soixante-dix, entre autres innovations, l’interface graphique, la souris et l’imprimante laser. Une des premières démonstrations, dès 1968, mettait déjà en jeu l’idée du world wide web et le traitement de texte graphique. A la fin des années soixante-dix, les Atari Labs, la branche recherche et développement du leader de l’époque de l’industrie des jeux vidéo, travaillera dans le même sens. La mise au point du CD-ROM (1980) par Philips et Sony, et l’invention du web au CERN avec le langage HTML (1989), achèveront de faire du micro-ordinateur, mis au point en 1975, autre chose qu’un simple ordinateur personnel, mais bien la traduction en acte de l’idée de Vannevar Bush.

C’est dans cette lignée que s’inscrivent Microsoft et Intel qui, à partir de 1991, appelleront « multimédia » une machine dotée de spécifications minimales, dont un lecteur de cd-rom et une carte son, permettant donc à son utilisateur de manipuler la plupart des « médias », ce terme étant entendu comme « manière de coder l’information » : les sons, les images et les textes. Les deux firmes publieront régulièrement au cours de la décennie des réajustements des spécifications permettant d’appeler « multimédia » un micro-ordinateur. A l’époque, et jusqu’en 1998, ni la présence d’un modem pour accéder à Internet ni la capacité de gérer des images animées, ne font partie de ces exigences de base.

Le CERN, le PARC, les Atari Labs, les laboratoires de Sony, de Philips et de Thomson, Intel et Microsoft seront les grands acteurs de cette première conception du multimédia. La situation d’Apple est un peu particulière. La firme, créée par des transfuges des Atari Labs, est certes la première à fournir avec l’Apple II une machine dotée de capacités sonores et graphiques, et ce dès la fin des années soixante-dix. Elle est également la première, avec le Macintosh (1984) à proposer un ordinateur doté d’une interface graphique. Mais la décennie 1985-1995, avec la marginalisation puis l’éviction des fondateurs, Jobs et Wozniak, lui verra prendre du retard : il faut attendre 1992 pour voir apparaître des Macs avec écran en couleur. Le retour de Jobs en 1997, la sortie des IMac et surtout de l’Ipod puis de l’Iphone redoreront ensuite le blason de la pomme.

2 : De la technologie à la finance

Mais le mot multimédia a été en fait lancé par un autre laboratoire prestigieux, mais plus connu pour sa production d’idées et de textes que pas ses réalisations concrètes, et qui travaillait également dans la perspective tracée par Vannevar Bush. Il s’agit du Media Lab, fondé par Nicholas Negroponte en 1985, dans le prolongement des travaux de l’Architecture Machine Group, créé lui dès 1968, toujours au MIT. Ce type de laboratoire est financé par des « sponsors », c’est-à-dire de grandes entreprises qui lui apportent des fonds. Et c’est en essayant de séduire des firmes comme IBM, ATT et les grands groupes de communication que l’équipe de Negroponte produisit, de 1979 à 1981, une série de documents au retentissement considérable.

Dans ces documents, bientôt repris par de nombreux consultants, il était exposé la première analyse de la « convergence » des industries de la communication. En version initiale, le phénomène concernait trois blocs d’industries : la télévision, la radio et le cinéma d’une part, l’informatique en deuxième lieu, et enfin les industries de l’écrit. En 1983, John Sculley, nouveau patron d’Apple, présentait sept boites étanches mises côte à côte : les médias (écrits et audiovisuels), les bases de données (un sujet très à la mode à l’époque), l’informatique, l’électronique grand public, les télécommunications, les machines de bureau et enfin le commerce. Il était expliqué que ces sept « boites », séparées en 1980, n’allaient plus en former qu’une seule en 2000. Negroponte ajoutait qu’il fallait donc financer les recherches sur les technologies qui allaient être les véhicules de ce chemin de convergence. Le contexte du début des années quatre-vingt, avec les menaces de procès anti-trust contre IBM et le démantèlement d’ATT, était très favorable au succès d’une idée qui exposait que le contexte concurrentiel étant au bord d’un changement radical, il n’était plus nécessaire de réguler la concurrence au sein de chacune de ces boites, mais qu’il fallait raisonner sur la globalité des « industries de la communication ». Coup de chance, les géants de chaque boite devenaient des nains de la future grande industrie unique. Negroponte séduisit donc facilement ses sponsors.

L’analyse du MIT pêchait cependant par plusieurs points. Elle négligeait l’importance des industries de contenus (le disque, le cinéma, les livres) qui pourtant allaient être ensuite au cœur de l’idée de « convergence ». Elle se trompait sur les délais des évolutions, tantôt en les exagérant (la numérisation de certains secteurs, le disque, les télécommunications par exemple, fut beaucoup plus rapide que prévu), tantôt en les sous-estimant. On ne peut enfin lui reprocher qu’à posteriori de ne pas avoir vu ce qu’elle avait sous les yeux, et qui allait bouleverser le secteur de l’informatique, c’est-à-dire Microsoft. MS-Dos puis Windows firent plus contre IBM que toutes les commissions anti-trust.

Mais les analyses de Negroponte s’inscrivaient surtout dans une longue tradition « scientiste » qui d’une analyse technologique (à peu près) juste déduit régulièrement des conclusions économiques fausses. La suite montra plutôt que ce n’est pas parce que des technologies convergent que les firmes en font autant. Le poids commercial des marques, celui des réglementations, la résistance des traditions de travail, le fonctionnement des marchés des capitaux, tous ces facteurs se combinent pour éventuellement contrebalancer ce que le seul facteur technologique commanderait.

Pourtant le succès de l’idée de convergence, appelée à l’époque (1981-1986) « stratégie des groupes multimédia » ou « stratégie multimédia des groupes de communication»[3] fut immédiat. On fit flèche de tout bois : un vague rapprochement entre IBM et MCI, le projet Gaumont-Gallimard de produire des cassettes vidéo, la volonté du groupe Hersant d’investir dans la radio, furent lues comme autant de preuves de la pertinence de la vision du MIT. Mais l’illusion s’évanouit pas au milieu de la décennie. Les rares tentatives réelles de créer des groupes multimédia (Thorn EMI en Grande-Bretagne, Time-Warner aux Etats-Unis) ne furent pas des succès et le reste s’avéra être du vent.

Aussi vite qu’il était arrivé, le sens de multimédia comme décrivant une stratégie industrielle et financière de convergence disparut, et le mot connut même une éclipse profonde dans la deuxième moitié des années quatre-vingt. Il fut ressuscité, dans un sens très différent, par l’arrivée du cd-rom. C’était la revanche tardive de la première tradition sur la seconde, le dernier mot revenant aux ingénieurs.

3 : La double erreur de la convergence

L’idée du MIT, celle de la convergence des industries de la communication, était à l’agonie dès 1986, et pratiquement oubliée en 1991. Elle connut cependant une deuxième carrière spectaculaire au moment de la « bulle technologique », c’est-à-dire entre 1998 et 2001. Ce remake eut même ses hérauts, l’américain Steve Case, patron d’AOL, et le français Jean-Marie Messier. La convergence du substrat technique – avec la numérisation universelle- , la convergence des réseaux de transmission – avec Internet et le large bande- , la convergence des terminaux – avec les téléphones et les ordinateurs portables – , tout cela créait un contexte « nouveau » et allait donner une prime aux premiers qui oseraient occuper tout ce domaine, de l’amont à l’aval, des contenus aux réseaux, du marketing à la technologie[4]. En fait de prime, on sait ce qu’il advint : une catastrophe boursière sans précédent, des patrons renvoyés de façon humiliante, des procès de la part des petits actionnaires. Jamais une idée aussi clairement et fortement exposée ne produisit aussi vite un résultat aussi clairement déplorable. Pourquoi ?

La première raison est à chercher justement dans l’ignorance de l’histoire. La mentalité générale des investisseurs et des cercles dirigeants était en effet, à la fin des années quatre-vingt-dix celle de la table rase : tout était nouveau, il fallait « repenser » tout, les lois de l’économie étaient en train de changer, etc. Dans ce contexte, l’idée de regarder quinze ans en arrière pour examiner ce qui s’était passé lors de la première mode de la « convergence » était balayée avec mépris. Puisque tout était nouveau, examiner le passé était du « passéisme », attitude mortelle devant un grand changement. Pourtant, l’intérêt, voire la possibilité, de bâtir un groupe embrassant une large partie du champ des industries de la communication et de l’information avaient été mises en doute très tôt. Le groupe RCA, puissant dans la fabrication de téléviseurs, mais aussi dans le disque, avait volé en éclat. Thorn-EMI en Grande-Bretagne, autre exemple de la liaison « nécessaire » des contenus et des matériels électroniques, n’avait pas connu un sort plus enviable. La déréglementation des télécommunications, loin de faire des télécoms une proie pour l’informatique, ou l’inverse, en avait au contraire renforcé les frontières, en particulier en séparant plus nettement la fabrication de matériel et l’exploitation des réseaux. Quand aux médias, ils connurent une croissance exceptionnelle, mais chacun dans leur sphère. En France par exemple, si le groupe Hersant avait très provisoirement mis le pied dans la télévision avec la 5 première manière, l’époque fut plutôt à la constitution de nouveaux groupes privés mono-médias, comme Bouygues dans la télévision, NRJ dans la radio, la Comareg dans la presse gratuite[5]. L’aventure dans le cinéma de Matshushita, groupe japonais d’électronique grand public, fut un désastre. Pourtant, en 2000, quand Vivendi ou Warner voulurent allier les contenus (disques, films, livres, jeux vidéo) et les réseaux (téléphone, télévision par satellite), l’idée fut considérée par la plupart des commentateurs dans la presse ou les milieux financiers comme « visionnaire ».

Mais la principale erreur, génétique, de l’idée de convergence était la confusion entre deux niveaux, celui des technologies et celui des entreprises. Il était exact en effet que les techniques de l’ensemble du domaine décrit vingt ans plus tôt par Negroponte s’unifiaient, du moins à un certain niveau de généralité : la numérisation touche aussi profondément la musique que la télévision, les télécommunications que la radio, elle a également des conséquences importantes sur l’écrit. Mais toute grande vague d’innovation technique se caractérise également par l’étendue du champ concerné par ses effets. L’électricité a bouleversé aussi bien l’éclairage urbain que les machine-outils ou le transport ferroviaire. Ce n’est pas pour autant que la SNCF, EDF et Schneider auraient pu fusionner pour ne former qu’une seule entreprise. On négligea ainsi les inconvénients de la concentration verticale : le fait par exemple que les producteurs de contenus ont besoin de les proposer à l’ensemble des réseaux de distribution, et pas seulement à ceux détenus par leur groupe. Ou qu’inversement les réseaux de distribution (stations de télévision, réseaux de télécoms) cherchent à proposer le plus grand nombre de contenus différents et si possible les meilleurs, et donc surtout pas seulement à s’alimenter dans un groupe vertical qui restreint leur choix et contraint leurs pratiques commerciales. On exagéra également les effets de synergie : s’il est possible, à la rigueur, de faire cohabiter une rédaction de radio et une autre de télévision, comme le fait la BBC, il ne s’ensuit pas que les deux puissent se fondre dans une seule rédaction multimédia. Les jeux vidéo ont beau ressembler de plus en plus au cinéma, ils restent et resteront sans doute très longtemps une activité spécifique. Il n’y a aucun bénéfice à les « rapprocher » d’une autre qui conserve, dans la vie quotidienne de sa production, beaucoup plus de différences que de ressemblance avec eux. Enfin on oublia que si les avantages de la convergence sont (très) hypothétiques, ses inconvénients, notamment en termes de réglementation, sont immédiats. Et d’ailleurs les procédures ne se firent pas attendre, émanant tant des autorités américaines et européennes, que des niveaux nationaux. Les édifices juridiques du droit à la concurrence, comme ceux qui régissent les télécommunications ou les médias, n’interdisent pas les groupes multimédias, mais ils les encadrent durablement.

Le « multimédia » reste donc un champ technologique au sein duquel se concurrencent des firmes nombreuses et plus ou moins spécialisées. Toutes sont cependant ancrées dans un domaine principal qui en définit le « métier de base ». Sony, le groupe sans doute le plus diversifié, qui s’étend des logiciels de jeux vidéo au cinéma en passant par le disque ou les équipements audiovisuels professionnels, reste en 2005 un groupe industriel de l’électronique grand public qui lui assure plus de 70% de son chiffre d’affaires et emploie 80% de ses salariés. Microsoft réalise la quasi-totalité des ses gigantesques bénéfices avec deux produits, Windows et Office. Du jeu vidéo à l’édition, des télécommunications à la bureautique, de la télévision aux logiciels professionnels, il existe des firmes strictement spécialisées qui dominent leur secteur ou en sont des acteurs déterminants. Le multimédia est donc un ensemble de techniques qui n’est pas devenu « un » marché, et qui n’est pas près de le faire.


[1] Une traduction partielle figure à cette adresse: www.boson2x.org/article.php3?id_article=59 .Voir également Thierry Bardini, « The augmentation of human intellect as an Alternative Research Program to Artificial Intelligence” Université de Montréal. Texte disponible sur le site de Stanford

[2] Réédité en 1993 chez Mindful Press

[3] GUILLOU B., Les stratégies multimédia des groupes de communication, La Documentation française, Paris, 1985. Dans cet ouvrage remarquable et prudent, l’auteur alerte déjà sur les limites et les inconvénients de la convergence.

[4] MESSIER J-M, J6M.com, Hachette littératures, 2000

[5] Il est vrai que ces trois groupes se sont ensuite diversifiés, Bouygues dans le téléphone portable, NRJ et la Comareg très modestement dans la télévision. Mais ce n’est pas en invoquant la « convergence » ni pour des raisons technologiques.

Partager cet article
Follow Me
Tweet
LINKEDIN

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *