La Web-revue : de la Kulturindustrie d’hier aux industries culturelles, créatives et numériques d’aujourd’hui, s’est ouvert un champ interdisciplinaire pour tous ceux dont les recherches interrogent la culture populaire industrialisée et les médias. Cette rubrique propose de suivre les actualités des industries culturelles et numériques du côté des acteurs professionnels, qui sont souvent divisés quant à la bonne stratégie à adopter face à l’innovation constante, d’où des débats « internes » dont doit tenir compte l’approche critique de la Web-revue.
Interdit à la reproduction payante.
Contenu
L’intelligence artificielle humaine trop humaine
Dans un article publié en avril par la revue Science, Joanna Bryson, Aylin Caliskan (université de Princeton, New Jersey) et Arvind Narayanan (université de Bath, Royaume-Uni) démontre, à partir d’un travail sur le programme GloVe développé par l’université de Stanford, comment une technologie d’apprentissage machine reproduit les biais humains. Ce type de programme équipe les algorithmes de traduction automatique, de plus en plus performants.
GloVe cherche à corréler des mots entre eux d’après les usages naturels attestés. Pour ce faire, le programme se base sur d’innombrables exemples tirés d’une base de données (Common Crawl) de milliards de textes issus du Web, sur une période de sept ans. Des mots relevant du domaine lexical des fleurs sont associés à des termes liés au bonheur et au plaisir. Par contre, des mots liés aux insectes sont rapprochés de termes négatifs. Et tout aussi logiquement, les qualitatifs statistiquement les plus donnés aux Noirs américains sont davantage liés à un champ lexical négatif que ceux attribués aux Blancs. Ces résultats correspondent au test d’association implicite des idées, célèbre en psychologie clinique. Concluent les auteurs cités ci-dessus : « Nos résultats suggèrent que si nous fabriquons un système intelligent qui apprenne suffisamment sur les propriétés du langage pour être capable de le comprendre et de le produire, il va aussi acquérir, dans ce processus, des associations culturelles historiques, dont certains peuvent être problématiques ».
Les biais de l’IA sont déjà apparus dans d’autres applications. Tay, un bot de Microsoft lancé en 2016, était censé incarner une adolescente sur Twitter. Las, le programme a trop bien marché. En 24 heures, il s’est mis à tenir des propos racistes et négationnistes avant d’être suspendu en catastrophe. Autre exemple non langagier : quand un programme d’IA est devenu juge d’un concours mondial de beauté (6000 images soumises de 100 pays) en septembre 2016, il a éliminé d’emblée les femmes noires ; pratiquement toutes les 44 « gagnantes» étaient blanches, une seule avait la peau foncée. Dans des applications moins anecdotiques, la même logique vaut pour des prêts bancaires, la sélection des CV pour des entretiens d’embauche, le prix des assurances, et les décisions pénales. Et pourquoi pas la sélection par algorithme appliquée aux filières universitaires ?
Selon Serge Abiteboul, directeur de recherche à l’Institut national de recherche en informatique et en automatique (Inria), « Par nature, un humain va avoir des biais […]. On pourrait penser que l’algorithme serait beaucoup plus juste. Mais ce n’est pas si simple. Si on utilise le machine learning, alors on se base sur des données créées par des humains pendant dix ans, et l’algorithme va reproduire les préjugés que ces humains ont exprimés. Ces logiciels peuvent avoir des effets considérables sur nos sociétés, ils doivent donc se comporter de façon responsable ».
Plusieurs pistes de réflexion sont évoquées. Des chercheurs à l’université d’Oxford prônent la mise en place d’une autorité chargée d’auditer ces algorithmes. L’Union européenne travaille sur un « droit à l’explication » qui imposerait aux entreprises utilisant ces programmes d’expliquer les décisions qu’ils prennent (mais, peine perdue, il y aura d’autres algorithmes pour cela !). Le problème de fond, c’est que beaucoup de ces programmes sont basés sur le deep learning, trop opaque pour se prêter facilement à l’audit. Une autre piste évoquée, c’est de lutter pour que les logiciels IA soient conçus par une population moins masculine et blanche. Mais comment intervenir alors sur des corpus existants comprenant des milliards d’éléments ?
Si l’objectif est de permettre aux programmes d’IA de comprendre le langage naturel en se basant sur l’interprétation du monde faite par les êtres humains, modifier les données gênantes (racisme, sexisme, xénophobie, etc.) risque de fausser l’ensemble. Car les algorithmes ne mentent pas, et ne cherchent pas à maquiller leurs opérations discriminatoires avec de la mauvaise foi. Faut-il alors agir sur la source, c’est-à-dire faire améliorer le comportement humain ? Mais comment… ?
Source : « L’intelligence artificielle reproduit nos préjugés » (Morgane Tual), Le Monde, 18 avril 2017, supplément Éco & Entreprise, p. 8.
Voir aussi Actualités #46, octobre 2016 (sur le dérapage du programme IA de Facebook) ; Actualités #33, juillet-août 2015 (sur le programme « deep learning » de Facebook). Sur l’idéologie transhumaniste, voir Actualités #28, février 2015.
Quelle idée saugrenue que de demander à un programme d’IA de juger un concours de beauté, fût-ce dans le cadre d’une expérience scientifique. Et pourtant la capacité d’une machine à intégrer des notions abstraites comme « beauté », « équité » et « valeur » est l’un des critères du progrès en la matière. L’exemple du concours de beauté dans ce contexte fait penser à l’argument avancé en 1936 par le célèbre économiste britannique John Maynard Keynes dans sa Théorie générale de l’emploi, de l’intérêt et de la monnaie [1]. Dans une critique de l’irrationalité des marchés financiers, Keynes fait remarquer que la cote des titres ne dépend pas de leur valeur intrinsèque, mais de la perception qu’en ont l’ensemble des investisseurs. La valeur d’un titre est donc déterminée par des mécanismes autoréférentiels fondés sur ce que chacun pense que les autres pensent.
En guise d’exemple de ce mécanisme, Keynes cite les concours de beauté organisés par le Sunday Times, consistant à élire les plus belles femmes à partir d’une centaine de photos publiées. Le gagnant du concours serait le lecteur dont les choix correspondent le mieux aux six photos les plus sélectionnées, qui se rapproche donc le plus au consensus. Autrement dit, il n’est pas logique de raisonner à partir de ses goûts personnels, mais plutôt en termes d’un calcul prévisionnel des goûts des autres, créant ainsi – car tous les investisseurs avisés suivent la même démarche – les conditions d’une bulle spéculative.
Si l’intelligence artificielle a fait des avancées sensibles ces dernières années, c’est au prix du déplacement de l’idée d’une intelligence abstraite (avec ce qu’elle charrie d’utopique) vers le modélisation numérique de l’intelligence humaine (avec ce qu’elle charrie d’ambivalence, de traits régressifs, sadiques, masochistes, paranoïaques, etc.), laquelle devient la jauge ultime. Le programme d’IA le plus abouti devient celui qui s’approche le plus à cette « intelligence » en l’état, comme dans le concours cité par Keynes. Ainsi, de manière perverse, on devrait estimer que le bot Tay, qui a réussi à intégrer de manière convaincante des traits humains réels (mais peu flatteurs), n’a pas été un échec, mais un succès retentissant.
Le programme de deep learning révèle là ses présupposées : la raison légitimiste universelle, et les passions tristes qui vont avec. Autrement dit, un concours généralisé de tous contre tous, conçu justement pour pérenniser le système économique existant, hautement instable, sur des bases pseudo-rationnelles. Proposée par les libertariens de la Silicon Valley, la « régulation algorithmique » est l’utopie néolibérale (délirante) d’une gouvernance adaptée au marché en temps réel. Selon le gourou et homme d’affaires Tim O’Reilly, l’État lui-même, en attendant de passer la main, devrait s’inspirer des start-up californiennes, qui « utilisent des données pour corriger et affiner en permanence leur approche du marché » [2].
On est loin ici de l’utopie cybernétique des années 1950 (qui se voulait progressiste) de Norbert Wiener, où la circulation indifférenciée et massive d’informations entre humains et machines devrait faire émerger une forme d’intelligence supérieure, permettant une gestion plus rationnelle de la Cité, au-delà des rapports de force entre catégories aux intérêts divergentes, et au-delà des rapports marchands. On est loin aussi du test de Turing qui implique une intelligence aussi bien non sexuée que non humaine. La nouvelle version de cette quête « spirituelle » (qui se veut scientifique, et donc progressiste à sa manière) fait penser plutôt au film Intelligence artificielle (Steven Spielberg, 2001), où le robot-garçon David, programmé tragiquement pour « ressentir » l’amour absolu pour la femme qui l’active, finit par devenir le dernier dépositaire de la civilisation humaine, 2000 ans après la disparition de celle-ci.
1. Payot, 1990 (1936), chapitre 12. 2. Tim O’Reilly, « Open data and algorithmic regulation », beyondtransparency.org
Internet devient une troisième voie d’exploitation de nouveaux films
La salle de cinéma voit son prestige s’émousser aux yeux des distributeurs. Alors que la durée de vie des films sur grand écran se réduit continuellement, les frais de sortie d’un film deviennent de plus en plus difficiles à rentabiliser. Dans ce contexte, la VOD sur Internet apparaît comme une troisième voie, qui évite d’avoir à arbitrer entre une prise de risque disproportionnée, et un renoncement à une exploitation en France.
« En sortant le film directement sur Internet, explique Saïd Ben Saïd, producteur de Revenger (Walter Hill, avec Sigourney Weaver et Michelle Rodriguez), le distributeur, TF1 Studio en l’occurrence, économise les frais techniques. Autrement dit, il divise les frais d’édition en deux : de 600 000 euros, ils passent à 300 000. Sur un film aussi fragile, qui avait toutes les chances d’être éjecté des salles au bout d’une semaine, ils n’ont pas hésité longtemps, et je pouvais difficilement les contredire. Sans compter qu’une sortie en e-cinema permet d’exploiter le film trois mois plus tard en « pay tv », au lieu de dix dans le cas d’une sortie salles. »
Source : Le Monde, 22 mars 2017, p. 17.
Le blues des traducteurs, et la traduction par machines
Alors que 18% des livres publiés en France aujourd’hui font l’objet d’une traduction, représentant 22% du chiffre d’affaires des éditeurs, les traducteurs restent les parents pauvres de l’industrie, payés 21 euros le feuillet de 1500 signes, selon les normes de la rémunération minimum pratiquée pour bénéficier d’une aide à la traduction au Centre national du livre (CNL).
Ce tarif plancher évolue selon plusieurs critères : « La langue, le genre littéraire, la notoriété du traducteur, l’éditeur ou encore l’urgence du travail demandé », dit Corinna Gepner, présidente de l’Association des traducteurs littéraires en France (ATLF), qui se bat pour améliorer leur sort (retards de paiement, non-paiement des droits, etc.). L’anglais représente 58% des titres traduits. Dans les genres romance, fantastique, et jeunesse, bon nombre de traducteurs travaillent pour 12 ou 13 euros le feuillet, en contrepartie d’un volume de travail régulier. Quant à la poésie, très difficile à traduire, elle est hors système.
Seuls 179 projets de subvention ont été acceptés par le CNL en 2016, à hauteur de 1,9 million d’euros, loin du nombre total de traductions. En quinze années, les traducteurs littéraires ont perdu un quart de leur pouvoir d’achat, constate Pierre Assouline, dans un rapport fait pour le CNL en 2011. Selon Corinna Gepner, on compte environ 8000 traducteurs en France assujettis à Agessa, la sécurité sociale des auteurs, qui touchent 8700 euros par an en moyenne. Seul un millier, qui n’exerce pas d’autre activité, cotise pour leur retraite. Leur revenu moyen, selon une étude en 2013, s’élevait à 22 400 euros par an.
L’intelligence artificielle pourra-t-elle un jour remplacer les traductions littéraires ? François Massemin, vice-président des opérations à Systran, l’entreprise (rachetée par le coréen CSLI en 2014) qui a développé un système de traduction basé sur une technologie de réseaux neuronaux, prétend :
« [qu’il] est possible aujourd’hui de créer, grâce à la puissance des machines et des algorithmes, de la musique à la façon des Beatles ou – ce qui n’est pas forcément une prouesse intellectuelle – d’écrire un tome de la collection Harlequin. [Mais traduire] le rêve de Molly Bloom, l’épilogue d’Ulysse de James Joyce*, en huit phrases sans ponctuation comprenant environ cinq mille mots chacune, constitue clairement la limite du modèle. […] Nous pouvons apporter un supplément de productivité aux traducteurs littéraires, mais nous ne donnerons pas un supplément d’âme aux grands textes ».
La machine apprend peu à peu en mémorisant des phrases traduites validées dans leur contexte (un corpus), mais intègre aussi des extrapolations en rangeant des mots d’univers similaires, avant de faire des extrapolations elle-même (voir ci-dessus). En cela, les machines peuvent apprendre comme un cerveau humain. « C’est une vraie rupture qui permet d’obtenir des traductions bien plus fluides, de progresser rapidement, ce que confirment des tests à l’aveugle effectués en décembre 2016 sur une centaine de personnes à qui l’on a demandé de choisir la plus pertinente parmi deux traductions différentes, l’une par Systran, l’autre par un traducteur », dit François Massemin.
Systran propose déjà des traductions automatiques dans 35 langues, et proposera 60 d’ici la fin de l’année. Il s’adresse surtout aux grands groupes internationaux, notamment automobiles, mais se spécialise aussi dans le domaine juridique (brevets, ingénierie). « La littérature n’est pas un vrai business », tranche Yannick Douzant, directeur en charge de la gestion du produit chez Systran, pas poète pour deux sous.
Source : « Les traducteurs, parents pauvres de la littérature » (Nicole Vulser), Le Monde, 24 mars 2017, supplément Éco & Entreprise, p. 8 ; « Les machines peuvent traduire Harlequin mais pas James Joyce », ibid ; http://www.smglanguages.com/smg-fra/smgscitech-fr/traduction-automatique-jamais-sans-le-traducteur/?lang=fr
*Yes because he never did a thing like that before as ask to get his breakfast in bed with a couple of eggs since the City Arms hotel when he used to be pretending to be laid up with a sick voice doing his highness to make himself interesting for that old faggot Mrs Riordan that he thought he had a great leg of and she never left us a farthing all for masses of herself and her soul greatest miser ever was actually afraid to lay out 4d for her methylated spirit telling me all her ailments she had too much old chat in her about politics and earthquakes and the end of the world let us have a bit of fun first … etc., etc. (Ulysse, Penguin, 1984, p. 608).
Convergence médias/télécoms : le deal entre Orange et HBO
La reconduction de l’accord, annoncée le 21 mars, entre l’opérateur français Orange et la chaîne américaine de séries HBO éclaire un secteur transformé d’une part par la convergence entre les médias et les télécommunications, et d’autre par la mondialisation de la bataille pour les contenus. Orange devient du coup non seulement l’unique distributeur de séries HBO en France, mais pourra aussi offrir aux 2,6 millions d’abonnés à son bouquet payant OCS tout le catalogue de HBO à travers sa plate-forme à la demande.
Le contrat, dont le montant et la durée n’ont pas été communiqués, pourrait coûter autour de 30 millions d’euros par an selon des spécialistes. Orange dit investir 550 millions d’euros dans les contenus, dont 50-60 millions dans les films. Son rival SFR, le puissant groupe de Patrick Drahi, lancera une chaîne de cinéma cet été, et s’est arrogé des contrats d’exclusivité avec NBCUniversal et avec Discovery fin 2016. C’est la montée en puissance de SFR dans le domaine des contenus qui a poussé Orange à réagir. Pour mieux rivaliser avec SFR, Orange et Canal+ cherchent à se resserrer les liens. Stéphane Richard, le PDG d’Orange, a parlé d’un « renforcement » de leur partenariat (Orange est le premier distributeur de Canal+ en France), qui pourrait prendre une forme industrielle et commerciale, mais sans « volet capitalistique ».
Fort de son prestige en matière de contenus, HBO a une stratégie de diffusion variée. Dans 150 pays, il cède ses programmes à des chaînes, dans 60 pays, il vend ses propres chaînes à des distributeurs, et dans désormais neuf pays, il commercialise en direct ses séries (depuis mars 2015) par le biais de sa plate-forme web HBO Now. Cette stratégie se démarque de celle de Netflix, qui a déployé sa propre plate-forme dans 200 pays, mais elle pourrait évoluer dans l’avenir : HBO appartient au groupe Time Warner (médias, divertissements) dont le rachat par l’opérateur télécom AT&T est en attente de validation par la commission fédérale antitrust.
Sources : « Orange à l’offensive dans les contenus audiovisuels » (Fabienne Schmitt), Les Échos, 22 mars 2017 ; « Pourquoi Orange rafle le contrat des séries HBO » (Alexandre Piquard), Le Monde, 23 mars 2017, supplément Éco & Entreprise, p. 8.
Des vidéastes de gauche investissent YouTube
Depuis quelques années, des youtubeurs français orientés à gauche produisent des vidéos engagées, et certains ont même fidélisé plusieurs centaines de milliers de jeunes. En multipliant les canaux de diffusion, la chaîne Osons causer a même obtenu six millions de vues pour la vidéo Qui est vraiment Macron ? « Nous voulions surtout nous servir de relais, de passeurs entre l’université et le grand public. L’objectif était de vulgariser des concepts de sociologie et de proposer d’autres analyses contestataires que celle de l’extrême droite ou de l’essayiste Alain Soral », expliquent Stéphane Lambert, Xavier Cheung et Ludovic Torbey, animateurs d’Osons causer.
Usul, l’un des premiers à avoir lancé une chaîne politique en 2014, gameur passé par la Ligue communiste révolutionnaire (trotskyste) dans sa jeunesse, renchérit : « L’objectif était aussi de tenir un autre discours critique que celui de l’extrême droite, qui a longtemps été en monopole sur Internet. […] Les autres couleurs politiques [plus centristes] ne sont pas présentes sur YouTube, tout simplement parce que leurs idées sont déjà portées par les grands médias ».
Les modérés sont donc relativement peu représentés sur YouTube, car ils ressentent moins le besoin de partager leurs opinions et analyses, explique Anaïs Théviot, enseignante-chercheure à l’université catholique d’Angers (article coécrit avec Clément Mabi ici). « Sur Internet, les algorithmes de recherche orientent les gens vers les contenus selon leurs préférences. Cela crée des « bulles » filtrantes, et certains se retrouvent à ne prêcher qu’à des convaincus, dit-elle. « Mais les contenus des gros youtubeurs, très partagés, deviennent viraux et touchent un très large public. » La viralité devient la jauge de l’efficacité de l’engagement militant.
Pour s’adresser à un public jeune, il faut savoir se rendre accessible à celui-ci. Fabrice Barnathan, ancien professeur de philosophie, et créateur de la chaîne Le Stagirite, qui décortique la langue de bois des politiques, affirme que « quelqu’un qui regarde une vidéo de [l’humoriste] Norman doit pouvoir passer à une des miennes sans se sentir dépaysé, même si le propos est différent, plus complexe ». Pour faire passer un message, il faut mettre à profit les codes existants de la plate-forme, dit-il en substance : ironie, effets de montage, voix off, reprises, incrustations. Osons causer, qui collabore pour la durée de la campagne avec Mediapart, et qui ne s’engage pas pour un candidat particulier, a fait le choix de privilégier les contenus courts en lien avec l’actualité et de les diffuser sur Facebook.
Une rupture s’est produite de fait entre les vidéastes restés proches de la sphère politique classique, et ceux qui misent plutôt sur l’éducation populaire et sur la société civile. Explique Usul, qui collabore aussi avec Mediapart, « Je me place moi aussi dans une bataille culturelle, mais je ne suis pas prêt à toutes les concessions sur la forme. Je ne suis pas allé sur YouTube pour retrouver le même fonctionnement que les partis politiques ».
Source : « Sur YouTube, des vidéastes de gauche en pleine « bataille culturelle » » (Arthur Delacquis), Le Monde, 28 mars 2017, supplément Éco & Entreprise, p. 8.
Google reste le roi de la publicité en ligne, mais Facebook monte
La part de marché de Google dans la publicité numérique aux États-Unis devrait légèrement fléchir à 40,7% en 2017, alors que celle de Facebook devrait progresser à 19,7%. Le marché reste très concentré : Google accapare le tiers des dépenses de publicité sur smartphone et Facebook presque un quart (22%). Quand les annonceurs dépensent un dollar sur Internet, les deux géants de la Silicon Valley s’en arrogent 85 cents, indique la banque Morgan Stanley. La puissance de ce duopole est telle qu’elle constitue un problème pour les annonceurs, qui voient leurs marges de négociation se réduire à presque rien.
Les revenus de Google dans ce domaine devraient néanmoins progresser outre-Atlantique de 15% en 2017, quand ceux de Facebook devraient bondir de 32%. L’offensive de Facebook dans les vidéos (Facebook Live) le rend plus attractif auprès des annonceurs. Le marché de la publicité en ligne attend une hausse générale de 16%, à 83 milliards de dollars.
Pour la première fois l’an dernier, les annonceurs américains ont dépensé plus d’argent sur Internet que sur la télévision (72 milliards de dollars contre 71 milliards), selon Emarketer. Les publicités sur smartphone représentent désormais la moitié des dépenses publicitaires numériques, contre 30% il y a seulement un an, selon une étude publiée par l’Interactive Advertising Bureau (IAB) et le cabinet PwC. « Nous nous trouvons à un vrai point d’inflexion : les ordinateurs déclinent et les téléphones prennent le relais », dit David Doty, vice-président de l’IAB.
Les Américains passent plus de trois heures par jour à consommer de l’information ou des jeux sur leur téléphone, contre à peu plus de deux heures sur leur ordinateur. Le budget de la publicité sur mobile devrait augmenter de 45% cette année aux États-Unis, à 46 milliards de dollars, selon Emarketer.
Source : « Google reste le roi incontesté de la pub en ligne mais Facebook grignote » (Lucie Robequain), Les Échos, 16 mars 2017.
Pourra-t-on choisir soi-même la trame d’une série ?
Netflix travaille sur une technologie permettant à ses abonnés de choisir des fins alternatives aux épisodes de série, et réalisera un premier essai avant la fin de l’année avec une série d’aventures pour enfants, avant de faire des essais pour adultes. La plate-forme n’a pas précisé si elle compte appliquer le format aux séries en cours, ou le réserver pour de nouvelles séries. Les acteurs tourneraient alors de multiples variantes de chaque séquence.
Cette nouveauté devrait transformer en profondeur le travail des scénaristes, et nécessitera sûrement le recours aux logiciels spécialisés. Une source à Netflix a précisé : « On travaille sur des intrigues à branches, afin que le spectateur puisse faire des choix en même temps qu’il regarde ». Les versions les plus complexes pourraient revenir sur elles-mêmes, bouclant le boucle théoriquement jusqu’à l’infini. Selon le président de Netflix, Reed Hastings, un rien cryptique, « une fois que vous avez l’interactivité, vous pouvez tout expérimenter ». Individuellement en tout cas, car cela implique la fin des visionnages collectifs (en famille, en groupe d’amis, ou en couple), ainsi que toute discussion sur l’évolution d’une série. Cela pourrait aussi poser problème pour l’approche sémiotique, dominante dans l’analyse universitaire des séries. On y reviendra sûrement dans la Web-revue.
Sources : « Et si vous choisissiez la fin de votre série préférée ? » (Adrien Lelièvre), Les Échos, 8 mars 2017 ; http://www.dailymail.co.uk/news/article-4284240/Netflix-trial-technology-hands-control-viewers.html ; https://www.theguardian.com/media/shortcuts/2017/mar/07/netflix-interactive-storylines-destroy-actors-relationships-tv
Lire les autres articles de la rubrique.
Professeur des universités – Paris Nanterre – Département information-communication
Dernier livre : « Les séries télévisées – forme, idéologie et mode de production », L’Harmattan, collection « Champs visuels » (2010)