CCFI

Cartographie de l’IA dans les médias

Les algorithmes sont faits pour résoudre des problèmes. Source de défiance pour les uns, solution miracle pour les autres, l’Intelligence Artificielle (IA) est partout, et impacte toutes les industries. Quelques-unes ont toutefois plus de mal à s’en emparer. C’est le cas des médias, moins solvables et dynamiques que la finance ou la santé pour se doter des outils nécessaires à son intégration. Le cabinet PwC, dans son dernier AI Predictions Report, démontre bien ces différences, avec 20% des exécutifs interrogés qui prévoient de déployer l’IA dans leur entreprise, mais seulement 7% dans les médias.

 

Pourtant, les champs d’application de l’IA dans la presse, le cinéma, la radio, la télé et la publicité sont vastes : automatisation des process métier et des relations client, veille et écoute des réseaux sociaux, vérification de l’info, analyse prédictive de succès, création de vidéo et post-production, assistants vocaux et conversation, rédaction automatisée, personnalisation, recommandation, optimisation de la diffusion de contenus, tracking émotionnel et accessibilité.

 

Loin de se vouloir exhaustif, voici un panorama des utilisations de l’IA dans toute la chaîne de valeur des médias de l’information et du divertissement.  Des applications qui pourraient bien redonner un élan à une industrie en réinvention.

 

Pourquoi maintenant ?

 

Née dans les années 50, l’Intelligence Artificielle est rentrée ces dernières années dans son 2ème printemps grâce à une combinaison de trois facteurs bénéfiques : l’augmentation exponentielle de la capacité des ordinateurs, la masse de données disponibles, et des logiciels open source, comme Tensorflow, Keras,Torch, Pytorch, langage Python, qui rendent disponible la technologie à un plus grand nombre.

 

Les algorithmes et les plateformes pour les faire tourner sont désormais accessibles sous forme de cloud (souvent mis à disposition par les GAFAs) et permettent aux médias de se lancer dans l’aventure des algorithmes. L’apprentissage machine (machine learning) est devenu apprentissage profond (deep learning), avec une IA qui n’a plus besoin des humains pour l’alimenter avec des calculs, mais qui se nourrit de milliards de données pour construire elle-même des fonctions cognitives. L’IA exécutante devient IA apprenante. Le système AutoML de Google a même créé tout seul un réseau de neurones IA sans intervention humaine. L’IA devient contextuelle, multidisciplinaire, et peut-être bientôt consciente d’elle même…

 

Côté audience, l’un des avantages pour l’adoption de l’IA par les utilisateurs est sa simplicité d’appréhension. Les humains n’ont pas besoin de s’adapter à l’IA, ou d’acquérir de nouvelles compétences (comme c’était le cas dans la préhistoire avec le langage MS DOS par exemple). On interagit avec l’IA par l’outil le plus simple et naturel : notre voix, ou même des images. Restent quelques questions éthiques que l’on abordera à la fin de ce texte.

 

Pour les médias, 4 catégories majeures pour l’utilisation de l’IA se dessinent : Marketing et Publicité, Recherche et documentation, Innovation dans l’expérience utilisateur et Services. 

 

Il est donc temps d’adopter cette nouvelle technologie au service de l’audience. Pour le nouveau directeur technique de l’UER, Antonio Arcidiacono, “AI is becoming mainstream”. En voici la preuve en 12 exemples d’utilisations :

1 – L’IA comme outil pour une information augmentée

 

La peur, non seulement des journalistes, d’être remplacés par un robot ne date pas d’hier. L’IA va en effet remplacer une partie des tâches et rendre caduque certains métiers. En cela, l’année 2020 sera une année pivot : selon Gartner, l’IA va éliminer 1,8 M d’emplois, tout en en créant 2,3 M de nouveaux. Mais l’avenir des journalistes n’est pas en danger. Même si les « journalistes robots » sont déjà une réalité et utilisés dans de nombreuses rédactions pour produire plus vite, il restent confinés à des typologies de contenu bien précis.

 

L’agence Associated Press publie depuis 2015 des dépêches créées par des robots journalistes pour les annonces standardisées de l’actualité financière. La même année, Le Monde s’attache les services d’un robot-rédacteur de Syllabs pour les élections départementales et régionales. Avec Heliograf, développé en 2016 pour les Jeux Olympiques, Le Washington Post utilise l’IA pour couvrir notamment des événements de petite envergure, comme du sport local d’étudiant, dont l’audience est trop restreinte pour mobiliser un journaliste humain. La TV finlandaise YLE utilise son bot Voitto pour créer 100 articles et 250 images chaque semaine.  On observe toutefois des différences culturelles dans l’adoption des nouvelles technologies par les rédactions. D’une part entre les pays du Nord et du Sud, mais aussi entre service public et médias privés, ces derniers étant davantage poussés par une logique de rendement.

 

Robots-rédacteurs ? En réalité, il ne s’agit pas vraiment de création, mais plutôt d’assemblage de contenus existants que l’on fait rentrer dans des templates prédéfinis. Mais la technologie progresse, et les générateurs de langage peuvent de plus en plus tenir compte du contexte pour sélectionner le format adapté.

 

L’IA peut aussi aider les journalistes à analyser les données et détecter des tendances à partir de sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks. Par sa capacité de scanner et d’analyser des masses de données importantes, l’IA permet d’effectuer une veille permanente des tendances sur les réseaux sociaux et de détecter des signaux faibles. Elle peut en cela aider à accomplir une des missions du service public : faire en sorte que le public trouve efficacement l’information qu’ils recherchent et soit ainsi mieux informé. Associated Press utilise NewsWhip pour détecter des tendances sur Twitter, Facebook, Pinterest et LinkedIn. News Tracer est utilisé par l’agence Reuters pour détecter les tendances et les breaking news sur Twitter et faciliter la fabrication de contenu. Le système conçu avec Alibaba repère les news, les classifie, les annote et les ordonne.

 

Au-delà de la détection des tendances, l’IA est capable d’analyser des volumes massifs de données, inexploitables par l’humain, un processus à l’origine d’un nouveau journalisme d’investigation construit sur une collaboration homme/machine. La veille peut combiner des sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks ou encore les données émises par chacun via les objets connectés qu’il porte (smartphone, montre connectée, trotinette électrique…). Les Panama Papers sont le résultat du traitement de 2,6 téraoctets de données et d’un repérage de patterns par algorithme.

 

Face à l’automatisation d’une partie des tâches du journaliste, l’IA force à repenser et réaffirmer les valeurs journalistiques pour revenir à un journalisme « authentique » en prenant en considération l’utilisateur individuel. Mais attention à ne pas ajouter de la masse inutile à l’infobésité : les contenus créés par l’IA doivent rester pertinents, et cela n’est possible que par une collaboration intelligente entre l’homme et la machine. Il s’agit de trouver la bonne balance entre jugement humain et automation, intuition, expérience et créativité pour devenir plus efficace dans la collecte, le traitement et la vérification de l’information.

2 – L’IA pour lutter contre les fake news

 

Si l’IA est capable de générer des fake news, elle peut aussi aider à les détecter. Fausses informations diffusées par des bots à l’accent slave ou Deep Fakes imitant la parole de Barack Obama, les progrès de l’IA pour nuire sont impressionnants. Tellement que Open AI a dernièrement stoppé son projet GPT-2, car l’IA était si sophistiquée qu’elle finissait par faire peur à ses créateurs. L’IA est parfois annoncé comme un remède miracle, notamment par Mark Zuckerberg lors de sa première audience devant le Congrès américain suite au scandale Cambridge Analytica, où il répondait à toutes les questions embarrassantes : « I dont know, our AI team will fix it« . Bien sûr, la vérité n’arrive pas magiquement par le Big Data. Mais la technologie pour fabriquer un fake étant la même que celle pour le détecter, l’IA est un allié important dans la lutte contre la désinformation.

 

On le sait, le problème avec les fake news n’est pas tant que les gens ne font plus confiance aux médias, mais plutôt qu’ils font confiance à n’importe quelle fake news. Grâce à ses capacités d’analyse poussées l’IA peut automatiser, du moins en partie, la vérification de l’information : vérification de l’authenticité des photos/vidéos grâce à la reconnaissance d’images, à l’analyse des métadonnées, à la comparaison en temps réel des informations avec des banques de données.

 

Combiné à la blockchain, l’IA peut aussi permettre d’authentifier une information. Facebook utilise l’IA pour détecter des “patterns sémantiques” qui seraient caractéristiques des fake news, avec le succès que l’on lui connaît. Truepic et Serelay se basent sur la blockchain pour authentifier les images, utilisés par l’équipe de vérification d’info du Wall Street Journal. ADOBE détecte les images retouchées grâce à un algorithme. DeepNews.ai est un outil surtout destiné aux plateformes d’agrégation. Il sélectionne sur Internet les articles les plus pertinents sur les sujets d’actualité. L’algorithme prend ensuite en compte la profondeur du traitement du sujet, l’expertise, les qualités de l’analyse et les moyens mis en œuvre en s’appuyant sur un réseau de neurones convolutifs.

 

L’équipe du Medialab de l’AFP a mené plusieurs projets qui aident les journalistes à détecter les fake news en recherchant notamment l’origine exacte de photos et vidéos qui peuvent ne pas refléter les événements qu’ils sont censés décrire, dernier en date : WeVerify. 

 

Là encore, l’algorithme n’est pas la solution miracle, la plupart des initiatives et des outils fonctionnent en combinaison avec les humains, dont la capacité d’analyse et de vérification des sources, ne serait-ce que par un simple coup de fil, dépasse encore celles des robots. Pour optimiser la recherche, les algorithmes peuvent simplement être entraînés avec les données du taux de clic sur un contenu. Cette technique ne fonctionne pas pour la détection de fake news. Ici, les jeux de données pour entraîner l’algorithme à la détection de fake news doivent être codés par des fact-checkeurs humains.

3 – L’IA pour améliorer la discussion sur Internet

 

Discours de haine, discrimination, violence, les trolls sont un fléau d’Internet. L’IA, à travers le traitement automatique du langage naturel (NLP) peut analyser automatiquement des contenus, les classifier, et mettre en place une modération automatique 24h/24. Mais attention, l’analyse automatique des contenus a ses limites. Même les IA très sophistiquées des plateformes ne sont pas capables d’empêcher la diffusion d’images violentes en direct, comme cela était encore le cas récemment avec les directs de la tuerie de Christchurch. Les plateformes ne se fient pas à 100% à la modération par l’IA, leur process de modération de contenu est une combinaison entre IA et humains. L’IA ne résoudra pas si vite, et peut être même jamais – car la technologie ne sera pas capable de saisir certaines nuances comme l’humour – la misère des modérateurs humains de Facebook.

 

Les systèmes automatiques sont néanmoins incontournables pour analyser des masses de contenu disponibles sur les réseaux sociaux, détecter des nuisances, sélectionner d’éventuelles contenus à supprimer (en qualifiant les cas de doute qui nécessitent une intervention humaine), et même empêcher la mise en ligne de contenus douteux, en bloquant l’upload d’images de haine. Les algorithmes sonnent aussi le retour des commentaires sur les sites, que les éditeurs avaient souvent fermés faute de moyens de modération. L’outil Perspective utilisé au NYT évalue le degré de toxicité des commentaires via reconnaissance de mots-clés. Le NYT souhaite ainsi passer de 10 % d’articles ouverts aux commentaires à 80 %. Il est aussi adopté par The Guardian et The Economist.

 

L’IA permet donc de donner un peu plus d’espace à l’expression de l’audience en automatisant un certain nombre de tâches, mais sans pour autant remplacer les humains pour la gestion des nuances qui dépassent l’intelligence des robots.

4 – L’IA au service de la voix

 

Le traitement naturel du langage et la reconnaissance vocale ont permis de développer des assistants conversationnels (chatbots, smart speakers) capables de dialoguer avec des humains. Déjà 20% des recherches sont vocales (Meeker), 50% le seront d’ici 2020 (ThinkWithGoogle). Les assistants vocaux sont un nouveau carrefour d’audience pour les médias.

 

Lorsque nous parlons à Google Home, Amazon Alexa ou Apple Siri, l’IA est utilisée pour comprendre notre voix. Cette même technologie de réseau de neurones et de Natural Language Processing peut être utilisée pour dessiner des concepts spécifiques et définir des mots clés qui déclenchent des actions. Dans le sens inverse, par la Natural Language Generation, l’IA est capable de transformer des textes en voix. Des centaines de milliards de données sont nécessaires pour entraîner les algorithmes afin de traduire nos accents, dialects, formulations rocambolesques et autres originalités de la langue en des formules mathématiques compréhensibles pour un robot. C’est la raison pourquoi Alexa a besoin d’écouter toutes nos conversations, selon Jeff Bezos.

 

L’arrivée de BERT (Bidirectional Encoder Representations from Transformers) développé par Google marque une évolution signifiante dans le développement de l’IA pour la voix : arrivant à une précision de 93,2 %, des ordinateurs sont désormais capables d’apprendre les aléas des langues et peuvent appliquer ses apprentissages à une multitude de tâches.

 

De nombreux outils se développent pour exploiter au mieux la voix, ce moyen de communication des plus naturels : Lyrebird est une start-up canadienne qui crée des voix artificielles ultra réalistes et des avatars vocaux. Alexa a désormais une voix de présentateur professionnel pour la lecture d’infos. L’IA de Google est capable de reconnaître une voix même si elle ne l’a jamais entendue. La voix boostée à l’IA reprend les intonations et formules d’un présentateur d’info humain après un entraînement en text to speech de seulement quelques heures. Snips.ai  propose un service d’assistant vocal entièrement embarqué pour constructeurs professionnels, quel que soit le support, et respectueux de la vie privée des utilisateurs. Le VSO devient le nouveau SEO, un enjeu majeur pour les médias, et Google propose désormais des podcasts dans ses résultats de recherche.

 

Mais même derrière Duplex, l’assistant virtuel de Google capable d’imiter votre voix et vos défauts pour prendre des rendez-vous, se cachent 25% d’humains travaillant dans un call center.

5 – L’IA pour créer l’interactivité et l’engagement

 

En 1960, le laboratoire d’Intelligence Artificielle MIT a créé la machine ELIZA qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du « patient » en questions, et en les lui posant. Grâce à l’IA, les possibilités d’interactions sont aujourd’hui bien plus développées. Le chatbot utilise à l’origine des bibliothèques de questions et réponses, mais les progrès de l’intelligence artificielle lui permettent de plus en plus  « d’analyser » et « comprendre » les messages par le biais des technologies de traitement du langage naturel et d’être doté de capacités d’apprentissage liées au machine learning. Que ce soit pour la consommation d’information ou l’interaction avec des clients (Gartner Marketing prévoit 85% des interactions sans humains pour 2020), l’automatisation du dialogue est de plus en plus sophistiquée et personnalisée.

 

La fabrication des bots basiques est aussi accessible plus facilement : Facebook propose une solution clé en main dans Messenger, et des plateformes comme Omnibot, Politibot ou encore Sently distribuent des solutions plug and play avec des formats spécialement dédiés aux médias pour ce dernier.

 

Que ce soit des bots intégrées dans des messageries pour aller à la rencontre des utilisateurs (1,6 milliard d’utilisateurs pour WhatsApp, 1,3 milliard pour Facebook Messenger), ou des bots développés directement dans les sites et applis, l’interaction conversationnelle est pour les médias un moyen de proposer une expérience utilisateur de proximité.

 

Les chatbots automatisent la relation, favorisent l’engagement et sont immédiatement personnalisées. Quartz a développé son bot studio pour proposer des narrations conversationnelles personnalisées. Le Guardian a son chatbot depuis 2016, CNN et le Wall Street Journal utilisent Facebook Messenger pour diffuser de l’information, NBC propose des breaking news via l’application Slack. La BBC a intégré un bot dans ses articles pour interagir avec l’audience.

 

Des contenus interactifs de fiction sont aussi développés : The Inspection Chamber est un format créé par la BBC pour interagir avec un récit par la voix, StoryFlow propose des histoires sonores interactives pour enfants, The Wayne Investigation est une fiction sonore interactive disponible sur les enceintes connectées équipées d’Amazon Alexa. Alexa adapte aussi les Histoires dont vous êtes le héros en version sonore. Avec OLI, Radio France propose des contes de nuit dédiés à l’enceinte connectée de la chambre d’enfant.

 

Au-delà de ces exemples, en simple assistant ou créateur de contenus, l’IA peut innover le storytelling dans les secteurs de la pub, du marketing, du cinéma et de l’audio.

6 – L’IA dans la réalité étendue

 

Grâce aux avancées de la technologie, les chatbots se transforment en compagnons virtuels, capables de tenir de véritables discussions et débats. L’intelligence artificielle et la réalité virtuelle semblent être deux champs de recherche différents, mais l’évolution technologique montre que les deux domaines sont de plus en plus liés. Au départ réservé au monde du gaming, ces nouvelles technologies arrivent petit à petit dans la création audiovisuelle. L’IA va changer le storytelling grâce à des personnages virtuels capables d’interactions avancées avec des humains.

 

Avec leur projet “Whispers in the Night”, le studio Fable s’est lancé dans la création de personnages virtuels animé par l’Intelligence Artificielle. Il s’agit de dessin animés par ordinateur augmentés par l’IA et basés sur la même technologie que celle utilisée par Epic Games ou encore Magic Leap, au service d’un storytelling immersif. Emoshape utilise le composant “Emotion Processing Unit” (EPU) pour déterminer en temps réel les émotions des utilisateurs et permettre aux robots de répondre avec un état émotionnel en phase avec celui de l’utilisateur. La technologie s’associe même aux sciences pour optimiser les interactions et les rendre le plus réaliste possible. Le MIT Media Lab a customisé un casque VR qui intègre un dispositif capable de détecter les émotions de l’utilisateur. Ce module de capture physiologique est constitué d’électrodes permettant de collecter les données de « réponse galvanique de la peau » (GSR) et de capteurs de type photoplethysmogramme (PPG) pour collecter les données de rythme cardiaque.

Moins emplie d’appréhension face aux robots humanoïdes que le continent européen, la Chine a lancé des présentateurs JT boostés à l’IA avec son agence de presse Xinhua : d’abord, le 9 nov 2018, la version masculine, Qiu Hao (qui parle chinois et anglais), ensuite, le 19 fev 2019, la version féminine, Xin Xiamomeng. Dopés à l’intelligence artificielle et au machine learning, ils peuvent commenter de manière autonome des vidéos en direct et lire des textes sur un prompteur.

7 – L’IA pour indexer, archiver et optimiser les recherches

 

Avant, les moteurs de recherche fonctionnaient exclusivement sur du texte. Avec l’avènement de l’IA, la recherche est désormais possible sur des images, vidéos et sons. Grâce à la combinaison des technologies de reconnaissance d’image, machine learning, speech-to-text, NLP, reconnaissance de visages, d’objets et de lieux, l’IA peut automatiser la création de métadonnées sur les contenus pour améliorer leur archivage et surtout favoriser leur découvrabilité. La structuration des données, à l’instar du format EBUCore, est l’étape incontournable à leur exploitation automatique. Conversions de formats de données, transcodage, extraction d’audio et de sous-titres ou encore déplacements/copies/purges (FTP, HTTP) sont autant de tâches automatisables de la gestion des contenus permettant presque un catalogage en temps réel. L’indexation automatique accélère aussi le travail des journalistes et facilite le fact-checking.

 

La durée de vie d’un contenu est très courte, et sans métadonnées appropriées il est impossible de retrouver un sujet spécifique parmi tout ce qui a été été produit. D’ou l’importance d’une optimisation de la fabrication des méta-donnes. L’IA rend la fabrication de méta-données plus rapide, moins coûteuse et plus précise, sous condition de l’entraîner avec suffisamment de données.

 

Développer des solutions propriétaires et maîtrisées à 100% est presque impossible pour un média. De nombreux outils clés en main sont proposés, souvent relayés à des systèmes de cloud de Microsoft, Google, Amazon, IBM, OpenText, Oracle ou tant d’autres.

Newsbridge, très présent dans le secteur des médias, propose une solution d’indexation automatique et en temps réel des rushs, via la reconnaissance d’image. Cela permet en même temps d’optimiser le process de production d’un sujet et de pérenniser les contenus en facilitant leur réutilisation plus tard. Une fonctionnalité de traduction en direct est également proposée pour les interviews.

 

Editor est un outil à base d’IA utilisé depuis 2015 par le NYT pour simplifier la vérification et la mise en forme de l’information. Lorsqu’il rédige son article, le journaliste utilise des tags pour signaler les éléments clés – la machine apprend à repérer ces éléments, à comprendre le sujet de l’article et fait une recherche en temps réels pour extraire des informations sur ce sujet. Le BBC News Lab a lancé une technologie de taggage similaire appelée Juicer et un autre outil appelé Summa qui utilise la reconnaissance du langage pour mieux indexer les contenus. LEANKR permet une indexation fine de vidéos, avec un taggage automatique, une création de vignettes intelligente, et un moteur de recherche dans la vidéo grâce au Natural Language Processing, speech-to-text et à l’OCR.

 

L’IA aide en effet à optimiser la justesse des résultats de recherche. Des technologies de vision ordinateur permettent aussi de mieux traiter les contenus images et accélérer le process de production. Les machines peuvent aujourd’hui facilement identifier des individus ou situations dans des photos, pour générer des légendes ou alimenter des bases de données plus complètes.

8 – L’IA pour cibler et personnaliser

 

Les algorithmes de recommandation ne datent pas d’hier. Leur pionnier, Tapestrya même fêté son 25ème anniversaire en 2017. A travers les algorithmes de recommandation, l’IA est un outil parfait pour adapter la stratégie de distribution des contenus en temps réel : analyse des tendances des réseaux sociaux pour identifier le moment de diffusion le plus opportun, analyse d’audience, génération automatique de titres/résumés/illustrations avec des mots-clés et hashtags qui garantissent d’apporter de la visibilité au contenu, newsletters personnalisées, playlists sur mesure…

 

Des contenus taillés sur mesure selon le profil de chaque utilisateur, personnalisés selon son profil, son parcours, en prenant en compte des données contextuelles (lieu, moment, météo…). Les focus groups sont désormais remplacées par la base de comportements réels des utilisateurs existants.

 

Le cas d’école de la personnalisation sont Amazon, Facebook et Netflix. Ce dernier adapte entièrement sa page d’accueil. Son système Meson couplé au machine learning (à travers la collecte de données pour évoluer constamment) propose même le visuel personnalisé (9 versions) sur lequel l’utilisateur est le plus susceptible de cliquer selon son parcours d’utilisation et son contexte. Objectif : trouver le plus grand combo de séries qui pourrait convenir a des segments pour satisfaire les utilisateurs plutôt que du contenu qui correspond au plus grand nombre. L’algorithme est alors à la base de créativité et diversité plutôt que de standardisation.

 

L’IA peut automatiser la curation de contenus, mettre à jour régulièrement les playlists thématiques, profiler les utilisateurs pour faire de la recommandation personnalisée. Selon une étude de Reuters, 59 % des médias utilisent l’intelligence artificielle pour recommander des articles ou projettent de le faire. Your Weekly Edition est une newsletter personnalisée du NYT lancée en juin 2018 qui envoie une sélection personnalisée (via curation algorithmique & humaine) de contenus dans un seul but : ne montrer à l’utilisateur que des contenus qu’il n’a pas encore vus. Amazon Personalize permet aux développeurs sans expérience en machine learning de créer facilement des fonctionnalités de personnalisation. Freshr est un bot Messenger qui résume les actus les plus importantes du moment en fonction des goûts de l’utilisateur chaque matin en seulement 5 minutes destiné aux 20-35 ans.

 

Les algorithmes de recommandation sont loin d’être parfaits. L’économiste Matthew Gentzkow parle même d’un « personalization paradox«  pour décrire leur côté déceptif. Combien de fois nous-a-t-on proposé un contenu déjà acheté, ou juste du contenu posté par nos amis sur Facebook ? Là aussi, les progrès de l’IA pourront aider à trouver le bon équilibre entre personnalisation et promotion intelligente de contenu. Et peut-être que les méthodes traditionnelles sont parfois aussi efficaces :  RAD, le laboratoire de journalisme de Radio Canada, utilise des sondages en ligne auprès de leur audience pour leur proposer un contenu adapté à leurs attentes.

9 – L’IA pour rendre accessible

 

Les technologies de retranscription automatiques facilitent d’un côté la vie des journalistes en optimisant leur temps de travail, et rendent en même temps accessible des contenus aux personnes en situation de handicap grâce à l’automatisation des sous-titres (speech to text), la mise en son des textes (text to speech), la reconnaissance contextuelle des images pour l’audiodescription ou encore la traduction en temps réel.

 

AI Media TV propose sous-titrages et transcriptions pour des événements en direct en en replay. Ils viennent de lancer le service Scribblr.ai. Trint est un outil de transcription financé par Google DNI, qui sert à transcire automatiquement des flux audio et vidéo. Il est utilisé par l’AP et intégré dans Adobe Première. Mediawen gère la traduction de contenus vidéo en temps réel à l’aide d’IBM Watson et du text to speech, en voix de synthèse ou en sous-titrage. L’AFP a développé l’outil Transcriber, qui permet à ses journalistes d’automatiser la retranscription des entretiens.

 

10 – L’IA pour la production vidéo et la création  

 

Avec le besoin grandissant des médias de fabriquer de formats courts adaptés aux réseaux sociaux, de nombreuses start-ups proposant des solutions clés en main se sont développées. On peut alors utiliser l’IA pour générer automatiquement du texte à partir de documents graphiques, ou une vidéo à partir de textes. L’IA assiste aussi dans les différentes étapes techniques de la captation et de la diffusion. Elle intervient dans la post-production de l’image et les effets spéciaux. Le nombre de solutions contenant des briques IA dans le développement de l’édition vidéo et du média management a augmenté de façon exponentielle ces dernières années.

 

Grâce à la reconnaissance d’image, l’IA est capable d’analyser des rushs vidéo pour produire un montage cohérent. La plupart des grands éditeurs de logiciels de montage, comme Adobe, Avid et Elemental (filiale d’Amazon) ont, eux aussi, déjà ajouté des fonctions de traitement automatique des vidéos pour faire gagner du temps aux monteurs. Adobe et Stanford ont par exemple développé une IA qui automatise une partie du travail de montage vidéo tout en laissant la main à l’homme sur la partie créative. L’outil peut par exemple faire différentes propositions de montage d’une scène de dialogue. Gingalab crée des vidéos automatisées et personnalisées et génère automatiquement des best-of selon une ligne édito prédéfinie (humour, tension, focus sur un protagoniste…), en mettant à disposition des outils de montage simplifiés, pour publier ensuite automatiquement sur les réseaux sociaux et agréger les analytics.

 

En septembre 2018, la BBC a diffusé une émission entièrement fabriqué par un robot. “Made By Machine: When AI Met The Archive a assemblé une partie des riches archives de la BBC dans un format d’une heure, pas forcément toujours cohérent (le même reproche que l’on faisait déjà aux IA scénaristes des Sunspring, It’s No Game et Zone Out).

 

Même si la technologie des GAN (Generative Adversarial Networks, ou « réseaux génératifs antagonistes ») aide à améliorer la copie des créations par robot, du côté de l’art, l’IA n’est clairement pas prête de remplacer les artistes : elle reste basée uniquement sur des systèmes probabilistes et combinatoires qui n’ont aucune intelligence symbolique ni capacité émotionnelle.

11 – L’IA pour monétiser et prédire le succès

 

De l’analyse d’audience avancée à la détection de la bonne cible, les algorithmes du machine learning aident le marketing à séparer les conjectures des tâches essentielles. L’IA, en recoupant données comportementales, analyse d’audience et détection des tendances est capable de prévoir les potentiels succès commerciaux des contenus avant leur diffusion. L’analytique avancée sert ainsi à découvrir des modèles, des corrélations et des tendances permettant d’améliorer les processus décisionnels.  L’IA intervient dans toute la chaîne marketing : l’acquisition de clients (analyse d’audience et segmentation, scoring et ciblage, identification visuelle du contexte), la transformation (personnalisation et recommandation, création de contenus, optimisations de sites et de supports, pilotage automatisé des campagnes) et la fidélisation (agents conversationnels, automatisation du programme client, analyse comportementale, calcul de l’attribution et prédictions).

 

L’IA est même capable désormais de collecter la « data émotionnelle » pour analyser nos comportements non seulement par nos clics, mais aussi par nos émotions. C’est le dernier degré de de la personnalisation : des médias qui proposent des contenus adaptés à notre contexte émotionnel du moment. Frank Tapiro de Datakalab décrit cette transformation de la façon suivante : « Pendant trente ans, j’ai créé de l’émotion. Aujourd’hui, j’utilise les neurosciences et les datas pour mesurer l’émotion ». Amazon prépare même un bracelet pour détecter nos émotions.

 

Prévision.io est une plateforme en ligne (SAAS) qui permet de créer automatiquement des modèles prédictifs à partir de jeux de données (internes ou externes, structurées ou non) et de visualiser les résultats sur des tableaux de bord. Cette plateforme de machine learning identifie des scénarios prédictifs pour prévoir des pertes d’audience, des désabonnements et pour la gestion des tarifs des écrans publicitaires. Elle promeut la transparence de sa solution, en expliquant chaque résultat et en proposant des recommandations d’actions et/ou des évaluations d’impact. Le groupe Le Parisien-Les Echos a remporté récemment un financement Google DNI pour un programme anti churn (anti-désabonnement). Intitulé High Fidelity, ce projet doit permettre la mise en commun des données provenant des call centers, des newsletters, des envois de courriers et des interactions provenant des applis et des sites web, et prédire les désabonnements en cascades pour éviter la perte massive de lecteurs. Avec “Project Feels”, le NYT de son côté vend des espaces publicité premium en fonction du sentiment du lecteur. Vionlabs est une société suédoise qui intervient sur l’indexation des contenus à partir de la reconnaissance automatique des émotions. Elle analyse les contenus, constitue des graphs en représentant les différents moments émotionnels. Ces données vont ensuite pouvoir alimenter un moteur de recommandation basée sur les émotions.

 

L’IA est utilisée pour connaître le plus finement possible les utilisateurs et être capable de cibler le meilleur moment – et la meilleure façon – de leur proposer de passer à un abonnement payant. L’IA devient aide à la prise de décision et outil anti-churn.

12 – L’IA et l’éthique appliquée aux médias

 

En pleine crise de confiance, l’utilisation de l’IA et d’algorithmes opaques de recommandation impliquant l’analyse de comportements n’est peut-être pas un choix évident pour les médias. L’usage de l’IA nécessite en effet l’instauration de règles claires et une documentation transparente à destination de l’audience. Le Big Data qui alimente l’IA est basé sur la collecte massive de données (y compris personnelles). La propriété des données et l’indépendance à l’égard de sources tierces est crucial pour le développement d’un écosystème indépendant, et pourrait être déterminant pour la survie à long terme des entreprises, en particulier pour celles du secteur des médias.

Or, la plupart des jeux de données et des algorithmes disponibles dans les clouds des GAFAs sont biaisés, voire même racistes.

 

Comment alors intégrer les valeurs du service public (information, éducation) dans un algorithme de recommandation ?

Comment fédérer autour d’un sujet pour animer le débat public ?

Comment continuer à jouer le rôle de la recommandation dans la cohésion sociale ?

Quel est le degré de recommandation que nous souhaitons ?

Où se trouve la juste balance entre personnalisation et découverte de contenus ?

 

Le gouvernement anglais a lancé un observatoire de l’utilisation de l’IA dans le service public. La BBC applique ses règles éthiques dans le programme « Responsible Machine Learning in the Public Interest », rejoint par l’UER, dont le groupe de travail Big Data réfléchit à une utilisation éthique des algorithmes dans les médias de service public pour éviter les biais et répondre aux enjeux de cet outil encore peu maîtrisé : l’inégalité face à l’intelligence artificielle, le neurohacking, la souveraineté technologique, et surtout la nécessité de la complémentarité du cerveau avec l’intelligence artificielle.

 

L’interprétabilité et l’explicabilité de l’IA , deux néologismes anglais, sont le plus grand défi. L’intelligibilité des algorithmes en général et particulièrement ceux de l’intelligence artificielle est devenue un critère prépondérant, évoqué notamment dans le rapport Villani en France et mis en exergue depuis le RGPD en Europe. Le premier moyen d’être transparent étant déjà d’indiquer clairement qu’un contenu ou une recommandation sont totalement ou en partie proposés par un algorithme.

 

D’un autre côté, les possibilités des l’IA permettent aussi d’atteindre des audiences de niche pour lesquelles un média n’avait pas les moyens de fabriquer du contenu. Les algorithmes permettent de créer des playlists entièrement personnalisées sur des sujets très ciblés. Et peut être que les médias peuvent aussi laisser la place au vide. En ce sens, Jonnie Penn, auteur invité au Workshop The impact of AI on Media de l’UER en novembre 2018, clame le besoin de « data deserts », des « protected areas from data« , pour laisser la place à une « healthy differences of opinions« .

 

Conclusion :

 

Le buzz autour de l’IA peut aussi déclencher des attentes trop élevées : l’A n’est pas la solution miracle, dans la plupart des cas que l’on a détaillés ci-dessus, elle a besoin d’être associée à l’humain, notamment pour créer du contenu. Elle est néanmoins déjà opérationnelle du côté de la demande dans les domaines de la diffusion, de l’accès au contenu et de la monétisation. Elle a un grand potentiel de bien social pour aider à naviguer dans la masse de contenus par l’optimisation de la recherche et la recommandation personnalisée, et pour prévenir la manipulation.

 

Autant de cas d’usage, en attendant les applicatifs à venir dans les voitures autonomes… Mais cette nouvelle technologie a besoin d’une sensibilisation d’un côté de l’ensemble des acteurs de la chaîne de valeurs des médias, et de l’autre de l’audience, des plus jeunes aux plus âgés, pour leur transmettre les enjeux de l’IA.

 

L’IA est bonne à certaines tâches, mais ne remplace pas les humains. La plus grande valeur apportée par les médias est (ou devrait être) la production de contenus complexes qui touchent aux domaines du jugement, de l’interprétation, de la créativité et de la communication, où les humains dominent encore les algorithmes, et le feront certainement encore pour des années à venir.

 

Mais l’IA peut aussi aider à se poser les bonnes questions : Comment créer de la valeur pour l’utilisateur ? L’IA a un impact très fort sur la société, et le rôle des médias est à veiller de l’utiliser à bon escient, en particulier des médias de service public.

 

Les cas d’usage sont encore à inventer, en faisant attention toufois à ne pas utiliser l’IA sans répondre à un besoin réel et sans apporter de valeur. Juste parce que l’on a la capacité technique de le faire, son intégration n’est pas pertinente partout, comme le remarque Jonnie Penn : « Machine learning is like salt : you can add it but if you have too much it is unhealthy« .

 

Lire : Meta-Média du 26 mai

 

Télécharger : la cartographie complète (45 pages)

 

Jean-Philippe Behr

Nos partenaires

Demande d’adhésion à la CCFI

Archives

Connexion

Vous n'êtes pas connecté.

Demande d’adhésion à la CCFI