Les entreprises de médias sont aux prises avec l’IA, tant à l’intérieur qu’à l’extérieur des rédactions

Estimated read time 5 min read

Les entreprises de médias ont tenté de s’adapter à l’émergence rapide de l’IA, nombre d’entre elles interdisant son utilisation en interne et d’autres choisissant de l’adopter.

De nombreuses grandes sociétés de médias ont pris position contre l’autorisation de l’intelligence artificielle (IA), comme ChatGPT d’OpenAI, dans les salles de rédaction, et ont refusé l’autorisation à l’IA d’analyser leur contenu sur le Web.

Il a été rapporté que plusieurs sociétés de médias grand public, dont CNN, le New York Times et Reuters, ont codé leurs plates-formes pour empêcher le robot d’exploration Web d’OpenAI, GPTBot, d’accéder à leur contenu.

Le robot d’exploration Web a été publié le 8 août pour améliorer potentiellement les futurs modèles ChatGPT en indexant le contenu des sites Web sur le Web.

De plus, un rapport de CNN affirme que d’autres géants de l’information et des médias ont également fait de même, notamment Disney, Bloomberg, The Washington Post, The Atlantic, Axios, Insider, ABC News et ESPN, entre autres. De grandes maisons d’édition comme Condé Nast et Vox Media ont également pris des mesures contre l’IA.

Danielle Coffey, présidente-directrice générale de News Media Alliance, a déclaré à un journaliste de CNN qu’avec l’IA dans l’image :

« Je constate un sentiment d’urgence accru lorsqu’il s’agit de lutter contre l’utilisation, et la mauvaise utilisation, de notre contenu. »

Les développeurs d’IA ont déjà été confrontés à des poursuites judiciaires pour violation du droit d’auteur sur le matériel utilisé pour entraîner des modèles. Le 12 juillet, Google a été poursuivi en justice pour sa nouvelle politique de confidentialité en matière de grattage de données IA.

Avant cela, l’auteur Sarah Silverman et deux autres personnes avaient poursuivi Meta et OpenAI pour avoir utilisé son œuvre protégée par le droit d’auteur pour entraîner leurs systèmes sans le consentement approprié.

En avril dernier, le PDG de News Corp Australia était en avance lorsqu’il a soutenu que ChatGPT et les systèmes d’IA similaires devaient payer pour les informations consommées.

Interdire ou ne pas interdire

Ce ne sont pas seulement les entreprises de médias qui ont été proactives en interdisant l’utilisation de chatbots IA sur le lieu de travail ou en interdisant aux systèmes d’accéder au contenu.

En mai, les géants de la technologie Samsung et Apple ont tous deux interdit l’utilisation interne de chatbots IA comme ChatGPT, en raison de préoccupations concernant l’externalisation de données internes sensibles par les modèles.

Avant cela, de nombreuses sociétés de services financiers telles que JPMorgan, Bank of America, Goldman Sachs et Citigroup avaient également interdit l’utilisation interne d’outils d’IA générative.

Le 26 juin, la Chambre des représentants des États-Unis a interdit à ses membres d’utiliser tous les chatbots IA, à l’exception de ChatGPT Plus en raison de son incorporation de « fonctionnalités de confidentialité importantes » qui peuvent aider à protéger les données sensibles.

Les médias adoptent l’IA – pour le meilleur ou pour le pire

Alors que beaucoup se mettent en garde contre le caractère invasif de la technologie, d’autres l’observent – ​​voire l’expérimentent.

Le géant du divertissement Netflix semble envisager d’intégrer l’IA d’une manière ou d’une autre, sur la base des offres d’emploi publiées en juillet proposant des postes d’IA bien rémunérés.

Le site de médias BuzzFeed a récemment fermé sa division d’information et licencié 180 employés, puis a déclaré peu de temps après, dans sa conférence téléphonique sur les résultats du premier trimestre, qu’il « s’appuierait sur l’IA ».

Un exemple d’intégration erronée de l’IA dans les médias s’est produit en mai, lorsqu’un quotidien irlandais a dû s’excuser pour avoir publié sans le savoir un article généré par l’IA. Il a affirmé avoir été « délibérément trompé » en lui faisant croire que l’identité d’un écrivain invité était humaine, mais il s’est avéré qu’il s’agissait d’une IA.

IA pour l’entreprise

Un rapport réalisé le 28 août a également révélé que l’inquiétude se répercute sur les consommateurs, près des trois quarts d’entre eux étant préoccupés par l’utilisation contraire à l’éthique de l’IA par les entreprises.

Cela survient peu de temps après qu’OpenAI a publié une version de son chatbot ChatGPT AI pour les entreprises, avec quatre fois la puissance de la version grand public. Il affirme que la version entreprise est deux fois plus rapide que GPT-4, avec des normes de confidentialité et de sécurité améliorées.

Avant la sortie du chatbot destiné aux entreprises, un expert IBM en blockchain et en IA a déclaré que le modèle présentait plusieurs « risques clés » pour une utilisation commerciale. Celles-ci concernaient principalement le risque de compromission de données internes sensibles, ce qui constituait une préoccupation majeure pour bon nombre des entreprises susmentionnées qui ont interdit les chatbots.

2023-08-29 14:57