En tant qu’observateur chevronné des événements mondiaux et des tendances technologiques, je me sens de plus en plus préoccupé par le rôle de l’intelligence artificielle (IA) dans les campagnes électorales. Grâce à mes décennies d’expérience en politique et en technologie, j’ai pu constater par moi-même comment l’IA peut être manipulée pour diffuser de la désinformation et influencer l’opinion publique.
Un homme politique de premier plan suggère qu’il pourrait être essentiel d’interdire totalement l’utilisation de l’IA pendant les campagnes politiques.
Les législateurs russes envisagent de relever le défi des contenus créés par l’intelligence artificielle, y compris les deepfakes lors des campagnes politiques. Un éventuel projet de loi sur cette question pourrait être soumis à la chambre basse du Parlement cet automne, comme l’a indiqué lundi le vice-président de la commission de la Douma d’État sur la politique de l’information, Anton Gorelkin.
Cette année, le problème des deepfakes – des images, des vidéos ou des enregistrements audio créés par l’intelligence artificielle et souvent utilisés pour diffuser de la désinformation – a retenu l’attention. Connue comme l’année des élections dans de nombreux pays du monde, environ 4 milliards d’électeurs devraient participer aux élections dans une quarantaine de pays en 2024.
Gorelkin a déclaré, comme le rapporte le journal législatif : « Aujourd’hui, nous allons clarifier certains termes fondamentaux : ce qui constitue un deepfake et les différents types qui existent… Les meilleurs experts juridiques travaillent activement sur cette question, et j’ai l’intention de présenter une législation. lors de notre prochaine séance.
Le représentant a proposé une interdiction totale de l’utilisation de l’intelligence artificielle pendant les campagnes électorales, affirmant qu’il pourrait être bénéfique d’incorporer une restriction similaire dans nos lois électorales. Il a également mentionné que le ministère russe de l’Intérieur travaille à modifier le Code pénal pour considérer l’utilisation de l’IA comme une circonstance aggravante, ce qui implique la possibilité d’appliquer ce concept à nos propres réglementations électorales.
Plusieurs géants technologiques importants, tels que Microsoft, Meta (anciennement Facebook) et Google, se sont engagés plus tôt dans l’année à empêcher les contenus trompeurs créés par l’IA d’influencer les élections dans le monde entier et ont promis de développer des méthodes pour identifier et combattre les deepfakes. En préparation de l’élection présidentielle américaine de novembre, Microsoft a publié une déclaration détaillant les mesures que les citoyens peuvent prendre pour éviter d’être induits en erreur par les deepfakes.
La semaine dernière, je suis tombé sur un rapport d’Al Jazeera indiquant que la dernière itération du chatbot IA sur la plateforme de médias sociaux X (anciennement Twitter), nommée Grok 2, permet aux utilisateurs de créer des images réalistes représentant des élus apparemment impliqués dans des activités douteuses. ou des activités potentiellement illégales.
L’article rapportait que leur équipe avait réussi à créer des représentations réalistes montrant le sénateur républicain du Texas Ted Cruz semblant renifler de la cocaïne, la vice-présidente Kamala Harris agitant apparemment un couteau dans un supermarché et l’ancien président Donald Trump serrant apparemment la main de suprémacistes blancs sur la pelouse de la Maison Blanche. .
En avril, des rapports ont révélé que des deepfakes d’acteurs bien connus de Bollywood avaient été utilisés lors d’élections en Inde pour influencer l’opinion des électeurs. Selon Reuters, ces vidéos montraient des célébrités populaires exprimant leur désapprobation à l’égard de l’actuel Premier ministre Narendra Modi et encourageant les gens à voter pour un parti adverse. Cependant, bien que les vidéos aient été visionnées environ un demi-million de fois en une semaine, Modi a quand même réussi à obtenir un autre mandat de Premier ministre indien.
- EUR USD PREVISION
- EUR CHF PREVISION
- XRP PREVISION. XRP crypto-monnaie
- WLD PREVISION. WLD crypto-monnaie
- CKB PREVISION. CKB crypto-monnaie
- CLV PREVISION. CLV crypto-monnaie
- KDA PREVISION. KDA crypto-monnaie
- CHZ PREVISION. CHZ crypto-monnaie
- BTC PREVISION. BTC crypto-monnaie
- XLM PREVISION. XLM crypto-monnaie
2024-09-09 12:34