Le PDG de Tether émet un avertissement effrayant sur l’IA

En tant qu’investisseur en cryptographie ayant une expérience dans l’industrie technologique, je partage les préoccupations de Paolo Ardoino concernant les grands modèles de langage centralisés (LLM) comme OpenAI. La faille de sécurité d’OpenAI plus tôt cette année était en effet effrayante et soulève de sérieuses questions sur l’adéquation de leurs mesures de sécurité. Le fait qu’ils aient choisi de ne pas divulguer la violation jusqu’à ce qu’elle soit divulguée aux médias ne fait qu’ajouter à l’alarme.


Paolo Ardoino, PDG de Tether, a mis en garde sur la plateforme de médias sociaux X concernant les risques potentiels associés aux grands modèles de langage centralisés.

Ardoino a exprimé son inquiétude face à l’incident de sécurité important survenu chez OpenAI, la principale société d’IA générative, début 2023, le qualifiant d' »alarmant ».

Un récent rapport du New York Times a révélé qu’OpenAI avait dissimulé des informations sur une violation de données au cours de laquelle certains détails sensibles avaient été divulgués.

Des chercheurs précédemment employés par OpenAI, dont Leopold Aschenbrenner, ont fait part de leurs inquiétudes quant aux protocoles de sécurité insuffisants de l’entreprise, la rendant potentiellement vulnérable aux intrusions malveillantes d’entités étrangères. Aschenbrenner a affirmé que son licenciement était dû à des divergences politiques. Cependant, OpenAI a contesté cette affirmation, affirmant que la faille de sécurité avait été divulguée avant qu’Aschenbrenner ne rejoigne son équipe.

Malgré l’affirmation d’OpenAI selon laquelle sa technologie actuelle ne pose aucun problème de sécurité nationale, certains restent inquiets du risque potentiel que la Chine accède à ses secrets.

En tant qu’analyste, j’ai remarqué qu’outre les failles de sécurité, des critiques valables sont formulées contre les modèles d’IA centralisés concernant l’utilisation contraire à l’éthique des données et la censure. Le PDG de Tether plaide en faveur de l’utilisation de modèles d’IA locaux comme solution la plus efficace pour répondre aux problèmes de confidentialité et garantir à la fois la résilience et l’indépendance.

Dans un article récent sur la plateforme de médias sociaux X, Ardoino a déclaré que l’exécution locale de modèles d’intelligence artificielle (IA) est la méthode la plus efficace pour protéger la vie privée des individus et parvenir à la fois à la résistance et à l’autosuffisance.

Il a ajouté que les smartphones et ordinateurs portables modernes sont suffisamment puissants pour affiner les LLM généraux. 

2024-07-08 09:35