Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Going Onchain, without going Onchain!
Convert
Aucun frais de transaction ni slippage
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copy
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Vitalik Buterin nous prévient : l’IA superintelligente est déjà en route

Vitalik Buterin nous prévient : l’IA superintelligente est déjà en route

Beincrypto2025/01/06 20:00
Par:Beincrypto

Le cofondateur d’Ethereum, Vitalik Buterin, a tiré la sonnette d’alarme sur les risques associés à l’IA superintelligente et la nécessité d’un mécanisme de défense solide pour cette nouvelle technologie.

Les commentaires de Vitalik Buterin tombent à un moment où, avec le développement rapide de l’intelligence artificielle, les préoccupations concernant la sécurité liée à l’IA augmentent considérablement.

Le plan de régulation d’IA de Buterin

Dans un article de blog publié le samedi 5 janvier, Vitalik Buterin a exposé son idée de « d/acc ou accélération défensive », selon laquelle la technologie devrait être développée pour défendre plutôt qu’afin de causer du tort. Il ne s’agit cependant pas de la première fois que Buterin s’exprime sur les risques associés à l’intelligence artificielle.

« Une manière dont l’IA défaillante pourrait aggraver le monde serait (presque) la pire possible : elle pourrait littéralement entrainer l’extinction humaine », a Vitalik expliqué Buterin en 2023.

Aujourd’hui, Vitalik Buterin donne suite à ses théories de 2023. Selon lui, la “superintelligence artificielle” pourrait potentiellement exister d’ici quelques années seulement. 

« Il semble probable qu’il y ait un délais de trois ans jusqu’à l’AGI puis de trois ans de plus jusqu’à la superintelligence. Ainsi, si nous ne voulons pas que le monde soit détruit ou tombe dans un piège irréversible, nous ne pouvons pas seulement accélérer le bien, nous devons aussi ralentir le mal », a écrit Buterin.

Pour atténuer les risques liés à l’IA, Vitalik Buterin préconise la création de systèmes d’IA décentralisés qui restent étroitement liés aux prises de décision par les humains. Ainsi, en veillant à ce que l’IA reste un outil entre les mains des humains, les menaces de conséquences catastrophiques pourront être minimisées.

Buterin a ensuite expliqué comment les armées pourraient être les acteurs responsables d’un scénario de « catastrophe par IA ». L’utilisation militaire de l’IA augmente à échelle mondiale, comme on a pu le voir en Ukraine et à Gaza. Buterin pense également que toute réglementation de l’IA à entrer en vigueur exempterait très probablement les armées, faisant de celles-ci une menace majeure.

Le cofondateur d’Ethereum a par ailleurs exposé ses plans afin de réglementer l’utilisation de l’IA ; ainsi, selon lui, la première étape pour éviter les risques associés à l’IA est de responsabiliser ses utilisateurs.

« Bien que le lien entre le mode de développement d’un modèle et la façon dont il finit par être utilisé soit souvent flou, c’est l’utilisateur qui décide exactement comment l’IA est utilisée » a expliqué Buterin, soulignant là le rôle joué par les utilisateurs de l’IA.

Si les règles de responsabilité ne fonctionnent pas, l’étape suivante serait d’instaurer des boutons de “pause douce” qui permettent à la réglementation de l’IA de ralentir le rythme des avancées potentiellement dangereuses.

« L’objectif serait d’avoir la capacité de réduire la puissance de calcul disponible dans le monde de ~90-99% pendant 1-2 ans à une période critique, afin de gagner plus de temps pour que l’humanité puisse se préparer. »

Selon lui, cette pause peut être implémentée par la vérification et l’enregistrement de la localisation de l’IA.

Une autre approche consisterait à contrôler le matériel de l’IA. Le cofondateur d’Ethereum a en effet expliqué que le matériel de l’IA pourrait être équipé d’une puce pour le contrôler.

Cette puce permettrait aux systèmes d’IA de fonctionner uniquement s’ils obtiennent trois signatures d’organismes internationaux chaque semaine. Il a ajouté qu’au moins un des organismes devrait être non affilié à l’armée.

Cela dit, Buterin lui-même a admis que ses stratégies comportent des failles et ne constituent que des « solutions temporaires ».

Morale de l’histoire : Qui dit IA dit ne jamais oublier les risques.

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !