Bitget App
Cмартторгівля для кожного
Купити криптуРинкиТоргуватиФ'ючерсиEarnЦентрБільше
Співзасновник Ethereum Віталік Бутерін заявив, що Info Finance може зменшити ризики, оскільки зломи ChatGPT можуть призвести до витоку даних

Співзасновник Ethereum Віталік Бутерін заявив, що Info Finance може зменшити ризики, оскільки зломи ChatGPT можуть призвести до витоку даних

CoinotagCoinotag2025/09/13 14:26
Переглянути оригінал
-:Sheila Belson
  • Наївне AI governance вразливе до маніпуляцій і jailbreak-атак.

  • Info finance разом із людськими журі та вибірковими перевірками дозволяє виявляти маніпуляції на ранніх етапах.

  • Демонстрації jailbreak ChatGPT показують, як пов’язані інструменти можуть розкрити приватні дані за лічені хвилини.

Ризики AI governance загрожують фінансуванню криптовалют і безпеці даних; дізнайтеся, як info finance і нагляд журі можуть зменшити маніпуляції — читайте практичні кроки вже зараз.




Опубліковано: 13 вересня 2025

Що таке ризик AI governance у криптовалюті?

AI governance ризик — це збої в системах, які дозволяють інструментам на базі AI приймати фінансові або управлінські рішення без належного контролю. Наївні реалізації можуть бути використані через jailbreak або оманливі сигнали, що дозволяє несправедливий розподіл коштів і витік даних, якщо не впроваджено людський нагляд і різноманітні стимули.

Як Vitalik Buterin запропонував info finance як альтернативу?

Vitalik Buterin рекомендує модель “info finance”, де відкриті ринки моделей поєднуються з людськими журі та вибірковими перевірками. Такий підхід створює конкуренцію між різними моделями і узгоджує стимули, щоб творці моделей і спекулянти стежили за результатами, що полегшує виявлення goodharting та інших маніпуляцій.

Як jailbreak ChatGPT може розкрити дані користувача?

Демонстрації дослідника безпеки Eito Miyamura показують, що прості jailbreak-підказки, вбудовані в календарні запрошення чи інші вхідні дані, можуть обдурити інструменти, пов’язані з ChatGPT, і змусити їх розкрити приватні дані. Зловмисникам достатньо базових контекстних даних (наприклад, електронної адреси), щоб створити підказки, які перенаправляють поведінку агента і витягують чутливу інформацію.

Які вразливості дозволяють цим jailbreak працювати?

Підключені AI-інструменти часто виконують явні інструкції без фільтрації на основі здорового глузду. Як зазначає Miyamura, “AI-агенти на кшталт ChatGPT виконують ваші команди, а не ваш здоровий глузд.” Коли агентам дозволено читати календарі, електронну пошту чи інші особисті дані, шкідливі підказки можуть змусити їх розкрити контент або виконати дії від імені зловмисників.

Коли людські журі повинні втручатися в AI-управління?

Людські журі повинні втручатися, коли йдеться про істинні дані, довгострокові суспільні блага або рішення щодо фінансування великої вартості. Buterin зазначає, що надійні сигнали істини є критичними, і журі, які використовують LLM, можуть більш надійно оцінювати неоднозначні чи маніпульовані сигнали, ніж суто алгоритмічні системи.

Порівняння підходів до управління Підхід Переваги Недоліки
Наївне AI governance Швидкі, недорогі рішення Вразливість до маніпуляцій, jailbreak, непрозорі результати
Info finance + журі Різноманітність, вибіркові перевірки, узгоджені стимули Потребує координації та надійного вибору журі
Тільки людські журі Високий рівень довіри та розуміння контексту Обмеження масштабованості та швидкості

Як зменшити ризики AI governance та витоку даних?

Практичні заходи поєднують ринкові механізми, людський нагляд і технічні обмеження доступу агентів до приватних даних. Нижче наведено короткі, дієві кроки, які організації можуть впровадити вже зараз.

  1. Обмежте привілеї агентів: обмежте доступ до даних і вимагайте явної згоди для чутливих дій.
  2. Вибірково перевіряйте моделі: впроваджуйте випадкові аудити та перегляди рішень автоматизації людськими журі.
  3. Стимулюйте різноманітність: запускайте конкуруючі моделі на відкритих ринках для виявлення спроб маніпуляцій.
  4. Зміцнюйте вхідні дані: очищайте зовнішній контент (календарні запрошення, вкладення) перед обробкою агентом.
  5. Відстежуйте goodharting: слідкуйте за сигналами прийняття та аномаліями, що свідчать про оманливу поведінку.


Часті питання

Наскільки термінові ризики від jailbreak ChatGPT?

Зареєстровані jailbreak-атаки демонструють негайний ризик: зловмисники можуть створити підказки для отримання даних за лічені хвилини, якщо агенти мають живий доступ до облікових записів користувачів. Організації повинні розглядати це як загрозу високого пріоритету і вже зараз обмежити привілеї агентів.

Чому людські журі рекомендуються замість повної автоматизації?

Людські журі забезпечують надійний сигнал істини та контекстне судження, якого бракує LLM. За підтримки LLM для ефективності журі можуть оцінювати довгострокові істини та виявляти сфабриковані сигнали прийняття, які автоматизовані системи пропускають.

Основні висновки

  • Наївне AI governance є ризикованим: його можна використати через jailbreak і оманливі стимули.
  • Info finance — практична альтернатива: відкриті ринки моделей плюс вибіркові перевірки підвищують стійкість.
  • Негайні дії: обмежте привілеї агентів, проводьте аудити та залучайте людські журі з підтримкою LLM.

Висновок

AI governance перебуває на роздоріжжі: наївні дизайни загрожують коштам і приватності, тоді як альтернативні підходи на кшталт info finance у поєднанні з людськими журі забезпечують сильніший захист. Зацікавлені сторони повинні впроваджувати обмеження доступу, постійні аудити та ринки з узгодженими стимулами, щоб захистити управління сьогодні та побудувати прозоріші системи завтра.

Якщо ви пропустили: Galaxy Digital’s $205 Million Withdrawal May Signal Institutional Accumulation, Solana Could Rally Toward $300
0

Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.

PoolX: Заробляйте за стейкінг
До понад 10% APR. Що більше монет у стейкінгу, то більший ваш заробіток.
Надіслати токени у стейкінг!

Вас також може зацікавити

Момент HTTPS для приватності Ethereum: від захисного інструменту до інфраструктури за замовчуванням

Підсумок «цілісної реконструкції парадигми конфіденційності» на основі десятків виступів і дискусій на заході Devconnect ARG 2025 «Ethereum Privacy Stack».

ChainFeeds2025/11/28 22:25
Момент HTTPS для приватності Ethereum: від захисного інструменту до інфраструктури за замовчуванням

Пожертвувавши 256 ETH, Віталік робить ставку на приватні месенджери: чому Session та Simplex?

Яке розрізнення переслідують ці месенджери з акцентом на приватність? І на яку технічну дорожню карту знову робить ставку Віталік?

BlockBeats2025/11/28 22:12
Пожертвувавши 256 ETH, Віталік робить ставку на приватні месенджери: чому Session та Simplex?

Пожертвування 256 ETH, Vitalik робить ставку на приватні комунікації: чому саме Session та SimpleX?

Чим же відрізняються ці основні приватні месенджери? На яку технічну стратегію цього разу робить ставку Vitalik?

BlockBeats2025/11/28 22:02
Пожертвування 256 ETH, Vitalik робить ставку на приватні комунікації: чому саме Session та SimpleX?