Ахмад Шадид из O.XYZ предупреждает: приоритеты национальной безопасности могут подорвать справедливость и прозрачность в сфере ИИ
Коротко Ахмад Шадид подчеркивает, что политическое давление привело к сокрытию отчета NIST, раскрывающего критические уязвимости ИИ, что подчеркивает насущную необходимость в прозрачных, независимых и открытых исследованиях для повышения безопасности и справедливости ИИ.
Перед инаугурацией действующего президента США Дональда Трампа, Национальный Институт Стандартов и Технологий (NIST) завершил отчет о безопасности современных моделей ИИ.
В октябре прошлого года на конференции по компьютерной безопасности в Арлингтоне, штат Вирджиния, собралась группа исследователей ИИ, которые приняли участие в новаторском учении «Red Teaming», направленном на тщательное тестирование современной языковой модели и других систем ИИ. За два дня эти команды обнаружили 139 новых способов вызвать сбои в работе систем, таких как создание ложной информации или раскрытие конфиденциальных данных. Важно отметить, что их выводы также выявили уязвимости в недавно принятом правительственном стандарте США, призванном служить руководством для компаний при оценке безопасности систем ИИ.
Целью этого является помощь организациям в оценке их систем искусственного интеллекта. докладе был одним из нескольких документов NIST по искусственному интеллекту, публикация которых была приостановлена из-за возможных конфликтов с политическим направлением новой администрации.
В интервью Mpost, Ахмад Шадид , Генеральный директор О.XYZ , децентрализованная экосистема под управлением ИИ, обсудила опасности политического давления и секретности в исследованиях безопасности ИИ.
Кто уполномочен публиковать выводы «Красной команды» NIST?
По словам Ахмада Шадида, политическое давление может влиять на СМИ, и отчёт Национального института стандартов и технологий служит ярким примером этого. Он подчеркнул необходимость независимых исследователей, университетов и частных лабораторий, не подверженных такому давлению.
«Проблема в том, что у них не всегда одинаковый доступ к ресурсам и данным. Именно поэтому нам нужна — или, лучше сказать, всем нужна — глобальная открытая база данных уязвимостей ИИ, в которую каждый может вносить свой вклад и учиться на её основе», — сказал Ахмад Шадид. Mpost«Не должно быть никаких правительственных или корпоративных фильтров для таких исследований», — добавил он.
Ахмад Шадид предупреждает: сокрытие уязвимостей ИИ препятствует прогрессу в области безопасности и расширяет возможности злоумышленников
Он также объяснил риски, связанные с сокрытием уязвимостей от общественности, и то, как такие действия могут помешать прогрессу в области безопасности ИИ.
«Сокрытие ключевых образовательных исследований дает злоумышленникам преимущество, оставляя хороших ребят в неведении», — сказал Ахмад Шадид.
Компании, исследователи и стартапы не могут решать проблемы, о которых они не знают, что может создавать скрытые препятствия для компаний, занимающихся ИИ, и приводить к недостаткам и ошибкам в моделях ИИ.
По словам Ахмада Шадида, культура открытого исходного кода сыграла основополагающую роль в революции программного обеспечения, поддерживая как непрерывную разработку, так и укрепление программ посредством коллективного выявления уязвимостей. Однако в сфере искусственного интеллекта этот подход значительно устарел — например, сообщается, что Meta рассматривает возможность сделать процесс разработки ПО закрытым.
«То, что NIST скрыл от общественности из-за политического давления, могло быть именно теми знаниями, которые были нужны отрасли для устранения некоторых рисков, связанных с LLM или галлюцинациями», — сказал Ахмад Шадид. Mpost«Кто знает, может быть, злоумышленники уже воспользовались «139 новыми способами взлома систем ИИ», которые были включены в отчет», — добавил он.
Правительства склонны отдавать приоритет национальной безопасности, а не справедливости и прозрачности в сфере ИИ, что подрывает общественное доверие.
Подавление исследований в области безопасности отражает более широкую проблему, в которой правительства отдают приоритет национальной безопасности, а не вопросам справедливости, дезинформации и предвзятости.
Ахмад Шадид подчеркнул, что любые технологии, используемые широкой общественностью, должны быть прозрачными и справедливыми. Он подчеркнул необходимость прозрачности, а не секретности, отметив, что конфиденциальность, окружающая ИИ, подчёркивает его геополитическое значение.
Крупнейшие экономики, такие как США и Китай, вкладывают значительные средства, включая миллиарды долларов в субсидии и активное привлечение талантливых специалистов, чтобы получить преимущество в гонке за искусственный интеллект.
«Когда правительства ставят термин „национальная безопасность“ выше справедливости, дезинформации и предвзятости — в отношении такой технологии, как ИИ, которой пользуются 378 миллионов пользователей, — они фактически говорят, что эти вопросы могут подождать. Это может привести только к созданию экосистемы ИИ, которая защищает власть, а не людей», — заключил он.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Правила акции GHO HodlerYield
Отчет о состоянии Фонда защиты Bitget. Июль, 2025 г.
Новые спотовые маржинальные торговые пары - TOWNS/USDT
[Первичный листинг] Листинг GHO (GHO) в зоне Инноваций на Bitget
Цены на крипто
Далее








