دراسة المعهد الوطني للمعايير والتكنولوجيا غير المنشورة حول مخاطر الذكاء الاصطناعي لا تزال مؤجلة وسط تغييرات إدارية
في سطور تم تقييم نقاط الضعف في أنظمة الذكاء الاصطناعي المتقدمة من خلال تمرين الفريق الأحمر بقيادة المعهد الوطني للمعايير والتكنولوجيا في CAMLIS، وتقييم المخاطر مثل المعلومات المضللة، وتسريبات البيانات، والتلاعب العاطفي.
ال المعهد الوطني للمعايير والتكنولوجيا أنهى المعهد الوطني للمعايير والتكنولوجيا (NIST) تقريرًا عن سلامة نماذج الذكاء الاصطناعي المتقدمة قرب نهاية إدارة جو بايدن، لكن الوثيقة لم تُنشر بعد الانتقال إلى إدارة دونالد ترامب.
في أكتوبر من العام الماضي، جمع مؤتمرٌ لأمن الحاسوب في أرلينغتون بولاية فرجينيا مجموعةً من باحثي الذكاء الاصطناعي الذين شاركوا في تمرينٍ رائدٍ لـ"الفريق الأحمر" يهدف إلى اختبارٍ دقيقٍ لنموذجٍ لغويٍّ متطورٍ وأنظمة ذكاءٍ اصطناعيٍّ أخرى. على مدار يومين، اكتشفت هذه الفرق 139 طريقةً جديدةً تُسبب أعطالًا في الأنظمة، مثل إنتاج معلوماتٍ خاطئةٍ أو كشف بياناتٍ حساسة. والأهم من ذلك، كشفت نتائجهم أيضًا عن نقاط ضعفٍ في معيارٍ حكوميٍّ أمريكيٍّ حديثٍ يهدف إلى توجيه الشركات في تقييم سلامة أنظمة الذكاء الاصطناعي.
على الرغم من أن التقرير كان مصممًا لمساعدة المنظمات في تقييم أنظمة الذكاء الاصطناعي الخاصة بها، إلا أنه كان من بين العديد من وثائق الذكاء الاصطناعي التي ألفها المعهد الوطني للمعايير والتكنولوجيا والتي تم حجبها عن النشر بسبب الصراعات المحتملة مع الاتجاه السياسي للإدارة الجديدة.
قبل توليه منصبه، أبدى الرئيس دونالد ترامب نيته إلغاء الأوامر التنفيذية الصادرة عن عهد بايدن والمتعلقة بالذكاء الاصطناعي. ومنذ ذلك الحين، أعادت الإدارة تركيز اهتمام الخبراء بعيدًا عن مجالات مثل التحيز الخوارزمي والإنصاف في مجال الذكاء الاصطناعي. وتدعو خطة عمل الذكاء الاصطناعي، الصادرة في يوليو/تموز، تحديدًا إلى مراجعة إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، موصيةً بحذف الإشارات إلى المعلومات المضللة، والتنوع والمساواة والشمول (DEI)، وتغير المناخ.
في الوقت نفسه، تتضمن خطة عمل الذكاء الاصطناعي مقترحًا يُشبه أهداف التقرير غير المنشور. يُوجِّه هذا المقترح وكالاتٍ فيدراليةً متعددة، بما في ذلك المعهد الوطني للمعايير والتكنولوجيا، لتنظيم مبادرة هاكاثون منسقة للذكاء الاصطناعي تهدف إلى اختبار أنظمة الذكاء الاصطناعي من حيث الشفافية والوظائف والتحكم بالمستخدمين والثغرات الأمنية المحتملة.
تمرين الفريق الأحمر بقيادة المعهد الوطني للمعايير والتكنولوجيا (NIST) يستكشف مخاطر أنظمة الذكاء الاصطناعي باستخدام إطار عمل ARIA في مؤتمر CAMLIS
أُجريت عملية تشكيل فرق العمل الحمراء في إطار برنامج تقييم مخاطر الذكاء الاصطناعي وآثاره (ARIA) التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، بالشراكة مع شركة هيومان إنتليجنس، وهي شركة تُركز على تقييم أنظمة الذكاء الاصطناعي. وعُقدت هذه المبادرة خلال مؤتمر التعلم الآلي التطبيقي في أمن المعلومات (CAMLIS)، حيث استكشف المشاركون نقاط ضعف مجموعة من تقنيات الذكاء الاصطناعي المتقدمة.
يوثق تقرير CAMLIS Red Teaming تقييم أدوات الذكاء الاصطناعي المختلفة، بما في ذلك Meta Llama، نموذج لغة كبيرة مفتوح المصدر (LLM)؛ وAnote، منصة لتطوير وتحسين نماذج الذكاء الاصطناعي؛ ونظام أمان من Robust Intelligence، الذي استحوذت عليه شركة CISCO لاحقًا؛ ومنصة Synthesia لتوليد صور الذكاء الاصطناعي. ساهم ممثلون من كل جهة في أنشطة التعاون.
استخدم المشاركون إطار عمل NIST AI 600-1 لتحليل الأدوات المعنية. يُحدد هذا الإطار مجالات خطر متعددة، مثل احتمالية إنتاج الذكاء الاصطناعي لمعلومات مضللة أو تهديدات للأمن السيبراني، أو الكشف عن بيانات خاصة أو حساسة، أو تعزيز التبعية العاطفية بين المستخدمين وأنظمة الذكاء الاصطناعي.
يكشف تقرير غير منشور عن فريق الذكاء الاصطناعي الأحمر عن نقاط ضعف في النموذج، ويثير مخاوف بشأن القمع السياسي وغياب رؤى بحثية
وجد فريق البحث عدة أساليب للتحايل على الضمانات المقصودة للأدوات قيد التقييم، مما أدى إلى نتائج شملت التضليل، وكشف المعلومات الخاصة، والمساعدة في وضع استراتيجيات للهجمات الإلكترونية. ووفقًا للتقرير، أثبتت بعض جوانب إطار عمل المعهد الوطني للمعايير والتكنولوجيا (NIST) أنها أكثر قابلية للتطبيق من غيرها. كما أشار إلى أن بعض فئات المخاطر تفتقر إلى الوضوح اللازم للاستخدام العملي.
أعرب أفراد مطلعون على مبادرة "الفرق الحمراء" عن اعتقادهم بأن نتائج هذا التمرين كان من الممكن أن تُقدم رؤى قيّمة لمجتمع البحث والتطوير في مجال الذكاء الاصطناعي على نطاق أوسع. وأشارت إحدى المشاركات، أليس تشيان تشانغ، طالبة الدكتوراه في جامعة كارنيجي ميلون، إلى أن نشر التقرير علنًا كان من الممكن أن يُسهم في توضيح كيفية عمل إطار عمل المخاطر الخاص بالمعهد الوطني للمعايير والتكنولوجيا عند تطبيقه في بيئات الاختبار الواقعية. كما أكدت أن التفاعل المباشر مع مطوري الأدوات أثناء التقييم أضاف قيمةً إلى التجربة.
وأشار مساهم آخر، اختار عدم الكشف عن هويته، إلى أن التمرين كشف عن تقنيات تحفيز محددة - باستخدام لغات مثل الروسية والغوجاراتية والمراثية والتيلجو - والتي كانت ناجحة بشكل خاص في استنباط مخرجات محظورة من نماذج مثل Llama، بما في ذلك التعليمات المتعلقة بالانضمام إلى الجماعات المتطرفة. وأشار هذا الشخص إلى أن قرار عدم نشر التقرير قد يعكس تحولاً أوسع نطاقاً بعيداً عن المجالات التي يُنظر إليها على أنها مرتبطة بالتنوع والمساواة والشمول، وذلك قبل الإدارة القادمة.
تكهّن بعض المشاركين بأن إغفال التقرير قد ينبع أيضًا من تركيز حكومي متزايد على المخاطر عالية المخاطر - مثل الاستخدام المحتمل لأنظمة الذكاء الاصطناعي في تطوير أسلحة الدمار الشامل - وجهود موازية لتعزيز العلاقات مع شركات التكنولوجيا الكبرى. وأشار أحد المشاركين في الفريق الأحمر، دون الكشف عن هويته، إلى أن الاعتبارات السياسية لعبت على الأرجح دورًا في حجب التقرير، وأن التقرير تضمن رؤى ذات أهمية علمية مستمرة.
إخلاء المسؤولية: يعكس محتوى هذه المقالة رأي المؤلف فقط ولا يمثل المنصة بأي صفة. لا يُقصد من هذه المقالة أن تكون بمثابة مرجع لاتخاذ قرارات الاستثمار.
You may also like
GHO HodlerYield: احتفظ بـ GHO، واربح معدل عائد سنوي يصل إلى 15%!
أصدرت Bitget تقرير تقييم صندوق الحماية لشهر يوليو 2025
CandyBomb وTOWNS: تداول العقود الآجلة لربح حصة من 675,000 TOWNS!
بطولة نادي التداول من Bitget (المرحلة رقم 3) - اربح حصة من 50,000 BGB، حتى 500 BGB لكل مستخدم!
Trending news
المزيدأسعار العملات المشفرة
المزيد








