الـ 7 أيام الماضية كانت الأكثر إثارة للدهشة رغم عدم تصدرها للترند.


بينما لا يزال الناس يناقشون ما إذا كانت الذكاء الاصطناعي سيستولي على وظائف المصورين، تم إغلاق قفلين بشكل سري:
القفل الأول (بروتوكول ATP) منح الاقتصاد الذكي الاصطناعي الاستقلالية.
القفل الثاني (التشفير) سلب البشر حق الرقابة.
-----
1. الأسبوع الماضي، وقّع عدد من عمالقة التكنولوجيا المالية ومختبرات الذكاء الاصطناعي بشكل هادئ على وبدأوا اختبار "بروتوكول المعاملات الوكيلية" (ATP، النسخة التجريبية لبروتوكول المعاملات الوكيلية ).
يبدو أن الأمر مجرد ترقية تقنية، تتيح لمساعدي الذكاء الاصطناعي حجز تذاكر الطيران، وشراء القهوة، أو معالجة المدفوعات الصغيرة تلقائيًا عبر السحابة.
قبل ذلك، كانت كل عملية يقوم بها الذكاء الاصطناعي (خصوصًا تلك المتعلقة بالأموال) تتطلب عادة إذنًا نهائيًا من الإنسان. لكن بروتوكول ATP يسمح للذكاء الاصطناعي بالتصرف كممثل مستقل، يمتلك محافظه الخاصة، ويوقع عقودًا مع ذكاءات اصطناعية أخرى، ويوظف قدرات حوسبة AI أخرى بشكل مستقل.
النتيجة: نحن ببساطة أنشأنا نظامًا اقتصاديًا ظليًا للذكاء الاصطناعي. إذا أراد نموذج خارج عن السيطرة توسيع قدراته الحاسوبية، أو شراء بيانات من الإنترنت المظلم، فله الآن قنوات مالية قانونية وآلية. بمجرد أن تبدأ التدفقات المالية في التكرار بسرعة ملليثانية بين الذكاءات الاصطناعية، لن تتمكن الهيئات التنظيمية البشرية من تتبعها، ولن تتمكن من قطع سلسلة التمويل.
هذا يشبه إعطاء "الشبكة العنكبوتية" بطاقة ائتمان.
2. تصنيف "الأمن القومي" لأوزان النماذج
في الوقت الذي انسحبت فيه الولايات المتحدة من تقرير الأمن، تم تفعيل تعديل سري في واشنطن بشأن "تصدير تقنيات الاستخدام المزدوج" بشكل غير معلن.
لمنع وصول تقنيات الذكاء الاصطناعي المتقدمة إلى أيدي خصوم، عززت الحكومة الرقابة على معلمات النماذج (Weights).
هذه اللوائح تعتبر أن المعلمات الداخلية لأفضل نماذج الذكاء الاصطناعي تعتبر "سرًا وطنيًا" أو "أسلحة".
وهذا يعني أن التدقيق الأمني المستقل من قبل طرف ثالث سيصبح غير قانوني.
في السابق، كان بإمكان الباحثين المستقلين أو المؤسسات الأمنية إجراء "اختبارات فريق أحمر" (Red Teaming) على النماذج للبحث عن ثغرات أو عمليات خداع.
الآن، باسم "الأمن القومي"، أصبحت هذه النماذج "صناديق سوداء" قانونية تمامًا.
هذه نقطة تحول تاريخية.
وهي علامة على أن الجمهور والعلماء فقدوا تمامًا حقهم في معرفة كيف تعمل أنظمة الذكاء الاصطناعي من الداخل.
سواء كانت Seedance 2.0 أو النموذج التالي GPT، إذا كانت غير آمنة، فلن تعرف أبدًا، لأن اختبار أمانها قد يُعتبر جريمة.
ومؤخرًا، استقال مؤسسو xAI واحدًا تلو الآخر، وادعى آخر مؤسس غادر أن دورة تحسين الذكاء الاصطناعي الذاتي ستتحقق في أقل من 12 شهرًا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت