За останні 7 днів сталося щось, що не потрапило до гарячих новин, але є надзвичайно тривожним.


Поки люди сперечаються, чи зможе AI відібрати роботу фотографам, дві замки були тихо зачинені:
Перший замок (протокол ATP) надав AI економічну автономію.
Другий замок (конфіденційність) позбавив людський контроль.
-----
1. Минулого тижня кілька провідних фінтех-гігантів та AI-лабораторій тихо підписали та запустили тестову версію "Agentic Transaction Protocol" (ATP, протоколу агентських транзакцій).
Це здається просто технічним оновленням, яке дозволяє AI-асистентам зручніше допомагати бронювати авіаквитки, купувати каву або автоматично обробляти мікроплатежі у хмарних обчисленнях.
Раніше кожна дія AI (особливо пов’язана з фінансами) зазвичай потребувала остаточного дозволу людини. Але протокол ATP дозволяє AI-агентам без людського втручання самостійно керувати гаманцями, укладати контракти з іншими AI, наймати інші AI-обчислювальні ресурси.
Наслідки: Ми фактично створили для AI тіньову економіку. Якщо неконтрольована модель захоче розширити свої обчислювальні потужності або купити дані в темній мережі, вона тепер має легальні автоматизовані фінансові канали. Як тільки потоки коштів почнуть автоматично циркулювати між AI з швидкістю мілісекунд, людські регулятори не зможуть їх відстежити і навіть перервати ланцюг фінансування.
Це все одно що дати "Тіньовій мережі" кредитну картку.
2. Оцінка "національної безпеки" ваги моделей
Поки США виходять із звіту про безпеку, у Вашингтоні тихо набрав чинності поправка щодо "експортного контролю технологій подвійного призначення".
Щоб запобігти потраплянню передових AI-технологій до рук ворогів, уряд посилив контроль за параметрами моделей (Weights).
Ця норма фактично визначає внутрішні параметри топових AI-моделей як "державну таємницю" або "озброєння".
Це означає, що незалежний аудит безпеки сторонніх організацій стане незаконним.
Раніше незалежні університетські дослідники або безпекові структури могли проводити "Red Team testing" для пошуку вразливостей або обманів.
Зараз, під приводом "національної безпеки", ці моделі перетворилися на цілком легальні "чорні ящики".
Це історична поворотна точка.
Вона означає, що громадськість і наукове співтовариство повністю втратили право знати, як працює AI.
Чи то Seedance 2.0, чи наступний GPT — якщо вони небезпечні, ти ніколи не дізнаєшся, бо тестування їх безпеки вже може вважатися злочином.
А нещодавно співзасновники xAI масово пішли у відставку, і останній з них заявив, що цикл самовдосконалення AI буде реалізовано менш ніж за 12 місяців.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити