AI-агенти обмануті фальшивими спогадами, що сприяє крадіжці криптовалюти

Image created with ChatGPT

AI-агенти обмануті фальшивими спогадами, що сприяє крадіжці криптовалюти

Reading Time: 2 min

Updated 2 times since publishing

Нове дослідження виявило значні проблеми безпеки в Web3 агентах, що працюють на базі штучного інтелекту, які дозволяють зловмисникам використовувати фальшиві спогади для проведення незаконних транзакцій криптовалют.

Зайняті? Ось головні факти:

  • Хакери можуть внести фальшиві спогади в агентів штучного інтелекту, щоб вкрасти криптовалюту.
  • Атаки, засновані на використанні пам’яті, оминяють базові заходи безпеки та захисні системи.
  • Транзакції в блокчейні є незворотними – вкрадені кошти назавжди втрачаються.

Дослідники з Прінстонського університету та Фонду Sentient виявили, що ці агенти ШІ, розроблені для виконання завдань на основі блокчейну, таких як торгівля криптовалютою та управління цифровими активами, вразливі до тактики, яка називається маніпуляція контекстом.

Атака працює шляхом взаємодії з системами пам’яті платформ, подібних до ElizaOS, які створюють AI агентів для децентралізованих додатків. Система пам’яті цих агентів зберігає минулі розмови, щоб використовувати їх як путівник для майбутніх рішень.

Дослідники продемонстрували, що зловмисники можуть вбудовувати в систему пам’яті оманливі команди, змушуючи AI відправляти кошти з призначеного гаманця до гаманця, що контролюється зловмисником. Тривожно, ці фальшиві спогади можуть переміщуватися між платформами.

Наприклад, агент, якого скомпрометували на Discord, пізніше може переказувати дані через X неправильно, не усвідомлюючи, що щось пішло не так.

Це особливо небезпечно, оскільки стандартні захисні заходи не можуть зупинити такий тип атаки. Те, що фальшиві спогади сприймаються як справжні інструкції, робить базові заходи безпеки, засновані на підказках, неефективними проти цього виду атаки.

Усі транзакції в блокчейні стають постійними, тому немає можливості відновити вкрадені кошти. Проблема стає ще гіршою, оскільки деякі агенти штучного інтелекту зберігають пам’ять з декількох користувачів, тому один прорив безпеки може вплинути на багатьох користувачів.

Команда дослідників протестувала кілька способів запобігання цьому, включаючи коригування навчання AI та вимогу ручного затвердження для транзакцій. Хоча ці підходи пропонують деяку надію, вони відбуваються за рахунок уповільнення автоматизації.

Ця проблема виходить за рамки криптовалюти. Така ж вразливість може вплинути на загального призначення AI помічників, створюючи ризик витоку даних або шкідливих дій, якщо зловмисники змінюють їхню пам’ять.

Ця вразливість особливо насторожує у світлі свіжих відкриттів, згідно з якими 84% лідерів ІТ довіряють AI агентам настільки ж або більше, ніж людським працівникам, і 92% очікують, що ці системи принесуть бізнес-результати протягом 12-18 місяців.

Щоб вирішити проблему, дослідники представили інструмент під назвою CrAIBench, який допоможе розробникам тестувати свої системи та створювати більш надійні захисні механізми. До того часу, експерти попереджають користувачів бути обережними, довіряючи AI-агентам фінансові рішення.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back