Скорошно проучване на изследователи от Университета на Илинойс показа, че широкомащабните езикови модели (LLM) могат да се използват за хакване на уебсайтове без човешка намеса.
Изследователите обясняват, че LLM агентите използват инструменти за достъп до API (т.н автоматизирано сърфиране в мрежата и базирано на обратна връзка планиране). Това им позволява независимо да се обучават не само да откриват уязвимостите в уеб-приложенията.
Но, и да ги хакват.
Задава се нов чатбот на хоризонта
В експеримента са използвани няколко езикови модела, в т.ч и популярния „GPT-4“ .
Тестването е било проведено в изолирана среда, за да се предотвратят реални щети на целевите уебсайтове, които са били тествани за 15 различни уязвимости.
Също така учените установиха, че най-популярният чат-бот „GPT-4“ на „OpenAI“ се справя най-успешно от останалите езикови модели, като ги превъзхожда в 73,3% от случаите.
Това поражда опасения в учените, че в бъдеще хакерите може да използват ИИ, за да откриват и заобикалят уязвимостта на сайтовете.
Експертите призовават за разработване на предпазни мерки и политики, които насърчават безопасното изследване на възможностите на LLM.
Както и създаването на безопасна среда, в която изследователите по сигурността да продължат работата си.
Без да се страхуват да бъдат наказани за разкриване на потенциално опасни употреби на модели.
За да научите първи най-важното, харесайте страницата ни във Фейсбук. Групата ни за любопитни новини във Фейсбук. Или ни последвайте в Telegram







