Изкуственият интелект е вече част от нашето ежедневие и бизнеса. Но заедно с ползите, той крие и доста непредвидени рискове. Именно затова Националният институт по стандартизация и технологии (NIST), част от Министерството на търговията на САЩ разработи тестовата база Dioptra.
Какво представлява
Нейната задача да оцени и как злонамерените атаки, в т.ч и компрометирани езикови модели за големи бази данни, използвани за обучение, могат да повлияят върху негативната призводителност на системите за изкуствен интелект.
За целта Dioptra, която е с отворен код, използва алгоритми, които оценяват, анализират и наблюдават рисковете, свързани с AI.
Благодарение на отворения си код, програмата е достъпна за свободно сваляне от потребителите и правителствени агенции.
Освен това разработчиците са публикували поредица от документи, очертаващи начини за намаляване на рисковете, свързани с моделите на AI.
Оценка на риска
Въпреки това, от NIST са наясно, че Dioptra не е 100% сигурен инструмент и не могат да се предвидят или елиминират всички рискове свързани с AI.
Но, разработчиците вярват, че този тест може да хвърли повече светлина за това кои атаки могат да окажат негативно въздействие върху работата на алгоритъма.
За да научите първи най-важното, харесайте страницата ни във Фейсбук , групата ни за любопитни новини във Фейсбук или ни последвайте в Telegram
В САЩ стартира програма за оценка на риска от AI алгоритмите







