В САЩ стартира програма за оценка на риска от AI алгоритмите


Изкуственият интелект е вече част от нашето ежедневие и бизнеса. Но заедно с ползите, той крие и доста непредвидени рискове. Именно затова Националният институт по стандартизация и технологии (NIST), част от Министерството на търговията на САЩ разработи тестовата база Dioptra.

Какво представлява

Нейната задача  да оцени и как злонамерените атаки, в т.ч и компрометирани езикови модели за големи бази данни, използвани за обучение, могат да повлияят върху негативната призводителност на системите за изкуствен интелект.

За целта Dioptra, която е с отворен код, използва алгоритми, които оценяват, анализират и наблюдават рисковете, свързани с AI.

Благодарение на отворения си код, програмата е достъпна за свободно сваляне от потребителите и правителствени агенции.

Освен това разработчиците са публикували поредица от документи, очертаващи начини за намаляване на рисковете, свързани с моделите на AI.

Оценка на риска

Въпреки това,  от NIST са наясно, че Dioptra не е 100% сигурен инструмент и не могат да се предвидят или елиминират всички рискове свързани с AI.

Но, разработчиците вярват, че този тест може да хвърли повече светлина за това кои атаки могат да окажат негативно въздействие върху работата на алгоритъма.

За да научите първи най-важното, харесайте страницата ни във Фейсбук , групата ни за любопитни новини във Фейсбук или ни последвайте в  Telegram

В САЩ стартира програма за оценка на риска от AI алгоритмите

Оценка на риска


Leave a Reply

Your email address will not be published. Required fields are marked *


За нас


Ние сме млад новинарски сайт и се стараем да предложим на нашите читатели подбрано качествено, интересно и любопитно съдържание, което да събуди интереса към знанието и смислените неща от деня, страната и света.


КОНТАКТИ

ОБЩИ УСЛОВИЯ


Бюлетин




    Нашият уебсайт използват бисквитки за по-добро сервиране на съдържание. Приемайки нашите общи условия, вие се съгласявате с тях.