Уязвимостите на изкуствения интелект
Военни експерти и изследователи предупреждават, че чатботовете, базирани на изкуствен интелект, могат да бъдат използвани от противници за злонамерени цели.
Нов анализ показва, че слабо защитените системи на ИИ могат да бъдат манипулирани, за да извличат класифицирана информация, да подменят данни или да изкривяват общественото мнение.
Изследователите подчертават, че врагове на демократичните държави могат да използват тези уязвимости, за да внедряват фалшиви команди и да получават достъп до чувствителни документи. Това се счита за нова форма на „дигитално оръжие“, при което самият изкуствен интелект се превръща в средство за кибершпионаж.
Ново ниво на дигитална война
Военни анализатори посочват, че подобни атаки не изискват физическа намеса, а само достъп до алгоритмите, които управляват чатботовете. Това отваря възможност за масово влияние, дезинформация и контрол върху стратегическа комуникация.
Американските експерти настояват за по-строга регулация и сертифициране на военни и корпоративни чатботове. Препоръчва се използване на модели с локална обработка на данни и без връзка с външни сървъри.
Според анализаторите това е единственият начин да се предотврати използването на ИИ като „троянски кон“ в бъдещи военни конфликти.
Изследователи предупреждават: уязвимости в чатботове могат да бъдат използвани за военни цели
За да научите първи най-важното, харесайте страницата ни във Фейсбук , групата ни за любопитни новини във Фейсбук или ни последвайте в Telegram и Mastodon







