Claude AI, разработен от Anthropic, вече може да прекъсва разговори, които са оценени като вредни или обидни, осигурявайки безопасна среда за потребителите.
Компанията Anthropic въведе нова функция в своя чат-бот Claude AI, която позволява на модела да прекъсва диалози, които се оценяват като вредни или обидни.
Функцията вече е налична в моделите Opus 4 и 4.1 и има за цел да предпази както модела, така и потребителите от взаимодействия, които могат да предизвикат сериозен дискомфорт.
Как Claude AI прекъсва опасните разговори
След прекратяване на разговора:
-
Потребителят няма да може да продължи диалога в същия чат.
-
Ще може да стартира нов разговор.
От Anthropic уточняват, че случаите на прекъсване ще са изключение, дори когато става въпрос за чувствителни или спорни теми.
Opus 4.1 и безопасността на потребителите
По време на тестове Claude е показал, че отказва участие в създаване на съдържание, свързано с:
-
Насилие и тероризъм
-
Сексуални материали с непълнолетни
-
Зловреден софтуер или експлоатация на уязвимости
Въпреки това, Claude няма да прекъсва разговори, ако потребител демонстрира намерения за самонараняване или неизбежна вреда. В такива случаи моделът насочва към Throughline – онлайн услуга за кризисна подкрепа.
Примери за съдържание, което Claude не допуска
Миналата седмица Anthropic актуализира и политиката за употреба на Claude, като:
-
Ограничиха използването му за разработка на биологични, химически, ядрени или радиологични оръжия
-
Затегнаха правилата за създаване на зловреден софтуер
Компанията подчертава, че безопасността на потребителите е приоритет в ерата на бързо развиващите се AI модели.
Claude AI прекъсва опасни разговори и насочва към онлайн помощ
За да научите първи най-важното, харесайте страницата ни във Фейсбук , групата ни за любопитни новини във Фейсбук или ни последвайте в Telegram






