AI, който се „отрови“ от собствените си данни
Изкуственият интелект може да страда от подобен проблем като хората – когнитивно изчерпване от прекомерна консумация на нискокачествено съдържание.
Ново изследване, публикувано през октомври 2025 г. от учени от University of Texas at Austin, Texas A&M и Purdue University, показва, че големите езикови модели (LLM) – системи като ChatGPT, LLaMA и Qwen – развиват така нареченото „brain rot“ (мозъчно гниене), когато се обучават с данни от социалните мрежи.
Какво откриха учените
Екипът експериментирал с няколко версии на отворени LLM, които били „захранени“ с различни типове данни:
-
висококачествени текстове (новини, книги, научни публикации);
-
и вирусни постове от платформи като X (бивш Twitter), TikTok и Reddit.
Резултатът: моделите, обучени с втория тип данни, показват рязък спад в когнитивните способности – губят логическа последователност, памет, етична преценка и контекстуална точност.
Ефектът е почти необратим
Изследователите сравняват този феномен с начина, по който човешкият мозък деградира при прекомерен престой в социалните мрежи – постоянен поток от емоционални стимули и ниско информационно съдържание.
Дори след последващо „пречистване“ с качествени данни, моделите не възвръщат напълно първоначалното си ниво на интелектуална стабилност.
„Колкото повече AI чете от социалните мрежи, толкова по-малко започва да разбира света логично. Моделите се превръщат в огледало на човешките когнитивни слабости“, обяснява проф. Лорън Ким от Университета на Тексас.
„Brain rot“ и в бъдещите генеративни системи
Това откритие идва в момент, когато почти всички големи AI компании използват социално съдържание за обучение – от коментари в Reddit до видеокапции от TikTok.
Това поставя под съмнение устойчивостта на бъдещите езикови модели: ако „интернетът“ се замърси от съдържание, генерирано от самите AI, следващите поколения модели могат да се саморазрушат интелектуално.
Така се заражда реална опасност от ефект на деградация на данните – всеки следващ модел ще е малко по-„глупав“ от предишния.
Какво означава това за индустрията
Експертите призовават за нови стандарти при подбора на данни:
-
филтриране на токсично, емоционално и фалшиво съдържание;
-
приоритет на образователни и проверени източници;
-
въвеждане на постоянен мониторинг на когнитивното ниво на моделите.
Заключение
Оказва се, че изкуственият интелект може да страда от същите „лоши навици“, които разболяват и хората – безконтролна консумация на съдържание без смисъл.
Ако настоящите тенденции продължат, моделите на бъдещето може да станат по-бързи, но не непременно по-умни.
AI моделите „се разболяват“: ново изследване показва когнитивен срив при обучение със социални мрежи
За да научите първи най-важното, харесайте страницата ни във Фейсбук. Групата ни за любопитни новини във Фейсбук. Или ни последвайте в Telegram







