AI моделите „се разболяват“: ново изследване показва когнитивен срив при обучение със социални мрежи


AI, който се „отрови“ от собствените си данни

Изкуственият интелект може да страда от подобен проблем като хората – когнитивно изчерпване от прекомерна консумация на нискокачествено съдържание.

Ново изследване, публикувано през октомври 2025 г. от учени от University of Texas at Austin, Texas A&M и Purdue University, показва, че големите езикови модели (LLM) – системи като ChatGPT, LLaMA и Qwen – развиват така нареченото „brain rot“ (мозъчно гниене), когато се обучават с данни от социалните мрежи.

Какво откриха учените

Екипът експериментирал с няколко версии на отворени LLM, които били „захранени“ с различни типове данни:

  • висококачествени текстове (новини, книги, научни публикации);

  • и вирусни постове от платформи като X (бивш Twitter), TikTok и Reddit.

Резултатът: моделите, обучени с втория тип данни, показват рязък спад в когнитивните способности – губят логическа последователност, памет, етична преценка и контекстуална точност.

Ефектът е почти необратим

Изследователите сравняват този феномен с начина, по който човешкият мозък деградира при прекомерен престой в социалните мрежи – постоянен поток от емоционални стимули и ниско информационно съдържание.

Дори след последващо „пречистване“ с качествени данни, моделите не възвръщат напълно първоначалното си ниво на интелектуална стабилност.

„Колкото повече AI чете от социалните мрежи, толкова по-малко започва да разбира света логично. Моделите се превръщат в огледало на човешките когнитивни слабости“, обяснява проф. Лорън Ким от Университета на Тексас.

„Brain rot“ и в бъдещите генеративни системи

Това откритие идва в момент, когато почти всички големи AI компании използват социално съдържание за обучение – от коментари в Reddit до видеокапции от TikTok.

Това поставя под съмнение устойчивостта на бъдещите езикови модели: ако „интернетът“ се замърси от съдържание, генерирано от самите AI, следващите поколения модели могат да се саморазрушат интелектуално.

Така се заражда реална опасност от ефект на деградация на данните – всеки следващ модел ще е малко по-„глупав“ от предишния.

Какво означава това за индустрията

Експертите призовават за нови стандарти при подбора на данни:

  • филтриране на токсично, емоционално и фалшиво съдържание;

  • приоритет на образователни и проверени източници;

  • въвеждане на постоянен мониторинг на когнитивното ниво на моделите.

Заключение

Оказва се, че изкуственият интелект може да страда от същите „лоши навици“, които разболяват и хората – безконтролна консумация на съдържание без смисъл.
Ако настоящите тенденции продължат, моделите на бъдещето може да станат по-бързи, но не непременно по-умни.

AI моделите „се разболяват“: ново изследване показва когнитивен срив при обучение със социални мрежи

За да научите първи най-важното, харесайте страницата ни във Фейсбук. Групата ни за любопитни новини във Фейсбук. Или ни последвайте в  Telegram


Leave a Reply

Your email address will not be published. Required fields are marked *


За нас


Ние сме млад новинарски сайт и се стараем да предложим на нашите читатели подбрано качествено, интересно и любопитно съдържание, което да събуди интереса към знанието и смислените неща от деня, страната и света.


КОНТАКТИ

ОБЩИ УСЛОВИЯ


Бюлетин




    Нашият уебсайт използват бисквитки за по-добро сервиране на съдържание. Приемайки нашите общи условия, вие се съгласявате с тях.