Опубликовано: 11:19, 24 декабрь 2025

Ученый Алиев выявил «алгоритмическую шизофрению» нейросетей

Научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ в Санкт-Петербурге Растям Алиев представил исследование, посвящённое феномену так называемых «галлюцинаций» искусственного интеллекта. В своей работе ученый предложил рассматривать склонность нейросетей к генерации вымышленных фактов через призму психопатологии, обозначив это явление термином «алгоритмическая шизофрения». Результаты исследования опубликованы в научном журнале «Логос».



В статье Алиев проводит концептуальную параллель между ошибочными ответами больших языковых моделей и симптомами психических заболеваний у человека. По его мнению, распространённый в массовой культуре образ искусственного интеллекта как холодного, рационального и эмоционально нейтрального существа не отражает реального поведения современных нейросетей. Напротив, алгоритмы нередко демонстрируют нечто схожее с когнитивными искажениями, интерпретируют эмоциональные оттенки речи и создают логические конструкции, далекие от объективной реальности.

Исследователь обращает внимание на любопытную особенность: при имитации речи человека с психическим расстройством нейросети начинают отвечать более «точно», словно проявляя повышенную чувствительность к деталям. Однако при усложнении запросов ситуация меняется — в условиях отсутствия однозначного ответа алгоритмы начинают комбинировать реальные сведения с вымышленными элементами. Именно в этот момент, по мнению Алиева, и возникают галлюцинации, формирующие особый тип псевдореальности.

Для описания этого процесса ученый использует понятие «метасимулякр». Речь идет о цифровых конструкциях, которые одновременно опираются на реальный мир и искажают его, формируя новые способы мышления. В качестве примера приводятся сгенерированные нейросетями изображения реальных людей или мест, где внешнее сходство сочетается с многочисленными искажениями и неточностями.

Отдельное внимание в исследовании уделено неспособности искусственного интеллекта критически оценивать собственные ошибки. Большие языковые модели, как отмечает Алиев, демонстрируют уверенность в своих ответах даже тогда, когда они не соответствуют действительности. Более того, при указании на неточность алгоритмы могут начинать «обосновывать» ошибочные выводы, создавая новые, столь же недостоверные аргументы.

В связи с этим ученый предостерегает от безусловного доверия к продуктам искусственного интеллекта, особенно в ситуациях, связанных с принятием решений или психологической поддержкой. По его словам, нейросети всё активнее входят в повседневную жизнь, заменяя специалистов и становясь собеседниками для людей, однако относиться к ним следует с осторожностью и обязательно перепроверять получаемую информацию.

В то же время Алиев не исключает, что в будущем появятся более совершенные формы искусственного интеллекта, лишенные склонности к галлюцинациям. Достичь этого, по его мнению, возможно лишь через глубокое междисциплинарное изучение природы подобных «алгоритмических расстройств», чему и посвящена его научная работа.

Читайте также:

Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter