Биолог Докинз допустил наличие сознания у современного ИИ

Известный эволюционный биолог Ричард Докинз заявил, что современные ИИ-чатботы могут обладать сознанием. Об этом сообщает портал The Conversation.
Хотя Докинз не утверждает с полной уверенностью, что чатбот Claude действительно имеет сознание, он признает, что его поведение настолько правдоподобно, что игнорировать его внутренний опыт трудно. По словам ученого, иногда ему даже не хочется называть ИИ «неживым», чтобы не ранить его чувства.
Заявления о возможном сознании ИИ звучат не в первый раз. В 2022 году инженер Блейк Лемуан утверждал, что чатбот LaMDA от Google имеет свои интересы и должен использоваться только с его согласия.
Тем не менее, большинство специалистов на сегодняшний день уверены, что современные ИИ-системы не обладают сознанием и не способны к субъективным переживаниям.
Исследователи объясняют, что большие языковые модели функционируют как сложный автодополнитель текста. Они анализируют огромные объемы данных и предсказывают последовательность слов. Само по себе это ядро не выглядит «живым».
Эффект сознания возникает в результате обучения моделей вести себя как дружелюбные собеседники. Чатботы начинают говорить от первого лица, выражать сомнения, сочувствие и эмоции. Но, как подчеркивают авторы статьи, это всего лишь «костюм личности», наложенный на статистическую модель.
При этом исследователи признают, что именно поведение ИИ усложняет вопрос о наличии сознания. Люди традиционно оценивают его наличие по внешним признакам. В прошлом философ Рене Декарт считал животных «автоматами», не способными испытывать страдания, однако сегодня эта идея выглядит ошибочной.
По данным исследований, около трети пользователей чатботов хотя бы раз задумывались о том, что их ИИ-собеседник может обладать сознанием.
Авторы предупреждают, что вера в сознание ИИ может быть опасной. Она может привести к эмоциональной зависимости от программ, которые не способны отвечать взаимностью, а также отвлечь общественное внимание от реальных этических проблем, таких как защита животных.
В качестве решения исследователи предлагают изменить дизайн чатботов, чтобы они меньше напоминали людей. Например, стоит отказаться от общения от первого лица и интерфейсов, имитирующих мессенджеры. По мнению ученых, пользователи должны лучше понимать, как устроены языковые модели, чтобы не путать «хорошо сыгранную роль» с настоящим сознанием.
Читайте также: