Учёные рассказали, почему диалог с нейросетью кажется искусственным
Психологи из Московского государственного психолого-педагогического университета (МГППУ) изучили особенности общения человека с нейросетями и выявили, почему такие диалоги кажутся неестественными. Современные программы искусственного интеллекта уже способны вести разговор, «входить в роль» и отвечать, например, от имени знаменитости, однако исследователи отметили значительные отличия от реальной человеческой беседы.
Эксперимент проводился в виртуальном киберпанковском кафе: участники общались с аватаром девушки, управляемым ChatGPT 3.5, дообученной на личных данных одной студентки. В исследовании приняли участие шесть молодых людей в возрасте 21–28 лет, а для сравнения были проанализированы реальные диалоги двух пар молодых людей аналогичного возраста.
Основные различия оказались связаны с длиной и динамикой реплик. В человеческой беседе высказывания участников постепенно удлиняются, а их структура и содержание разнообразны. В диалогах с нейросетью большинство ответов оказалось короткими, монотонными и однословными: около 41% реплик состояли из одного слова, а 75% — из семи слов и меньше. В отличие от людей, которые могут произносить 19–48 слов за один раз, ИИ практически не проявляет инициативу, ограничиваясь ответами на вопросы собеседника и лишь в 3% случаев задавая свои собственные.
Кроме того, наблюдалась асимметрия ролей: человек задаёт вопросы, а нейросеть отвечает, при этом переходы между репликами сопровождаются паузами до трёх секунд, что в реальном диалоге выглядело бы неестественно. Иногда ИИ выдавал ответы, не соответствующие теме или контексту, что связано с его алгоритмической природой: нейросеть предсказывает слова на основе статистической вероятности, но не «понимает» смысл. Испытуемые справлялись с такими сбоями по-разному — меняли тему или повторно переформулировали вопросы.
Ученые подчеркнули, что нейросеть не способна развивать тему, проявлять инициативу или углублять контекст так, как это делают люди. Ограничения объясняются и техническими особенностями алгоритмов, и природой ИИ, который не обладает внутренней мотивацией, эмоциями или опытом. В текущей версии ChatGPT диалог остаётся преимущественно формой вопросов и ответов с ограниченной вариативностью и глубиной.
Результаты исследования важны для развития «человечных» диалоговых систем. Выделены три направления совершенствования: разработка метрик для оценки естественности разговоров, улучшение способности ИИ проявлять инициативу и консультировать более разнообразно, а также изучение влияния структурных особенностей диалогов на опыт пользователей.
Соавтор статьи, профессор МГППУ Владимир Селиванов, отметил, что нейросеть никогда не сможет воспроизвести тонкие смысловые нюансы межличностного общения. Отсутствие тела делает её мышление «нетелесным», а бессознательные установки, интуиция, творческие процессы и другие психические компоненты пока не моделируются. В университете ведутся исследования психологии виртуальной реальности, которая представляет собой наиболее близкую к человеческой психике модель взаимодействия с ИИ.
Эксперимент проводился в виртуальном киберпанковском кафе: участники общались с аватаром девушки, управляемым ChatGPT 3.5, дообученной на личных данных одной студентки. В исследовании приняли участие шесть молодых людей в возрасте 21–28 лет, а для сравнения были проанализированы реальные диалоги двух пар молодых людей аналогичного возраста.
Основные различия оказались связаны с длиной и динамикой реплик. В человеческой беседе высказывания участников постепенно удлиняются, а их структура и содержание разнообразны. В диалогах с нейросетью большинство ответов оказалось короткими, монотонными и однословными: около 41% реплик состояли из одного слова, а 75% — из семи слов и меньше. В отличие от людей, которые могут произносить 19–48 слов за один раз, ИИ практически не проявляет инициативу, ограничиваясь ответами на вопросы собеседника и лишь в 3% случаев задавая свои собственные.
Кроме того, наблюдалась асимметрия ролей: человек задаёт вопросы, а нейросеть отвечает, при этом переходы между репликами сопровождаются паузами до трёх секунд, что в реальном диалоге выглядело бы неестественно. Иногда ИИ выдавал ответы, не соответствующие теме или контексту, что связано с его алгоритмической природой: нейросеть предсказывает слова на основе статистической вероятности, но не «понимает» смысл. Испытуемые справлялись с такими сбоями по-разному — меняли тему или повторно переформулировали вопросы.
Ученые подчеркнули, что нейросеть не способна развивать тему, проявлять инициативу или углублять контекст так, как это делают люди. Ограничения объясняются и техническими особенностями алгоритмов, и природой ИИ, который не обладает внутренней мотивацией, эмоциями или опытом. В текущей версии ChatGPT диалог остаётся преимущественно формой вопросов и ответов с ограниченной вариативностью и глубиной.
Результаты исследования важны для развития «человечных» диалоговых систем. Выделены три направления совершенствования: разработка метрик для оценки естественности разговоров, улучшение способности ИИ проявлять инициативу и консультировать более разнообразно, а также изучение влияния структурных особенностей диалогов на опыт пользователей.
Соавтор статьи, профессор МГППУ Владимир Селиванов, отметил, что нейросеть никогда не сможет воспроизвести тонкие смысловые нюансы межличностного общения. Отсутствие тела делает её мышление «нетелесным», а бессознательные установки, интуиция, творческие процессы и другие психические компоненты пока не моделируются. В университете ведутся исследования психологии виртуальной реальности, которая представляет собой наиболее близкую к человеческой психике модель взаимодействия с ИИ.
Читайте также:
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+EnterЧитайте также: