Ученые из Санкт-Петербурга научили искусственный интеллект распознавать сарказм
Исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН), при поддержке гранта Российского научного фонда, создали систему с искусственным интеллектом, способную распознавать эмоции человека по видео и аудиоданным, сообщили в пресс-службе Минобрнауки РФ. Разработка нацелена на повышение эффективности цифровых помощников, взаимодействующих с пользователем.
Программная система MASAI объединяет комплекс нейросетей, способных определять эмоциональное состояние и сентимент человека на основе аудиовизуальной информации — видео, звука и текста. Точность распознавания эмоций достигает 80%, что превышает показатели существующих аналогов. В перспективе система позволит создавать цифровых помощников с элементами эмоционального интеллекта.
По мнению ученых, одной из ключевых задач дальнейшего применения таких ИИ-сервисов является способность анализировать разнородные источники информации: речь, мимику, жесты, взгляд, поведение и текст. Система способна работать в сложных условиях — при шуме, слабом освещении, отсутствии взгляда в камеру или молчании человека. MASAI даже умеет распознавать сарказм и иронию, когда смысл сказанного противоречит интонации или выражению лица.
Приложение позволяет загружать аудиовизуальные данные для их анализа и распознает семь базовых эмоций: радость, грусть, страх, отвращение, удивление, злость и спокойствие, а также положительный, отрицательный и нейтральный сентимент. В основе системы лежат несколько нейронных сетей, обученных на десятках открытых баз данных, содержащих многоязычную информацию о людях разных возрастов и национальностей. При создании русскоязычной базы данных участвовали молодые актеры театральных вузов.
По словам руководителя лаборатории речевых и многомодальных интерфейсов СПб ФИЦ РАН Алексея Карпова, MASAI может быть интегрирована в различные цифровые сервисы, используемые в повседневной жизни. В частности, система может помочь в работе служб экстренной помощи и психологической поддержки, позволяя более точно реагировать на эмоциональные потребности людей.
Программная система MASAI объединяет комплекс нейросетей, способных определять эмоциональное состояние и сентимент человека на основе аудиовизуальной информации — видео, звука и текста. Точность распознавания эмоций достигает 80%, что превышает показатели существующих аналогов. В перспективе система позволит создавать цифровых помощников с элементами эмоционального интеллекта.
По мнению ученых, одной из ключевых задач дальнейшего применения таких ИИ-сервисов является способность анализировать разнородные источники информации: речь, мимику, жесты, взгляд, поведение и текст. Система способна работать в сложных условиях — при шуме, слабом освещении, отсутствии взгляда в камеру или молчании человека. MASAI даже умеет распознавать сарказм и иронию, когда смысл сказанного противоречит интонации или выражению лица.
Приложение позволяет загружать аудиовизуальные данные для их анализа и распознает семь базовых эмоций: радость, грусть, страх, отвращение, удивление, злость и спокойствие, а также положительный, отрицательный и нейтральный сентимент. В основе системы лежат несколько нейронных сетей, обученных на десятках открытых баз данных, содержащих многоязычную информацию о людях разных возрастов и национальностей. При создании русскоязычной базы данных участвовали молодые актеры театральных вузов.
По словам руководителя лаборатории речевых и многомодальных интерфейсов СПб ФИЦ РАН Алексея Карпова, MASAI может быть интегрирована в различные цифровые сервисы, используемые в повседневной жизни. В частности, система может помочь в работе служб экстренной помощи и психологической поддержки, позволяя более точно реагировать на эмоциональные потребности людей.
Читайте также:
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+EnterЧитайте также: