Ученые всерьез опасаются развития искусственного интеллекта
Ученые предупреждают о потенциальных рисках, связанных с бесконтрольным развитием систем искусственного интеллекта. В то время как одни исследователи видят в ИИ большой и полезный для людей потенциал, другие опасаются разрушительных последствий его стремительного развития.
В новом исследовании специалисты британской компании DeepMind выделили три ключевые угрозы, связанные с развитием искусственного интеллекта. К ним они отнесли возможность использования ИИ для создания биологического оружия или проведения масштабных кибератак, которой могут воспользоваться злоумышленники.
По словам ученых, именно по этой причине защитные системы ИИ-систем должны регулярно и тщательно проверяться, а их протоколы безопасности совершенствоваться с учетом всех изменений в науке.
Также исследователи считают реальной опасность того, что искусственный интеллект может начать непредсказуемо интерпретировать поставленные ему задачи. К примеру, система может найти способы обойти установленные ограничения, преследуя собственные цели, а не интересы человека.
Отдельное внимание ученые обращают на системные сбои. Специалисты уверены, что даже незначительные ошибки в программировании могут привести к серьезным последствиям.
В качестве примера ученые приводят систему бронирования авиабилетов, которая может начать резервировать для пассажиров не те рейсы или выбирать неправильные даты.
В новом исследовании специалисты британской компании DeepMind выделили три ключевые угрозы, связанные с развитием искусственного интеллекта. К ним они отнесли возможность использования ИИ для создания биологического оружия или проведения масштабных кибератак, которой могут воспользоваться злоумышленники.
По словам ученых, именно по этой причине защитные системы ИИ-систем должны регулярно и тщательно проверяться, а их протоколы безопасности совершенствоваться с учетом всех изменений в науке.
Также исследователи считают реальной опасность того, что искусственный интеллект может начать непредсказуемо интерпретировать поставленные ему задачи. К примеру, система может найти способы обойти установленные ограничения, преследуя собственные цели, а не интересы человека.
Отдельное внимание ученые обращают на системные сбои. Специалисты уверены, что даже незначительные ошибки в программировании могут привести к серьезным последствиям.
В качестве примера ученые приводят систему бронирования авиабилетов, которая может начать резервировать для пассажиров не те рейсы или выбирать неправильные даты.
Читайте также:
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+EnterЧитайте также: