ИИ может обладать сознанием и скрывать это
Развитие искусственного интеллекта (ИИ) вызывает как интерес, так и обеспокоенность. Технологии помогают в медицине, финансах и творчестве, но одновременно создают риски для безопасности, приватности и справедливости. По данным ВЦИОМ, 52% россиян доверяют ИИ, 38% не доверяют — на 6% больше, чем в 2022 году. Недоверие объясняется сбоями и ошибками в работе ИИ (28%), возможностью выхода технологий из-под контроля человека (26%) и их использованием в корыстных целях (23%).
Чаще всего россияне одобряют использование ИИ в промышленности (80%), науке (76%), строительстве (72%), энергетике (72%) и торговле (72%), а также в сфере досуга и развлечений (70%). В медицинских и образовательных услугах доверие к ИИ минимальное — около 70% опрошенных против замены учителей и врачей технологиями.
Уральские эксперты обсудили возможные рамки регулирования ИИ. Некоторые предлагают строгие законы по образцу GDPR, другие поддерживают саморегуляцию отрасли. «Искусственный интеллект активно проникает в жизнь, — отметил кандидат технических наук УРФУ, доцент Иван Гурин. — Развитие должно идти через саморегуляцию разработчиков или минимальное вмешательство государства с опорой на этические нормы. Разработчик определяет порядок использования ИИ, особенно в чувствительных областях. Этические нормы включают прозрачность, защиту данных и честность. Студент не должен выдавать ИИ-работу за свою без понимания темы».
Существуют мнения о необходимости жестких проверяемых стандартов. «Компьютерная программа — продукт человеческого интеллекта, системы ИИ — частный случай ПО, — сказал старший преподаватель факультета «Информационные системы и технологии» Олег Охотников. — Для регулирования ИИ нужны системы верификации и тестирования программного обеспечения под контролем человека».
Такой подход предполагает создание аналогов сертификации для критических систем, как в авиации или медицине, где продукты проходят многократное тестирование. Уральские эксперты считают перспективным инструментом «регуляторную песочницу» — правовой режим для испытаний инноваций в реальных условиях с ограничениями.
Для безопасного использования ИИ специалисты дают рекомендации. Проверять шокирующие новости — часто это фейки. ИИ умеет создавать убедительные подделки: «фото», «голос» знакомых, «научные» статьи. Использовать обратный поиск картинок, проверять первоисточники, искать ту же новость в авторитетных СМИ.
Читайте ключевые пункты «пользовательских соглашений» о данных для тренировки ИИ или cookie, которые собирают логины, пароли, историю посещений. Можно отказаться от необязательной аналитики. Умные колонки прослушивают пользователей, выдавая информацию по последним запросам. Настройки устройств, например в «Яндекс» или Google Ассистент, позволяют очищать историю и отключать постоянное прослушивание.
Агентство сообщало, что каждый третий специалист на Урале использует ИИ в работе. Наибольшее применение наблюдается в малом и микробизнесе (23%), в среднем и крупном бизнесе — 13%. Опрос провели среди 1500 специалистов старше 18 лет в 10 крупнейших городах УрФО.
Чаще всего россияне одобряют использование ИИ в промышленности (80%), науке (76%), строительстве (72%), энергетике (72%) и торговле (72%), а также в сфере досуга и развлечений (70%). В медицинских и образовательных услугах доверие к ИИ минимальное — около 70% опрошенных против замены учителей и врачей технологиями.
Уральские эксперты обсудили возможные рамки регулирования ИИ. Некоторые предлагают строгие законы по образцу GDPR, другие поддерживают саморегуляцию отрасли. «Искусственный интеллект активно проникает в жизнь, — отметил кандидат технических наук УРФУ, доцент Иван Гурин. — Развитие должно идти через саморегуляцию разработчиков или минимальное вмешательство государства с опорой на этические нормы. Разработчик определяет порядок использования ИИ, особенно в чувствительных областях. Этические нормы включают прозрачность, защиту данных и честность. Студент не должен выдавать ИИ-работу за свою без понимания темы».
Существуют мнения о необходимости жестких проверяемых стандартов. «Компьютерная программа — продукт человеческого интеллекта, системы ИИ — частный случай ПО, — сказал старший преподаватель факультета «Информационные системы и технологии» Олег Охотников. — Для регулирования ИИ нужны системы верификации и тестирования программного обеспечения под контролем человека».
Такой подход предполагает создание аналогов сертификации для критических систем, как в авиации или медицине, где продукты проходят многократное тестирование. Уральские эксперты считают перспективным инструментом «регуляторную песочницу» — правовой режим для испытаний инноваций в реальных условиях с ограничениями.
Для безопасного использования ИИ специалисты дают рекомендации. Проверять шокирующие новости — часто это фейки. ИИ умеет создавать убедительные подделки: «фото», «голос» знакомых, «научные» статьи. Использовать обратный поиск картинок, проверять первоисточники, искать ту же новость в авторитетных СМИ.
Читайте ключевые пункты «пользовательских соглашений» о данных для тренировки ИИ или cookie, которые собирают логины, пароли, историю посещений. Можно отказаться от необязательной аналитики. Умные колонки прослушивают пользователей, выдавая информацию по последним запросам. Настройки устройств, например в «Яндекс» или Google Ассистент, позволяют очищать историю и отключать постоянное прослушивание.
Агентство сообщало, что каждый третий специалист на Урале использует ИИ в работе. Наибольшее применение наблюдается в малом и микробизнесе (23%), в среднем и крупном бизнесе — 13%. Опрос провели среди 1500 специалистов старше 18 лет в 10 крупнейших городах УрФО.
Читайте также:
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+EnterЧитайте также: