Стивен Хокинг предупреждал, что ИИ угрожает существованию людей как вида
Стивен Хокинг, один из самых известных физиков XXI века, ещё при жизни неоднократно подчёркивал, что главные угрозы для человечества связаны не с космическими катастрофами, а с действиями самого человека. Его предупреждения, сделанные задолго до смерти, вновь кажутся актуальными.
Учёный указывал на целый ряд факторов, которые могут поставить под вопрос будущее цивилизации. По его мнению, наиболее опасными являются ядерные конфликты, создание биологически опасных вирусов и изменение климата, вызванное деятельностью людей. Хокинг считал, что человечество не сможет бесконечно существовать в пределах одной планеты, и его дальнейшее развитие возможно лишь при освоении космоса.
Он отмечал, что в течение ближайших десятилетий необходимо создавать постоянные внеземные поселения. Речь шла не о небольших научных базах, а о колониях, способных обеспечить жизнь тысяч людей, а также содержать животных и растения. В качестве наиболее перспективных направлений Хокинг называл Луну и Марс, подчёркивая, что откладывание этих проектов может привести к тяжёлым последствиям.
Физик также допускал возможность существования развитых инопланетных цивилизаций и предупреждал о рисках прямого контакта с ними. Он сравнивал возможную встречу с пришельцами с историей открытия Америки, после которого коренное население материка оказалось на грани уничтожения из-за технологического превосходства европейцев.
Отдельную тревогу у Хокинга вызывало развитие искусственного интеллекта. Он полагал, что ИИ, способный к саморазвитию, может превзойти человека и вытеснить его как доминирующий вид. Не менее опасной он называл и возможность глубокой генной модификации людей: появление «сверхлюдей», по его словам, способно привести к исчезновению обычного человечества либо превращению его в зависимый и социально уязвимый слой.
Учёный подчёркивал, что его выводы основаны не на фантазии, а на анализе тенденций научно-технического прогресса. Он призывал относиться к ним как к важному предупреждению и стимулу задуматься о будущем цивилизации уже сегодня.
Учёный указывал на целый ряд факторов, которые могут поставить под вопрос будущее цивилизации. По его мнению, наиболее опасными являются ядерные конфликты, создание биологически опасных вирусов и изменение климата, вызванное деятельностью людей. Хокинг считал, что человечество не сможет бесконечно существовать в пределах одной планеты, и его дальнейшее развитие возможно лишь при освоении космоса.
Он отмечал, что в течение ближайших десятилетий необходимо создавать постоянные внеземные поселения. Речь шла не о небольших научных базах, а о колониях, способных обеспечить жизнь тысяч людей, а также содержать животных и растения. В качестве наиболее перспективных направлений Хокинг называл Луну и Марс, подчёркивая, что откладывание этих проектов может привести к тяжёлым последствиям.
Физик также допускал возможность существования развитых инопланетных цивилизаций и предупреждал о рисках прямого контакта с ними. Он сравнивал возможную встречу с пришельцами с историей открытия Америки, после которого коренное население материка оказалось на грани уничтожения из-за технологического превосходства европейцев.
Отдельную тревогу у Хокинга вызывало развитие искусственного интеллекта. Он полагал, что ИИ, способный к саморазвитию, может превзойти человека и вытеснить его как доминирующий вид. Не менее опасной он называл и возможность глубокой генной модификации людей: появление «сверхлюдей», по его словам, способно привести к исчезновению обычного человечества либо превращению его в зависимый и социально уязвимый слой.
Учёный подчёркивал, что его выводы основаны не на фантазии, а на анализе тенденций научно-технического прогресса. Он призывал относиться к ним как к важному предупреждению и стимулу задуматься о будущем цивилизации уже сегодня.
Читайте также:
Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+EnterЧитайте также: