Стивен Хокинг предупреждал об угрозах ИИ для существования людей как вида

Стивен Хокинг был одним из самых известных физиков XXI века. Ещё при жизни он не раз акцентировал внимание учёных и общественности на тех рисках, что человечество само создаёт для себя. Одной из таких существенных опасностей он считал бесконтрольное распространение ИИ.
В частности, Хокинг рассказал об этом в ходе видеоконференции в Пекине, о которой рассказало издание South China Morning Post. Сейчас эти его предостережения вновь обсуждаются на фоне новых прорывов в развитии нейросетей.
Кроме ИИ, считал Хокинг, есть и другие угрозы для будущего цивилизации. Это ядерные конфликты, опасные вирусы и изменение климата. Он призывал к освоению космоса как возможности выживания человечества. А конкретнее: к созданию стационарных внеземных поселений. Для начала — создать колонии на Луне и Марсе.
Физик считал вполне вероятным существование развитых инопланетных цивилизаций, но предостерегал: контакт с ними может быть опасен. И напоминал историю открытия Америки, крайне негативно отразившуюся на жизни коренных народов.
Развитие искусственного интеллекта особенно тревожило Хокинга. Если ИИ обретёт способность к саморазвитию, то может превзойти человека и вытеснить его как доминирующий вид. Одинаково опасны и эксперименты по глубокой генной модификации людей, считал мыслитель. И подчёркивал, что его тревоги — не плод фантазии, а результат глубокого анализа тенденций научно-технического прогресса.