Войти

Стивен Хокинг предупреждал об угрозах ИИ для существования людей как вида

Стивен Хокинг предупреждал об угрозах ИИ для существования людей как вида

Стивен Хокинг был одним из самых известных физиков XXI века. Ещё при жизни он не раз акцентировал внимание учёных и общественности на тех рисках, что человечество само создаёт для себя. Одной из таких существенных опасностей он считал бесконтрольное распространение ИИ.

В частности, Хокинг рассказал об этом в ходе видеоконференции в Пекине, о которой рассказало издание South China Morning Post. Сейчас эти его предостережения вновь обсуждаются на фоне новых прорывов в развитии нейросетей.

Кроме ИИ, считал Хокинг, есть и другие угрозы для будущего цивилизации. Это ядерные конфликты, опасные вирусы и изменение климата. Он призывал к освоению космоса как возможности выживания человечества. А конкретнее: к созданию стационарных внеземных поселений. Для начала — создать колонии на Луне и Марсе.

Физик считал вполне вероятным существование развитых инопланетных цивилизаций, но предостерегал: контакт с ними может быть опасен. И напоминал историю открытия Америки, крайне негативно отразившуюся на жизни коренных народов.

Развитие искусственного интеллекта особенно тревожило Хокинга. Если ИИ обретёт способность к саморазвитию, то может превзойти человека и вытеснить его как доминирующий вид. Одинаково опасны и эксперименты по глубокой генной модификации людей, считал мыслитель. И подчёркивал, что его тревоги — не плод фантазии, а результат глубокого анализа тенденций научно-технического прогресса.

Мне нравится
1