Известный британский ученый Стивен Хокинг заявил, что не приемлет развитие технологий искусственного интеллекта (ИИ). По его словам, сверхразумные машины будут относиться к людям, как к расходному материалу или муравьям, стоявшим у них на пути к решению задачи.
«Самый большой риск от развития ИИ заключается не в их злобе, а в компетенции. Сверхумный ИИ сможет быстро решать задачи, и если цели его и человечества не будут одинаковыми, тогда у нас возникнут огромные проблемы», — проинформировал ученый.
Хокинг привел в пример работу мощного ИИ при управлении ГЭС. Так, для машины будет главным то, как много энергии сможет вырабатывать система, а не судьбы людей.
«Если вам понадобиться поднять уровень воды, впоследствии чего один муравейник будет затоплен, то проблемы утопающих насекомых вас вряд ли будут волновать. Так что не допустите такой ситуации, когда на месте муравьев окажется мировое население», — отметил он.
Еще одной потенциальной проблемой от дальнейшего развития систем ИИ и роботехники может стать очень быстрый рост разрыва в уровне доходов между богатыми людьми, монополизировавшими производство разумных машин, а также остальными слоями населения нашей планеты.
Стивен Хокинг подчеркнул, что решить данную проблему можно замедлив разработку ИИ, или же переключившись на создание разума, решающего лишь узкоспециализированные задачи.