Ученые провели исследование и выяснили, что люди не в состоянии сдерживать искусственный интеллект. Человечество не только не сможет создать контролирующий сверхразумный компьютер алгоритм, но даже не осознает момент его появления. Статья по теме опубликована в Journal of Artificial Intelligence Research.
Исследователи давно бьются над проблемой создания ИИ. При этом вопрос о контроле также остается открытым. Специалисты по информатике и философии под руководством команды исследователей из Института Макса Планка провели большую работу, чтобы выяснить, сможет ли человек сдерживать сверхразумный компьютер.
По словам одного из авторов исследования Мануэля Кебриана, уже сейчас существуют машины, которые выполняют определенные важные задачи независимо, и их создатели не понимают полностью, как они научились этому. «Поэтому встает вопрос, станут ли они в какой-то момент неуправляемыми и опасными для человека?», – отметил ученый.
Специалисты проверили два пути возможного решения проблемы. Первый – оградить ИИ от Всемирной Сети и других технических устройств, чтобы он не мог вступить в контакт с внешним миром. Однако в этом случае он станет не таким эффективным и менее полезным.
Второй вариант – создать алгоритм-надзиратель, который будет следить за ИИ и сдерживать его в случае обнаружения угроз. Расчеты показали, что такой способ не имеет решения, то есть ни один алгоритм не сможет определить, опасен ли сверхразумный компьютер для мира. Более того, ученые доказали, что мы можем даже не осознать момента появления сверхразумного ИИ, поскольку решение о том, превосходит ли машина человека по интеллекту, находится в той же сфере, что и проблема надзирателя.
Мюнхен, Зоя Осколкова
Мюнхен. Другие новости 12.01.21
Жители Курганской области стали реже жаловаться чиновникам на проблемы. / Тайное общество vs сатанисты: Twitter уже заблокировал более 70 тысяч аккаунтов из-за Трампа. / Доходы, родственники, успеваемость детей и животные: мэрия Москвы готовит новую систему сбора данных о горожанах. Читать дальше
© 2021, РИА «Новый День»