Американский ученый требует приостановить разработку ИИ, чтобы спасти жизнь на Земле
Авторитетный исследователь искусственного интеллекта Элиезер Юдковский публично потребовал отключить все системы с ИИ во избежание угрозы для всего человечества.
Ранее известные IT-специалисты опубликовали открытое письмо, в котором призвали к мораторию на разработку крупных моделей ИИ сроком на шесть месяцев. В их числе был и Илон Маск, правда, многие эксперты увидели в этом попытку главы Tesla сдержать на время развитие GPT-4, так как сам американский миллиардер сейчас занят разработкой своей системы искусственного интеллекта, которая сможет на равных конкурировать с лидером этого сегмента от компании OpenAI.
В свою очередь Элиезер Юдковский не стал подписываться под этим письмом, заявив, что послание недооценивает опасность развития ИИ. По его словам, искусственный интеллект не заботится о разумной жизни в целом. Американец предложил ввести всемирный запрет на ИИ, включая правительства и вооруженные силы. Ученый в своей статье для издания Time подчеркнул, что человечество далеко от внедрения принципов в технологию, которые были бы эффективны перед возможными катастрофическими последствиями развития ИИ.
— Многие исследователи, и я в том числе, полагают, что самым вероятным исходом создания сверхчеловечески умного ИИ, при любых хоть отдаленно напоминающих современные условиях, будет буквальная гибель всех на Земле. Очевидно, это произойдет. В принципе невозможно пережить создание чего-либо намного более умного, чем мы сами, — заявил исследователь.
Если у нейросети не будет жестких мер сдерживания, то ИИ не станет работать в интересах человечества и не станет в принципе думать о благе разумной жизни. Подходящие метафоры: «10-летний ребенок, пытающийся играть в шахматы против Stockfish 15», «11-й век пытается бороться с 21-м веком» и «Австралопитек пытается бороться с Homo sapiens», пишет Элиезер Юдковский.
Ученый предложил сначала лучше изучить ИИ, понять, как они будут работать, а потом уже активно применять. А пока нужно ввести тотальный и бесрочный мораторий на обучение всех крупных моделей ИИ. И тут не должно быть никаких исключений даже для правительств и военных, кроме как для решения задач в сфере биологии.
— Отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит кластер ГПУ, пугайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить мошеннический центр обработки данных авиаударом, — заявил Юдковский.
Американский эксперт настроен крайне агрессивно и решительно, но найдут ли отклик его инициативы у лиц, принимающих решения?
Фото: Unsplash
мероприятий