журнал стратегия

#журнал стратегия

Американский ученый требует приостановить разработку ИИ, чтобы спасти жизнь на Земле

Авторитетный исследователь искусственного интеллекта Элиезер Юдковский публично потребовал отключить все системы с ИИ во избежание угрозы для всего человечества.

Ранее известные IT-специалисты опубликовали открытое письмо, в котором призвали к мораторию на разработку крупных моделей ИИ сроком на шесть месяцев. В их числе был и Илон Маск, правда, многие эксперты увидели в этом попытку главы Tesla сдержать на время развитие GPT-4, так как сам американский миллиардер сейчас занят разработкой своей системы искусственного интеллекта, которая сможет на равных конкурировать с лидером этого сегмента от компании OpenAI.

В свою очередь Элиезер Юдковский не стал подписываться под этим письмом, заявив, что послание недооценивает опасность развития ИИ. По его словам, искусственный интеллект не заботится о разумной жизни в целом. Американец предложил ввести всемирный запрет на ИИ, включая правительства и вооруженные силы. Ученый в своей статье для издания Time подчеркнул, что человечество далеко от внедрения принципов в технологию, которые были бы эффективны перед возможными катастрофическими последствиями развития ИИ.

— Многие исследователи, и я в том числе, полагают, что самым вероятным исходом создания сверхчеловечески умного ИИ, при любых хоть отдаленно напоминающих современные условиях, будет буквальная гибель всех на Земле. Очевидно, это произойдет. В принципе невозможно пережить создание чего-либо намного более умного, чем мы сами, — заявил исследователь.

Если у нейросети не будет жестких мер сдерживания, то ИИ не станет работать в интересах человечества и не станет в принципе думать о благе разумной жизни. Подходящие метафоры: «10-летний ребенок, пытающийся играть в шахматы против Stockfish 15», «11-й век пытается бороться с 21-м веком» и «Австралопитек пытается бороться с Homo sapiens», пишет Элиезер Юдковский.

Ученый предложил сначала лучше изучить ИИ, понять, как они будут работать, а потом уже активно применять. А пока нужно ввести тотальный и бесрочный мораторий на обучение всех крупных моделей ИИ. И тут не должно быть никаких исключений даже для правительств и военных, кроме как для решения задач в сфере биологии.

— Отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит кластер ГПУ, пугайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить мошеннический центр обработки данных авиаударом, — заявил Юдковский.

Американский эксперт настроен крайне агрессивно и решительно, но найдут ли отклик его инициативы у лиц, принимающих решения?

Фото: Unsplash

анонсы
мероприятий
инновации

Основные сценарии применения ИИ в разработке

 

#, , ,
инновации

В Москве пройдет научно-технологический форум «Робототехника, интеллект машин и механизмов»

7 февраля 2025 года

#, , ,