«Крестный отец» ИИ предупредил о его опасности и покинул Google
Джефри Хинтон решил покинуть пост вице-президента Google для того, чтобы открыто предупреждать общество о рисках, которые связаны с использованием искусственного интеллекта.
Британский и канадский ученый-информатик Джеффри Хинтон, которого называют основоположником и «крестным отцом» искусственного интеллекта, ушел из Google и дал интервью The New York Times, в котором подробно объяснил свое решение.
Ученый работал над развитием нейросетей с 1970-х годов, когда в их будущее еще никто не верил. В 2012 году его компанию, которая разработала технологию распознавания изображений, за $44 млн купила Google. С Хинтоном в коллективе также работал тогда Илья Суцкевер, который затем стал главным научным сотрудником OpenAI, которая выпустила чат-бот ChatGPT. В 2018 году Хинтон и двое его сотрудников получили Премию Тьюринга, которую считают в мире ученых «Нобелевской премией по вычислительной технике», за работу над нейронными сетями.
Этой весной информатик не присоединялся к открытым письмам специалистов по ИИ об опасности бесконтрольного развития подобных технологий, так как считал это неэтичным. Сейчас же Хинтон публично озвучил свою позицию по этому вопросу.
«Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой», — сказал ученый в интервью изданию. По его словам, компании, по мере того как совершенствуют свои системы искусственного интеллекта, делают ИИ все опаснее.
Эксперт считает, что опасность нейросетей в том, что интернет могут заполонить фальшивые фото, видео и тексты, созданные ИИ, и люди не смогут понять, что является правдой. Он посетовал, что тяжело помешать злоумышленникам использовать нейросети в плохих целях. Также искусственный интеллект способен перевернуть рынок труда, заменив работников в ряде сфер. Хинтон добавил, что изначально мало кто осознавал, что нейросети действительно могут стать умнее людей, и он сам думал, что это произойдет лет через 30-50. По его словам, это становится проблемой, так как отдельные лица и компании позволяют системам ИИ не только генерировать свой собственный компьютерный код, но и фактически запускать этот код самостоятельно! Информатик боится того дня, когда автономное оружие — роботы-убийцы — станет реальностью.
Стоит добавить, что Samsung Electronics запретила своему коллективу использовать ChatGPT и аналогичные технологические продукты на корпоративных устройствах из-за опасений утечки данных. По информации Bloomberg, в апреле инженеры Samsung случайно допустили утечку корпоративного исходного кода, загрузив его в ChatGPT. Данные, которые загружаются в этот и аналогичные чат-боты, хранятся на внешних серверах и потому могут оказаться доступны третьим лицам. При этом их легко обнаружить, но сложно удалить.
Корпорация запретила на всех рабочих устройствах использование систем генеративного AI, включая планшеты, телефоны и все внутренние сети. Запрет касается также Bard и Bing. А тем, кто пользуется подобными программами на собственных гаджетах, запрещается загружать туда какие-либо данные, связанные с работой. В качестве санкций за несоблюдение новых правил компания обещает увольнять.
В свою очередь Samsung разрабатывает свои внутренние инструменты на основе AI. В частности, программы планируется применять для обработки документов, а также для написания программного кода.
Фото: Freepik; Unsplash
мероприятий