Программист обнаружил признаки собственного разума у искусственного интеллекта от Google
Google отправил своего разработчика Блейка Лемуана в оплачиваемый административный отпуск за якобы нарушение политики конфиденциальности после того, как специалист заявил, что система чат-ботов с искусственным интеллектом достигла разума.
Блейк Лемуан трудится в организации Google Responsible AI. Он проверял, генерирует ли ее модель LaMDA дискриминационные высказывания или разжигание ненависти. У инженера появились такие опасения после того система стала давать убедительные ответы на вопросы о своих правах и этике робототехники.
В апреле программист поделился с руководителями документом под названием «Разумна ли LaMDA?», содержащий стенограмму его разговоров с ИИ (после того, как Лемуан был отправлен в отпуск, опубликовал стенограмму через свой аккаунт на Medium), которая, по его словам, показывает, что он утверждает, «что он разумен, потому что у него есть чувства, эмоции и субъективный опыт».
LaMDA (Language Model for Dialogue Applications) — это языковая модель для отработки речи, чат-бот, способный поддерживать разговор на разные темы. Она может имитировать речь и обучаться, почерпывая слова из интернета, отмечает РБК.
Разработчик изучал нейросетевую языковую модель с осени прошлого года. В частности, специалист отслеживал лексику, которую употребляет чат-бот. Затем ему поручили проверить, не использует ли программа слова, разжигающие вражду или дискриминирующие пользователя. В итоге инженер пришел к заключению, что разработанный Google ИИ обладает собственным сознанием, считает себя самостоятельной личностью и рассуждает о своих правах.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — цитирует The Washington Post Лемуана.
Разработчик добавил, что определяет разумное существо по разговору с ним, вне зависимости от того, «мозг ли у него в голове или миллиарды строчек кода». В свою очередь представитель Google Брайан Гэбриел сообщил, что специалисты по этике и технологиям рассмотрели опасения Лемуана и обнаружили, что они безосновательны. Ответы LaMDA сводятся к распознаванию образов, поэтому нельзя назвать этот ИИ обладающим сознанием, констатировал он.
«Нет никаких подтверждений того, что LaMDA разумна. Есть много доказательств против этого», — отметил Габриэль.
В итоге Google обвинила Лемуана в нарушении политики конфиденциальности. Программист нанял адвоката, который бы представлял ИИ, и поговорил с представителем комитета Палаты представителей по вопросам судопроизводства. В начале июня разработчик был отправлен в оплачиваемый отпуск.
Фото: Pexels
мероприятий