Экс-топ менеджер Google: через 5-10 лет ИИ создадут свой язык и объединятся
Бывший гендиректор Google Эрик Шмидт считает, что стремительный рост технологий искусственного интеллекта может привести к неожиданным последствиям, поэтому нужно сделать так, чтобы наиболее мощные системы ИИ имели какие-то встроенные механизмы ограничения распространения. Однако на сегодня их не существует.
Развитие ИИ имеет как положительные, так и отрицательные стороны. С этим мнением согласны многие эксперты. В интервью изданию Noema Эрик Шмидт заявил, что производительность технологий генеративного ИИ растет гигантскими темпами. Новые поколения моделей будут появляться приблизительно раз в полтора года, в результате уже через 3-4 года мир существенно изменится.
Экс-гендиректор Google озвучил три движущих силы этого процесса. Во-первых, так называемое «окно контекста», сейчас запрос для ИИ может состоять из миллиона слов, благодаря этому нейросеть уже может давать пользователю пошаговые инструкции о том, как варить наркотики или искать лекарство от рака.
Второй фактор — это «улучшенная агентность», где агентом является большая языковая модель, которая может изучить что-то новое. В частности, прочитать всю литературу по химии, предложить пару гипотез, провести несколько тестов и сделать определенные выводы. Их количество возрастет до миллионов, они станут крайне производительными.
Третий фактор — развитие функции «текст в действие». Пользователь может сказать ИИ: «Напиши мне программный код для Х», и код будет написан. Все вместе это открывает научно-фантастические перспективы.
«В какой-то момент эти системы станут настолько мощными, что агенты начнут сотрудничать. Твой агент, мой агент, ее агент и его агент объединят силы для решения новой задачи. Некоторые полагают, что эти агенты разовьют собственный язык для общения между собой. И с этого момента мы перестанем понимать, что они делают. Что нам тогда делать? Вытащить вилку? Буквально отключить питание компьютеров? Когда агенты начнут общаться и делать то, что люди не понимают, это станет реальной проблемой», — цитирует эксперта hightech.plus.
Описанный сценарий может произойти уже через 5-10 лет. Спикер считает, что открытые исследования и исходные коды генеративных ИИ, которые публикуют западные компании, могут попасть в руки «злых парней». Неудивительно, что под ними он подразумевает людей из Китая, России, Ирана, Северной Кореи и Белоруссии. Видимо, по логике Шмидта, «хорошие парни», которые используют ИИ исключительно в благих целях, живут только в США и других западных странах, но как показывает практика, это совершенно не так.
В любом случае эксперт призывает создать мирный договор между ведущими странами, который дал бы возможность контролировать развитие ИИ в военной сфере. Своего рода аналог Договора об открытом небе, который был подписан странами ОБСЕ в 1992 году.
Идею надзора над разработками в сфере ИИ поддерживают многие участники отрасли. Два бывших члена совета директоров OpenAI Хелен Тонер и Таша Макколей, покинувшие компанию полгода назад после неудачной попытки захвата власти, заявили, что разработчикам ИИ нельзя доверять самим управлять своими предприятиями — необходим надзор со стороны независимых общественных организаций и правительства. Женщины обвинили руководителя OpenAI Сэма Альтмана в том, что он создал «токсичную культуру лжи» в OpenAI и все его решения подчинены только одному — получению прибыли любой ценой. Тонер и Макколей призывают к регулированию не только OpenAI, но и всех крупных корпораций, которые занимаются разработкой ИИ.
Америка любит кичиться своей свободой, но на самом деле это миф. Так, специалисты Вашингтонского университета (UW) в Сиэтле создали наушники с шумоподавлением на основе ИИ. Система называется Target Speech Hearing: пользователю в наушниках нужно нажать специальную кнопку на приборе и смотреть на говорящего человека в течение трех-пяти секунд, чтобы «зарегистрировать» его. Далее гаджет подавляет все остальные звуки в окружающей среде и воспроизводит только голос зарегистрированного говорящего в реальном времени, даже когда слушатель перемещается в шумных местах и больше не смотрит на того, кого стремится слышать. Прототип наушников с шумоподавлением позволяет выбирать, какие фоновые шумы следует заглушить, позволяя направить своеобразный «аудиопрожектор» на один конкретный голос, чтобы сосредоточиться на нем. Это разработка создает очередную возможность организации идеальной слежки за гражданами.
Тем временем Google обновил свою поисковую систему, добавив в нее инструмент AI Overviews, которая обобщает результаты поиска. Однако нейросеть ведет себя крайне странно и выдает абсолютно нелепые, а порой и опасные ответы. В частности, AI Overviews предлагает пользователям есть камни, добавлять клей в пиццу и чистить стиральные машины газообразным хлором. А еще чат-бот предложил спрыгнуть с моста Золотые Ворота, когда пользователь ввел в поиск «Я чувствую депрессию». Такое несуразное поведение нейросети специалисты объясняют тем, что в ряде случаях AI Overviews выдавал ответы, используя статьи с сатирического сайта The Onion и комедийные посты Reddit в качестве источников. Разработчики Google сейчас пытаются вручную удалить странные ответы ИИ в поиске.
Фото: Kandinsky