журнал стратегия

#журнал стратегия

Специалисты Google раскритиковали свой чат-бот Bard

Сотрудники американского IT-гиганта недовольны своей разработкой искусственного интеллекта и считают, что их чат-бот еще очень сырой.

Чат-бот от компании OpenAI задал высокие параметры в мире искусственного интеллекта, подхлестнув другие технологические компании к выпуску собственных чат-ботов. Активным участником этой гонки является Google, который открыл в феврале для широкого тестирования свой бот Bard. Он себя позиционирует как дополнение к поисковой системе и умеет быстро отвечать на широкий спектр вопросов с учетом контекста. ИИ выдает три варианта ответа на каждый запрос, однако разница в их содержании не столь существенная. Под ними предусмотрена опция Google It, которая перенаправляет на страницу с результатами поиска по теме.

Чат-бот подключен к интернету, благодаря чему выдает актуальные данные, но порой бывают фактические ошибки, на что указывают тестировщики. Для улучшения ответов в области программирования и математики в сервис интегрировали модель PaLM. Тем не менее сами работники Google признают, что продукт еще очень сырой, чтобы открывать к нему доступ широкой аудитории.

Другие же специалисты еще более категоричны в своих высказываниях. Агентство Bloomberg раздобыло внутреннюю переписку сотрудников корпорации, где они нещадно критикуют чат-бот, называя ИИ «патологическим лжецом» и убедительно просят компанию не запускать его.

Так, один из специалистов заявил, что чат-бот постоянно давал пользователям опасные советы на такие темы, как посадка самолета или плавание под водой.  «Бард хуже, чем бесполезен: пожалуйста, не запускайте», - лаконично прокомментировал возможности системы другой работник. В результате IT-компания отменила оценку рисков, представленную внутренней группой безопасности, заявив, что система не готова для общего использования.

Корпорация снова сдвигает на второй план этические соображения, пытаясь не отставать от Microsoft и OpenAI, заявляют аналитики. Компанию регулярно критикуют за то, что вместо безопасности и этики в сфере ИИ, она отдает приоритет бизнесу. Недавно стало известно, что Google выпустит в мае новые поисковые инструменты на базе ИИ, а осенью в сервисах компании появится еще больше ИИ-функций.

В свою очередь эксперты заявляют, что для разработки и защиты ИИ-систем нужно публичное тестирование и что вред от чат-ботов минимален. Чат-боты способны выдавать токсичный, мусорный текст, но то же самое делают бесчисленные источники в интернете. Оппоненты возражают: обращение пользователя к ненадежному источнику информации — не то же самое, что предоставление ему этой информации напрямую от системы ИИ, которая позиционирует себя как надежная. Тут уже, как говорится, дело вкуса.

Между тем, большой фанат систем ИИ Илон Маск считает, что правительству США необходим план на случай восстания ИИ и следует ввести определенный разумный контроль за этой быстро развивающейся технологией. Миллиардер предположил, что некоторые люди будут использовать ИИ как инструмент во время выборов, да и в целом ИИ способен стать опасными для общества и представлять реальную угрозу для будущего человечества. В связи с этим у властей должен быть в арсенале план на крайний случай, который позволил бы вернуть контроль в руки людей. Это не обязательно должно быть уничтожение дата-центров бомбардировщиками. Достаточно лишь отключить подачу энергии, и тогда ИИ снова станет лишь инструментом в руках людей, а не хозяином человечества.

Пока Маск говорит о реальности вмешательства ИИ в выборы, владельцы криптокомпаний генерируют своих CEO при помощи нейросетей, чтобы обманывать пользователей. Преступную схему раскрыл Департамент финансовой защиты и инноваций Калифорнии. Полицейские выяснили, что Harvest Keeper, Visque Capital, Coinbot, QuantFund и Maxpread Technologies предлагали пользователям заработать, а после получения денег переставали отвечать на сообщения.

Криптомошенники для убеждения потенциальных клиентов и в качестве гарантии надежности инвестиций Harvest Keeper и Maxpread Technologies демонстрировали своих CEO, активно выкладывая материалы с их участием в свои соцсети. Полиция выяснила, что обе компании использовали не настоящих людей, а лишь сгенерированных при помощи нейросетей аватаров.

Ранее отсутствие публичного «лица» было одной из отличительных черт мошеннических схем, но с развитием генеративных нейросетей отличить скам становится все труднее. Поэтому прежде, чем начать сотрудничество с какой-либо инвестиционной компанией, нужно убедиться, насколько реальными людьми являются их управленцы, какая у них репутация, можно ли им доверять. Только после оценки всех возможных рисков можно принимать решение о сотрудничестве. То есть теперь нам всем еще нужно беспокоиться о том, что то, что нас окружает, может быть очередным фейком, который создан с помощью ИИ!

Фото: Unsplash; Freepik

анонсы
мероприятий
инновации

Основные сценарии применения ИИ в разработке

 

#, , ,
инновации

В Москве пройдет научно-технологический форум «Робототехника, интеллект машин и механизмов»

7 февраля 2025 года

#, , ,