Google научила ИИ юмору, чтобы тот не советовал есть камни — Wylsacom

Google научила ИИ юмору, чтобы тот не советовал есть камни

Настоящие вредные советы.

Иллюстрация: Светлана Чувилёва / Wylsacom Media

AI Overview — это надстройка над Google Поиском, которая показывает сгенерированный по поисковому запросу совет-ответ от нейронки. И советы эти бывают… странными. Например, приклеивать сыр к пицце клеем, чтобы тот не стекал, есть камни или курить во время беременности по две сигареты в день, потому что «это безопасно» (не совет, а просто пример одного из этих ответов).

Доступна фича пользователям из США с середины мая, и они уже успели пожаловаться на кринжовые ответы от нейронки. Например, на вопрос «Сколько камней мне съесть?» ИИ на голубом глазу заявляет, что «врачи рекомендуют один маленький камушек в день».

Вот такие советы точно выполнять не стоит. Источник: Dailymail

Оказалось, что ИИ не особо шарит за контекст (вот сюрприз-то!). И когда он находит в сети какой-то подходящий материал, не разбирается в том, правда там написана или нет. Так объясняет поведение поисковой нейросети глава отдела поиска Google Лиз Рид. По её словам, ответ про камни ИИ взял с какого-то сатирического веб-сайта, а совет приклеивать сыр подсмотрел на форуме.

Google сейчас разобралась с тем, что заставляет ИИ давать странные ответы, и настроила нейронку так, чтобы она лучше фильтровала шуточные ответы и не выдавала их за чистую монету. Обещают, что ИИ перестанет показывать подсказки по здоровью и меньше будет опираться на контент из социальных сетей и с форумов.