OpenAI разработала, но пока не использует технологии маркировки ИИ-контента
«Made in ChatGPT».
В компании работают над способами помечать контент, который создают генеративные сети. Уже проверяли вариант с «водяными знаками» в тексте: он точный, почти со 100 % вероятностью определяет происхождение текста. Но проверку легко обмануть: достаточно переписать текст в другой нейросети или дать ИИ определённый промпт.
В OpenAI также исследуют возможность включать в контент из нейронок метаданные: они криптографически подписаны, подделать или убрать их не получится. Такой метод уже ограниченно применяют для маркировки. Например, в изображения, сгенерированные DALL-E, уже добавляются C2PA-метаданные о происхождении картинки.
А вот с текстами пока ситуация буксует. Как минимум 30 % пользователей продуктов OpenAI готовы от них отказаться, если контент будет помечен как сгенерированный ИИ. Не получится у них выдавать нейротексты за собственные :(. Официально OpenAI волнуется о людях, которые используют ИИ для перевода писем на незнакомые языки. Плашка в духе «Текст сгенерирован нейросетью» может повлиять на отношение к таким людям и отобрать у них удобный и рабочий способ коммуникации.
Забавно, что OpenAI в этом случае буквально решает проблему, к созданию которой сама приложила руку. Не будь генеративные сети так доступны и мощны, не нужно было бы тратить ресурсы на определение фейков и ИИ-рефератов.