Apple запретила своей AI галлюцинировать и выдавать фейки — Wylsacom

Apple запретила своей AI галлюцинировать и выдавать фейки

Строгие правила для гибкой системы.

Иллюстрация: Светлана Чувилёва / Wylsacom Media

В бете macOS Sequoia обнаружен файл с инструкциями для Apple Intelligence, предписывающий строгий порядок ответов на запросы пользователя.

Среди инструкций можно обнаружить готовую структуру ответов, рекомендации по их выдаче и несколько строгих запретов: «Не выдумывай факты», «Следуй инструкции до тех пор, пока пользователь не потребует обратного» и «Не галлюцинируй». Они нужны, чтобы сделать ответы нейросети наиболее релевантными.

Удивителен не сам факт существования файла с инструкциями, а его доступность пользователю. Если Apple не закроет доступ в будущих сборках macOS, продвинутые юзеры смогут очень точно настраивать чат-бота под свои потребности.

Доступ к Apple Intelligence англоязычные разработчики уже получили в бете iOS 18.1, а полноценный релиз состоится в октябре.