Apple запретила своей AI галлюцинировать и выдавать фейки
Строгие правила для гибкой системы.
В бете macOS Sequoia обнаружен файл с инструкциями для Apple Intelligence, предписывающий строгий порядок ответов на запросы пользователя.
Среди инструкций можно обнаружить готовую структуру ответов, рекомендации по их выдаче и несколько строгих запретов: «Не выдумывай факты», «Следуй инструкции до тех пор, пока пользователь не потребует обратного» и «Не галлюцинируй». Они нужны, чтобы сделать ответы нейросети наиболее релевантными.
Удивителен не сам факт существования файла с инструкциями, а его доступность пользователю. Если Apple не закроет доступ в будущих сборках macOS, продвинутые юзеры смогут очень точно настраивать чат-бота под свои потребности.
Доступ к Apple Intelligence англоязычные разработчики уже получили в бете iOS 18.1, а полноценный релиз состоится в октябре.