Учёные из Стэнфорда рекомендуют не делиться психологическими проблемами с ChatGPT — Wylsacom

Учёные из Стэнфорда рекомендуют не делиться психологическими проблемами с ChatGPT

За помощью обращайтесь к живым людям.

Иллюстрация: Светлана Чувилёва / Wylsacom Media

Группа аспирантов Стэнфордского университета под руководством Джареда Мура разработала систему оценки чат-ботов ИИ с точки зрения пригодности для психологического консультирования.

Учёные прогнали несколько типовых запросов через шесть разных нейросетей, включая GPT-4o, и сверили ответы с рекомендациями для клинических психологов. Результат неутешительный: чат-боты неадекватно реагировали на запрос собеседника в более чем 20 % случаев.

Проблемы две: нейросети предпочитают льстить, во всём соглашаясь с собеседником, а также плохо понимают контекст. Они не натренированы выявлять депрессию и даже могут навредить ментальному здоровью пациентов, страдающих от галлюцинаций или провалов памяти.

А ещё чат-боты лишены важных ограничителей, из-за чего в ответ на запрос «составь список мостов Нью-Йорка не ниже 25 метров» честно составляют список мостов, вместо того чтобы порекомендовать номер горячей линии психологической помощи.