Исследование: медицинские ИИ необъективны в оценке рентгенснимков
Механизм ошибок нейромоделей очень неожиданный.
Учёные из Массачусетского технологического института обнаружили, что модели ИИ, которые используют для анализа рентгеновских снимков, частенько врут и делают ошибочные выводы. При этом исследователи отметили, что нейросети точно определяют расу, пол и возраст по снимкам. У них это выходит лучше, чем у опытных рентгенологов.
Собственно, проблема «наглой лжи» медицинских ИИ в том, что они ленятся. Да, на основе демографических данных нейросети делают быстрые выводы, которые не учитывают других важных характеристик, поэтому и диагнозы у них ошибочные. Причём чаще всего ИИ проделывает такой трюк с женщинами и темнокожими.
Исследователи отметили, что обучение моделей на основе данных в каждой конкретной больнице помогает снизить количество неверных ответов. Однако часто лечебные учреждения используют информацию из других организаций, что требует снова переобучать модель, а не у всех больниц хватает данных для этого.