ИИ в медицине. ИИ против 9 рентгенологов.

Аватар пользователя Бабай-сан

Интерпретация рентгенограммы грудной клетки имеет решающее значение для выявления торакальных заболеваний, включая туберкулез и рак легких, которые каждый год затрагивают миллионы людей во всем мире.

Эта трудоемкая задача обычно требует, чтобы квалифицированные радиологи читали изображения, что приводило к ошибкам диагностики на основе усталости или отсутствию возможности выполнить диагностику в районах мира, где радиологи недоступны.

В последнее время методы глубокого обучения нейронных сетей позволили ИИ достичь уровня экспертного уровня в задачах интерпретации медицинских изображений, основанных на больших сетевых архитектурах и подпитываемых появлением классифицированных/размеченных больших наборов данных.

Целью этого исследования является исследование эффективности алгоритма глубокого обучения обнаружению патологий в рентгенограммах грудной клетки по сравнению с практикующими радиологами.

Методы и выводы

Мы создали CheXNeXt, сверточную нейронную сеть, чтобы одновременно обнаруживать наличие 14 различных патологий, включая пневмонию, плевральный выпот, легочные массы и узлы (pneumonia, pleural effusion, pulmonary masses) во фронтальных рентгенограммах грудной клетки.

CheXNeXt был обучен и внутренне проверен на наборе данных ChestX-ray8 с набором заранее  классифицированных рентгенограм.

Исследование эффективности ИИ проводилось на валидационном наборе рентгенограмм состоящим из 420 изображений, которые были отобраны, чтобы содержать по меньшей мере 50 случаев каждой оригинальной патологии.

Этот валидационный набор данных готовился группой из 3 сертифицированных  кардиоторакальных специалистов радиологов. 

Команда соревнующихся с ИИ радиологов включала:

  • 6 сертифицированных радиологов (средний стаж 12 лет, от 4 до 28 лет)
  • и 3 старших рентгенолога из 3 академических учреждений.

Мы обнаружили, что CheXNeXt достигла уровня квалифицированного радиолога на 11 патологиях и не достигла уровня радиолога эксперта по 3 патологиям.

Радиологи достигли статистически значимо более высоких показателей AUC(area under Curve) при кардиомегалии, эмфиземе и гиаларальной грыже, с AUC 0,888 (95% доверительный интервал [CI] 0,863-0,910), 0,911 (95% ДИ 0,866-0,947) и 0,985 (95% ДИ 0,974-0,991) соответственно , тогда как AUC CheXNeXt составляли 0,831 (95% ДИ 0,790-0,870), 0,704 (95% ДИ 0,567-0,833) и 0,851 (95% ДИ 0,785-0,909) соответственно.

CheXNeXt проявил себя лучше, чем радиологи при обнаружении ателектаза, с AUC 0,862 (95% ДИ 0,825-0,895), статистически достоверно выше, чем AUC у радиологов 0,808 (95% ДИ 0,777-0,838). Не было статистически значимых различий в AUC для других 10 патологий.

Среднее время для интерпретации 420 изображений в наборе валидации было значительно дольше для радиологов (240 минут), чем для CheXNeXt (1,5 минуты).

Основные ограничения нашего исследования заключаются в том, что ни CheXNeXt, ни радиологам не разрешалось использовать историю болезни или пересматривать предшествующие обследования и что оценка ограничивалась набором данных из одного учреждения.

Выводы

В этом исследовании мы разработали и оценили ИИ на базе нейросети глубокого обучения, который классифицировал клинически важные отклонения в рентгенограммах грудной клетки на уровне эффективности, сопоставимом с практикующими радиологами.

После тестирования в клинических условиях алгоритм может иметь потенциал для расширения доступа пациентов к диагностике рентгенограммы грудной клетки.

Авторство: 
Авторская работа / переводика
Комментарий автора: 

 

Ссылка содержит полные материалы по исследованию методологию и ссылки.

Во избежание непониманию хочу сказать, что перевод на русский термина Artificial intelligence (AI), как искусственный интеллект(ИИ) не совсем удачен. 

AI дословно переводится, как искусственная способность поступать разумно. К разуму настоящему это, пока, не имеет никакого отношения. Но термин ИИ прижился и продолжает вводить в заблуждение.

П.С. Если напутал с медицинскими терминами прошу простить, не медик.

Комментарии

Аватар пользователя father_gorry
father_gorry(8 лет 3 месяца)

Еще одна сетка, которая не распознает очаговый туберкулез? 
(да-да, флюры, которые 90% всех рентгеновских снимков, это для выявления туберкулеза. Рутина, под которую ИИ будет очень кстати)

Аватар пользователя Александр Мичуринский

Не так давно на конференции про НPC слушал доклад онкологов.

С раком кожи, начал докладчик, нейронные сетки на подобных соревнования стали относительно успешно справляться уже давно. Доклад был посвящен выявлению рака лёгких по трехмерной томограмме. Эта задача ещё сложнее выявления туберкулёза по флюорографии. Человеку-эксперту по нормативу  на анализ томограммы одного пациента даётся несколько часов. Понятно, что в результате ни о каких массовых исследованиях для выявления ранних стадий, когда человек еще ни о чем не подозревает,  речи идти не может, а на поздних стадиях, когда пациент приходит сам,  лечить уже поздно.

Основная проблема - базы эталонных изображений малы.

Кто как  обзовёт эти технологии - экспертная система, искусственный интеллект, нейронная сеть - по мне, тьфу, не важно.

Главное, что их массовое внедрение уже сейчас за счет своевременной диагностики может спасти жизни. И при массовое внедрении будут накапливаться все больше исходных данных, которые можно будет использовать при переобучении этих сетей, чтобы они чем дальше, тем меньше ошибались.

В начале 20 века человек ещё соревновался в скорости бега с автомобилем.

В конце века - проиграл компьютеру соревнования в шахматах.

На той конференции была дискуссия о том, что считать ИИ и чем он отличается от человеческого.

(оффтоп, на пляже санатория в котором шла конференция как раз рассказали анекдот про резиновую куклу с ИИ. И в чём он заключался? Не дала!)

Сошлись на том, что если для задачи существует алгоритм решения, то ИИ с ней так или иначе справится. А вот если для задачи в настоящее время алгоритма решения нет, то это задача для человека. Ну и моральные проблемы, но этот аспект только обозначили.

 

Аватар пользователя Бабай-сан
Бабай-сан(6 лет 4 месяца)

Основная проблема - базы эталонных изображений малы.

Это о российских базах речь или глобально?

Мне тут попадалась информация что вроде toronto general hospital как раз базу имеет и занялся разработкой такого ИИ. Но я точно не помню, если интересно то можно поискать. И база вроде публичная. Не, боюсь наврать, не помню точно.

Аватар пользователя Александр Мичуринский

Естественно, о глобальных. Типа LIDC (Lung Image Database Consortium) и LUNA16 (LUng Nodule Analysis 2016 Chal-lenge).

Конкретно о раке легких. Докладчик упомянул, что нужных оказалось  всего-то несколько не то сот, не то тысяч штук. Сутью доклада было что он при обучении брал пары этих трехмерных изображений (пар-то уже больше!) и предъявлял их сиамской сети, состоящей из двух одинаковых подсетей, объединенных на выходе.

Аватар пользователя Бабай-сан
Бабай-сан(6 лет 4 месяца)

Не сочтите за наезд, мне правда интересно.

"Еще одна сетка, которая не распознает очаговый туберкулез?" что имеется ввиду?

Что есть какой то опыт? Я ни разу не медик или рентгенолог, так что если можно как для чайника?

Аватар пользователя father_gorry
father_gorry(8 лет 3 месяца)

Вас разве ни разу не посылали на рентген при профосмотрах? Как минимум, для получения прав это всегда нужно. Зачем? Выявляют туберкулез. И, надо сказать, весьма успешно. Большая часть рентгенограмм делается именно в этих целях. Но профосмотры - это как бы не совсем медицина, специалисты там работают не лучшего уровня, и многое пропускают. Поэтому я считаю, что нейросеть, распознающая очаговый туберкулез, была бы наиболее полезна именно в деле выявления туберкулеза. 
Но почему-то и в Пекинском университете, ни у Клименко, ни вот в описанной статье системе именно туберкулезные очаги определять не умеют. 

Аватар пользователя Бабай-сан
Бабай-сан(6 лет 4 месяца)

Конечно я проходил флюрограмму. 

Я просто понял вас так, что есть какие то сложности для сеток именно по туберкулёзу.

И да, действительно, ИИ для просмотров был бы идеален. Я правильно понял, что флюрограмма на просмотре предназначена для выявления только туберкулёза?

Аватар пользователя father_gorry
father_gorry(8 лет 3 месяца)

Да, почему-то не могут обучить на очаговый туберкулез. 
Флюра, конечно же, предназначена для выявления разных заболеваний, но если бы не туберкулез, ее бы не заставляли всех проходить.

Страницы