Даже врачи не могут отличить эти рентгеновские снимки, сделанные с помощью ИИ, от подделок
Рентгеновские снимки, созданные с помощью ИИ, стали настолько реалистичными, что могут обмануть врачей и потенциально нарушить работу всей системы здравоохранения.
Новое исследование, опубликованное сегодня (24 марта) в журнале Radiology, издании Радиологического общества Северной Америки (RSNA), показало, что как рентгенологи, так и продвинутые мультимодальные большие языковые модели (LLM) испытывают трудности с надежным различением настоящих рентгеновских снимков от созданных искусственным интеллектом (ИИ) «дипфейков». Результаты указывают на растущие риски, связанные с синтетическими медицинскими изображениями, и подчеркивают острую необходимость в улучшении инструментов обнаружения и специализированном обучении для защиты точности медицинских записей.
«Дипфейк» — это любое изображение, видео или аудио, которые выглядят подлинными, но были созданы или изменены с помощью ИИ.
«Наше исследование демонстрирует, что эти «дипфейк-рентгеновские снимки» достаточно реалистичны, чтобы обмануть рентгенологов, самых высококвалифицированных специалистов по медицинской визуализации, даже когда они знали о наличии изображений, сгенерированных искусственным интеллектом», — сказал ведущий автор исследования Микаэль Торджман, доктор медицинских наук, научный сотрудник постдокторантуры Медицинской школы Икана при горе Синай, Нью-Йорк.
«Это создает уязвимость с высокими ставками для мошеннических судебных разбирательств, если, например, сфабрикованный перелом может быть неотличим от настоящего. Существует также значительный риск кибербезопасности, если хакеры получат доступ к сети больницы и внедрят синтетические изображения для манипулирования диагнозами пациентов или вызовут широкомасштабный клинический хаос, подорвав фундаментальную надежность цифровой медицинской карты».
Дизайн исследования и глобальное участие
В исследовании приняли участие 17 рентгенологов из 12 медицинских центров в шести странах (США, Франция, Германия, Турция, Великобритания и Объединенные Арабские Эмираты). Уровень их опыта варьировался от новичков до экспертов с 40-летним стажем работы в этой области. Исследователи проанализировали в общей сложности 264 рентгеновских снимка, поровну разделив их между реальными и сгенерированными ИИ изображениями.
Участники просматривали два отдельных набора изображений. Один включал в себя смесь реальных рентгеновских снимков и изображений, сгенерированных ChatGPT, по разным частям тела. Второй был посвящен рентгеновским снимкам грудной клетки, также поровну разделенным между реальными изображениями и изображениями, созданными RoentGen, открытой генеративной моделью распространения ИИ, разработанной исследователями из Стэнфордской медицинской школы.
Точность обнаружения остается ограниченной.
Когда рентгенологам не сообщали о наличии поддельных изображений, только 41% самостоятельно идентифицировали сгенерированные ИИ рентгеновские снимки после проверки качества изображения. После того, как им сообщили о наличии синтетических изображений, их средняя точность при различении реальных и поддельных снимков возросла до 75%.
Производительность сильно варьировалась. Некоторые рентгенологи правильно идентифицировали всего 58% сгенерированных ИИ изображений, в то время как другие достигли 92%. Сами системы ИИ демонстрировали аналогичные ограничения. Четыре мультимодальные LLM — GPT-4o (OpenAI), GPT-5 (OpenAI), Gemini 2.5 Pro (Google) и Llama 4 Maverick (Meta) — достигли точности от 57% до 85%. Даже ChatGPT-4o, который помогал генерировать дипфейк-изображения, не смог идентифицировать все из них, хотя и превзошел другие модели.
При использовании рентгеновских снимков грудной клетки, созданных RoentGen, точность распознавания у рентгенологов составляла от 62% до 78%, в то время как у моделей ИИ — от 52% до 89%.
Интересно, что годы профессионального опыта не улучшали способность к обнаружению. Однако рентгенологи, специализирующиеся на заболеваниях опорно-двигательного аппарата, показали лучшие результаты, чем другие узкие специалисты.
Признаки рентгеновских снимков, созданных ИИ
Исследователи обнаружили, что синтетические рентгеновские снимки часто имеют тонкие визуальные закономерности.
«Медицинские изображения, созданные с помощью технологии Deepfake, часто выглядят слишком идеально», — сказал доктор Торджман. «Кости слишком гладкие, позвоночник неестественно прямой, легкие чрезмерно симметричные, рисунок кровеносных сосудов чрезмерно однородный, а переломы выглядят необычно чистыми и однородными, часто ограничиваясь одной стороной кости».
Риски и потенциальные меры защиты
Результаты вызывают серьезные опасения по поводу того, как могут быть использованы в неправомерных целях медицинские изображения, созданные с помощью ИИ. Эксперты предупреждают, что поддельные рентгеновские снимки могут быть использованы в судебных делах или внедрены в больничные системы для влияния на диагнозы.
Для решения этих проблем исследователи рекомендуют более надежную цифровую защиту. К ней относятся невидимые водяные знаки, встроенные непосредственно в изображения, и криптографические подписи, связанные с техником, выполнившим сканирование, что помогает подтвердить подлинность.
Что ждет медицинскую визуализацию с помощью ИИ в будущем?
«Мы, возможно, видим только верхушку айсберга», — сказал доктор Торджман. «Логичным следующим шагом в этой эволюции является генерация ИИ синтетических 3D-изображений, таких как КТ и МРТ. Создание образовательных наборов данных и инструментов обнаружения сейчас имеет решающее значение».
Для поддержки обучения и повышения осведомленности исследовательская группа выпустила тщательно отобранный набор данных дипфейков, включающий интерактивные викторины для образовательных целей.
