FDA и EMA согласовали 10 принципов использования ИИ в разработке лекарств

FDA и EMA согласовали 10 принципов использования ИИ в разработке лекарств

22 Jan 2026
9

Европейское агентство лекарственных средств (EMA) и Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) сделали важный шаг к глобальной гармонизации регулирования фармотрасли. Регуляторы опубликовали совместный документ, утверждающий 10 ключевых принципов надлежащей практики использования искусственного интеллекта (GMLP — Good Machine Learning Practice) на всех этапах жизненного цикла лекарственных средств.

Вот полный список из 10 руководящих принципов надлежащей практики машинного обучения (GMLP), согласованных ведущими регуляторами (FDA, EMA, Министерство здравоохранения Канады и MHRA).

  1. Мультидисциплинарная экспертиза
    Разработка должна вестись не только IT-специалистами. Жизненный цикл модели требует глубокого участия экспертов из разных областей: врачей-клиницистов, специалистов по обработке данных, инженеров по качеству и экспертов по регулированию. Это гарантирует, что ИИ решает реальную медицинскую задачу, а не просто математическую.
  2. Надлежащая практика программной инженерии и кибербезопасность
    К разработке модели применяются те же строгие стандарты, что и к любому медицинскому ПО: управление рисками, контроль версий кода, тщательное документирование и обеспечение защиты данных от взлома или подмены.
  3. Репрезентативность участников клинических исследований
    Обучающие данные должны отражать реальную популяцию пациентов, для которых предназначен препарат или устройство. Это включает разнообразие по возрасту, полу, расе, сопутствующим заболеваниям и социально-экономическим факторам, чтобы избежать предвзятости (bias) модели.
  4. Разделение обучающих и тестовых наборов данных
    Обучающие (training) и тестовые (test) наборы данных должны быть полностью независимы друг от друга. Это критически важно, чтобы избежать «переобучения» (overfitting), когда модель просто запоминает правильные ответы, но не умеет работать с новыми пациентами.
  5. Использование эталонных методов (Ground Truth)
    При разметке данных необходимо использовать наилучшие доступные методы верификации диагноза (например, подтверждение биопсией, а не просто мнением одного врача). Это гарантирует, что модель учится на достоверных фактах.
  6. Дизайн модели соответствует цели использования (Context of Use)
    Архитектура ИИ должна быть обоснована клинической задачей. Разработчики должны понимать и минимизировать риски, связанные с возможными ошибками модели в конкретном клиническом контексте.
  7. Фокус на производительности связки «Человек – ИИ»
    Если модель предполагает участие врача (Human-in-the-loop), то оценивать нужно не просто точность алгоритма в вакууме, а то, как работает команда «Врач + ИИ». Интерфейс должен помогать врачу принимать решения, а не запутывать его.
  8. Тестирование в клинически значимых условиях
    Тестирование должно проходить в условиях, максимально приближенных к реальной практике, с учетом "шума" в данных, разного оборудования и человеческого фактора, а не в стерильных лабораторных условиях.
  9. Прозрачность информации для пользователей
    Врачи и пациенты должны получать четкую информацию о возможностях и, что важнее, об ограниченияхмодели. Инструкция должна ясно говорить, для кого этот алгоритм подходит, а для кого — нет.
  10. Мониторинг развернутых моделей
    Работа не заканчивается после регистрации. Необходим постоянный постмаркетинговый мониторинг, чтобы отслеживать снижение эффективности (drift) модели из-за изменения протоколов лечения, оборудования или популяции пациентов, и своевременно проводить переобучение.