Главная | ЗДОРОВЬЕ | В Кыргызстане изучили проблемы и перспективы использования искусственного интеллекта в здравоохранении

В Кыргызстане изучили проблемы и перспективы использования искусственного интеллекта в здравоохранении

В Кыргызстане изучили проблемы и перспективы использования искусственного интеллекта в здравоохранении. Результаты исследования опубликованы в журнале «Здравоохранение Кыргызстана».

В работе рассмотрены этико-правовые вызовы применения ИИ в отечественной медицине и разработаны рекомендации по обеспечению его ответственного использования с учетом национального контекста цифровизации страны.

Авторы отмечают, что внедрение технологий искусственного интеллекта в здравоохранении идет неравномерно.

«Медицинские работники чувствуют себя неуверенно в новых системах, поскольку не обучены работе с цифровыми платформами. Из-за отсутствия централизованных хранилищ медицинская информация разбросана, и ИИ не может эффективно “обучаться”. Возникают проблемы доверия к системам ИИ со стороны врачей. Этические аспекты применения ИИ в стране остаются вне фокуса академических и прикладных исследований: в открытом доступе отсутствуют как систематические обзоры, так и эмпирические данные по данному вопросу. Единого закона о цифровизации и искусственном интеллекте в Кыргызстане пока нет. В стране не предусмотрена классификация рисков для медицинских систем на базе ИИ. Вопросы моральной и юридической ответственности за ошибки, вызванные искажениями работы ИИ, остаются неурегулированными. Ответственность за ошибки ИИ в здравоохранении должна носить многослойный характер: врачи сохраняют профессиональную ответственность за клинические решения, разработчики обязаны обеспечивать качество алгоритмов, а медицинские организации — создавать условия для безопасного применения технологий», — говорится в исследовании.

В заключение авторы отмечают, что этические и правовые проблемы использования ИИ могут стать серьезным вызовом для цифровизации здравоохранения в Кыргызстане. Применение искусственного интеллекта в медицине требует этико-правовой базы, четко разграничивающей зоны ответственности всех участников, что повысит доверие врачей и пациентов к ИИ и их мотивацию использовать такие технологии.

Источник