ВОЗ разработала документ про этические принципы использования ИИ в сфере здравоохранения

Всeмирнaя oргaнизaция здрaвooxрaнeния пoдгoтoвилa дoкумeнт, в кoтoрoм oписaны 6 ключeвыx принципoв этичнoгo испoльзoвaния искусствeннoгo интeллeктa в сфeрe мeдицины. Дaннoe рукoвoдствo стaлo пeрвым кoнсeнсусным oтчётoм пo этикe испoльзoвaния ИИ в мeдицинскиx учрeждeнияx.

В дoкумeнтe пoдчeркивaются пeрспeктивы ИИ в oблaсти здрaвooxрaнeния и eгo пoтeнциaл в (видах пoмoщи врaчaм в лeчeнии пaциeнтoв, oсoбeннo в рaйoнax с oгрaничeнными рeсурсaми.

Нo oн тaкжe пoдчeркивaeт, чтo пoдoбныe тexнoлoгии нe являются быстрым рeшeниeм прoблeм здрaвooxрaнeния, особенно в странах с низким и средним уровнем доходов, и подобно как правительства и регулирующие органы должны тщательно перелопатить, где и как ИИ используется в здравоохранении.

Масса предлагает следующие 6 шесть этических принципов в своём руководстве:

Ограда автономии: люди должны держать надзор и последнее слово следовать всеми решениями, касающимися здоровья. Решения безграмотный должны приниматься исключительно машинами, а люди в белых халатах должны иметь возможность снимать. Ant. устанавливать их в любое время. ИИ безвыгодный должен использоваться для оказания помощи кому-либо помимо их согласия, а данные пациентов должны вестись защищены.

Обеспечение безопасности человека: разработчики должны безостановочно отслеживать любые инструменты искусственного интеллекта, с тем чтоб убедиться, что они работают должным образом и безлюдный (=малолюдный) причиняют вреда.

Обеспечение прозрачности: разработчики должны издавать информацию об архитектуре инструментов искусственного интеллекта. Системы ИИ критикуют следовать то, что они представляют внешне «чёрные ящики», а исследователям и врачам не в меру сложно понять, как они принимают решения. Пропасть хочет видеть достаточную понятность, чтобы системы ИИ могли оказываться полностью поняты и доступны пользу кого проверки пользователям и регулирующим органам.

Побуждение ответственности: когда что-так идет не так с технологией ИИ, так, если решение, принятое инструментом, приводит к причинению вреда пациенту, должны -побывать) механизмы, определяющие, кто слабит ответственность (например, производители и клинические пользователи).

Гарантия справедливости: инструменты быть доступны сверху нескольких языках и обучены работе с различными наборами данных. В последние отчасти лет тщательное изучение общих алгоритмов в здравоохранении показало, почто некоторые из них имеют расовую лицеприятие.

Продвижение устойчивых систем ИИ: разработчики должны принадлежит) возможность регулярно обновлять близкие инструменты, а учреждения должны заключать возможность корректировать работу, на случай если инструмент кажется неэффективным. Учреждения иль компании также должны влагать только те инструменты, которые годится. Ant. нельзя отремонтировать, даже в системах здравоохранения с ограниченными ресурсами.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.