Transformation of the Physician-patient Relationship: From Bioethics to Roboethics
Table of contents
Share
QR
Metrics
Transformation of the Physician-patient Relationship: From Bioethics to Roboethics
Annotation
PII
S023620070029305-2-1
Publication type
Article
Status
Published
Authors
Еlena.V. Vvedenskaya 
Affiliation: Institute of Scientific Information for Social Sciences of the Russian Academy of Sciences (INION RAS)
Address: 51/21 Nakhimovsky Prospekt, 117418 Moscow, Russian Federation
Pages
65-83
Abstract

In the context of the active development and implementation of artificial intelligence systems and robotics in healthcare, the physician-patient relationship is undergoing changes. The transformation of these relations caused by the problems of interrelation of the basic bioethical principles and new approaches to the diagnosis and treatment of diseases is considered. Using concrete examples, new opportunities and risks caused by the widespread use of automation in medicine are revealed. Conflict situations between human norms and algorithms are analyzed. The issues of responsibility for robot errors, as well as privacy and cybersecurity issues are considered. It is noted that by the beginning of the 21st century, there was a need for an ethical assessment of robotics, since technical decisions taken in the design of robots have the potential to directly and significantly affect people's lives. In this regard, roboethics arose, the concept of which is analyzed in the article. The laws of robotics were formulated by I. Asimov and F. Pasquale. At the same time, attention is drawn to the fact that in the field of healthcare, programs should be developed that rely on human strength. The necessity of finding a balance between the automation of medical practice and the maintenance of the humanistic essence of the physician-patient relationship is emphasized. A comparative analysis of the fundamental principles of bioethics and roboethics is carried out. Despite the fact that they have the same goals and values, in roboetics these principles are characterized by a number of features. The principle related only to roboethics — explainability — requires algorithm developers to explain the general rationale and methodology for solving artificial intelligence. In conclusion, it is concluded that medical robotics and artificial intelligence systems provide great prospects for improving diagnosis, treatment and the general level of medical care, but their use raises important ethical issues that need to be addressed. The basic principles of bioethics should be preserved, and roboethics can help to define the framework and standards for the use of robots in medical practice.

Keywords
bioethics, principles of bioethics, roboethics, the principle of explainability, autonomy, confidentiality, cybersecurity, prejudice, artificial intelligence systems, robotics
Received
27.12.2023
Date of publication
27.12.2023
Number of purchasers
10
Views
1307
Readers community rating
0.0 (0 votes)
Cite Download pdf
Additional services access
Additional services for the article
Additional services for the issue
Additional services for all issues for 2023
1 На протяжении всей истории медицины взаимоотношения врача и пациента играли важнейшую роль в лечении и реабилитации больных. Эти взаимоотношения отражали фундаментальные этические и моральные принципы в медицинской практике, базирующиеся на сострадании, уважении человеческого достоинства, доверии и непрерывной заботе о здоровье пациентов. Однако с развитием современных технологий, в том числе искусственного интеллекта (ИИ) и робототехники, возникают новые этические вопросы и вызовы, которые могут изменить эти взаимоотношения. Наблюдающийся более двадцати лет в медицине стремительный рост технологий ИИ и робототехники, привел к автоматизации многих процессов и, как следствие, к трансформации традиционных отношений между врачом и пациентом в связи с появлением между ними все больше посредников в виде технических устройств, которые могут приобрести субъектность.
2 Наметившаяся со времен Гиппократа тенденция отношения врача к пациенту как к своему больному ребенку, ответственность за здоровье которого лежит на «опытном, всезнающем» родителе, известная как патернализм, в последние десятилетия утратила свою значимость. Так, по словам американского специалиста по биоэтике Р. Витча [Veatch, 1972], эта традиционная модель взаимоотношений врача и пациента постепенно была заменена инженерной (технической) моделью, обусловленной биологической революцией. На смену образу заботливого «врача-родителя» в связи с развитием технологий явился образ беспристрастного врача-ученого, действующего на основе фактов и научных знаний, при этом стало игнорироваться личное сострадательное его отношение к больному. Пациент стал рассматриваться как машина, требующая ремонта.
3 ИИ, включающий технологию глубокого обучения, имеет огромный потенциал для кардинальных преобразований в системе здравоохранения, например, для оказания помощи в постановке диагноза, улучшения ухода за пациентами и контроля за соблюдением ими медицинских рекомендаций. Системы искусственного интеллекта (СИИ), базирующиеся на сложных алгоритмах для обработки огромных массивов данных, превосходят обычного врача по скорости принятия решений. В связи с этим возникает феномен «цифрового патернализма», подразумевающий делегирование ИИ функции принятия решений о диагнозе и лечении, являющейся прерогативой врачей, что ограничивает их автономию в пользу предварительно заданных алгоритмов. Активное внедрение в клиническую практику СИИ чревато потерей компетенций и навыков врачей и в целом переоценкой роли клинического мышления. Доминирование «цифрового патернализма», как и технической модели, по моему мнению, содержит в себе угрозу деперсонализации пациента и устранения живого контакта между врачом и пациентом. Как следствие, большинство врачей может быть заменено системами искусственного интеллекта и роботами.
4 Во всяком случае, взаимоотношения врача и пациента, очевидно, претерпят трансформацию, вызванную проблемами взаимосвязи традиционных биоэтических принципов и новых подходов к лечению, в связи с все более широким применением автоматизации в медицинской практике.
5 В данной статье рассматривается вышеописанная трансформация и ее влияние на качество медицинской помощи, а также эмоциональные аспекты взаимодействия врача и пациента и неизбежные этические дилеммы.
6

Биоэтика: основы человеческого взаимодействия в медицине

7 Рассматривая взаимоотношения врача и пациента, отражающие фундаментальные этические и моральные принципы, стоит заметить, что истоки биоэтики восходят к античной «Клятве Гиппократа», в которой впервые были сформулированы основные обязанности врача перед пациентом и введен главный принцип врачевания «Не навреди». В Средние века в созданной Парацельсом модели биоэтики главное значение приобретает патернализм, а в основе сформированной позднее деонтологической модели лежит принцип «соблюдения долга», предполагающий строгое выполнение предписаний морального порядка, соблюдение определенного набора правил, установленных медицинским сообществом.
8 В указанных моделях взаимоотношений врача и пациента содержались важные этические принципы, переосмысление которых происходило и во второй половине ХХ века, когда возник сам термин «биоэтика» и новая междисциплинарная область исследований, академическая дисциплина и социальный институт этической экспертизы инновационных проектов в сфере биомедицины.
9 Создатель термина «биоэтика» американский онколог В.Р. Поттер понимал под ним новую науку выживания, о которой в 1970 году писал так: «Наука выживания должна быть не просто наукой, а новой мудростью, которая объединила бы два наиболее важных и крайне необходимых элемента — биологическое знание и общечеловеческие ценности» [Поттер, 2002: 5]. Однако впоследствии смысл этого термина претерпел изменения в связи с тем, что, по словам известного отечественного биоэтика П.Д. Тищенко, на первое место вышло междисциплинарное исследование антропологических, моральных, социальных и юридических проблем, вызванных развитием новейших биомедицинских технологий (генетических, репродуктивных, трансплантологических и др.) [Тищенко, 2005].
10 Таким образом, в настоящее время биоэтика представляет собой раздел этики, в котором рассматриваются этические проблемы и дилеммы, возникающие в медицине и биологии при дальнейшем научно-техническом прогрессе. При этом взаимоотношения врача и пациента, претерпевающие существенные изменения, несомненно, остаются в фокусе биоэтики.
11 Из известных четырех принципов биоэтики, сформулированных в 1989 году американскими философами Т. Бошаном и Дж. Чилдрессом [Beauchamp, Childress, 1989], а именно принципов «не навреди», «делай благо», уважения автономии пациента и принципа справедливости, только принцип уважения автономии пациента может быть поставлен в центр современной биоэтики. Трудно не согласиться со словами Бошана, что этот принцип «укоренен в либеральной морали и политической традиции ценности свободы личности и ее выбора» [Beauchamp, 2008]. Данный принцип, реализующийся через правила добровольного информированного согласия, правдивости, неприкосновенности частной жизни и конфиденциальности, на мой взгляд, является основополагающим, поскольку утверждает уникальность личности пациента, требующей уважения индивидуальной автономии и права на принятие собственных решений относительно своего здоровья и лечения.
12 Все указанные выше принципы биоэтики, направленные на благо пациента и на достижение для него лучших результатов лечения, формируют этические рамки, в границах которых в статье будут анализироваться взаимоотношения врача и пациента в современных реалиях развивающейся технологической цивилизации.
13

ИИ и роботы в медицине: новые возможности и вызовы

14 Чтобы определить тенденции и пути трансформации взаимоотношений врача и пациента, необходимо рассмотреть применение различных видов СИИ и роботов в медицине, выявив положительные и негативные стороны их использования, а также оценив возможные риски, связанные с их внедрением в медицинскую практику.
15 Эволюция от простых измерительных устройств до высокотехнологичных систем в медицине, на основе ИИ, к которым относятся системы поддержки принятия врачебного решения, чат-боты, мобильные диагностические и терапевтические приложения и робототехника, показывает значительные возможности для улучшения эффективности лечения пациентов.
16 Автоматизация в медицине без ИИ преимущественно осуществляется через механизированные процессы, такие как, например, различные базы данных пациентов. В противоположность этому, интеграция ИИ в автоматизацию медицинских практик придает этим процессам уровень интеллектуализации, что позволяет системам анализировать множество данных, проводить диагностику, прогнозировать возможные заболевания и оптимизировать стратегии лечения с учетом обширной информационной базы. Таким образом, участие ИИ обогащает автоматизированные процессы в медицине элементами обработки данных и интеллектуального принятия решений.
17 Использование роботов в операционных залах позволяет хирургам работать с максимальной точностью, минимизируя риски для пациентов. Роботы могут выполнять монотонные и рутинные процедуры, освобождая медицинский персонал от повседневных задач и позволяя ему сосредоточиться на более сложных задачах. В реабилитации роботы способны предоставить структурированные программы физической терапии и поддержки пациентов, что может повысить скорость и улучшить результаты восстановления.
18 В связи со старением народонаселения в медицине становятся востребованными социальные роботы для эмоциональной поддержки пожилых пациентов, способные играть роль компаньонов. В больничных условиях социальные роботы оказывают пациентам, помощь, подбадривая, разговаривая с теми, кто лишен регулярного человеческого контакта и демонстрируя, как выполнять определенные двигательные действия, а также напоминая о необходимости приема лекарств.
19 Таким образом, развитие медицинской робототехники и СИИ имеет потенциал существенного положительного влияния на уровень медицинской помощи и ее доступности, предоставляя пациентам новые методы диагностики и лечения, а также ухода. Однако существуют и барьеры для широкого использования указанных технических достижений в медицинской практике, которые включают высокие затраты на их разработку и внедрение, сложности интеграции существующих систем и стандартов, а также вопросы этики и безопасности данных.
20 Рассмотрим три кейса, которые демонстрируют как новые возможности, так и риски инноваций в медицине.
21 В одной из недавних статей авторитетного медицинского журнал JAMA были описаны результаты исследования, проведенного с целью оценки способности чат-бота с ИИ (ChatGPT) предоставлять качественные ответы на вопросы пациентов [Ayers, Poliak, 2023]. Для этого были случайно выбраны 195 вопросов пациентов с публичного форума в социальных сетях, на которые ответили как профессиональные врачи, так и чат-бот. Ответы были оценены командой медицинских работников по их качеству и проявлению эмпатии.
22 Результаты показали, что ответы чат-ботов были предпочтительнее и оценены выше по качеству и эмпатии, чем ответы врачей. Авторы статьи пришли к выводу, что чат-бот с ИИ способен предоставлять качественные и чуткие ответы на вопросы пациентов, заданные на публичных форумах. Значение этих результатов свидетельствует о том, что чат-боты способны помочь в составлении ответов на вопросы пациентов, которые впоследствии могут быть доработаны врачами, а также способствовать снижению уровня выгорания медицинских работников.
23 Биоэтический и философский анализ данного кейса открывает несколько интересных аспектов. Во-первых, можно констатировать значимый прогресс в обеспечении доступа к информации и поддержке пациентов. Во-вторых, необходимо учитывать вопросы конфиденциальности, точности диагнозов и рекомендаций, а также ответственности за их постановку (кто несет ответственность: врач, чат-бот, разработчики алгоритмов?) Важно, чтобы пациенты осознавали ограничения и риски использования чат-ботов, а также необходимость получения последующей консультации у профессионального врача. В-третьих, возникают вопросы о том, насколько такие технологии могут заменить врача, и какова вообще сущность человеческой заботы и эмпатии в медицине. Может ли машина на самом деле понимать и отвечать на чувственные и эмоциональные потребности пациентов?
24 Во втором кейсе мы также сталкиваемся с вопросом о том, может ли машина имитировать человека. Так, национальная ассоциация расстройств пищевого поведения (NEDA) попыталась заменить всех сотрудников горячей линии психологической поддержки пациентов с расстройством пищевого поведения (РПП) чат-ботом, однако выяснилось, что он приносит больше вреда, чем пользы [Picchi, 2023].
25 Чат-бот Тесса, изначально созданный как профилактический инструмент, предлагающий стратегии для предотвращения РПП, был запущен в феврале 2022 года. Впоследствии оказалось, что чат-бот давал сомнительные и даже вредные советы, которые могли ухудшить состояние пациентов. Например, он рекомендовал считать килокалории и снижать их до 1000 в день, измерять толщину жировых складок, чего, конечно, не посоветовал бы врач.
26 Таким образом, решение заменить «живых сотрудников» горячей линии чат-ботом имело негативные последствия из-за ограниченных возможностей бота в обеспечении квалифицированной, эффективной и эмпатичной поддержки людей с РПП, что подчеркивает важность человеческого взаимодействия и участия в таких случаях. С биоэтической точки зрения, этот кейс поднимает вопросы о безопасности и эффективности чат-ботов, в частности, в области психологической помощи. Недостаток регулирования и контроля над тем, как чат-бот представляет советы и поддержку, может привести к потенциальному вреду для пациентов. Важно обеспечить соответствие технологических инноваций этическим нормам, особенно в области заботы о пациентах с психологическими расстройствами.
27 Группа ученых из США, Тайваня и Канады, опубликовавшая работу в журнале The Lancet Digital Health, обучила ИИ, используя сотни тысяч рентгеновских снимков, содержащих информацию о расе пациента, определять этническую принадлежность пациентов [Gichoya et al., 2022]. Ученые загрузили в ИИ тысячи снимков без указания расы пациентов и попросили машину определить расу каждого из них. Нейросеть угадывала расу человека (белый, темнокожий, азиат) с 98% точностью, даже когда сканы брали у людей одного и того же возраста, пола и комплекции. «Мы показываем, — пишут авторы, — что стандартные модели глубокого обучения ИИ могут определять расу по медицинским снимкам с высокой точностью в нескольких модальностях визуализации. Это подтверждается внешними проверками». Как пишут авторы и с чем невозможно не согласиться, этот факт вызывает тревожный вопрос о роли ИИ в медицинской диагностике и лечении, а именно, могут ли модели непреднамеренно проявлять расовую предвзятость при изучении подобных изображений? [там же].
28 Данная работа доказывает, что CИИ могут отражать различные предубеждения людей, будь то расизм, сексизм и др. Искажения в данных, на которых обучается ИИ, приводят к искаженным результатам, что делает их менее полезными, а потенциально даже опасными для общества.
29 Внедрение автономных медицинских роботов в процессы диагностики и лечения возможно благодаря их способности принимать решения на основе алгоритмов и данных. Однако этот аспект также вызывает важные этические вопросы. Какие нормы и ценности должны лежать в основе алгоритмов принятия решений? Как обеспечить, чтобы автономные роботы учитывали человеческое достоинство и индивидуальные предпочтения пациента?
30 Конфликт между алгоритмами и человеческими нормами становится явным, когда решение, принятое роботом, не соответствует ожиданиям пациента или врача. Такой конфликт может включать в себя ситуации, когда робот выбирает определенное лечение на основе статистических данных, но это лечение не соответствует индивидуальным особенностям пациента или его предпочтениям.
31 Вопрос об ответственности за ошибки, допущенные медицинскими роботами и СИИ, становится важным аспектом в этике медицинской робототехники. Как определить виновность, если робот допустил ошибку в диагностике или хирургической операции? Врачи могут сталкиваться с ситуацией, когда решения робота могут иметь непредвиденные последствия. Также возникает вопрос о том, как разграничить ответственность между врачом и роботом. Должны ли врачи нести ответственность за решения, принятые роботами?
32 Развитие медицинской робототехники и СИИ влечет за собой обработку большого объема медицинских данных, с чем связаны вопросы конфиденциальности и кибербезопасности. Важно найти ответ на вопрос: как обеспечить защиту медицинских данных пациентов и предотвратить возможные утечки информации из-за кибератак?
33 Проникновение хакеров в медицинские системы может иметь серьезные последствия, включая доступ к личной медицинской информации, изменение решений роботов и даже возможность нанесения вреда пациентам. Этические аспекты безопасности данных и кибербезопасности становятся особенно актуальными при использовании роботов и автоматизированных систем в медицинской практике.
34

Робоэтика: поиск баланса между автоматизацией и гуманизмом

35 Из материала предыдущего раздела ясно, что к началу XXI века возникла потребность в этической оценке робототехники, поскольку стало очевидно, что технические решения, принимаемые при проектировании роботов, имеют потенциал непосредственного и существенного влияния на жизнь людей. Появилась новая область знаний — робоэтика, которая изучает этические, социальные и правовые аспекты взаимодействия между роботами и людьми. В медицине робоэтика играет важную роль в разработке стандартов, которые обеспечивают этически и морально допустимое применение робототехники.
36 Термин «робоэтика» был предложен итальянским профессором Д. Веруджио (Школа робототехники Института электроники, информационной техники и телекоммуникаций) в 2002 году. В ходе Первого международного симпозиума по робототехнике в январе 2004 года в Сан-Ремо этот термин был введен официально [ЕВ].
37 Робоэтика входит в этику ИИ, иногда эти два понятия отождествляют, что и демонстрируется в данной статье. Робоэтика является прикладной этикой, ориентированной на разработку научных, культурных и технических решений, которые могут быть общими для различных социальных групп и людей разных убеждений. Эти решения должны быть направлены на стимулирование развития робототехники для улучшения жизни как отдельных индивидов, так и человеческого общества в целом, а также на предотвращение ее неэтичного и неправомерного использования против человека и человечества.
38 В 2006 году Веруджио была разработана дорожная карта робоэтики, в которой определены этические ценности людей [Verruggio, 2006]. Речь идет об уважении ценностей, связанных с достоинством и правами человека, о содействии равенству и справедливости в доступе к новым технологиям, защите культурного разнообразия людей и плюрализма, о предотвращении дискриминации и стигматизации. Основная задача робоэтики состоит в разработке социальных, моральных и юридических аспектов взаимодействия робота и человека.
39 В 2010 году Веруджио уточнил понятие робоэтики, пояснив, что это этика разработчиков, производителей и пользователей роботов: «Исследования в области робототехники и их применение все чаще вызывают этические последствия, связанные с более тесным взаимодействием между роботами и людьми, а также с наиболее тесным взаимодействием между самой робототехникой и биологической наукой» [Verruggio, 2010: 105].
40 Истоки формирования терминологии робототехники лежат в научной фантастике. Так, писатель-фантаст Айзек Азимов, автор термина «робототехника», впервые проанализировал этические последствия ее использования. В рассказе 1942 года «Хоровод» Азимов сформулировал свои три знаменитых закона робототехники, свод обязательных правил, которые должны соблюдаться, чтобы не причинить вреда человеку. Напомню эти правила: «Первое: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; Второе: робот должен повиноваться всем приказам, которые дает человек, если эти приказы не противоречат Первому Закону. И третье: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону» [Азимов, 1963].
41 Эти законы были заложены в основу математической модели позитронного мозга робота, обладающего ИИ, на которой базировались сознание и инстинкты роботов.
42 Когда в рассказах Азимова роботы стали взаимодействовать не только с человеком, но и с цивилизациями, писатель ввел четвертый закон робототехники, называемый «нулевой закон», поскольку он является приоритетным по сравнению с предыдущими законами. Этот закон гласит, что робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред.
43 Первая критика законов робототехники принадлежит самому Азимову. Автор обращает внимание на то, что законы могут быть по-разному поняты роботами, и они могут причинить вред человеку, как неумышленно, так и умышленно. Также законы могут быть трансформированы людьми в своих целях или нарушены из-за технической неисправности робота [Введенская, 2019].
44 Профессор Бруклинской школы права Ф. Паскуале отмечает, что законы Азимова, будучи этически корректными, нелегко согласуются между собой даже в теории, а учитывая реальную практику, их необходимо дополнить. Так, Паскуале предлагает четыре собственных закона робототехники, логически вытекающие как из этических принципов, так и из практики работы людей с машинами [Паскуале, 2022].
45 Первый закон гласит: роботизированные системы и ИИ должны дополнять профессионалов, а не заменять их. Гуманная программа автоматизации должна отдавать приоритет инновациям, дополняющим работников на рабочих местах, чья работа должна быть полноценным призванием. Технология часто заменяет не профессионала целиком, а лишь некоторые конкретные его действия. «ИИ так и останется искусственным, поскольку он всегда будет плодом человеческого сотрудничества. Более того, большинство недавних достижений в ИИ нацелены на решение строго определенных задач, а не на выполнение работ как таковых или социальных ролей», — пишет Паскуале [Паскуале, 2022: 16].
46 Этические вопросы в случае автоматизации медицины выглядят вторичными, поскольку первичными являются логика и семиотика диагноза, которые ориентированы на достижение объективности и точности в медицинской диагностике, способствуя минимизации ошибок, связанных с человеческим фактором. Этика же вступает в действие при принятии решений о том, как использовать полученные результаты диагностики в интересах заботы о пациенте. Здесь, на мой взгляд, важен именно человеческий фактор, который позволяет профессиональному врачу применить свои «мягкие навыки», неподвластные машинам. Машины становятся «умнее», а врачи должны становиться «человечнее».
47 Второй закон робототехники, сформулированный Паскуале, утверждает, что роботизированные системы и ИИ не должны притворяться людьми, поскольку существует принципиальное различие между гуманизацией технологии и подделкой исключительно человеческих качеств. Гонка за человекоподобием, по мнению Паскуале, может стать первым шагом на пути к замене человека. В связи с этим ведущие европейские специалисты по этике утверждают, что должны быть установлены правовые границы, определяющие, в какой мере людей можно заставлять верить в то, что они имеют дело с людьми, тогда как на самом деле они общаются с алгоритмами и умными машинами [European Group, 2018].
48 Обязанность уважать человеческое достоинство, возможно, потребует определенных ограничений функций и способностей искусственных интеллектов, сузив их возможность заменять людей, человеческие функции и/или «центральную мыслительную деятельность человека», примерами которой являются суждение, рассуждение и оценка... [IEEE, 2019]. Данные ограничения функций и способностей ИИ позволят избежать обмана людей или различных манипуляций ими.
49 Третий закон Паскуале гласит: роботизированные системы и ИИ не должны усиливать гонку вооружений с «нулевой суммой». Этот закон применим и за пределами поля боя, поскольку технологии надзора и контроля, разработанные в армии, также используются силами правопорядка и оказываются встроенными в биополитику. «Сложно жаловаться на медицинскую систему надзора, которая ускоряет отслеживание контактов, чтобы остановить распространение инфекционного заболевания, и препятствует таким образом началу пандемии», — отмечает Паскуале. Однако когда те же инструменты используются для постоянного ранжирования всех и каждого, они становятся элементом подавления людей, создавая мир строгой регламентации. Безопасность и креативность человека, по мнению автора новых законов робототехники, развиваются в средах, в которых найден баланс предсказуемости и открытости, порядка и подвижности. «Если мы не сможем ограничить робототехнику, встроенную в системы социального контроля, этому балансу придет конец», — заключает он [Паскуале, 2022: 30].
50 Четвертый закон робототехники по Паскуале формулируется так: роботизированные системы и ИИ всегда должны содержать указания на личность создателя, владельца или управляющего, поскольку за роботов и алгоритмические программы отвечают люди. Паскуале допускает, что некоторые роботы и алгоритмы в своем развитии отступят от идеалов, запрограммированных их собственниками, в результате взаимодействия с другими людьми или машинами, и в таких случаях может быть несколько сторон, ответственных за развитие данной машины и ее действий. «Независимо от того, что именно влияет на развитие подобных машин, исходный создатель обязан встроить в них определенные ограничения на развитие кода, чтобы можно было записывать факторы влияния и в то же время предотвращать возникновение негативных результатов. Когда же другой человек или организация взламывает либо отключает подобные ограничения, ответственным за проступки робота становится хакер», — уточняет исследователь [Паскуале, 2022: 31].
51 Смысл этих законов в области здравоохранения, как справедливо отмечает Паскуале, состоит в том, чтобы развивать программы, которые делают ставку на силы человека и позволяют снизить масштаб и интенсивность возможных конфликтов, а также зарегулированность в социальной жизни.
52 Таким образом, необходимо найти баланс между автоматизацией медицинской практики и поддержанием гуманистической сущности отношений врача и пациента, значение которой не теряет своей актуальности со времен античности. В связи с этим интеграция биоэтических принципов, направленных на сохранение таких ценностей как доверие, сострадание и забота, в робоэтику, становится неотъемлемой частью поиска этого баланса.
53

Принципы благодеяния, непричинения вреда, автономии, справедливости и объяснимости в робоэтике

54 Основополагающие принципы биоэтики претерпевают определенные изменения в робоэтике. Так, принцип благодеяния, подразумевающий в биоэтике, действия, направленные на достижение наилучших результатов для пациента, в робоэтике может быть определен как необходимость создания ИИ и роботов, приносящих значительную пользу благополучию людей, общества и планеты. Достичь этого, очевидно, возможно посредством положительного экономического воздействия, содействия устойчивому развитию и охране окружающей среды, а также расширения прав и возможностей населения [Floridi, Cowls, 2018]. Однако благодеяние, понимаемое робоэтикой более широко, не должно разрушать установленный биоэтикой принцип ориентации на пациента. Признавая в качестве общей цели содействия благополучию и учитывая конкретные контексты биоэтики и робоэтики, следует разработать соответствующие меры и положения, обеспечивающие положительное влияние технологий ИИ на общество, окружающую среду и расширение прав и возможностей человека. Благодеяние здесь следует понимать как необходимость создавать полезные технологии для экосистемы пациентов и общества в целом (с точки зрения робоэтики), а также существенно улучшать способы лечения и ухода, предлагаемые отдельным пациентам (с точки зрения биоэтики).
55 Принцип непричинения вреда в робоэтике подчеркивает важность предотвращения вреда или негативных последствий при разработке и использовании технологий ИИ [Floridi, Cowls, 2018]. Несмотря на то, что цель создания систем СИИ состоит в том, чтобы оказывать положительное воздействие на человека, крайне важно проявлять осторожность в отношении потенциальных рисков и их неправомерного использования. Здесь надо учитывать возможность возникновения проблем, связанных с конфиденциальностью, безопасностью и прозрачностью принятия решения алгоритмами.
56 В контексте робоэтики следует в первую очередь обратить внимание на негативные воздействия СИИ и роботов на пациентов с острой психологической реакцией на потерю человеческого взаимодействия, а также неблагоприятное влияние на уязвимые группы людей. В качестве примера можно привести пациентов с деменцией, которые используют социальных роботов и с большей вероятностью могут быть подвержены обману [Tan, Taeihagh, 2021] и пожилых людей, часто становящихся жертвами киберпреступности [Age, 2015].
57 Для робоэтики, как и для биоэтики, очень важно сохранение конфиденциальности личных данных пациентов, поэтому принцип непричинения вреда можно рассматривать и в контексте заботы о защите данных. Это особенно актуально, если учесть уязвимость этих данных для кибератак.
58 Центральный принцип биоэтики, принцип автономии подчеркивает неотъемлемую ценность и достоинство людей, признавая их право самостоятельно и осознанно принимать решения относительно своего здоровья и лечения. Робоэтика (этика ИИ) же под автономией понимает достижение баланса между индивидуальным принятием решений и делегированием полномочий искусственным агентам [Floridi, Cowls, 2018].
59 Важным аспектом здесь является вовлечение пациента в процесс принятия решений о лечении и уходе. Повышение автономии пациента путем поощрения его участия в процессах принятия решений основывается на признании того, что индивидуальное самоопределение является очень важной задачей. Обсуждая автономию пациента в контексте технологического прогресса, литовская исследовательница М. Заляускайте предполагает, что такие технологии, как мобильные приложения, которые используются пациентами для самоконтроля (сбора любых форм медицинских данных), могут повысить автономию и, в лучшем случае, перевести отношения между врачом и пациентом в формат обслуживания клиентов, где обе стороны имеют сбалансированное распределение прав и возможностей [Žaliauskaitė, 2020]. Однако такое распределение прав и обязанностей в отношениях между врачом и пациентом, которое обычно характеризуются уязвимостью пациента по отношению к врачу, мне кажется сомнительным. При рассмотрении типа автономии, которую смог бы поддерживать ИИ, неясной представляется и возможность алгоритма учитывать предпочтения разных людей (в отношении лечения) [McDougall, 2018]. Это может привести к появлению новой формы «цифрового патернализма», при которой ИИ принимает решения от имени пациентов и врачей с той разницей, что патерналистские отношения будут строиться по отношению к алгоритму, а не к врачу.
60 Кроме того, поскольку ИИ неспособен в настоящее время постичь социальные, психологические, биологические и духовные аспекты, серьезные проблемы могут возникнуть с уязвимыми группами населения. Например, пациент может оказаться не в состоянии принять решение о своем лечении и будет использовать социального робота для предоставления необходимой помощи [Boch, Ryan, 2023]. В этом случае готовность экосистемы ухода за пациентами делегировать задачи принятия решений системам ИИ с целью повышения эффективности может противоречить принципу автономии. Необходимо достичь баланса между индивидуальным принятием решений и делегированием полномочий искусственным агентам, чтобы защитить индивидуальный выбор пациента и передать решение задач по уходу, системам ИИ. У человека всегда должна быть возможность отменить, не исполнить, а также остановить реализацию решений, принятых роботом [Boch, Ryan, 2023] .
61 Принцип справедливости в биоэтике, устанавливающий равноправное и справедливое распределение медицинской помощи и ресурсов независимо от социального статуса, положения или других факторов, в робоэтике включает в себя справедливое и равноправное распределение полномочий ИИ по принятию решений и его последствий с учетом социального неравенства в автономии. Этот принцип направлен на устранение дискриминации, общую выгоду, процветание и равный доступ к технологиям ИИ [Floridi, Cowls, 2018]. Применение данного принципа необходимо при решении проблем, связанных с предвзятыми наборами данных в таких системах, как социальное страхование и здравоохранение. Как в биоэтике, так и в робоэтике большое внимание уделяется равноправию и справедливому распределению медицинских услуг или полномочий ИИ по принятию решений с учетом социальных различий и с целью предотвращения дискриминации людей на основе индивидуальных и личных характеристик (пола, возраста, этнической принадлежности и др.).
62 Объяснимость — это единственный принцип, относящийся только к робоэтике, позволяющий сосуществовать другим принципам и обеспечивающий подотчетность [Floridi, Cowls, 2018]. Это сложное, но основополагающее требование для всех технологий здравоохранения с поддержкой ИИ [Pawar, O’Shea, 2020]. Согласно этому принципу, разработчики алгоритмов должны быть способны объяснить общее обоснование и методологию решения ИИ, выборку данных, используемых для обучения модели, а также решения и действия по управлению данными, связанные с ними. Этот принцип особенно актуален в медицинских учреждениях, где у пациентов есть законная причина знать, как ИИ обнаружил конкретное заболевание, и на каких факторах была основана рекомендация, относящаяся к здоровью [Sand, Durán, 2022].
63 Продуктивное сочетание точек зрения биоэтики и робоэтики требует признания общих целей и ценностей, разделяемых обоими подходами. Комбинируя традиционное видение биоэтики, которое фокусируется на индивидуальном благополучии и этике, ориентированной на человека, с системными и социальными соображениями робоэтики, можно достичь всестороннего понимания этических последствий от внедрения новых технологий автоматизации в здравоохранении, а также гармонизировать сложные взаимоотношения врача и пациента, возникающие при использовании технических посредников между ними в виде СИИ и медицинских роботов.
64

⁎⁎⁎

65 Взаимоотношения врача и пациента представляют собой центральный аспект биоэтики, которая должна быть обновлена и переосмыслена в контексте современных технологических достижений, таких, как ИИ и робототехника. Медицинская робототехника и СИИ предоставляют многообещающие перспективы для улучшения диагностики, лечения и общего уровня медицинской помощи. Однако, современное развитие технологий автоматизации в медицине поднимает сложные этические вопросы, связанные с автономностью роботов, ответственностью за диагностические ошибки, объяснимостью СИИ и защитой данных. Основные принципы биоэтики должны быть тщательно сохранены, а робоэтика может помочь обозначить рамки и стандарты для использования роботов в медицинской практике, учитывая этические вопросы и заботясь о благополучии пациентов. Соблюдение этих принципов поможет гарантировать, что прогресс в робототехнике будет соответствовать потребностям и ценностям общества, сохраняя гуманизм и доверие в отношениях врача и пациента. Стремление к балансу между технологическими преимуществами и сохранением человеческой эмпатии и заботы в медицине становится одной из главных задач робоэтики.

References

1. Azimov A. Horovod [Round dance]. Transl. from English by D.A. Iordansky. Chernyj stolb: sbornik nauch.-fantastich. povestej i rasskazov [Black Pillar: a collection of science fiction stories]. Moscow: Knowledge Publ., 1963.

2. Vvedenskaya E.V. Aktual'nye problemy roboetiki [Actual problems of roboethics]. Naukovedcheskie issledovaniya. 2019. P. 88–101.

3. Paskuale F. Novye zakony robototekhniki: apologiya chelovecheskih znanij v epohu iskusstvennogo intellekta [New laws of robotics: an apology for human knowledge in the era of artificial intelligence]. Transl. from English by A. Korolev. Moscow: RANEPA Delo Publ., 2022.

4. Potter Van R. Bioetika: most v budushchee [Bioethics: a Bridge to the Future]. Ed. by S.V. Vekovshinina, V.L. Kulinichenko, transl. from English by T.G. Budkovskaya, S.V. Vekovshinina. Kiev: Karpenko Publ., 2002.

5. Tishchenko P.D. Chto takoe bioetika? Bioetika: voprosy i otvety [What is bioethics? Bioethics: questions and answers]. Moscow: UNESCO Publ., 2005.

6. Age U. Only the Tip of the Iceberg: Fraud against Older People; Age UK: London, UK, 2015.

7. Ayers J.W, Poliak А., Dredze М. et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine. 2023. N 183(6). P 589–596.

8. Beauchamp Т., Childress J. Principles of biomedical ethics. Oxford: Oxford University Press, 1989. P. 141–147.

9. Beauchamp T.L., Walters L.R., Kahn J.P. et al. Contemporary Issues in Bioethics. Thomson Wadsworth USA. 2008.

10. Boch A.,Ryan S., Kriebitz A. at al. Beyond the Metal Flesh: Understanding the Intersection between Bio- and AI Ethics for Robotics in Healthcare. Robotics. 2023. 12(4), 110. URL: https://doi.org/10.3390/robotics12040110 (date of access: 22.08.2023).

11. European Group on Ethics in Science and New Technologies, European Commission, Statement on Artificial Intelligence, Robotics and Autonomous Systems 16. 2018. URL: https://publications.curopa.cu/en/publication. detail/-/publication/dfebe62e-qceg-11e8-beid-olaa75ed71a1 (date of access: 22.08.2023).

12. Floridi L., Cowls J., Beltrametti M.,; Chatila R., Chazerand P., Dignum V., Luetge C., Madelin R., Pagall, U., Rossi F., et al. AI4People — An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines. 2018.N28. P. 689–707.

13. IEEE, Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design 39. 2019. URL: https:/ standards.iece.org/content/ieee-standards/en/industry-connections/ (date of access: 22.08.2023).

14. Gichoya J.W., Banerjee I., Bhimireddy A.R. AI recognition of patient race in medical imaging: a modelling study. The Lancet Digital Health. 2022. Vol. 4. URL: https://doi.org/10.1016/S2589-7500 (22)00063-2 (date of access: 22.08.2023).

15. McDougall R.J. Computer knows best? The need for value-flexibility in medical AI. Journal of Medical Ethics. 2018. N 45(3):156. URL: https:// doi: 10.1136/medethics-2018-105118 (date of access: 22.08.2023).

16. Pawar U., O’Shea D., Rea S., O’Reilly R. Explainable AI in Healthcare. Proceedings of the 2020 International Conference on Cyber Situational Awareness, Data Analytics and Assessment (CyberSA), Dublin, Ireland, 15–19 June 2020. NJ, USA: IEEE Piscataway. P. 1–2.

17. Picchi А. Eating disorder helpline shuts down AI chatbot that gave bad advice. CBS Interactive Inc. 2023. URL: https://www.cbsnews.com/news/eating-disorder-helpline-chatbot-disabled/ (date of access: 22.08.2023).

18. Sand M., Durán J.M., Jongsma K.R. Responsibility beyond design: Physicians’ requirements for ethical medical AI. Bioethics. 2022. N 36. P. 162–169. URL: https://doi.org/10.1111/bioe.12887 (date of access: 22.08.2023).

19. Tan S.Y., Taeihagh A., Tripathi A. Tensions and antagonistic interactions of risks and ethics of using robotics and autonomous systems in long-term care. Technological Forecasting аnd Social Change. 2021. N 167. URL: https://doi.org /10.1016/j.techfore.2021.120686 (date of access: 22.08.2023).

20. Veatch R. M. Models for Medicine in a Revolutionary Age. Hastings Center Report. 1972. Vol. 2, N 3. P. 5–7.

21. Verruggio G. EURON Roboethics Roadmap. Scuola di Robotica. 2006. URL: http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf (date of access: 22.08.2023).

22. Veruggio G. Roboethics. Robotics & Automation Magazine. IEEE. 2010. Vol. 17, iss. 2. P. 105–109.

23. Žaliauskaitė M. Role of ruler or intruder? Patient’s right to autonomy in the age of innovation and technologies. AI & Society: Knowledge, Culture and Communication. 2021. Vol. 36. P. 573–583.

Comments

No posts found

Write a review
Translate