Я шукаю..

Використання ChatGPT у медицині викликає питання безпеки, конфіденційності та упередженості Інновації

Використання ChatGPT у медицині викликає питання безпеки, конфіденційності та упередженості

"Автентифікація

Генеративний штучний інтелект, штучний інтелект на основі швидкого доступу, який може генерувати текст, зображення, музику та інші медіа за лічені секунди, продовжує розвиватися з шаленою швидкістю.

Менш ніж півроку тому OpenAI запустив свій генеративний інструмент ШІ ChatGPT. Всього через чотири місяці компанія випустила GPT-4, що стало величезним кроком вперед у швидкості обробки, потужності та можливості.

Кожна галузь звернула увагу на це. Охорона здоров'я, зокрема. Спостерігачі були дещо вражені, коли оригінальна версія ChatGPT склала іспит на медичну ліцензію в США, хоча й ледве. Через пару місяців Med-PaLM 2 від Google успішно пройшов той самий тест, отримавши оцінку в категорії «експерт».

Незважаючи на зростаючу кількість доказів того, що генеративний штучний інтелект готовий зробити революцію в медичній допомозі, пацієнти не вагаються, щоб прийняти його. Згідно з нещодавнім опитуванням Pew Research, 6 із 10 дорослих американців стверджують, що почуватимуться «некомфортно», якщо їхній лікар покладається на штучний інтелект для діагностики захворювань і надання рекомендацій щодо лікування.

Сучасні версії генеративного ШІ не готові для широкого використання в охороні здоров’я. Час від часу вони не справляються з основною математикою, вигадують джерела та «галюцинують», даючи впевнені, але фактично неправильні відповіді. Світ уважно спостерігає, як швидко OpenAI, Google і Microsoft зможуть виправити ці помилки.

Але самі по собі ці виправлення не вирішать двох найбільших проблем, про які пацієнти повідомили в опитуванні Pew:

Технологічні ризики, включаючи безпеку, конфіденційність і алгоритмічні упередження. Етичні проблеми щодо взаємодії між машинами та людьми.

У цій статті розглядається перший набір страхів. Наступний, 8 травня, охопить етичні аспекти, зокрема вплив штучного інтелекту на стосунки між лікарем і пацієнтом.

Чи справедливі страхи пацієнтів?

Американці давно ставляться з підозрою до нових технологій. Згадайте, як клієнти банків у 1970-х рр. чинили опір використанню банкоматів, побоюючись, що апарати з’їдять їхні картки та неправильно оброблятимуть їхні гроші. Дійсно, спочатку помилки банкомата були поширеними. Але коли банки внесли зміни, і коріння страхів людей, спричинених технікою, перестало матеріалізуватись, самі страхи зникли зі свідомості. Цей процес відомий як звикання.

Коли справа доходить до використання генеративного штучного інтелекту в медицині, побоювання людей щодо безпеки, конфіденційності та упередженості є нормальними та обґрунтованими, і їх потрібно сприймати серйозно. Але найважливіше питання, яке слід розглянути: чи буде штучний інтелект становити більший ризик для пацієнтів, ніж технології, які вони вже використовують у своєму повсякденному житті?

Давайте розглянемо це питання, розглядаючи ці технологічні проблеми одну за одною.

1. Безпека

Банки, державні органи та медичні компанії однаково зберігають конфіденційну інформацію у великих базах даних і, отже, повинні піддаватися ретельній перевірці. Це особливо вірно зараз, оскільки все більше і більше окремих даних переміщується в хмару (сервери в Інтернеті, на яких працюють ці великі бази даних).

Кібербезпека викликає серйозне занепокоєння в Сполучених Штатах. Дослідження показують, що 9 із 10 американців стурбовані тим, що хакери отримають доступ до їхньої особистої чи фінансової інформації та використають її в підлих цілях. Але коли мова заходить про ChatGPT в охороні здоров’я, пацієнти захочуть знати, чи підвищує генеративний ШІ ризик майбутніх кібератак.

Для перспективи — і всупереч тому, що можуть припустити пацієнти — кабінет індивідуального лікаря є одним із найменш безпечних місць для зберігання особистих медичних даних. Практикам одиноких лікарів не вистачає фінансових і технологічних ресурсів для встановлення найсучасніших засобів захисту мережі, що робить дані пацієнтів надзвичайно вразливими.

Отже, чому кіберзлочинці частіше не зламують кабінети окремих лікарів? Причина в тому, що великі системи даних, які містять сотні тисяч або навіть мільйони записів пацієнтів, є набагато ціннішими.

За іронією долі, те, що робить медичні записи безпечнішими в кабінеті вашого місцевого лікаря, те саме робить систему медичних записів неефективною. Якщо ваш лікар не належить до великої медичної групи, ваша медична карта не пов’язана (або доступна для) інших кабінетів лікаря чи навколишніх лікарень.

Хоча урядові чиновники охорони здоров’я протягом десятиліть намагалися стимулювати безпечний обмін історіями пацієнтів, дуже небагато постачальників сьогодні можуть отримати доступ до «всеосяжної» системи медичних записів. У результаті, навіть коли клініцисти в спільноті використовують ту саму цифрову платформу для зберігання записів, вони не можуть отримати доступ до всіх даних про кожного пацієнта, необхідних для надання оптимальної медичної допомоги.

Це не тільки неефективно, але й небезпечно.

Якщо ви потрапите до відділення невідкладної допомоги пізно ввечері, коли кабінет вашого лікаря закритий, лікар невідкладної допомоги не зможе переглянути вашу історію хвороби, поточні рецепти, нещодавні діагностичні тести чи іншу важливу інформацію, необхідну для надання вам найкращий можливий догляд.

Таким чином, безпека в медицині – це палиця з двома кінцями. Як пацієнти, ми хочемо, щоб наші медичні дані були безпечно закриті для зловмисних хакерів. Але нам також потрібна, щоб ця інформація була вичерпною та легкодоступною, куди б ми не звернулися по допомогу, незалежно від часу доби чи дня тижня.

Генеративні програми AI не вирішать цю проблему, якщо виробники EHR не відкриють свої інтерфейси прикладного програмування (API). Важливо відзначити, що ніщо у створенні або експлуатації інструментів штучного інтелекту також не збільшить ризики для безпеки людей.

Великі фінансові установи та компанії EHR зберігають величезну кількість оцифрованої інформації за міжмережевими екранами, через які важко проникнути. Ми можемо припустити, що ChatGPT (і генеративні системи ШІ, розроблені Google та іншими) принаймні підтримуватимуть однакові гарантії. Забезпечити це в їхніх репутаційних та економічних інтересах.

2. Конфіденційність

Хоча великі компанії наполегливо працюють над забезпеченням максимальної безпеки даних, їхні бізнес-моделі вже давно залежать від порушення конфіденційності користувачів.

Одного разу конгресмен запитав Марка Цукерберга, як Facebook виживає як бізнес, не стягуючи плату за користувачів. Генеральний директор відповів: «За допомогою реклами». Цукерберг мав на увазі, що його соціальна мережа заробляє гроші, продаючи особисту інформацію користувачів третім особам. І протягом десятиліть люди, які користуються сайтами соціальних медіа та пошуковими системами, фактично торгують: передають свою особисту інформацію рекламодавцям в обмін на безкоштовний доступ.

У медицині незаконно отримувати та розголошувати дані з медичних записів. Але це не гарантує повної конфіденційності пацієнта. Нещодавно в новинах було розкрито, як лікарні та аптеки обмінюються даними в Інтернеті з третіми сторонами без явного дозволу пацієнтів.

Крім того, коли люди шукають свої симптоми в Інтернеті або роблять онлайн-покупки для лікування проблем зі здоров’ям, ця інформація використовується компаніями для цільової реклами. Ось чому люди отримують купони на підгузки протягом кількох днів після того, як дізнаються, що вагітні.

Пацієнти можуть зіткнутися з подібними ризиками конфіденційності з компаніями, що займаються генеруванням ШІ. Але, як і у випадку з безпекою, у генеративному штучному інтелекті немає нічого такого, що посилює ризики конфіденційності користувачів — не більше, ніж у існуючому середовищі соціальних і цифрових медіа.

3. Упередженість

На відміну від сфер безпеки та конфіденційності, де респонденти опитування Pew висловили високу стурбованість, більшість пацієнтів прогнозують, що генеративний штучний інтелект буде менш медичним упередженим у майбутньому (51%), а не більше (15%).

Дослідники продовжують виявляти упередження в алгоритмічних інструментах, що використовуються в медицині. У кількох випадках було показано, що ці упереджені ІТ-додатки посилюють існуючу нерівність у сфері охорони здоров’я (прогалини в якості медичної допомоги на основі статі, раси, етнічного походження, доходу тощо).

Таким чином, людське занепокоєння щодо упередженості в медичних алгоритмах є дійсним. І потреба у вирішенні питань залишається гострою. Але в заголовках втрачено той факт, що ці помилки рідко виникають через збої в нулях і одиницях. Правда полягає в тому, що комп’ютери та алгоритми не є упередженими. Люди є. І коли комп’ютери видають упереджені рекомендації, вони роблять це тому, що вони навчені на основі людської поведінки та рішень.

Така поведінка та рішення часто відображають неявні упередження. У Сполучених Штатах, наприклад, лікарі рекомендують реконструкцію грудей темношкірим пацієнткам після мастектомії рідше, ніж білим пацієнткам. Вони призначають менше знеболюючих препаратів темношкірим та латиноамериканським пацієнтам після операції, ніж білим. А на початку пандемії, коли ймовірність смерті від Covid-19 у темношкірих людей була вдвічі більша, лікарі тестували чорношкірих пацієнтів на вірус лише вдвічі рідше, ніж білих пацієнтів з ідентичними симптомами.

Тому, коли розробники інструментів штучного інтелекту вводять ці дані у свої програми, алгоритми припускають, що чорношкірі пацієнти не потребують реконструкції грудей так часто, не потребують стільки знеболюючих і не потребують тестування так часто, як білі люди.

На щастя, генеративний ШІ має потенціал зменшити поширеність упередженості в медицині. Це тому, що він містить набагато ширший діапазон вхідних даних, ніж програми штучного інтелекту, розроблені для конкретних медичних функцій (наприклад, читання мамографії чи лікування діабету). На відміну від цих «вузьких» додатків ШІ, генеративний ШІ був створений, щоб відповідати на майже нескінченну кількість запитань і виконувати необмежену кількість функцій. Щоб полегшити цю здатність, додатки попередньо навчені з використанням величезних наборів даних, які можуть ненавмисно включати упередження в догляді за пацієнтами, але також включають підтверджені дослідження існування та небезпеки упереджень у медицині.

Отже, коли лікарі «забувають» запропонувати реконструкцію грудей, призначити адекватні знеболюючі або замовити необхідне лабораторне дослідження для темношкірих або латиноамериканських пацієнтів, ChatGPT зможе поставити під сумнів рішення лікаря. Таким чином, він відійде від медичних упереджень і перейде до більш справедливої форми догляду для всіх.

Generative AI: герой чи лиходій?

Я оптимістично налаштований, що ChatGPT і майбутні генеративні програми штучного інтелекту розширять можливості пацієнтів і змінять охорону здоров’я на краще. Ці інструменти допоможуть лікарям і пацієнтам досягти найкращих клінічних результатів, зробити лікування більш доступним і знизити витрати (частково за рахунок зменшення медичних помилок, розбіжностей у стані здоров’я та неефективної медичної допомоги).

Хоча програми не можуть повністю уникнути або запобігти сьогоднішнім проблемам безпеки, конфіденційності та упередженості, ризик для користувачів буде не більшим, ніж той, який люди вже відчувають.

Нарешті, як зазначили респонденти в опитуванні Pew, технічні проблеми — це не все, що їх турбує щодо використання ШІ в медицині. Оскільки ці інструменти стають все більш потужними та широко доступними, вони також впливатимуть на стосунки між лікарем і пацієнтом і порушуватимуть дуже суперечливі етичні питання. Наступна стаття цієї серії з двох частин буде зосереджена на цих людських проблемах.