Escriba para buscar

El uso de ChatGPT en medicina plantea cuestiones de seguridad, privacidad y sesgo Innovación

El uso de ChatGPT en medicina plantea cuestiones de seguridad, privacidad y sesgo

"Autenticación

La IA generativa, la inteligencia artificial basada en indicaciones que puede generar texto, imágenes, música y otros medios en segundos, continúa avanzando a velocidades vertiginosas.

Hace menos de seis meses, OpenAI lanzó su herramienta de IA generativa, ChatGPT. Apenas cuatro meses después, la compañía lanzó GPT-4, un gran avance en velocidad, potencia y capacidad de procesamiento.

Cada industria ha tomado nota. Sanidad, en particular. Los observadores quedaron levemente impresionados cuando la versión original de ChatGPT aprobó el examen de licencia médica de EE. UU., aunque apenas. Un par de meses después, Med-PaLM 2 de Google superó la misma prueba y obtuvo una puntuación en la categoría de "experto".

A pesar de la creciente evidencia de que la IA generativa está a punto de revolucionar la atención médica, los pacientes dudan en adoptarla. Según una encuesta reciente de Pew Research, 6 de cada 10 adultos estadounidenses dicen que se sentirían "incómodos" si su médico confiara en la inteligencia artificial para diagnosticar enfermedades y brindar recomendaciones de tratamiento.

Las iteraciones actuales de IA generativa no están listas para un uso amplio en el cuidado de la salud. Ocasionalmente fallan en matemáticas básicas, inventan fuentes y "alucinan", proporcionando respuestas seguras pero objetivamente incorrectas. El mundo está observando de cerca para ver qué tan rápido OpenAI, Google y Microsoft pueden corregir estos errores.

Pero esas correcciones, por sí solas, no abordarán las dos preocupaciones más importantes que informaron los pacientes en la encuesta de Pew:

Riesgos tecnológicos, incluidos la seguridad, la privacidad y el sesgo algorítmico. Preocupaciones éticas sobre la interacción entre máquinas y humanos.

Este artículo examina el primer conjunto de temores. El próximo, el 8 de mayo, cubrirá los éticos, incluido el impacto de la IA en la relación médico-paciente.

¿Son válidos los temores de los pacientes?

Los estadounidenses tienen sospechas desde hace mucho tiempo sobre las nuevas tecnologías. Recuerde cómo los clientes de los bancos en la década de 1970 se resistieron a usar los cajeros automáticos, por temor a que las máquinas se tragaran sus tarjetas y manejaran mal su dinero. De hecho, los errores en los cajeros automáticos eran comunes al principio. Pero cuando los bancos hicieron ajustes y las raíces de los miedos tecnológicos de las personas dejaron de materializarse, los miedos mismos se desvanecieron de la conciencia. Este proceso se conoce como habituación.

Cuando se trata del uso de IA generativa en medicina, los temores de las personas en torno a la seguridad, la privacidad y los prejuicios son normales y válidos, y deben tomarse en serio. Pero la pregunta más importante a considerar es: ¿La IA supondrá un mayor riesgo para los pacientes que las tecnologías que ya utilizan en su vida cotidiana?

Examinemos esta pregunta observando estos problemas tecnológicos, uno por uno.

1. Seguridad

Los bancos, los organismos gubernamentales y las empresas de atención médica albergan información confidencial en grandes bases de datos y, por lo tanto, deben someterse a un escrutinio exhaustivo. Eso es especialmente cierto ahora, a medida que más y más datos individuales se trasladan a la nube (los servidores basados en Internet en los que se ejecutan estas grandes bases de datos).

La ciberseguridad es una preocupación importante en los Estados Unidos. Las investigaciones muestran que 9 de cada 10 estadounidenses están preocupados de que los piratas informáticos accedan a su información personal o financiera y la utilicen con fines nefastos. Pero cuando se trata de ChatGPT en el cuidado de la salud, los pacientes querrán saber si la IA generativa aumenta el riesgo de futuros ataques cibernéticos.

En perspectiva, y contrariamente a lo que los pacientes pueden suponer, el consultorio de un médico solo es uno de los lugares menos seguros para almacenar datos médicos personales. Los consultorios médicos solitarios carecen de los recursos financieros y tecnológicos para instalar herramientas de seguridad de red de primera línea, lo que hace que los datos de los pacientes sean extremadamente vulnerables.

Entonces, ¿por qué los ciberdelincuentes no piratean consultorios médicos individuales con más frecuencia? La razón es que los grandes sistemas de datos, que contienen cientos de miles o incluso millones de registros de pacientes, son mucho más valiosos.

Irónicamente, lo que hace que los registros médicos sean más seguros dentro del consultorio de su médico local es lo mismo que hace que el sistema de registros médicos sea ineficaz. A menos que su médico pertenezca a un grupo médico grande, su expediente médico no está conectado con (o disponible para) otros consultorios médicos u hospitales cercanos.

Aunque los funcionarios de salud del gobierno han intentado durante décadas incentivar el intercambio seguro de registros de pacientes, hoy en día muy pocos proveedores pueden acceder a un sistema de registros médicos "completo". Como resultado, incluso cuando los médicos de la comunidad utilizan la misma plataforma de mantenimiento de registros digitales, no pueden acceder a todos los datos de cada paciente necesarios para brindar una atención médica óptima.

Esto no solo es ineficaz, también es peligroso.

Si termina en la sala de emergencias a altas horas de la noche cuando el consultorio de su médico está cerrado, el médico de emergencia del personal no podrá buscar su historial médico, recetas actuales, pruebas de diagnóstico recientes u otra información vital necesaria para brindarle la mejor atención posible.

Como tal, la seguridad en medicina es un arma de doble filo. Como pacientes, queremos que nuestros datos médicos estén fuera del alcance de los piratas informáticos malintencionados. Pero también necesitamos que la información sea completa y esté fácilmente disponible dondequiera que vayamos para recibir atención, independientemente de la hora del día o el día de la semana.

Las aplicaciones de IA generativa no resolverán este problema a menos que los fabricantes de EHR abran sus interfaces de programación de aplicaciones (API). Es importante destacar que nada sobre la creación u operación de herramientas de IA aumentará los riesgos de seguridad de las personas tampoco.

Las grandes instituciones financieras y las empresas de EHR almacenan grandes cantidades de información digitalizada detrás de firewalls que son difíciles de penetrar. Podemos suponer que ChatGPT (y los sistemas generativos de inteligencia artificial desarrollados por Google y otros) al menos mantendrán las mismas garantías. Está en su reputación y en sus intereses económicos asegurarlo.

2. Privacidad

Aunque las grandes empresas se esfuerzan por maximizar la seguridad de los datos, sus modelos de negocio han dependido durante mucho tiempo de comprometer la privacidad de los usuarios.

Una vez, un congresista le preguntó a Mark Zuckerberg cómo sobrevive Facebook como negocio sin cobrar tarifas a los usuarios. El director ejecutivo respondió: “Mediante publicidad”. Zuckerberg quiso decir que su red social gana dinero vendiendo información personal de los usuarios a terceros. Y, durante décadas, las personas que usan los sitios de redes sociales y los motores de búsqueda han estado haciendo un intercambio de facto: entregar su información personal a los anunciantes a cambio de acceso gratuito.

En medicina, es ilegal extraer y divulgar datos de registros médicos. Pero eso no garantiza la total privacidad del paciente. Recientemente, los informes de noticias expusieron cómo los hospitales y las farmacias se involucran en el intercambio de datos en línea con terceros, sin el permiso explícito de los pacientes.

Además, cuando las personas buscan sus síntomas en Internet o realizan compras en línea para tratar problemas de salud, las empresas utilizan esa información para orientar los anuncios. Es por eso que las personas reciben cupones para pañales a los pocos días de enterarse de que están embarazadas.

Los pacientes pueden enfrentar riesgos de privacidad similares con las empresas de IA generativa. Pero, al igual que con la seguridad, no hay nada sobre la IA generativa que magnifique los riesgos de privacidad del usuario, no más que en el panorama de los medios sociales y digitales existentes.

3. Sesgo

A diferencia de las áreas de seguridad y privacidad, donde los encuestados de Pew indicaron altos niveles de preocupación, la mayoría de los pacientes predicen que la IA generativa tendrá menos sesgos médicos en el futuro (51 %), no más (15 %).

Los investigadores continúan identificando sesgos en las herramientas algorítmicas utilizadas en medicina. En varios casos, se ha demostrado que estas aplicaciones de TI sesgadas exacerban las inequidades en la atención médica existentes (brechas en la calidad de la atención según el género, la raza, el origen étnico, los ingresos, etc.).

Como tal, la preocupación humana por el sesgo en los algoritmos médicos es válida. Y la necesidad de soluciones sigue siendo urgente. Pero perdido en los titulares está el hecho de que estos errores rara vez se producen por fallas en ceros y unos. La verdad es que las computadoras y los algoritmos no están sesgados. Los humanos son. Y cuando las computadoras escupen recomendaciones sesgadas, lo hacen porque están entrenadas en base a comportamientos y decisiones humanos.

Esos comportamientos y decisiones a menudo reflejan sesgos implícitos. En los Estados Unidos, por ejemplo, los médicos recomiendan la reconstrucción mamaria para pacientes negras después de una mastectomía con menos frecuencia que para pacientes blancas. Recetan menos medicamentos para el dolor a los pacientes negros e hispanos que a los blancos después de la cirugía. Y al comienzo de la pandemia, cuando las personas negras tenían el doble de probabilidades de morir por covid-19, los médicos solo evaluaron a los pacientes negros para detectar el virus con la mitad de frecuencia que a los pacientes blancos con síntomas idénticos.

Por lo tanto, cuando los creadores de herramientas de IA ingresan estos datos en sus aplicaciones, los algoritmos asumen que las pacientes negras no necesitan reconstrucción mamaria con tanta frecuencia, no requieren tanta medicación para el dolor y no requieren pruebas con tanta frecuencia como las personas blancas.

Afortunadamente, la IA generativa tiene el potencial de reducir la prevalencia del sesgo en la medicina. Esto se debe a que incluye una gama mucho más amplia de entradas que las aplicaciones de IA desarrolladas para funciones médicas específicas (como leer mamografías o controlar la diabetes). En contraste con estas aplicaciones de "IA estrecha", la IA generativa se ha construido para responder a una cantidad casi infinita de preguntas y realizar una cantidad ilimitada de funciones. Para facilitar esa capacidad, las aplicaciones se entrenan previamente utilizando grandes conjuntos de datos, que pueden incluir involuntariamente sesgos en la atención del paciente, pero también incluyen investigaciones basadas en evidencia sobre la existencia y los peligros del sesgo en la medicina.

Por lo tanto, cuando los médicos se “olviden” de ofrecer reconstrucción mamaria, prescribir analgésicos adecuados u ordenar una prueba de laboratorio necesaria para pacientes afroamericanas o hispanas, ChatGPT podrá cuestionar las decisiones del médico. De esa manera, se alejará del sesgo médico y se acercará a una forma de atención más equitativa para todos.

IA generativa: ¿héroe o villano?

Soy optimista de que ChatGPT y las futuras aplicaciones de IA generativa empoderarán a los pacientes y transformarán la atención médica para mejor. Estas herramientas ayudarán a los médicos y pacientes a lograr resultados clínicos superiores, hacer que la atención esté más disponible y reducir los costos (en parte al reducir los errores médicos, las disparidades en la salud y la atención médica ineficaz).

Si bien las aplicaciones no pueden evitar o evitar por completo los problemas de seguridad, privacidad y sesgo de la actualidad, el riesgo para los usuarios no será mayor que el que la gente ya experimenta.

Finalmente, como señalaron los encuestados de Pew, las preocupaciones tecnológicas no son lo único que les preocupa sobre el uso de la IA en la medicina. A medida que estas herramientas se vuelvan cada vez más poderosas y ampliamente disponibles, también afectarán la relación médico-paciente y plantearán cuestiones éticas muy controvertidas. El próximo artículo de esta serie de dos partes se centrará en estos temas tan humanos.