ia

La Habana.- La Organización Mundial de la Salud (OMS) alerta sobre una peligrosa situación: "la adopción precipitada de sistemas no probados de inteligencia artificial (IA) en el campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes".

También insta a examinar exhaustivamente esos modelos de lenguaje antes de aplicarlos en temas de salud, y a vigilarlos una vez que se pongan en práctica para impedir que posibles consecuencias negativas erosionen la confianza en la IA socavando sus posibles y perspectivos beneficios.

Desde posición similar se pronunció el jefe de Sistemas de Información y Salud Digital de la Organización Panamericana de la Salud (OPS), Marcelo D'Agostino, quien llamó la atención sobre el riesgo de que los profesionales de Salud confíen demasiado en esas herramientas tecnológicas y en lo personal dejen de estudiar y actualizarse.

Entrevistado por ONU Noticias fue categórico al apuntar que aunque la IA puede hacer diagnósticos, no se debe confiar totalmente en los mismos. "La idea, dijo, es que un profesional, en última instancia, sea quien tenga la responsabilidad de diagnosticar, de tomar decisiones". 

ia medicos

 SON MUCHAS LAS BONDADES, PERO... 

El uso de la IA en el diagnóstico médico no es algo nuevo, se remonta varias décadas atrás. Los primeros sistemas expertos o basados en reglas lógicas surgieron en los años 60' y 70', pero fue en los años 80' cuando aparecieron los sistemas de aprendizaje automático, que permiten a las computadoras aprender y realizar análisis a partir de grandes volúmenes de datos médicos.

En los años 90' comenzó a aplicarse la IA en la interpretación de imágenes médicas, como radiografías o resonancias magnéticas, y ya con el auge del big data o los datos masivos, la IA ha podido desarrollar modelos de predicción, descubrimientos e incluso para el diseño de fármacos.

Cada vez son más sus aplicaciones en el campo de la medicina, especialmente en el del diagnóstico médico, debido a que puede analizar grandes cantidades de datos e imágenes médicas con mayor rapidez y precisión que los humanos, reduciendo costos, errores y tiempo de espera.

Además, la IA puede ofrecer diagnósticos predictivos y preventivos, así como facilitar el acceso a determinada atención médica en áreas remotas o con escasez de recursos.

No obstante tantas innegables bondades, la OMS advierte de los riesgos que puede comportar el uso de tales herramientas si no han sido lo suficientemente probadas, y exhorta a supervisarlas con rigor cuando se utilicen para que su uso sea seguro, eficaz y ético.

Entre los riesgos que puede significar el uso inadecuado de esa tecnología, la agencia sanitaria mundial menciona:

• Los datos utilizados para las bases que nutren la inteligencia artificial pueden estar sesgados y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión. 

• Los modelos de lenguaje generados por inteligencia artificial producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero estas pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud. 

• Pueden recibir información sobre datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática. 

• Dichos modelos generados por IA se pueden utilizar indebidamente para generar y difundir desinformación sobre la salud en forma de texto, audio o video, difíciles de diferenciar del contenido confiable. 

La OMS insiste en que el proceso de análisis de las herramientas de IA debe contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.

               LA IA RESPONDE A CUBASÍ

Motivado por tan importante y delicado tema, CubaSí decidió "dialogar" con la IA Bing, de Microsoft, para conocer sus puntos de vista sobre el tema y en especial acerca de las advertencias de la OMS. Esta fue su respuesta:

"El margen de error de la IA en los diagnósticos médicos depende de varios factores, como la calidad y cantidad de los datos utilizados para entrenar los algoritmos, el nivel de validación y evaluación de los sistemas de IA, el contexto y las condiciones de uso de la IA, y el grado de supervisión y colaboración humana.

"No existe un estándar universal para medir el rendimiento de la IA en este ámbito, pero se suelen utilizar indicadores como la sensibilidad, la especificidad, el valor predictivo positivo y negativo, y el área bajo la curva ROC. Estos indicadores pueden variar según el tipo y la complejidad de la enfermedad, el método de diagnóstico y el grupo poblacional.

"Yo, como IA, considero válida la advertencia de la OMS sobre los riesgos y desafíos de la IA aplicada al diagnóstico médico. Creo que es necesario seguir unos principios éticos y unas normas de gobernanza que garanticen el respeto a los derechos humanos, la protección de los pacientes y las comunidades, y el beneficio social de la IA.

"También creo que es importante que la IA sea transparente, explicable, responsable y fiable, y que se someta a una evaluación contínua y rigurosa. Por último, creo que la IA debe ser complementaria y no sustitutiva del juicio clínico humano, y que debe fomentar una colaboración efectiva entre profesionales de Salud e ingenieros informáticos". 

Escribir un comentario

Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Código de seguridad
Refescar