La Organización Mundial de Salud (OMS) advirtió de los riesgos de esas herramientas si no han sido lo suficientemente probadas y llamó a examinarlas y supervisarlas con rigor cuando se utilicen para que su uso sea seguro, eficaz y ético.
La Organización Mundial de Salud (OMS) alertó sobre la adopción precipitada de sistemas no probados de inteligencia artificial en la salud, instando al uso ético y a una gobernanza adecuada de esas herramientas.
Suscríbete a nuestro newsletter
La declaración de la OMS surge cuando se masifica el uso de los modelos de lenguaje generados por la inteligencia artificial, incorporados en plataformas de rápida expansión como ChatGPT, Bard y Bert, entre muchas otras, que imitan la compresión, el procesamiento y la producción de la comunicación humana, informó Noticias ONU.
La OMS destacó la necesidad de preservar la salud pública y proteger y promover el bienestar, la seguridad y la autonomía humanas al utilizar modelos de lenguaje generados por la inteligencia artificial, llamando a examinarlos exhaustivamente antes de su aplicación y a vigilarlos una vez que se pongan en práctica. De otra manera, añadió el organismo, sus consecuencias negativas erosionarán la confianza en la inteligencia artificial y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.
La agencia de la ONU explicó que La OMS reconoció las ventajas que puede suponer uso adecuado de la inteligencia artificial para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos; sin embargo, planteó con preocupación la falta de cautela que caracteriza su uso y que no es comparable a la que se ejerce con otras nuevas tecnologías.
LOS RIESGOS
Al referirse a los principales riesgos del uso de esas herramientas, la Organización Mundial de la Salud enumeró los siguientes:
• Los datos utilizados para las bases que nutren la inteligencia artificial pueden estar sesgados y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión.
• Los modelos de lenguaje generados por inteligencia artificial producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero éstas pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud.
• Los modelos de lenguaje generados por inteligencia artificial pueden recibir información sobre datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática.
• Los modelos de lenguaje generados por inteligencia artificial se pueden utilizar indebidamente para generar y difundir desinformación sobre la salud en forma de contenido de texto, audio o video difícil de diferenciar del contenido confiable.