Por muy cercanos y tentadores que parezcan, los regímenes de tratamiento contra el cáncer diseñados por herramientas de inteligencia artificial están plagados de errores y es probable que aún les falten años para perfeccionarse.
Investigadores del Brigham and Women’s Hospital descubrieron que los planes de tratamiento contra el cáncer diseñados por computadora y generados por ChatGPT de OpenAI Inc. estaban plagados de un problema común: las recomendaciones de tratamiento inapropiadas se mezclaban con las correctas, lo que las hacía especialmente difíciles de distinguir, según el estudio publicado el jueves en la revista JAMA Oncology.
ChatGPT “a menudo habla de una manera muy segura que parece tener sentido, y la forma en que puede mezclar información incorrecta y correcta es potencialmente peligrosa”, dijo Danielle Bitterman, oncólogo y coautor del estudio en el programa de Inteligencia Artificial en Medicina del sistema de Salud del Mass General Brigham.
“Es difícil incluso para un experto identificar cuál es la recomendación incorrecta”.
LEA TAMBIÉN: Harvard Business Review: aumente su productividad con IA generativa
Si bien casi todas las respuestas de ChatGPT incluían al menos una recomendación de acuerdo con las pautas de la Red Nacional Integral del Cáncer, los investigadores encontraron que alrededor de un tercio también contenía sugerencias incorrectas.
Alrededor del 12% de las respuestas eran “alucinaciones”, recomendaciones que no figuran en ninguna parte de las directrices, dijeron los investigadores.
Aunque las herramientas de IA generativa pueden no ser precisas para depender de ellas en los planes de tratamiento contra el cáncer, la discusión está en que las tecnologías tienen el potencial de ayudar a detectar el cáncer en sus etapas iniciales, cuando es más probable que se trate con éxito.
LEA TAMBIÉN: Microsoft y Activision toman radical decisión para lograr mayor acuerdo de videojuegos
OpenAI ha resaltado que ChatGPT puede ser poco fiable, inventar información y requiere “gran cuidado”, especialmente en “contextos de alto riesgo”.
Los médicos tienen la esperanza de que la inteligencia artificial pueda ayudar a aligerar sus cargas administrativas, dijo Bitterman, pero las preocupaciones sobre la precisión y la privacidad significan que los grandes modelos de lenguaje como ChatGPT están a años de ser ampliamente adoptados en los consultorios médicos y hospitales.
“Es impresionante que en casi todos los casos se incluyera una recomendación de directriz anticipada”, dijo. Dada su amplia base de conocimientos, es casi como si ChatGPT hubiera ido a la escuela de medicina, señaló, “pero no a la residencia”, la formación clínica avanzada que reciben los médicos después de graduarse.
LEA TAMBIÉN: Acciones de Nvidia se disparan, boom de la inteligencia artificial atrae a inversores de Perú
Disfruta tus descuentos del Club de Suscriptores cuantas veces quieras gracias a tu suscripción a Gestión. Más de 300 promociones esperan por ti, descúbrelas aquí. Y si aún no eres suscriptor, adquiere tu plan aquí