Las categorías
Las preguntas generales sobre bienestar entran en la categoría segura. El investigador de Harvard mencionó el armado de planes de alimentación para diabéticos o rutinas de ejercicio.
En estos casos, ChatGPT funciona bien porque la información no depende de un diagnóstico privado. También resulta útil para conocer los efectos secundarios de un medicamento que un doctor recetó previamente.
Existen situaciones donde la intervención humana resulta obligatoria. Rodman sugirió usar la IA para preparar las visitas al consultorio o entender mejor los resultados de un examen. El paciente puede cargar sus notas médicas sin datos personales para recibir una explicación sencilla.
Los límites de ChatGPT
La gestión de enfermedades crónicas permanece en la zona prohibida para los modelos de inteligencia artificial a los que la población general tiene acceso. Nunca es seguro preguntar si un tratamiento es correcto a través de una pantalla.
El experto de Harvard explicó que estas plataformas carecen de entrenamiento para manejar situaciones de alta complejidad. Los diagnósticos reales dependen de factores físicos que ChatGPT no puede observar ni analizar.
La privacidad representa otro desafío importante para los usuarios. Las personas suelen entregar más datos personales a un bot que a un buscador tradicional. Rodman advirtió que compartir registros de medicina implica riesgos de seguridad digital.
Contenido asistido