Skip to main content

Lo aconsejable en términos de privacidad es NO hacerlo

Elon Musk, CEO de xAI y dueño de la plataforma X (antes Twitter), ha hecho una curiosa petición en la red social, instando a sus seguidores a utilizar Grok para interpretar imágenes de reconocimientos médicos. En un tweet reciente, Musk ha anunciado que Grok tiene la capacidad de entender y analizar imágenes, e incluso podría analizar documentos médicos como radiografías, tomografías PET y resonancias magnéticas, y ha animando a los usuarios a probar la funcionalidad y ofrecer retroalimentación sobre los aciertos y errores de la herramienta.

No sorprende que muchos usuarios fieles a Musk hayan respondido entusiasmados, compartiendo los diagnósticos de Grok sobre sus propios estudios médicos. Las interpretaciones varían desde análisis de escaneos cerebrales hasta gráficos sanguíneos, y algunos incluso afirman que ya no necesitarán acudir a un especialista. Sin embargo, esta respuesta positiva no ha sido compartida de forma unánime por la comunidad médica. Expertos en salud y radiólogos han señalado que Grok comete errores significativos, como no detectar casos claros de enfermedades, entre ellos un caso de tuberculosis avanzada en la columna. Uno de los incidentes más graves ha involucrado un error de diagnóstico en mamografías, donde la IA ha confundido una imagen benigna de quiste mamario con otra parte anatómica.

La inteligencia artificial en la radiología es una disciplina en crecimiento, con avances reales que podrían ayudar en la detección temprana de enfermedades. Sin embargo, la falta de especialización de Grok y su carácter de chatbot generalista levantan dudas sobre la fiabilidad de sus diagnósticos. A pesar de los avances en IA médica, muchos expertos opinan que los errores de Grok reflejan una prematura inclusión de esta tecnología en un campo tan crítico como la salud, donde el margen de error debe ser prácticamente nulo.

La privacidad en riesgo

Además de los problemas de precisión, el uso de una IA como Grok en análisis médicos plantea serias inquietudes en términos de privacidad. Desde que Musk promocionó a Grok como un chatbot con “acceso en tiempo real” a los datos de X, los usuarios han interpretado que sus conversaciones y publicaciones en la plataforma podrían estar siendo empleadas para entrenar la IA. Esta política ha suscitado una ola de preocupación sobre la confidencialidad de los datos personales. Aunque Musk implementó la opción de exclusión voluntaria en julio, muchos usuarios siguen siendo parte del entrenamiento de Grok por defecto, lo que representa un riesgo considerable para la privacidad.

A esta preocupación se suma la naturaleza misma de los chatbots. Las conversaciones utilizadas para mejorar sus capacidades pueden llegar a reproducirse o influir en otras interacciones, exponiendo así información sensible de manera involuntaria.

En resumen, aunque la propuesta de Musk pueda parecer atractiva para quienes desean un acceso inmediato a una segunda opinión médica, confiar en una herramienta como Grok para interpretar documentos médicos resulta arriesgado tanto desde una perspectiva de privacidad como de precisión. Ante estos desafíos, parece sensato recordar que los especialistas humanos siguen siendo esenciales y que la IA, aunque prometedora, aún no está lista para reemplazar el criterio médico profesional en situaciones críticas de salud.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.