Llamada Claude for Healthcare, puede explicar los resultados de las pruebas en un lenguaje sencillo
Anthropic se ha convertido en la última empresa de Inteligencia Artificial (IA) en anunciar un nuevo conjunto de funciones que permite a los usuarios de su plataforma Claude comprender mejor su información de salud.
Bajo una iniciativa llamada Claude for Healthcare, la compañía dijo que los suscriptores estadounidenses de los planes Claude Pro y Max pueden optar por darle a Claude acceso seguro a sus resultados de laboratorio y registros de salud conectándose a HealthEx y Function, con integraciones de Apple Health y Android Health Connect que se implementarán a finales de esta semana a través de sus aplicaciones para iOS y Android.
"Al conectarse, Claude puede resumir el historial médico de los usuarios, explicar los resultados de las pruebas en un lenguaje sencillo, detectar patrones en las métricas de salud y estado físico, y preparar preguntas para las citas", afirmó Anthropic. "El objetivo es que las conversaciones de los pacientes con los médicos sean más productivas y que los usuarios se mantengan bien informados sobre su salud".
El desarrollo se produce apenas unos días después de que OpenAI presentara ChatGPT Health como una experiencia dedicada para que los usuarios conecten de forma segura registros médicos y aplicaciones de bienestar y obtengan respuestas personalizadas, información de laboratorio, consejos nutricionales e ideas de comidas.
La empresa también señaló que las integraciones son privadas por diseño, y los usuarios pueden elegir explícitamente el tipo de información que desean compartir con Claude y cancelar o editar sus permisos en cualquier momento. Al igual que con OpenAI, los datos de salud no se utilizan para entrenar sus modelos.
La expansión se produce en medio de un creciente escrutinio sobre si los sistemas de IA pueden evitar ofrecer orientación perjudicial o peligrosa. Recientemente, Google intervino y eliminó algunos de sus resúmenes de IA tras descubrirse que proporcionaban información sanitaria inexacta. Tanto OpenAI como Anthropic han enfatizado que sus soluciones de IA pueden cometer errores y no sustituyen el asesoramiento profesional de la salud.
En la Política de uso aceptable, Anthropic señala que un profesional calificado en el campo debe revisar los resultados generados "antes de su difusión o finalización" en casos de uso de alto riesgo relacionados con decisiones de atención médica, diagnóstico médico, atención al paciente, terapia, salud mental u otra orientación médica.
"Claude está diseñado para incluir descargos de responsabilidad contextuales, reconocer su incertidumbre y dirigir a los usuarios a profesionales de la salud para obtener orientación personalizada", dijo Anthropic.








