/* === MOBILE OPTIMIZATION === */ /* ============================================ MOBILE OPTIMIZATION v1 Optimized for Android & iOS ============================================ */ /* === CORE VIEWPORT === */ html { font-size: 16px; -webkit-text-size-adjust: 100%; text-size-adjust: 100%; overflow-x: hidden; } body { overflow-x: hidden; -webkit-font-smoothing: antialiased; -moz-osx-font-smoothing: grayscale; } /* === PREVENT HORIZONTAL SCROLL === */ *, *::before, *::after { box-sizing: border-box; max-width: 100vw; } .gh-viewport { overflow-x: hidden; } /* === TOUCH TARGETS (WCAG 2.5.5) === */ a, button, input, select, textarea, label { min-height: 44px; min-width: 44px; } .gh-navigation-menu a, .gh-navigation-actions a, .gh-icon-button, button { padding: 10px 12px; min-height: 44px; min-width: 44px; display: flex; align-items: center; justify-content: center; } /* === NAVIGATION MOBILE === */ .gh-navigation-inner { padding: 0 1rem; flex-wrap: nowrap; gap: 0.5rem; } .gh-navigation-brand { flex-shrink: 0; min-width: unset; } .gh-navigation-logo { font-size: 1.25rem; } .gh-burger { display: flex !important; width: 44px; height: 44px; flex-shrink: 0; } .gh-burger svg { width: 24px; height: 24px; } /* === TYPOGRAPHY SCALE (MOBILE) === */ h1 { font-size: clamp(1.75rem, 6vw, 3rem) !important; } h2 { font-size: clamp(1.4rem, 5vw, 2.25rem) !important; } h3 { font-size: clamp(1.2rem, 4vw, 1.5rem) !important; } .article-title, .gh-article-title { font-size: clamp(1.5rem, 7vw, 2.5rem) !important; letter-spacing: -0.02em; } .gh-container-title h1 { font-size: clamp(1.75rem, 8vw, 3rem) !important; } /* === FEED / CARDS MOBILE === */ .gh-feed { grid-template-columns: 1fr !important; gap: 1.25rem !important; padding: 1rem 0 !important; } .gh-card { border-radius: 12px; flex-direction: column; } .gh-card-wrapper { padding: 1.25rem !important; } .gh-card-title { font-size: 1.125rem !important; line-height: 1.35; } .gh-card-excerpt { font-size: 0.875rem !important; -webkit-line-clamp: 2 !important; } .gh-card-meta { flex-wrap: wrap; gap: 0.5rem; } /* === SINGLE POST MOBILE === */ .gh-article-header { padding: 2.5rem 0 1.5rem !important; } .article { padding: 1.5rem 1rem 3rem !important; } .gh-article-excerpt { font-size: 1rem !important; } .gh-article-meta { flex-wrap: wrap; gap: 0.75rem; font-size: 0.8125rem; } .gh-content p { font-size: 1rem !important; line-height: 1.75 !important; } .gh-content h2 { font-size: 1.375rem !important; margin: 2rem 0 0.75rem !important; } .gh-content h3 { font-size: 1.125rem !important; margin: 1.5rem 0 0.5rem !important; } .gh-content blockquote { padding-left: 1rem !important; font-size: 1.0625rem !important; } .gh-content pre { padding: 1rem !important; font-size: 0.8125rem !important; border-radius: 8px !important; margin: 1.5rem -0.5rem !important; overflow-x: auto !important; -webkit-overflow-scrolling: touch; } .gh-content code { font-size: 0.8125rem !important; } .gh-content ul, .gh-content ol { padding-left: 1.25rem !important; } .gh-content li { font-size: 1rem !important; line-height: 1.65 !important; margin-bottom: 0.5rem !important; } /* === CONTAINERS === */ .gh-container { padding: 0 1rem !important; } .gh-outer { padding: 1.5rem 0 !important; } /* === FOOTER MOBILE === */ .gh-footer-inner { grid-template-columns: 1fr !important; gap: 1.5rem !important; padding: 0 1rem !important; } .gh-footer-menu { flex-wrap: wrap !important; gap: 1rem !important; } .gh-footer-bar { flex-direction: column !important; gap: 0.75rem !important; text-align: center !important; } /* === NEWSLETTER MOBILE === */ .newsletter-cta { padding: 1.5rem 1rem !important; border-radius: 12px !important; margin: 1.5rem 0 !important; } .newsletter-cta h3 { font-size: 1.375rem !important; } .newsletter-form { flex-direction: column !important; gap: 0.75rem !important; } .newsletter-form input, .newsletter-form button { width: 100% !important; font-size: 1rem !important; } /* === DARK MODE TOGGLE MOBILE === */ .dark-mode-toggle { bottom: 1.5rem !important; right: 1.5rem !important; width: 44px !important; height: 44px !important; } /* === IMAGES MOBILE === */ .gh-content img, .article img { max-width: 100vw !important; height: auto !important; border-radius: 8px !important; margin: 1.5rem -1rem !important; } /* === PREVENT OVERSCROLL === */ html, body { overscroll-behavior: none; } /* === CONTAINER TITLE MOBILE === */ .gh-container-title { padding: 2rem 0 1.5rem !important; } .gh-container-title h1 { font-size: 1.75rem !important; line-height: 1.2 !important; } /* === LISTS MOBILE === */ .gh-article .gh-canvas + .gh-content ul, .gh-article .gh-canvas + .gh-content ol, article.gh-article .gh-content ul, article.gh-article .gh-content ol { padding-left: 1.25rem !important; margin: 1rem 0 !important; } .gh-article .gh-canvas + .gh-content li, article.gh-article .gh-content li { font-size: 1rem !important; line-height: 1.65 !important; margin-bottom: 0.5rem !important; } .gh-article .gh-canvas + .gh-content > li, article.gh-article .gh-content > li { font-size: 1rem !important; padding-left: 1.25rem !important; } /* === ARTICLE TITLE (SINGLE) === */ .gh-article-title.is-title { font-size: clamp(1.5rem, 6vw, 2.25rem) !important; } /* Tablet */ @media (min-width: 600px) and (max-width: 900px) { .gh-feed { grid-template-columns: repeat(2, 1fr) !important; } } /* Small screens */ @media (max-width: 380px) { h1 { font-size: 1.5rem !important; } .gh-card-title { font-size: 1rem !important; } .gh-card-excerpt { font-size: 0.8125rem !important; } .gh-content p { font-size: 0.9375rem !important; } .newsletter-cta h3 { font-size: 1.25rem !important; } .dark-mode-toggle { width: 40px !important; height: 40px !important; } } /* === REDUCED MOTION === */ @media (prefers-reduced-motion: reduce) { *, *::before, *::after { animation: none !important; transition: none !important; } }

OpenAI o1 supera a médicos de urgencias en diagnóstico: lo que el estudio de Harvard revela sobre la IA clínica

Un ensayo con 76 pacientes en Boston demuestra que el modelo o1 de OpenAI diagnóstica correctamente el 67% de los casos frente al 50-55% de los doctores humanos. ¿Es el fin del triaje tradicional?

Los médicos de urgencias llevan décadas siendo la primera línea de defensa en situaciones de vida o muerte. Pero un estudio publicado esta semana en la revista Science por investigadores de Harvard y el Beth Israel Deaconess Medical Center de Boston sugiere que esa primera línea ahora tiene un competidor: la inteligencia artificial.

El ensayo: 76 pacientes, un modelo, y un resultado incómodo

El estudio puso a OpenAI o1 frente a médicos humanos en condiciones idénticas: ambos recibían el mismo historial clínico electrónico — signos vitales, datos demográficos y unas líneas escritas por una enfermera describiendo el motivo de llegada del paciente. El resultado fue revelador:

  • IA (o1): 67% de diagnósticos exactos o muy cercanos
  • Médicos humanos: 50-55% en el mismo escenario

Cuando el modelo tenía acceso a más información, su precisión subió al 82%, frente al 70-79% de los expertos humanos. Y en la elaboración de planes de tratamiento a largo plazo — como regímenes de antibióticos o planificación de cuidados al final de la vida — la diferencia fue aún más pronunciada: 89% para la IA frente a un 34% para los 46 médicos que fueron evaluados con las mismas herramientas de búsqueda convencionales.

¿Por qué importa esto? El problema del triaje

El triaje en urgencias es precisamente el escenario donde más fallan los humanos. Se decide con información mínima, bajo presión temporal extrema, y las consecuencias de un error pueden ser fatales. El estudio demuestra que los LLMs tienen una ventaja estructural en exactamente este contexto: pueden considerar un rango mucho más amplio de diagnósticos posibles sin el sesgo cognitivo que afecta a los profesionales tras jornadas de 12 horas.

En un caso detallado en el paper, un paciente llegó con un coágulo de sangre en los pulmones y síntomas que empeoraban. Los médicos humanos sospecharon que los anticoagulantes estaban fallando. La IA, sin embargo, notó algo que los humanos pasaron por alto: el historial del paciente incluía lupus eritematoso, lo que sugería que la inflamación podría estar causando los síntomas pulmonares, no el fracaso del tratamiento anticoagulante. La IA tenía razón.

Las limitaciones: lo que la IA no puede ver

El estudio es claro en que el experimento solo evaluó la capacidad de procesar texto: historiales clínicos digitales. No testeó la capacidad de la IA para leer el lenguaje corporal, interpretar el nivel de distress de un paciente ni evaluar aspectos visuales o táctiles que un médico sí percibe. En la práctica, la IA actúa más como un segundo opinador basado en documentación que como un médico que examina al paciente.

Adam Rodman, coautor del estudio y médico en el Beth Israel Deaconess, lo resume así: "No creo que nuestros hallazgos signifiquen que la IA reemplace a los médicos. Lo que sí significa es que estamos siendo testigos de un cambio tecnológico profundo que reformará la medicina."

La adopción ya está aquí

No estamos hablando de un futuro teórico. Casi uno de cada cinco médicos en Estados Unidos ya utiliza IA para asistir en diagnósticos según un estudio de la AMA publicado el mes pasado. En Reino Unido, el 16% de los doctores la usan diariamente y un 15% adicional semanalmente, con la "toma de decisiones clínicas" como uno de los usos más comunes.

La pregunta que surge no es si la IA Llegará a urgencias, sino quién asume la responsabilidad cuando falla. Como señala Rodman, "no existe actualmente un marco formal de rendición de cuentas" para los errores de la IA en entornos clínicos.

Implicaciones para la ciberseguridad sanitaria

Más allá de la precisión diagnóstica, este estudio abre preguntas sobre la infraestructura que sostiene estos sistemas. Un modelo que maneja historiales clínicos sensibles necesita:

  • Air-gapping en entornos críticos para evitar exfiltración de datos de pacientes
  • Logs de auditoría que reconstruyan cada decisión del modelo
  • Frameworks de accountability que definan quién responde cuando el diagnóstico de la IA perjudica al paciente

La tendencia hacia modelos de atención médica asistida por IA va a acelerar la presión sobre los equipos de seguridad para proteger estos sistemas, sus datos de entrenamiento y los canales por los que interactúan con historiales reales.

Conclusión

El estudio de Harvard no declara un ganador. Declara un cambio de era. La IA pasó de aprobar exámenes médicos a diagnosticar mejor que doctores en situación real. Lo que queda por resolver no es técnico — es político, ético y regulatorio. Y eso suele ser lo más difícil de depurar.