BabyMind

Python FastAPI LangChain Groq LLaMA 3.1 70B ConversationSummaryBufferMemory OMS/AAP Hitos Salud IA Pediátrica
BabyMind

BabyMind — El asistente pediátrico que los padres merecen

BabyMind resuelve la ansiedad de los padres primerizos con una IA que hace lo que ningún competidor actual hace: analizar el desarrollo concreto de su bebé, compararlo con los estándares OMS/AAP, detectar desviaciones antes de que sean un problema y responder preguntas pediátricas con base en literatura médica real, no en foros de internet.

Funcionalidades diferenciales

  • Chat IA con contexto pediátrico OMS/AAP: respuestas basadas en hitos reales por edad y sexo del bebé concreto, no respuestas genéricas
  • Memoria longitudinal por bebé: el sistema recuerda el historial de sesiones anteriores — el padre no repite el contexto cada vez
  • Sistema de alertas en 3 niveles: comparación estática OMS (percentiles), detección de anomalías Prophet (patrón propio del bebé) y keywords de emergencia con protocolo inmediato
  • Adaptación a condiciones especiales: TDAH, prematuridad, dislexia — el tono y los umbrales se ajustan automáticamente
  • Predicción con Prophet: series temporales de sueño, peso y desarrollo para detectar desviaciones relativas al propio bebé antes de que sean visibles en percentiles OMS

Cómo funciona la IA

Cuando un padre pregunta "Mi bebé de 8 meses lleva 3 días durmiendo menos de 6h, ¿es normal?", el sistema:

  1. Carga el perfil del bebé (nombre, edad exacta, condiciones, historial resumido)
  2. LangChain ConversationalRetrievalChain busca en Chroma los chunks más relevantes de documentos OMS/AAP sobre sueño a los 8 meses
  3. Inyecta el historial resumido de sesiones anteriores (ConversationSummaryBufferMemory)
  4. El prompt combina: perfil bebé + documentos pediátricos + historial + pregunta actual
  5. Groq + LLaMA 3.1 genera respuesta personalizada en menos de 1 segundo
  6. En paralelo: el sistema analiza si hay patrón anómalo y lanza alerta si procede

Arquitectura técnica

  • LangChain + Groq/LLaMA 3.1 70B: motor de conversación a 200-300 tokens/segundo
  • ConversationSummaryBufferMemory: memoria longitudinal comprimida por bebé entre sesiones
  • Chroma DB (local): vector store con documentos OMS/AAP, guías AEP, curvas percentiles
  • Prophet (Meta): predicción de series temporales — detecta anomalías relativas al propio bebé
  • PostgreSQL 15: usuarios, bebés, hitos, sesiones de chat, alertas
  • JWT + bcrypt: autenticación de padres y admin
  • Redis: cache de resúmenes IA y sesiones activas

Stack técnico

Python · FastAPI · LangChain · Groq · LLaMA 3.1 · ChromaDB · Prophet · PostgreSQL · Next.js · TailwindCSS

Resultados

4
niveles de alerta
4
categorías OMS/AAP
37
hitos tabulados
<1s
tiempo de respuesta

Funcionalidades implementadas

  • Basado en guías médicas reales. Los hitos de desarrollo provienen de la OMS y la Academia Americana de Pediatría, no de foros ni opiniones.
  • Recuerda sesiones anteriores. El asistente mantiene el contexto de conversaciones previas, por lo que no hay que repetir lo que ya se ha contado sobre el bebé.
  • Detecta situaciones de urgencia. Si la consulta describe síntomas críticos —convulsiones, dificultad para respirar— el asistente identifica la urgencia y orienta a llamar al 112.
  • Adapta la respuesta al perfil del bebé. Tiene en cuenta prematuridad, condiciones especiales y edad corregida para ajustar los hitos y el tono de las respuestas.
Try Live Demo View Code
🤖 Asistente Virtual