// DATA
Diseña un pipeline de extracción, transformación y carga de datos robusto y escalable.
Actúa como un ingeniero de datos senior. Diseña un pipeline ETL para el siguiente caso: **Fuentes de datos:** [FUENTE_1], [FUENTE_2], [FUENTE_3] **Destino:** [DATA_WAREHOUSE/LAKE] **Volumen estimado:** [REGISTROS_DIARIOS] registros/día **Latencia requerida:** [TIEMPO_MÁXIMO] **Stack tecnológico:** [TECNOLOGÍAS_DISPONIBLES] Proporciona: **1. Arquitectura del pipeline:** Diagrama textual del flujo de datos desde origen hasta destino. **2. Estrategia de extracción:** Full load vs incremental. Cómo detectar cambios (CDC, timestamps, watermarks). **3. Transformaciones necesarias:** Limpieza, normalización, deduplicación y enriquecimiento de datos. **4. Modelo de datos de destino:** Esquema de tablas en el destino con tipos de datos y relaciones. **5. Manejo de errores:** Dead letter queues, reintentos, alertas y logging de fallos. **6. Monitorización:** Métricas clave del pipeline (filas procesadas, latencia, tasa de error) y cómo alertar. **7. Consideraciones de escalabilidad:** Cómo el diseño maneja x10 el volumen actual. Incluye código de ejemplo en [LENGUAJE_PREFERIDO] para la transformación más compleja.
// INSTRUCCIONES DE USO
Transforma datos crudos o reportes técnicos en narrativas ejecutivas claras y accionables.
Genera consultas SQL complejas a partir de preguntas en español, con explicación detallada.
Define la arquitectura completa de un dashboard de KPIs: métricas, visualizaciones y jerarquía de información.