En un entorno industrial cada vez más orientado a la toma de decisiones basadas en datos, el sector downstream del petróleo y gas enfrenta desafíos operativos críticos relacionados con la eficiencia de producción, optimización logística, variabilidad en la demanda y sostenibilidad ambiental. Sin embargo, gran parte del conocimiento tácito sobre estos procesos permanece atrapado en reportes manuales, hojas de cálculo no estandarizadas y experiencias individuales.
Este programa de capacitación está diseñado para empoderar a técnicos, ingenieros, supervisores y coordinadores del sector downstream sin experiencia previa en programación o estadística con las competencias fundamentales para transformar sus datos cotidianos en información accionable, mediante el uso accesible de herramientas de análisis de datos en Python.
El curso se diseña bajo un enfoque práctico, contextualizado y humanizado, priorizando la relevancia operativa sobre la complejidad técnica. Se integra por primera vez una fase de diagnóstico pre-curso para garantizar que los contenidos respondan directamente a las necesidades reales de los participantes, aumentando así su impacto, adopción y sostenibilidad.
Capacitar a profesionales del sector downstream en la aplicación básica de la ciencia de datos para la identificación de patrones operativos, optimización de indicadores clave y comunicación de hallazgos, mediante el uso de herramientas computacionales gratuitas (Python, Pandas, Matplotlib, Seaborn), sin requerir conocimientos previos en programación o estadística avanzada.
Al finalizar, cada participante habrá desarrollado un proyecto de análisis aplicado a su área de trabajo, respaldado por evidencia cuantitativa y acompañado de recomendaciones concretas para la mejora operativa.
Los profesionales capacitados en nuestro programa están en la capacidad de manipular una gran cantidad de datos reales provenientes de la experiencia industrial o simulados para ser usados como herramientas de analisis y predicción de resultados con gran precisión. Aprenderá a utilizar Google Colab, Python y otras herramientas como: Matplotlib , Seaborn.
100% Virtual en vivo con la plataforma Google Meet, las clases son grabadas.
El curso dura 20 horas academicas impartidas en 10 sesiones de 2 horas cada sesión.
Aún por definir
Ingeniero Petroquímico e Ingeniero de Sistemas, con sólida trayectoria en el diseño, optimización y ejecución de proyectos industriales vinculados al sector Oil & Gas. Posee formación especializada en ingeniería de procesos, diseño de sistemas de tuberías, recipientes a presión, perforación de pozos y operación de plantas, lo que le ha permitido liderar iniciativas estratégicas en entornos técnicos complejos.
Se ha desempeñado como especialista en procesos petroquímicos y asesor técnico, combinando simulación avanzada con Aspen HYSYS, automatización industrial, redes IP, IoT y herramientas como Python, MATLAB y Power BI. Ha trabajado en campo optimizando procesos de separación de GLP, mejorando la eficiencia y reduciendo costos mediante soluciones integradas. A lo largo de su carrera, ha dirigido proyectos de infraestructura tecnológica e industrial en empresas como British Telecom Latinoamérica, Networklink y Pequiven, logrando mejoras de eficiencia del 25% y reducciones de costos operativos del 20%. Ha liderado equipos técnicos, gestionado migraciones tecnológicas y ejecutado soluciones de seguridad industrial.
Kelvin Cabrera cuenta con formación técnica en refinación del petróleo, plantas industriales, tanques de almacenamiento y ciclos combinados, respaldada por certificaciones como CCNA, CCDA, VMware y Ethical Hacking, y cursos internacionales impartidos por Structuralia. Ha participado como docente, ponente técnico y autor de artículos sobre transición energética, GNL, tecnologías CCUS y nanomateriales aplicados, tecnologías emergentes en el sector upstream, midstream, downstream consolidándose como un facilitador ideal para cursos enfocados a la ciencia y tecnología energética(Oil&Gas), con un enfoque práctico, actualizado y alineado a estándares internacionales.
Objetivo: Contextualizar la ciencia de datos dentro de los flujos operativos.
Flujo de valor downstream: crudo → refinación → transporte → estación → cliente.
Casos reales:
Predicción de rendimientos de destilación.
Variabilidad estacional en la demanda.
Detección de pérdidas en pipelines.
Herramientas clave: Python (análisis), Excel (reportes), Power BI (dashboards), SQL (bases operativas).
Instalación guiada: Acceso a Google Colab (sin instalación local).
Actividad: Carga del dataset inicial (producción diaria de refinería) usando plantilla preconfigurada
Objetivo: Manejar datos cotidianos mediante variables, listas y funciones.
Variables: volumen_gasolina = 12500, precio_diésel = 0.85
Listas: ["Gasolina 87", "Diésel", "Jet Fuel", ...]
Funciones: margen = precio_venta - costo_producción
Analogía: “Una receta": ingredientes → proceso → resultado”.
Actividad: Construcción de función para calcular margen bruto en un conjunto de productos.
Objetivo: Cargar y explorar datasets típicos del sector.
Dataset: Reporte Diario de Producción de Refinería
Métodos clave: head(), info(), describe(), value_counts()
Preguntas de análisis:
¿Cuántos días cubre el registro?
¿Qué producto presenta mayor volumen promedio?
¿Existen días sin registro?
Actividad: Exploración de un dataset anónimo de producción real.
Objetivo: Identificar y corregir errores comunes en datos industriales.
Problemas frecuentes: valores faltantes, errores tipográficos, unidades inconsistentes.
Técnicas: replace(), apply(), conversión de unidades, creación de nuevas columnas.
Nuevas variables:
Margen unitario (Margen = Precio_Venta - Costo)
Rendimiento (%): (Volumen_Producto / Volumen_Crudo) * 100
Actividad: Limpieza completa de un dataset con errores intencionales.
Inclusión del “Checklist de Salud de Datos” (entregado como hoja de referencia).
Objetivo: Transformar datos en gráficos claros y profesionales.
Gráfico de barras: volúmenes mensuales por producto.
Gráfico de líneas: evolución diaria de ventas en terminal.
Elementos de diseño: etiquetas en español, títulos descriptivos, paleta de colores corporativos.
Actividad: Generación de un dashboard visual simple de 2 gráficos.
Objetivo: Identificar relaciones y variaciones en datos operativos.
Gráfico de dispersión: temperatura vs volumen de diésel vendido.
Boxplot: distribución de márgenes por turno (mañana/tarde/noche).
Interpretación:
¿Más frío → más diésel?
¿El turno nocturno tiene mayor variabilidad?
Actividad: Análisis comparativo de dos terminales bajo condiciones climáticas distintas.
Objetivo: Comprender y aplicar medidas estadísticas en contextos operativos reales.
Media vs mediana: “Media = $12/bbl, mediana = $8/bbl. ¿Por qué?”
Desviación estándar: “Alta desviación en rendimiento de FCC → inestabilidad”.
Correlación de Pearson: “Correlación 0.85 entre horas de mantenimiento y paradas no planificadas → riesgo sistémico”.
Sección nueva: “¿Cómo lo explicas al Gerente?”
Actividad: Cálculo de estadísticos en dataset de mantenimiento preventivo.
Objetivo: Aplicar modelos predictivos simples para anticipar comportamientos operativos.
¿Qué es machine learning? “Aprender de lo que pasó para prever lo que va a pasar.”
Implementación práctica en 5 líneas de código (Google Colab).
Visualización: línea de tendencia superpuesta a puntos reales.
Limitaciones éticas y operativas.
Actividad: Predecir demanda de gasolina en función de temperaturas históricas.
Objetivo: Traducir un reto operativo real en un problema de análisis de datos.
Opciones de proyectos (elección individual):
Estación de Servicio
Terminal de Almacenamiento
Logística de Transporte
Producción de Refinería
Sostenibilidad
Niveles de proyecto definidos:
Mínimo Viable (MV): Usa Excel existente.
Ambicioso (A): Requiere acceso a sistemas o colaboración.
Guía paso a paso + mentoría individual (15 min por persona).
Objetivo: Comunicar hallazgos con rigor, claridad y impacto operativo.
Entrega del proyecto en formato de 3 diapositivas o 5 minutos:
Problema: ¿Qué desafío operativo se abordó?
Proceso: ¿Qué datos usaste y qué hiciste con ellos?
Hallazgo y Recomendación: ¿Qué descubriste? ¿Qué acción propones?
Simulación de reunión ejecutiva:
Instructores interpretan roles de gerentes.
Preguntas típicas: “¿Cuánto dinero se ahorraría?”, “¿Requiere inversión?”, “¿Y si cambian los datos?”.
Entrega de certificados digitales personalizados.
Plataforma: Google Colab (acceso gratuito, sin instalación).
Datasets: Simulados y anónimos, derivados de operaciones reales (con autorización educativa).
Plantillas: Notebooks preconfigurados con comentarios en español, celdas bloqueadas para evitar errores.
Guías:
“Quick Start Guide” para acceder a Colab.
“Cheat Sheet de Pandas en Español”.
Soporte: Canal privado en meet o otras vías después del curso.
Enfoque practico: 70% de actividades prácticas con datasets reales y simulados del sector.
Contextualización operativa: Todos los ejemplos derivan de procesos cotidianos (refinación, transporte, venta, mantenimiento).
Aprendizaje por analogías: Conceptos técnicos explicados con metáforas del entorno industrial.
Proyecto final personalizado: Cada participante resuelve un problema real de su área.
Evaluación formativa: Basada en la calidad del análisis, claridad de la visualización y viabilidad de la recomendación.
Certificado a nombre de CENCIP - Centro de capacitación en Ingeniería de Procesos
Certificado despues de presentación de proyecto y obtener nota aprobatoria
Se entregará certificado para los que asistan en vivo como minimo 70% de horas de sesión (14h)
No se considerá la visualización de los videos grabados como asistencia, aexcepción de alumnos en huso horario diferente de LATAM
ÚNICA CUOTA:
Estudiantes de pre-grado universitario regularmente matriculado: 110 USD (dolares americanos)
Profesionales: 130USD (dolares americanos)
DOS CUOTAS:
Estudiantes de pre-grado universitario regularmente matriculado: PRIMERA CUOTA 60 USD | SEGUNDA CUOTA 60 USD
Profesionales: PRIMERA CUOTA 70 USD | SEGUNDA CUOTA 70 USD
Facilidades de pago:
Consulte por nuestros descuentos corporativos (3 o más personas)
Desde BRASIL por PIX:
Clave CPF: 086.255.546-95
Desde PERÚ:
Banco Interbank:
cuenta corriente en dolares: N° 200-3007315845 (CCI 003-200-003007315845-30)
Cuenta corriente en soles: N° 200-3007315838 (CCI 003-200-003007315838-35)
Desde otros paises LATAM:
Link de pago por paypal o Wester Unión. Si desea pagar con tarjeta de credito o debido solicite su link de pago entrando en contacto con nosotros. Si quiere pagar con paypal haga click en el boton abajo.
Para realizar su inscripción en el curso realice el pago correspondiente, luego haga click en el boton abajo "inscripción" llenando los datos solicitados y listo.
Visita nuestro canal de Youtube @CENCIP-ingenieria de procesos para ver nuestros webinar y clases magistrales de ciencia de datos.
Conoce un poco más sobre el curso en este presentación: CIENCIA DE DATOS APLICADO A LA INDUSTRIA OIL&GAS del 06 de septiembre 2025.
Conoce un poco mas sobre el curso en este FREE WEBINAR: CIENCIA DE DATOS APLICADO A LA INDUSTRIA OIL&GAS del 06 de septiembre 2025.
Te presentamos a tres de nuestros egresados que se certificaron en el curso de Ciencia de Datos en la primera edición y los proyectos que pudieron desarrollar como trabajo final del curso.
Gustavo presentó un caso de estudio donde, utilizando técnicas de análisis de datos, identificó variabilidades en la temperatura debido a la manipulación de trabajadores. Se detectaron anomalías fuera de 3 σ, con temperaturas promedio de 62.6 °C y desviación estándar de 5.6 °C. Tras ajustar el set point a 60 °C, se observó una mejora significativa en la estabilidad. La implementación de estos cambios evitó discos de rotura, que cuestan aproximadamente $5000 cada uno. Se destacó la importancia de la limpieza de datos y el uso de herramientas como Python y ChatGPT.
Analí presentó un caso detección temprana de pérdidas de recuperación de líquidos de gas natural (NGL), asociadas al desempeño del turboexpander, mediante el desarrollo de un modelo predictivo, identificando desviaciones operativas antes de que impacten significativamente la producción. Se generó un conjunto de datos sintéticos representativo de 90 días de operación continua (2,160 registros horarios), simulando condiciones reales de una planta criogénica con turboexpander.
El proyecto de Angel consistió en desarrollar un soft-sensor predictivo capaz de estimar la eficiencia de combustión (DRE) y el methane slip en un sistema de flare industrial, utilizando una red neuronal feed-forward con restricciones físicas básicas e integrándolo en un dashboard interactivo. Se evalúa el desempeño del proyecto mediante métricas estadísticas (R2, RMSE). Su sistema permitió el análisis operativo y exploración de escenarios sin requerir sensores físicos adicionales costosos.