Descripción de la oferta
BUSCAMOS : Ingeniero BI Para importante empresa del sector tecnología, buscamos un ingeniero de business intelligence (BI) altamente capacitado y motivado con experiencia en el desarrollo de tablas analíticas en un data warehouse (Snowflake). El candidato deberá ser experto en trabajar en diferentes entornos (desarrollo, pruebas y producción). También se valora mucho la experiencia con soluciones en la nube, concretamente AWS. El ingeniero de BI desempeñará un papel fundamental en la transformación de datos en ideas prácticas (actionable insights), garantizando la integridad de los datos y respaldando la toma de decisiones de negocio. Requisitos Mínimos Experiencia comprobada con el almacén de datos Snowflake, incluido el diseño de esquemas, desarrollo de SQL y optimización del rendimiento. Dominio de SQL y experiencia con procesos y herramientas ETL. Gran comprensión de los conceptos y mejores prácticas de data warehousing. Habilidades avanzadas en Tableau para visualización de datos y generación de informes. Experiencia con Jira para gestión de proyectos y seguimiento de problemas. Competencia en el uso de GitHub para control de versiones y colaboración. Requisitos Valorables Experiencia con soluciones en la nube de AWS, incluidos S3, Redshift, Lambda y otros servicios relevantes. Conocimiento de los servicios de AWS para almacenamiento, procesamiento y análisis de datos. Implementar y gestionar procesos ETL en el entorno de la nube. Garantizar la seguridad y el cumplimiento de los datos dentro del marco de AWS. Experiencia con otras herramientas y plataformas de BI (p. ej., Power BI, Looker). Conocimiento de Python u otros lenguajes de scripting para manipulación y automatización de datos. Funciones & Tareas Desarrollo de data warehouse :Diseñar, desarrollar y mantener tablas analíticas en el data warehouse de Snowflake. Optimizar los procesos de almacenamiento y recuperación de datos para garantizar un rendimiento eficiente de las consultas. Implementar técnicas de modelado de datos para respaldar los requisitos comerciales y las necesidades de informes. Informes y visualización :Desarrollar y mantener paneles e informes interactivos utilizando Tableau. Traducir conjuntos de datos complejos en información visual clara y procesable. Proporcionar análisis de datos ad-hoc y soporte de informes a varias unidades de negocio. Gestión de entornos :Gestionar e implementar soluciones de datos en entornos de desarrollo, pruebas y producción. Garantizar transiciones fluidas entre entornos, minimizando las interrupciones en el acceso a los datos y la generación de informes. Realizar pruebas y validaciones exhaustivas de soluciones de datos en diversos entornos para garantizar la precisión y confiabilidad. Colaboración y Gestión de Proyectos :Colaborar con equipos multifuncionales, incluidos analistas de datos, científicos de datos y partes interesadas del negocio, para comprender las necesidades de datos y ofrecer soluciones. Utilizar Jira para realizar un seguimiento y gestionar las tareas, los problemas y el progreso del proyecto. Mantener el control de versiones y administrar repositorios de código usando GitHub. Documentación y Gobierno de Datos :Documentar definiciones de datos, modelos, procesos y flujos de trabajo con fines de referencia y capacitación. Implementar y hacer cumplir políticas de gobierno de datos para garantizar la precisión, coherencia y seguridad de los datos. Realizar controles periódicos de calidad de los datos y solucionar cualquier problema relacionado con los datos. Stack Tecnológico Imprescindible SQL :Creación de consultas SQL optimizadas para extracción y transformación de datos en bases de datos relacionales y Data Warehouses. Análisis de grandes volúmenes de datos utilizando Snowflake, creación de esquemas de tablas y optimización de índices. Tableau :Diseño de dashboards interactivos y dinámicos para visualización de datos complejos. Conexión a múltiples fuentes de datos (Snowflake) para la integración y análisis en tiempo real. Publicación de informes a través de Tableau Server o Tableau Online para acceso remoto. Uso de calculated fields y LOD expressions para optimización de métricas avanzadas. Snowflake :Almacenamiento y procesamiento de grandes volúmenes de datos para análisis de Business Intelligence. Integración con otras herramientas como Python, Tableau y Airflow para pipelines completos de análisis de datos. Configuración de roles y permisos para asegurar la privacidad y seguridad de los datos. Stack Tecnológico Deseable AWS :Gestión y orquestación de servicios en la nube para ETL con AWS Lambda, Athena, S3 y Glue. Uso de IAM (Identity and Access Management) para control de acceso seguro y permisos. Python :Limpieza y transformación de datos mediante scripts ETL utilizando librerías como pandas, NumPy, y PySpark. Automatización de pipelines de datos con Airflow y scripts personalizados en Python. Análisis de datos mediante notebooks de Jupyter. Airflow :Orquestación de procesos ETL mediante la creación de DAGs para tareas programadas y flujos de trabajo en AWS. Automatización y seguimiento de procesos de ingestión y transformación de datos, con alertas y monitoreo. Integración con Snowflake para el manejo y procesamiento de grandes volúmenes de datos. Formación Deseable Licenciatura / maestría en informática, tecnología de la información, ciencia de datos o un campo relacionado. Es un plus (no obligatorio) disponer de certificaciones relevantes en Snowflake, AWS, Tableau u otras herramientas de BI. Idiomas Español (Nativo o bilingüe). Inglés (C1). SE OFRECE: Contrato Indefinido (jornada completa). Oferta económica: hasta 50K (según experiencia aportada). Localización: Madrid (Remoto 100%). Incorporación: ASAP. #J-18808-Ljbffr