Job Description
En Gstock llevamos desde 2013 revolucionando la gestión de restaurantes y hoteles. Nuestra aplicación web diseñada específicamente para el sector HORECA ha ganado la confianza de miles de establecimientos que buscan optimizar sus operaciones y maximizar su rentabilidad.
Nos apasiona lo que hacemos y nos enorgullece el impacto positivo que tenemos en nuestros clientes. Con energía e ilusión afrontamos este 2025 como un año clave para nuestra expansión a gran escala.
Pertenecemos al grupo Everfield una plataforma de empresas de software en expansión por toda Europa con presencia en 8 países y seguimos creciendo.
¿ Qué buscamos ?
Necesitamos una persona que le apasione la tecnología y sea proactiva.
Ingeniero de Informática Matemáticas o similares.
Capacidad de entender procesos y buscar formas de optimizarlos.
Conocimiento de las principales tendencias en el mundo del dato.
Experiencia de al menos 2 años en este perfil.
Experiencia trabajando con cantidades masivas de datos.
Capacidad para identificar patrones tendencias y oportunidades a partir de los datos.
Buen nivel de inglés escrito y leído.
Una persona capaz de trabajar sola en el área de Data.
¿ Cual serán tus funciones ?
Desarrollaras la parte de analítica de datos de Gstock.
Desarrollar mantener y optimizar pipelines de datos de alta calidad fiables y robustos.
Extracción limpieza y validación de grandes cantidades de datos.
Desarrollar aplicar modelos y algoritmos.
Análisis de datos para identificar patrones y tendencias.
Interpretación de datos para descubrir soluciones y oportunidades.
Analítica de datos usando herramientas de Business Intelligence como Apache Superset.
¿Qué ofrecemos?
Trabajo en remoto 100 .
Parte de la jornada en horario flexible. La daily stand-up meeting es a las 08 30 y hay que estar conectado hasta las 14 00 el resto del horario te lo organizas tu.
Sueldo según valía el rango es entre 26.000 y 30.000 .
Buen ambiente de trabajo.
Requisitos
Buena base de matemáticas y estadística.
Conocimientos en machine learning y modelos analíticos/matemáticos.
Conocimiento de series temporales.
Conocimiento en procesamiento de lenguajes naturales. (NLP y LLM)
Buen dominio Python (pandas pyspark numpy scikit-learn matplotlib tensorflow hugging face xgboost catboost).
Buen dominio SQL.
Conocimiento con Control de versiones GIT.
Conocimiento de AWS. (S3 Sagemaker Bedrock …)
Conocimiento de ecosistemas Big Data. (Spark Glue Airflow Redshift …)
Experiencia en el manejo de formatos de archivos para Big Data como Parquet.
Conocimiento de herramientas de visualización de Datos. (Apache Superset Power BI)
machine learning, big data, business intelligence, python, sql, nlp, llm, spark, apache superset, glue, git, aws