Data Analyst Python Developer
Dot Beyond è il nuovo punto di riferimento nell'innovazione tecnologica che integra e consolida le competenze di un ecosistema di realtà aziendali già leader di settore, per proporre soluzioni e servizi su misura che esplorano le frontiere più promettenti del digitale - dall'intelligenza artificiale al metaverso, dalla cybersecurity al gaming.
Con una squadra di oltre 200 professionisti e una presenza in 7 sedi strategiche, l'azienda si propone come partner ideale per Istituzioni Culturali, PMI e grandi aziende, sia in Italia sia all'estero, per affrontare le sfide più complesse della trasformazione digitale.
Il tuo team Giorgio, il nostro responsabile Operations, sta cercando un "Data Analyst Python Developer" da inserire in uno dei gruppi di produzione per accrescere le competenze interne.
Di cosa ti occuperai: Analisi e Modellazione dei Dati Raccolta, pulizia e trasformazione dei dati per garantire qualità, coerenza e integrità nei processi analitici.
Analisi esplorativa dei dati (EDA) per identificare pattern, correlazioni e insight strategici.
Applicazione di tecniche statistiche e di machine learning per l'analisi predittiva e il supporto alle decisioni aziendali.
Sviluppo di metriche di performance e indicatori chiave (KPI) per il monitoraggio di processi e strategie aziendali.
Data Visualization e Reporting Creazione di dashboard interattive e report dinamici utilizzando strumenti di data visualization (Power BI, Tableau, Matplotlib, Seaborn, Plotly, ecc. ).
Sviluppo di strumenti per il monitoraggio dei dati in tempo reale e l'automazione dei report aziendali.
Interpretazione e comunicazione dei risultati attraverso presentazioni efficaci per il management e i diversi stakeholder.
Sviluppo e Automazione dei Processi di Data Pipeline Progettazione e sviluppo di pipeline di dati efficienti per l'estrazione, la trasformazione e il caricamento (ETL/ELT).
Integrazione di fonti dati strutturate e non strutturate provenienti da database relazionali, API, file system e data lake.
Implementazione di processi di automazione per la raccolta e l'aggiornamento dei dati utilizzando Python e framework come Apache Airflow o Luigi.
Sviluppo e Testing di Soluzioni AI & ML Sviluppo e ottimizzazione di modelli di machine learning per la classificazione, regressione e clustering.
Addestramento, validazione e valutazione delle prestazioni dei modelli con metriche appropriate.
Implementazione di pipeline per il training e il deployment di modelli in produzione.
Sviluppo di API e Integrazione con Sistemi Aziendali Creazione di API per l'accesso ai dati e l'integrazione con strumenti aziendali.
Collaborazione con team di sviluppo per l'implementazione di soluzioni data-driven nei flussi di lavoro aziendali.
Sviluppo di soluzioni per l'elaborazione e lo streaming dei dati in real-time.
Documentazione e Condivisione della Conoscenza Redazione di documentazione tecnica, dev log e guide per le best practices.
Partecipazione a presentazioni interne, workshop e sessioni di code review.
Collaborazione con team interdisciplinari per tradurre le esigenze aziendali in soluzioni analitiche efficaci.
Requisiti fondamentali (must have) Laurea in discipline informatiche, ingegneristiche, statistiche o affini (anche in conseguimento).
Esperienza in analisi dei dati e sviluppo con Python (Pandas, NumPy, Scikit-learn, etc. ).
Conoscenza di SQL per interrogazioni e manipolazione dei dati su database relazionali (PostgreSQL, MySQL, SQL Server, ecc. ).
Esperienza con strumenti di data visualization (Power BI, Tableau, Matplotlib, Seaborn, Plotly, ecc. ).
Conoscenza di tecniche di machine learning e loro implementazione in Python.
Esperienza nel lavoro con GIT e version control.
Familiarità con il sistema operativo Linux come ambiente di sviluppo.
Conoscenza base della linea di comando Linux.
Esperienza nell'integrazione di API per il recupero e la manipolazione dei dati.
Capacità di lavorare efficacemente anche da remoto.
Disponibilità a trasferte di coordinamento presso sedi delle aziende di gruppo sul territorio italiano.
Requisiti preferenziali (nice to have) Esperienza con strumenti di orchestrazione di workflow (Apache Airflow, Luigi, Prefect).
Conoscenza di ambienti cloud per l'analisi dei dati (AWS, GCP, Azure, Snowflake, Databricks).
Esperienza con database NoSQL (MongoDB, Firebase, etc. ).
Familiarità con strumenti di data engineering (Kafka, Spark, Hadoop).
Esperienza in Natural Language Processing (NLP) e tecniche avanzate di analisi testuale.
Conoscenza di framework per lo sviluppo di API in Python (FastAPI, Flask, Django).
Buona conoscenza dell'inglese.
Conoscenza base di Docker e containerizzazione.
Sede e modalità di lavoro Il ruolo è basato nei nostri uffici di Avezzano, Aquila o Roma ma adottiamo un approccio ibrido con smart working
Il gruppo è inoltre composto da professionisti che lavorano in un contesto Agile dove si incoraggiano i team ad assumere l'ownership end-to-end dei progetti e delle attività.
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91 e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03
#J-18808-Ljbffr
-
Informazioni dettagliate sull'offerta di lavoro
Azienda: Buscojobs Località: Avezzano
Abruzzo, AvezzanoAggiunto: 12. 3. 2025
Posizione lavorativa aperta
Diventa il primo a rispondere a un'offerta di lavoro!