Contesto:
Durante il corso Data Analyst di Epicode, ho realizzato un progetto finale focalizzato sull’analisi del dataset Olist, una piattaforma di e-commerce brasiliana. L’obiettivo era comprendere le dinamiche di vendita, i ricavi e la soddisfazione dei clienti nel periodo 2016-2018.
Obiettivi:
Pulire e preparare dati reali relativi a ordini, clienti, prodotti e recensioni.
Analizzare l’andamento delle vendite e dei ricavi nel tempo.
Valutare la distribuzione dei rating dei clienti per identificare tendenze di soddisfazione.
Creare un dashboard Power BI interattivo per visualizzare insight strategici utili a migliorare le performance aziendali.
Tecnologie utilizzate:
📊 Power BI (modellazione, DAX e visualizzazione)
Dataset pubblico Olist (2016-2018)
Excel
Power Query (pulizia e trasformazione dati)
🔗 Link al progetto GitHub:
👉 Visualizza su GitHub
Contesto:
Durante la quarta settimana di Looker Studio del corso Data Analyst di Epicode, è stato sviluppato un progetto Looker Studio completo, con l'obiettivo di analizzare la rappresentanza di genere tra gli artisti, conduzione, co-conduzione e direzione artistica partecipanti al Festival di Sanremo dal 1951 al 2023.
Obiettivo:
Importare, pulire e analizzare dati real per esplorare l’evoluzione della partecipazione maschile, femminile e mista (duetti, band, gruppi) nel corso dei anni.Visualizzare i cambiamenti nella rappresentanza di genere nel tempo.Costruire una dashboard interattiva per facilitare l'esplorazione dei dati.
Tecnologie utilizzate:
🐍 Python 3.x
📊 Pandas, NumPy
🎨 Looker Studio
📘 Jupyter Notebook
Dataset pubblici
Excel
Power Query (pulizia e trasformazione dati)
🔗 Link al progetto GitHub:
👉 Visualizza su GitHub
🔗 Link al progetto Looker Studio:
👉 Visualizza il report in Looker Studio
Contesto:
Durante la quarta settimana di Python del corso Data Analyst di Epicode, è stato sviluppato un progetto Python completo, con l'obiettivo di simulare la gestione e l’analisi dei Dati COVID-19 in Italia e nel Mondo (2020-2024)
Obiettivo:
Importare, pulire e analizzare dati reali da fonti ufficiali per creare una panoramica efficace sul numero di vaccinazioni in relazione alla popolazione per ogni regione, attraverso grafici chiari e interattivi.
Tecnologie utilizzate:
🐍 Python 3.x
📊 Pandas, NumPy
🎨 Matplotlib, Seaborn
📘 Jupyter Notebook
Dataset pubblici (CSV da GitHub e portali istituzionali)
🔗 Link al progetto GitHub:
👉 Visualizza su GitHub
Contesto:
Durante la quarta settimana del corso Data Analyst di Epicode sul modulo MySql, è stato sviluppato un progetto SQL completo, con l'obiettivo di simulare la gestione e l’analisi di dati di vendita per l’azienda ToysGroup, oltre a un esercizio avanzato su uno store online.
Obiettivo:
Costruire e interrogare un database relazionale per ottenere insight su vendite, prodotti, categorie e regioni. Il progetto include anche un file Word con domande teoriche approfondite su SQL.
Tecnologie utilizzate:
SQL (DDL, DML: CREATE, INSERT, SELECT, JOIN, GROUP BY, HAVING)
Modellazione ER (concettuale e relazionale)
DBMS: MySQL
🔗 Link al progetto GitHub:
👉 Visualizza su GitHub
Contesto:
Su richiesta della Regione Marche, è stato sviluppato un sistema per la gestione delle strutture ricettive del territorio attraverso l’uso di Excel, Power Query e Power Pivot.
Obiettivo:
Organizzare, trasformare e visualizzare i dati riguardanti le strutture e i prezzi medi per città, migliorando l’accessibilità e l’analisi delle informazioni.
Tecnologie utilizzate:
Excel (funzioni avanzate, tabelle pivot, convalida dati)
Power Query (pulizia e trasformazione dati)
Power Pivot (modello dati e relazioni)
🔗 Link al progetto GitHub:
👉 Visualizza su GitHub
🔗 GitHub: Vai al progetto
📌 Descrizione sintetica: Progetto di gruppo svolto durante la Build Week con l'obiettivo di progettare e interrogare un database relazionale completo, usando MySQL. Abbiamo simulato uno scenario aziendale con categorie, prodotti, vendite e regioni.
🛠 Tecnologie usate:
MySQL
SQL Workbench
ER Diagram
🔗 GitHub: Vai al progetto
📌 Descrizione sintetica: In questo progetto di gruppo abbiamo sviluppato uno scraper Python per raccogliere informazioni da siti di e-commerce nel settore calzature. Abbiamo gestito la paginazione e strutturato i dati per l’analisi dei competitor.
🛠 Tecnologie usate:
Python (requests, BeautifulSoup, pandas)
Web Scraping
Jupyter Notebook