Entra in Deloitte

Go Deep Into Deloitte - Machine Learning

Conosci il vincitore della tappa

Il 22 Aprile si è tenuto il primo incontro virtuale di Go Deep Into Deloitte, il tech lab organizzato in collaborazione con il Career Service del Politecnico di Milano per conoscere la nostra realtà e sfidarsi su temi legati al mondo della tecnologia.

In questo appuntamento gli studenti del Politecnico si sono cimentati in una challenge virtuale dedicata al machine learning con l’obiettivo di programmare un software intelligente che sia in grado di capire se una macchina è infetta da un malware, ottimizzandone quindi il funzionamento.

Al termine delle 3 ore è stata svelata la classifica finale e i ragazzi hanno potuto confrontarsi con i professionisti Deloitte rispetto alle loro soluzione, è stato inoltre decretato il vincitore: Marco Varrone che abbiamo intervistato per conoscerlo meglio e farci descrivere l’esperienza.

Ciao! Raccontaci qualcosa di te:

Ciao! Mi chiamo Marco Varrone, ho 24 anni e sono uno studente del corso magistrale in Computer Science and Engineering del Politecnico di Milano. Sono entrato in contatto con la Data Science e il Machine Learning poco più di due anni fa, quando con dei miei amici ho partecipato ad una competizione per predire l’acquisto di prodotti di telefonia a partire da profili di utenti. Nessuno di noi aveva alcuna esperienza e infatti la competizione è andata piuttosto male per noi!
Il progetto ha però fatto nascere la passione per la Data Science, in particolare per la sua applicazione in ambito genomico e medico. Adesso sono presidente dell’associazione Polimi Data Scientists, in cui organizziamo eventi, workshop e competizioni all’interno del Politecnico di Milano.

Come mai hai deciso di partecipare al Go Deep Into Deloitte e cosa hai imparato?

Le competizioni o più in generale i progetti di Machine Learning tendono a durare molto tempo, dall’Hackathon di un paio di giorni fino a progetti di grandi dimensioni che possono durare per tutta la carriera lavorativa. Aver partecipato ad una sfida più breve del solito mi ha spinto a cercare la soluzione più immediata ed efficace possibile, la soluzione che permettesse di ottenere un buon risultato nel minor tempo possibile.

Complimenti per la vittoria! Descrivici la tua soluzione:

Grazie! Dopo aver osservato che tutte le feature erano di tipo categorico le ho convertite tramite One Hot Encoding in formato sparso per poter entrare nella RAM del mio computer.
Successivamente ho deciso di utilizzare un XGBoost classifier, perché oltre ad essere molto efficace, può operare nonostante ci siano valori mancanti nel dataset. Questa scelta è derivata dal fatto che, dato il tempo limitato, ho deciso di non fare feature engineering. Dopo un veloce tuning dei parametri ho ottenuto il risultato migliore.

L'hai trovato interessante?