Acquistando il corso sarai incluso automaticamente nel gruppo "early eagles", con i seguenti benefit:
- consulenza gratuita di un'ora via hangout/skype
- inclusione nell'apposito canale telegram in cui potrai fare domande di approfondimento sui corsi, ma anche in generale su ML e fare networking
- se vorrai, offrire feedback durante la realizzazione dei corsi
Lavora senza intoppi
La soluzione ai problemi tipici che si incontrano nel Machine Learning
Prestazioni ottime
Come portare al massimo l'accuratezza di un modello
Autonomia
Sviluppa gli strumenti per affrontare le sfide che ti si porranno di fronte
Programma
- Output del classificatore (6:33)
- Precisione, Richiamo, F1 (6:22)
- Matrice di Confusione (2:49)
- Soglia del Classificatore (2:00)
- Curva ROC (5:04)
- Curva di Precisione e Richiamo (2:03)
- Classi sbilanciate, il problema (8:31)
- Classi sbilanciate, leggere le metriche (5:08)
- Classi sbilanciate, la soluzione (6:46)
- Classificatore Binario vs Multiclass vs Multilabel (5:07)
- Multilabel, come preparare i dati (5:59)
- Multilabel, addestramento e metriche (3:26)
- Multilabel, uno contro tutti (OneVsRestClassifier) (4:54)
- Le migliori pratiche sulle feature (2:27)
- Selezione delle feature, K-best (6:35)
- Selezione delle feature, K-best e Grid Search (7:01)
- RFE, Eliminazione Ricorsiva delle Feature (6:19)
- PCA, intuizione (3:21)
- PCA, utilizzo con la pipeline (4:40)
- PCA, interpretazione e visualizzazione (5:50)
- PCA, pro e contro (0:51)
- BONUS: Lo scandalo Facebook e Cambridge Analytica (4:49)
- Feature augmentation, creazione di dataset sintetico (3:35)
- Feature augmentation, limiti del modello lineare (4:49)
- Feature augmentation con i polinomi (6:39)
- Feature augmentation nel playground di Google (2:40)
- Importanza della feature nei modelli lineari (7:22)
- Importanza delle feature negli alberi di decisione (2:51)
- Permutation Feature Importance (13:08)
- Grafici bonus - feature vs target (2:26)
- Partial Dependence Plots (9:43)
- Addestrare più modelli (9:48)
- Comparare visivamente diversi modelli (5:04)
- Mettere i modelli a votazione - VotingClassifier (11:13)
- Perfezionare l'ensemble con la grid search (9:27)
- Differenza tra Bagging e Boosting (2:31)
- Random Forest (8:06)
- BaggingClassifier e BaggingRegressor (7:34)
- Adaptive Boosting (9:26)
- Gradient Boosting (4:21)
Piero Savastano
Piero e il Pollo Watzlawick sono grandi amici da sempre.
Mentre il Pollo era in guerra in Vietnam, Piero faceva ricerca in robotica al CNR.
Mentre Pollo inseguiva le gallinelle, Piero si specializzava come freelance in formazione e consulenza sulla data science - in particolare machine learning e data viz.
Mentre il Pollo guardava le stelle, Piero apriva un canale Youtube divulgativo sull'IA, lanciava un meetup mensile a Roma sugli assistenti vocali, e partecipava a conferenze nazionali e internazionali come speaker.