Acquistando il corso sarai incluso automaticamente nel gruppo Telegram "early eagles".
Potrai chiedere aiuto e fare domande di approfondimento sui corsi, ma anche in generale sull'Intelligenza Artificiale.
Sarai incoraggiato a fare networking con altri studenti e professionisti.
Lavora senza intoppi
La soluzione ai problemi tipici che si incontrano nel Machine Learning
Prestazioni ottime
Come portare al massimo l'accuratezza di un modello
Autonomia
Sviluppa gli strumenti per affrontare le sfide che ti si porranno di fronte
Programma
- Output del classificatore (6:33)
- Precisione, Richiamo, F1 (6:22)
- Matrice di Confusione (2:49)
- Soglia del Classificatore (2:00)
- Curva ROC (5:04)
- Curva di Precisione e Richiamo (2:03)
- Classi sbilanciate, il problema (8:31)
- Classi sbilanciate, leggere le metriche (5:08)
- Classi sbilanciate, la soluzione (6:46)
- Classificatore Binario vs Multiclass vs Multilabel (5:07)
- Multilabel, come preparare i dati (5:59)
- Multilabel, addestramento e metriche (3:26)
- Multilabel, uno contro tutti (OneVsRestClassifier) (4:54)
- Le migliori pratiche sulle feature (2:27)
- Selezione delle feature, K-best (6:35)
- Selezione delle feature, K-best e Grid Search (7:01)
- RFE, Eliminazione Ricorsiva delle Feature (6:19)
- PCA, intuizione (3:21)
- PCA, utilizzo con la pipeline (4:40)
- PCA, interpretazione e visualizzazione (5:50)
- PCA, pro e contro (0:51)
- BONUS: Lo scandalo Facebook e Cambridge Analytica (4:49)
- Feature augmentation, creazione di dataset sintetico (3:35)
- Feature augmentation, limiti del modello lineare (4:49)
- Feature augmentation con i polinomi (6:39)
- Feature augmentation nel playground di Google (2:40)
- Importanza della feature nei modelli lineari (7:22)
- Importanza delle feature negli alberi di decisione (2:51)
- Permutation Feature Importance (13:08)
- Grafici bonus - feature vs target (2:26)
- Partial Dependence Plots (9:43)
- Addestrare più modelli (9:48)
- Comparare visivamente diversi modelli (5:04)
- Mettere i modelli a votazione - VotingClassifier (11:13)
- Perfezionare l'ensemble con la grid search (9:27)
- Differenza tra Bagging e Boosting (2:31)
- Random Forest (8:06)
- BaggingClassifier e BaggingRegressor (7:34)
- Adaptive Boosting (9:26)
- Gradient Boosting (4:21)
Piero Savastano
Piero e il Pollo Watzlawick sono grandi amici da sempre.
Mentre il Pollo era in guerra in Vietnam, Piero faceva ricerca in robotica al CNR.
Mentre Pollo inseguiva le gallinelle, Piero si specializzava come freelance in formazione e consulenza sulla data science - in particolare machine learning e data viz.
Mentre il Pollo guardava le stelle, Piero apriva un canale Youtube divulgativo sull'IA, lanciava un meetup mensile a Roma sugli assistenti vocali, e partecipava a conferenze nazionali e internazionali come speaker.