Autoplay
Autocompleta
Precedente
Prossima
ML in Python - Verso il professionismo
Come creare un buon classificatore
Output del classificatore (6:33)
Precisione, Richiamo, F1 (6:22)
Matrice di Confusione (2:49)
Soglia del Classificatore (2:00)
Curva ROC (5:04)
Curva di Precisione e Richiamo (2:03)
Classi sbilanciate, il problema (8:31)
Classi sbilanciate, leggere le metriche (5:08)
Classi sbilanciate, la soluzione (6:46)
Classificatore Binario vs Multiclass vs Multilabel (5:07)
Multilabel, come preparare i dati (5:59)
Multilabel, addestramento e metriche (3:26)
Multilabel, uno contro tutti (OneVsRestClassifier) (4:54)
Regolarizzazione
Overfitting vs Underfitting (2:41)
Overfittare un albero (6:53)
Regolarizzare l'albero con la profondità giusta (5:31)
Regolarizzare l'albero con la Random Forest (2:52)
Regolarizzazione nel Deep Learning, teoria (4:35)
Regolarizzazione nel Deep Learning, pratica (10:48)
Curve di apprendimento
Quanti dati servono? Curva di apprendimento (9:37)
Leggere le curve di apprendimento (5:36)
Cross Validation
Evitare leak con la Cross Validation (10:04)
Cross Validation, come si usa (8:57)
Cross Validation, grafici (5:20)
Cross Validation, addestramento finale (4:20)
Grid Search
Intuizione dietro la Grid Search (5:10)
Definire lo spazio di ricerca (7:29)
Lanciare la ricerca (5:40)
Salvare il modello migliore (4:10)
Analisi dei risultati (3:38)
Metriche custom e refit (5:50)
Visualizzare le interazioni tra iperparametri (4:19)
Pipeline
Costruire la Pipeline (7:55)
Addestrare la Pipeline (3:36)
Salvare e caricare da disco una Pipeline (1:50)
Usare insieme Pipeline e Grid Search (8:30)
Addestramento di Pipeline e Grid (2:56)
Progetto biciclette con ColumnTransformer, Pipeline e Grid
Setup del progetto (4:28)
Preparazione ColumnTransformer e Pipeline (4:54)
Preparazione Grid Search (4:13)
Lancio degli addestramenti (4:06)
Salvataggio modello e risultati (2:46)
Plot dei residui (4:16)
Selezionare, combinare e valutare le feature
Le migliori pratiche sulle feature (2:27)
Selezione delle feature, K-best (6:35)
Selezione delle feature, K-best e Grid Search (7:01)
RFE, Eliminazione Ricorsiva delle Feature (6:19)
PCA, intuizione (3:21)
PCA, utilizzo con la pipeline (4:40)
PCA, interpretazione e visualizzazione (5:50)
PCA, pro e contro (0:51)
BONUS: Lo scandalo Facebook e Cambridge Analytica (4:49)
Feature augmentation, creazione di dataset sintetico (3:35)
Feature augmentation, limiti del modello lineare (4:49)
Feature augmentation con i polinomi (6:39)
Feature augmentation nel playground di Google (2:40)
Importanza della feature nei modelli lineari (7:22)
Importanza delle feature negli alberi di decisione (2:51)
Permutation Feature Importance (13:08)
Grafici bonus - feature vs target (2:26)
Partial Dependence Plots (9:43)
Ensembling: usare più modelli contemporaneamente
Addestrare più modelli (9:48)
Comparare visivamente diversi modelli (5:04)
Mettere i modelli a votazione - VotingClassifier (11:13)
Perfezionare l'ensemble con la grid search (9:27)
Differenza tra Bagging e Boosting (2:31)
Random Forest (8:06)
BaggingClassifier e BaggingRegressor (7:34)
Adaptive Boosting (9:26)
Gradient Boosting (4:21)
Conclusione
Come impostare un progetto (8:07)
Teach online with
Le migliori pratiche sulle feature
Contenuto bloccato
Se sei già iscritto,
Dovrai fare login
.
Iscriviti per sbloccare