Filtra gli screencast

Machine Learning

NLTK: utilizzare lo stemming per l’analisi del testo

Episodio #265 | Durata 18 minuti | Data 31-03-2022 | Categoria - - - - -

L’ambiente NLTK offre una gamma completa di strumenti per l’analisi del linguaggio naturale. In questo screencast, incontriamo lo stemming, tecnica fondamentale per la semplificazione del testo, e ragioniamo sulle sue potenzialità soprattutto pensando ad una lingua complessa come l’Italiano.

Data Science

Data Science: analizzare i dati con i grafici a violino

Episodio #256 | Durata 26 minuti | Data 24-01-2022 | Categoria

Ogni tipologia di grafico mette in risalto aspetti diversi di una distribuzione. Il violinplot che incontriamo in questo screencast è un chiaro indicatore di proprietà statistiche e densità di distribuzione. Grazie alla libreria Seaborn e alle funzionalità dei DataFrame Pandas potremo apprezzarlo

Machine Learning

NLTK: analizzare il linguaggio naturale in Python

Episodio #250 | Durata 27 minuti | Data 24-11-2021 | Categoria - - - - -

Il linguaggio naturale rappresenta il formato dati più diffuso in assoluto sebbene il più ostico da interpretare automaticamente. Esiste in Python NLTK, uno dei framework più usati al mondo in materia, che parte dalla manipolazione del testo fino a spingersi alle tecniche di Intelligenza Artificiale

Data Science

Data Science: effettuare confronti in Pandas e NumPy

Episodio #249 | Durata 24 minuti | Data 18-11-2021 | Categoria - -

In Pandas e NumPy è fondamentale incrociare molte fonti dati per svolgere analisi. Talvolta possono però apparire messaggi di errore non facilmente comprensibili senza la necessaria esperienza, ad esempio non impiegando un giusto operatore logico. Esploriamo la problematica per vederci chiaro

Data Science

Data Science, l’importanza di grafici 3D

Episodio #237 | Durata 35 minuti | Data 25-08-2021 | Categoria - -

I dati da analizzare hanno spesso molteplici dimensioni e rappresentarli su piani bidimensionali non sempre risulta comodo. I grafici 3D possono offrire ulteriori prospettive soprattutto con uno strumento potente come Matplotlib. Vediamolo insieme

Data Science

Streamlit: interfacce utente e gestione degli eventi

Episodio #219 | Durata 21 minuti | Data 31-03-2021 | Categoria

Streamlit permette di realizzare molto velocemente data app, ma la sua ricchezza di controlli utente permette di creare applicazioni in stile web di qualsiasi genere. In questo screencast mettiamo sotto la lente la sua gestione degli eventi e le possibilità di inserimento dati

Linguaggio R

R: raggruppare e sintetizzare dati con la libreria dplyr

Episodio #204 | Durata 23 minuti | Data 16-12-2020 | Categoria -

Il linguaggio R spicca negli scenari attuali per ricchezza di funzionalità ed intuitività ma con la libreria dplyr fa un nuovo balzo in avanti sotto ogni aspetto. In questo screencast, vediamo le funzionalità di concatenazione di operazioni e sintesi di dati che essa offre

Data Science

Streamlit: integrare controlli utente nelle data app

Episodio #202 | Durata 21 minuti | Data 02-12-2020 | Categoria

Uno degli aspetti più innovativi delle data app di Streamlit è la capacità di trasformare un’analisi di Data Science o Intelligenza Artificiale in un sito web interattivamente fruibile da qualsiasi utente. In questo screencast, vediamo l’impiego di controlli utente che completano questa missione

Data Science

Google Colab, ambiente on line per Data Science

Episodio #200 | Durata 19 minuti | Data 18-11-2020 | Categoria

Data Science e Machine Learning richiedono spesso grandi capacità di elaborazione e spazio di archiviazione, non sempre facili da individuare nei propri PC. Per tale motivo, Google mette a disposizione Colab un ambiente di lavoro on line gratuito per elaborare in Cloud i propri programmi

Linguaggio R

R, introduzione alla libreria dplyr

Episodio #198 | Durata 29 minuti | Data 04-11-2020 | Categoria -

Il linguaggio R ha una sintassi ispirata alla massima sinteticità e produttività ma alcuni strumenti lo rendono ancora più attraente. In questo screencast ne vediamo uno, la libreria dplyr, sperimentandone le funzioni di base su un dataset storico della Data Science