Insegnamento NEURAL NETWORKS AND LEARNING ALGORITHMS
| Nome del corso di laurea | Ingegneria elettronica |
|---|---|
| Codice insegnamento | A005870 |
| Curriculum | Industrial electronics |
| Docente responsabile | Renzo Perfetti |
| Docenti |
|
| Ore |
|
| CFU | 9 |
| Regolamento | Coorte 2025 |
| Erogato | Erogato nel 2025/26 |
| Erogato altro regolamento | |
| Attività | Affine/integrativa |
| Ambito | Attività formative affini o integrative |
| Settore | ING-IND/31 |
| Anno | 1 |
| Periodo | Secondo Semestre |
| Tipo insegnamento | Opzionale (Optional) |
| Tipo attività | Attività formativa monodisciplinare |
| Lingua insegnamento | ITALIANO |
| Contenuti | Introduzione alle reti neurali e agli algoritmi di apprendimento automatico per la classificazione e la regressione. |
| Testi di riferimento | Duda, Hart , Stork, Pattern Classification, 2nd ed., Wiley C.M. Bishop, Pattern Recognition and Machine Learning, Springer James, Witten, Hastie, Tibshirani, An Introduction to Statistical Learning, Springer S. Haykin, Neural Networks, Prentice-Hall N. Cristianini, J. Shawe-Taylor, An Introduction to Support Vector Machines, Cambridge University Press |
| Obiettivi formativi | Comprensione dei principali algoritmi di apprendimento automatico e delle problematiche relative alla loro applicazione e valutazione nel riconoscimento e nell'analisi dei dati |
| Prerequisiti | Calcolo delle probabilità e variabili aleatorie. Algebra lineare. |
| Metodi didattici | Lezioni frontali |
| Modalità di verifica dell'apprendimento | Esame orale |
| Programma esteso | Richiami su forme quadratiche e variabili aleatorie. Introduzione all’apprendimento automatico. Classificazione Bayesiana. Classificazione parametrica e non parametrica (k-NN). Stima MLE. Misture di Gaussiane. Expectation Maximization. Separazione lineare. Perceptron. Steepest descent. Algoritmo LMS. Separazione lineare multiclasse. Prestazioni di un classificatore: overfitting, bias e varianza, curva ROC, matrice di confusione. Test e validazione di un classificatore. Reti neurali multistrato. Algoritmo error backpropagation. Tecniche di regolarizzazione. Cenni alle reti neurali ricorrenti e al deep learning. Support Vector Machines lineari e non lineari. Algoritmi di clustering. PCA. Reti neurali auto-organizzanti. Regressione lineare. Reti neurali per la regressione. |