Navigazione di Sezione:
Metodi Di Ottimizzazione Per Big Data 2016/2017
Introduzione all'ottimizzazione: approccio modellistico
Problemi di ottimizzazione: classificazione
Problemi di Programmazione Matematica: condizioni di esistenza della soluzione
Ottimizzazione non vincolata: condizioni di ottimo, algoritmi di soluzione: condizioni di convergenza globale, convergenza di metodi con ricerche unidimensionali,
Ricerca unidimensionale. Metodo del gradiente. Metodo di Newton.
Metodi di decomposizione: introduzione, algoritmi sequenziali e paralleli. Metodo di Gauss Seidel, metodo di Gauss Soutwell, metodo di discesa a blocchi, cenni su decomposizione con sovrapposizione dei blocchi. Metodo di Jacobi
Ottimizzazione non vincolata: addestramento di reti neurali. Dimostrazione di convergenza dell'algoritmo del perceptron.
Ottimizzazione vincolata: Ottimizzazione vincolata: condizioni di ottimo e algoritmi di soluzione. Condizioni di ottimo analitiche: condizioni di Fritz John, qualificazione dei vincoli (solo indipendenza lineare gradienti vincoli di eguaglianza e vincoli attivi)
Duale di Wolfe e SVM: definizione e proprietà del duale di Wolfe nel caso generale e nel caso quadratico e sua applicazione all'addestramento di una Support Vector Machine (SVM). Risultato di Vapnik. SVM lineari e non lineari. Algoritmo SVMlight.
Software: AMPL e WEKA