Programma di Teoria Dei Codici E Dell'informazione:

 

 

·      Information Theory: Teoria ed Applicazioni (Cap 0 *)

·      Concetti  base in  Probabilità e Combinatorica

·      Compressione  Dati I: (Cap. I*)

o   Entropia di una sorgente dati

o   Compressione dell’output di una sorgente dati in funzione del rischio di errore (lossy codes):  il I Teorema di Shannon (the Source-Coding Theorem)

o   Dimostrazione del I Teorema di Shannon:  sequenze tipiche ed il metodo probabilistico.

·      Compressione Dati II: (Cap I*)

o   Codici a lunghezza variabile (no-lossy codes)

o   Limite massimo  della  compressione a lunghezza variabile: Il I Teorema di Shannon per codici a lungh. variabile

o   Codifica Ottimale: i codici di Huffmann

·      Codifica adattiva (Stream Codes) (Cap. I*):

o   Aspetti negativi del Codice di Huffman

o   Sorgenti di bits non indipendenti, modelli di previsione

o   Codici Aritmetici 

o   Codici di Lempel-Ziv

·      Codifica e Trasmissione su Canali con Rumore (Noisy-Channel Coding) (Cap. II*)

o   Variabili Aleatorie mutuamente dipendenti

o   Entropia congiunta e condizionata

o   Comunicazione su un canale con rumore: capacità, codifica e decodifica

o   Il Teorema di Shannon sulla codifica per canali con rumore

 

* Testo Adottato: David J.C. MacKay, Information Theory, Inference and Learning Algorithms, Cambridge University Press 2004.