Navigazione di Sezione:
Teoria Dei Codici E Dell'informazione 2013/2014
· Information Theory: Teoria ed Applicazioni (Cap 0 *)
· Concetti base in Probabilità e Combinatorica
· Compressione Dati I: (Cap. I*)
o Entropia di una sorgente dati
o Compressione dell’output di una sorgente dati in funzione del rischio di errore (lossy codes): il I Teorema di Shannon (the Source-Coding Theorem)
o Dimostrazione del I Teorema di Shannon: sequenze tipiche ed il metodo probabilistico.
· Compressione Dati II: (Cap I*)
o Codici a lunghezza variabile (no-lossy codes)
o Limite massimo della compressione a lunghezza variabile: Il I Teorema di Shannon per codici a lungh. variabile
o Codifica Ottimale: i codici di Huffmann
· Codifica adattiva (Stream Codes) (Cap. I*):
o Aspetti negativi del Codice di Huffman
o Sorgenti di bits non indipendenti, modelli di previsione
o Codici Aritmetici
o Codici di Lempel-Ziv
· Codifica e Trasmissione su Canali con Rumore (Noisy-Channel Coding) (Cap. II*)
o Variabili Aleatorie mutuamente dipendenti
o Entropia congiunta e condizionata
o Comunicazione su un canale con rumore: capacità, codifica e decodifica
o Il Teorema di Shannon sulla codifica per canali con rumore
* Testo Adottato: David J.C. MacKay, Information Theory, Inference and Learning Algorithms, Cambridge University Press 2004.