Fisica Matematica Applicata A.A. 2011/12
venerdì 11 maggio 2012
mercoledì 9 maggio 2012
venerdì 4 maggio 2012
Verifica scritta facoltativa
Materiale verificato: teoria dell'informazione e cenni di probabilità, fino alle catene di Markov.
giovedì 3 maggio 2012
venerdì 27 aprile 2012
Lezione 48
Efficienza del codice di Shannon-Elias-Fano in termini di generazione del codice per stringhe di cifre. Esercizi di ripasso.
giovedì 26 aprile 2012
Lezione 47
Fine della dimostrazione dell'ottimalità del codice di Huffman. Codice di Shannon-Elias-Fano.
giovedì 19 aprile 2012
mercoledì 18 aprile 2012
giovedì 12 aprile 2012
Lezione 44
Dimostrazione della disuguaglianza di Kraft. Codici ottimali. Superottimalità. Codice di Shannon. Esempi. Stima dell'efficienza di un codice. Codice di Shannon ed entropia. Raggruppamento in stringhe di cifre per migliorare la compressione. Codici errati. Disuguaglianza di Kraft per codici univocamente decifrabili.
mercoledì 11 aprile 2012
Lezione 43
Esercizi di ripasso. Compressione dati. Classificazione dei codici. Disuguaglianza di Kraft.
mercoledì 4 aprile 2012
Lezione 42
Tasso di entropia per catene di Markov. Modello supersemplificato di sistema fisico come catena di Markov: crescita dell'entropia di Shannon. Relazione fra la funzione H di uno spazio di fase fisico e l'entropia di Shannon di una sua discretizzazione.
venerdì 30 marzo 2012
Lezione 41
Dimostrazione del teorema ergodico per CM omogenee. Tasso di entropia di un processo stocastico. Suo significato in termini di compressione dei dati.
mercoledì 28 marzo 2012
Lezione 40
Criterio di stazionerietà per CM. Rappresentazione grafica di matrici di transizione. Matrici stocastiche ergodiche. Teorema ergodico per CM omogenee.
venerdì 23 marzo 2012
Lezione 39
Processi stocastici. Catene di Markov. Stazionarietà ed omogeneità per CM. Probabilità dello stato iniziale, matrice di transizione e loro utilizzo.
giovedì 22 marzo 2012
Lezione 38
Lemma dell'equipartizione asintiotica. Teorema di Shannon-McMillan-Breiman (versione di Shannon per variabili i.i.d.). Compressione dati tramite il Teorema di SMB.
mercoledì 21 marzo 2012
Lezione 37
Esercizi. Entropia di una partizione numerabile. Introduzione al teorema di Shannon-McMillan-Breiman.
giovedì 15 marzo 2012
Lezione 36
Dimostrazione della disuguaglianza di Fano; corollari ed applicazioni. Stime dall'alto della probabilità di errore.
mercoledì 14 marzo 2012
Lezione 35
Data Processing Inequality. Corollari ed esempi. Disuguaglianza di Fano.
Lettura extra: Minibiografia di Robert(o) Fano (da Wikipedia).
Lettura extra: Minibiografia di Robert(o) Fano (da Wikipedia).
venerdì 9 marzo 2012
Lezione 34
Esercizi sulla mutua informazione ed ulteriori proprietà. Regola di composizione dell'entropia (condizionale). Mutua informazione condizionale. Regola di composizione della mutua informazione (condizionale). Sequenze brevi di Markov.
giovedì 8 marzo 2012
Lezione 33
Versione forte della disuguaglianza di Jensen. Entropia relativa (divergenza di Kullback-Leibler). Spiegazione euristica dell'entropia relativa come spreco medio di bit per cifra usando un codice sbagliato. Mutua informazione (informazione comune) e sue proprietà.
Iscriviti a:
Commenti (Atom)