Site des Oraux

Théorie de codage et de l'information (23) :: post
Années :: 2004 :: 2005 :: 2006 :: 2007 :: Toutes

Post nº23 (id3297) envoyé par lio  le 01 Sep 2007, 03:08
Bon, donc il faut savoir une chose primordiale :

De tous les oraux que j'ai eu jusqu'ici, c'est pour CE cours-CI que consulter le site oraux.be est le plus important. Et ce n'est pas pour rire, je m'explique : comme vous savez, vous avez largement le temps de préparer votre question. Il vous dit 20 min, mais cest plutôt le double... Bref recopier les démos du cours au tableau, relire attentivement le chapitre, tout ca vous avez le temps.

Mais ca, il le sait très bien :) C'est pourquoi ses questions vont porter essentiellement sur du détail assez pointu, ca va très en profondeur. Tellement que bien souvent, la réponse ne se trouve même pas dans le cours (jai bossé dans le bloc dactylographié de 80 pages (de Verlouch je crois. Thx à lui, on le repetera jamais assez ^^). Donc soit vous vous appreter à refaire tout le raisonnement pour répondre(et prendre le risque de vous planter), soit vous lisez oraux.be ^^

Bon, passons à mes questions :


1) définir les deux capacités, expliquer physiquement chacune d'elles, donner la déf de I(X:Y) (cf.diag de venn) et donner la formule qui lie I(X:Y) avec la distance relative (genre le truc rien à voir avec les capacités, me souvenait pas de la relation). Dire ce que le 2eme théoreme de Shannon nous permet de conclure : elles sont toutes les deux égales. Faut expliquer pourquoi, je savais pas trop mais jai trouver une explication potable avec la réciproque forte du 2ème théo de Sh. Ca semble bien être ca.

2)CBE. Pas de grandes surprises. Comprendre pq H(Y|X) = H2(alpha). On passe directement au feedback : il ne regarde pas les calculs (un peu bête, faut avouer). Il demande pourquoi C avec feedback ou sans sont égales, si on pouvait s'attendre à ce résultat, et expliquer le feedback (je lui ai dit que la source renvoyait le bit quand il n'était pas passé, il m'a répondu "oui mais comment elle sait qu'il n'est pas passé hein?". En fait des bits du récepteurs sont envoyés à la source. D'où le nom feedback.

3)Dernière question : code de huffman (D=2 lui suffit): donner un exemple de construction. Relisez les propriétés même si la question ne le demande pas explicitement, ca aidera à répondre à ses sous-questions (optimalité de huffman sur les DFU, les 2 mots-codes les plus long ont même longueur, etc).
Enfin il demande ce qu'il se passe si pour un des deux mot-codes les plus long, on rajoute un bit (instantané : encore, optimalité : non car on peut lassocier au noeud père de longueur + courte). Et si on retire un bit? (instantané ? Non car préfixe d'un autre (en plus on tombe sur le code d'un noeud déjà traité dans l'arbre), optimalité : la question se pose pas, le code n'étant plus viable).

Voila. Il est très sympathique,et si vous avez bien bossé le cours, il le remarquera et vous aurez vos points. No stress et bonne chances aux suivants ;)

Post nº22 (id3296) envoyé par kim  le 30 Aug 2007, 10:22
Pour les electromec, je ne crois pas que Cerf interroge sur la partie modulation !!!

J'ai eu théorème de l'AEP, les sequences typiques, l'application dans
la compression de donnée et la matrice de Hamming.

Ils s'intéressent beaucoup à la compréhension!!

Les petites questions que je me souviens:

Quand nous voulons atteindre la borne entropique avec un epsylon fixé, sur quel paramètre allons nous jouer? La taille n. Dans quel cas l'ensemble typique est égale à l'ensemble de toutes les séquences ( réponse : distribution uniforme). Dans l'exemple de matrice de Hamming (voir exemple du cours), comment peut-on dire juste en regardant
la matrice que ce code ne corrige pas d'erreur? Il y a deux colonnes identiques!

Post nº21 (id3295) envoyé par Bocko  le 28 Aug 2007, 17:34
Yosh tout le monde !

J'ai eu :
- Code source
- Code instantanné
- Borne inférieure de L(C)
- Code de Hamming

En gros pour code source et code instanné, y a rien de particulier. Il m'a juste demandé à quoi ça servait et d'expliquer en quoi un code est instantanné.
Pour les codes instatannés, il m'a demandé d'expliquer l'inégalité de Kraft donc expliquer à partir de l'arbre. Il m'a ensuite demandé ce que ça impliquait si on saturait cette inégalité.
Pour la borne inférieure de L(C), il faut juste retaper la démo, j'ai ensuite enchaîné sur le code de Shannon (cf. les posts précédents, ça aide vraiment). Puis il demande comment on peut minimiser le bit qu'on perd >> Shannon par bloc.
Pour le code de Hamming, lui donner un exemple en expliquant bien tout !

Voilà, en fait faut pas du tout stresser pour cet exam. Cet oral de Cerf fut vraiment l'oral le plus cool que j'ai pu passé ^^

Bonne chance !!!

Post nº20 (id3293) envoyé par anonyme  le 27 Aug 2007, 19:44
Comme déjà marqué :
1. CCE
-Principe
-Encodage/Décodage
-Décodeur idéal

2.Distance
-Pourquoi c'est important pour un CCE

3.Code de Huffman
-Exemple
-A partir de cet exemple expliquer le principe

Post nº19 (id2457) envoyé par Oli  le 01 Sep 2006, 17:34
- qu'est ce qu'un codage de source
- expliquer ce qu'est un code instantané
- énoncer et démontrer l'inégalité de Kraft
- Expliquer et donner un exemple du code de Huffman

Il pose des ptites questions pas trop compliqué, et toutes ses questions ce sont des ptites remarques qu'il a fait au cours et qui sont dans les notes disponibles sur internet. Ce bon cieu cerf est très sympa et pas stressant du tout!
courage a tous!

Post nº18 (id2456) envoyé par Val  le 31 Aug 2006, 22:30
Yop, voici mes questions :

-Theoreme AEP, ennoncer et demontrer, definir sequence typique, et finalement arriver grace à tout ça au theoreme du codage.

-Expliquer le codage Huffman (exemple).

Tout cela avec moultes petites questions plutot cool (N'hesitez pas à potasser toutes ces petites question en relisant les post des précédentes années. Ca aide bcp pour le bluffer :D )

Sinon il est tres peace et vous explique vraiment bien quand vous vous perdez. Du point de vue du tps, il m'a annoncé que j'avais 30 min pour rediger mes reponses, au final c'etait 1h20 ... ( + 20 min de blabla avec lui )

Post nº17 (id1573) envoyé par Nicolas  le 11 Sep 2005, 15:18
Grosse question (2/3 exam): AEP
Il est important de savoir dans le détail ce qu'est une séquence typique. Une définition ne lui suffit pas. Il faut bien dire que ce sont des séquences qui ont chacune une probabilité d'apparition faible, mais la probabilité cumulée pour toutes les séquences est élevée. La séquence la plus probable n'est pas une séquence typique.
Puis vient le théorème de l'AEP. Il sert à compresser les données. Etant donné que je n'ai pas réussi à bien répondre, j'ai dévié sur Shannon. Mais cela me semble intéressant de le mettre ici malgré tout. Les données d'une source, une fois codées de manière optimale, se ressemblent et se comportent comme des séquences de variables iid. Cela est utile parce que l'AEP s'applique justement à ces variables et dit que la longueur moyenne des mots-codes peut être arbitrairement proche de l'entropie. De là, on peut faire le parallèle avec Shannon: L(C) >= H(X). On a fait un petit tour du chapitre en vitesse, puis il m'a demandé: "si on ne connait pas la distribution, que peut-on dire de L(C)?" Si on ne connait la distribution, on peut dire adieu à Huffman et compagnie. Il reste néanmoins les codes universels (Lempel-Ziv, ...) pour qui, lorsque n tend vers l'infini, la longeur des mots-codes se rapproche aussi de H(X). Le théorème de Shannon est donc une condition universelle, bien qu'énoncée pour des variables iid.

Question subsidiaire (1/3 exam): Hamming
J'ai du écrire un exemple. Cela veut dire écrire la matrice, choisir des valeurs pour les bits d'info (on y est obligé parce que le système est indéterminé) et trouver un mots-codes. Expliquer qu'on teste la parité d'un sous-ensemble de bits, que l'on doit choisir r bits d'info où r est le rang de la matrice, que la distance et le poids sont deux choses identiques (car le code est linéaire: la somme de deux mots-codes est un mot-code). Il est plus rapide de calculer le poids minimum des mots codes que de calculer la distance entre chaque paire de mots-codes.

Post nº16 (id1569) envoyé par No one is the best  le 08 Sep 2005, 16:49
Alors hier, j'ai eu droit à :

Code instantanté,
Inégalité de Kraft,
Code de Hamming,
Borne de singleton

Je n'ai pas hésité à remettre tout ce qu'il y avait à propos de cela dans le cours mais il est rentré un peu trop vite... je n'ai pas eu le temps de mettre des choses concernant la borne de singleton. ( il ne m'a laissé que 25 min... alors qu'au premier il a laissé 1h... ) Enfin soit, il m'a dit que ce serait suffisant. => Pas de stress. Le post de Mimi est assez bien fait, je ne remets pas ce qu'elle a marqué.

Post nº15 (id1568) envoyé par Shere Khan  le 07 Sep 2005, 23:04

Voilà, j'ai passé Cerf ce matin, et j'ai eu comme questions:
Code correcteur d'erreur:
- Principe;
- Encodeur (juste dire que ca rajoute de la redondance);
- Décodeur (+ décodeur idéal)
- Borne de Hamming
- Canal Binaire à Effacement

Voilà, y a pas vraiment grand choses à raconter si ce n'est qu'il est très sympa, les questions se suivent exactement comme dans le cours (du genre "et donc maintenant, forcément, je dois vous parler du point suivant"), il aide si jamais, (moi il m'a aidé deux fois et après il m'a dit que c'était très bon,...) donc voilà!

Bonne merde aux suivants...

Post nº14 (id1566) envoyé par Smoon  le 07 Sep 2005, 11:28
Voila moi j'ai eu:

Capa op et inf: quelle sont les différences (dans l'un on tient compte les prob erreur pas dans l'autre) + faire un lien avec 2e théoreme Shannon.
Bien souvent quand on lui Donne C=max I(X:Y) il demande re redéfinir I(X:Y)et meme de donner un lien avec la distance de Kullback (I(X:Y)=D(p(x,y)|| p(X).p(y))il aime bien le diagramme de Venn.

Puis, parler-moi de la capacité du CBS: les petites question qu'il pose c'est pourquoi c'est symétrique par rapport a 1/2, il faut lui répondre que si la prob d'inversion est de 95%, il suffit d'inverser tout les bits a la sortie du canal pour retrouver un prob d'inversion de 5%.

Et enfin, Code Huffman (principe et construction): Il faut bien lui dire que c'est un code instantané Optimal (dans le cas du binaire en tout cas) et qu'il permet un codage de source pour comprimer des données.
puis le petit exemple binaire qu'il a donner au cours, comparer L avec H on voit que L>H ce qui est conforme au Théoreme du codage. puis il va surrement vous demander s'il existe une borne supérieur et il faut lui dire Oui, H+1...Et il m'a demander comment réduire cette borne supérieure, il faut lui parler du second Théorème de Shannon avec le H+1/n et le codage par bloc. Il demande ensuite comment coder le codage par bloc avec Huffman.
La je savais pas lui répondre (enfin si mais il a pas compris ce que je voulais dire;-))il faut lui dire qu'au lieu d'avoir des a, b, c, d, e, on code un bloc de symbole: aaa, bbb, ccc, ddd, eee . Moi je lui ai parlé de Kraft et apparemment ca lui a plus.

Voila en effet il est très sympa, mais le probleme a ca c'est qu'on sait vraiment pas ce qu'il pense de votre prestation (moi il ne ma RIEN dit, a part bonnes vacances). Aussi il faut savoir qu'en général on a plus qu'une demi-heure pour tout écrire (contrairement a ce qu'il dit) moi j'ai eu une petite heure. Donc ne stressez pas.


Post nº13 (id1562) envoyé par Margot  le 06 Sep 2005, 18:43
Questions: But des codes corecteurs d'erreurs, décodeur idéal, lien entre distance minimale et nombre d'erreur, Borne de Hamming. Et rien a voir, code de Huffman à l'aide d'un exemple.
Rien de spécial à dire, sauf que de temps en temps, il demande une tite illustration de codes (codes à répétition, code avec 1bit de parité).

Voili voilou
Margot

Post nº12 (id1559) envoyé par Mimi  le 05 Sep 2005, 19:38
Alors cette apres midi, il m’a demande :
- Definition capacite informationnelle et operationnelle, la difference entre les deux et le rapport avec le 2eme th. De Shannon
- CBS (details des calculs)
- CBE
- Borne de singleton (demo + application, a quoi ca sert etc)

La difference entre la capacite informationnelle et operationnelle, c’est qu’en gros on ne tient pas compte de la probabilite d’erreur pour l’operationnelle. Il m’a demande d’expliquer I(X :Y) ce que j’ai fait avec le diagramme de Venn. Il m’a demande d’exprimer I(X :Y) en faisant la relation avec la distance de Kullback. Je ne voyais pas trop et il m’a mis sur la voix en me faisant dire que I(X :Y) est nulle qd X et Y sont independants => p(x,y)=p(x).p(y) Pour finalement : I(X :Y) s’exprime en termes de proba –Somme(x) Somme(y) p(x ;y) log [p(x).p(y)]/p(x ,y) => D(p(x,y)||p(x).p(y))
Pour le second theoreme de Shannon, c’est Cinfo=Coper. Je devais lui dire que c’etait parce que la proba d’erreur tendait vers 0 parce qu’on faisait tendre n (la longueur du mot code) vers l’infini (je lui ai fait le diagramme Pe en fonction de R en prime)

Pour le CBS, il pose un peu tout, mais celle ou j’ai eu un peu de mal a repondre c’est qd il m’a demande pourquoi j’avais pris ½ pour P(y=0) et P(y=1). Il faut lui repondre ca : on prend max I(X :Y) et donc le max H(Y), qui est 1 et forcement qd on remplace ds la definition par ½ l’entropie de Y, on trouve bien 1. Il faut une distribution UNIFORME donc ! Il m’a demande aussi pourquoi sur le graphique de C en fonction de p, apres ½ ca remonte ?? Si on prend en p=1 par exemple, tous les bits sont inverses, ca ne nous pose aucun probleme vu qu’on sait que la proba des bits inversee est max et donc il ne faut qu’inverser la sortie pour ravoir les bonnes sequences. La transmission dans le canal est aussi bien que pour p=0 et donc on a bien une symetrie par rapport a 1/2.Je sais pas si c’est clair, mais bon ne vous inquietez pas qd il voit que vous avez du mal a vous exprimer, il vous aide oufff !!!

Pour le CBE, il faut preciser qu’on a une sortie ternaire et qu’on a pas une distribution equiprobable pour le calcul de H(Y). Je lui ai parle de l’axiome de groupement pour le calcul de H(Y) et ca lui a fait plaisir :-) Il m’a demande graphiquement comment on voyait que CBE et mieux que CBS. Ca c’est en lui expliquant que si alpha vaut 1 => aucun bit n’est transmis ( efface) et donc on sait quel bit n’a pas ete transmis tandis que dans CBS comme c’est tres aleatoire, le bit n’est pas forcement bien transmis (inverse). Je lui ai explique aussi le feedback et il m’a demande si la capacite CBE et feedback etaient tjrs egaux ? Non car c’est seulemnt parce qu’il n’y a pas de memoire, mais il y a qd meme bcp d’applications de canaux sans memoire. En quoi une memoire est avantageuse ?? Elle retient chaque mirco seconde le bit qui a ete transmis ou efface. Puis j’ai du lui donner la formule : p(yk| xk) = produit p(yk|xk) car les proba sont independantes. (k en indice en haut pour les termes a gauche du « egal » et en bas pour les termes a droite du « egal »)

Pour la borne de singleton, je lui ai ecrit tout ce qu’il y avait dans le cours et je lui ai dit direct que j’avais pas trop compris, mais je lui ai explique tout ce que j’avais compris. Il m’a explique ce qui etait pas tres clair. Pour n-e’>=k, il faut lui expliquer que les bits non effaces doivent forcement contenir au moins toute l’info pour etre transmis sinon ca sert a rien ! Donc ils doivent etre forcement superieur ou egal au nombre de bit d’info donc k ! J’ai du lui explique la saturation de d par le code Reed Solomon : utilise par la NASA car la distance etant maximum, on peut corriger au mieux les erreurs ou les effacements.
Si j'ai bien compris la borne de singleton sert a corriger efficacement des mots codes en imposant une condition sur la distance.

Voila je crois que c’est tout, il m’a dit que c’etait tres bien, mais m’a pas dit de cote :( En tout cas, quand je calais il me mettait sur la voie et il explique vrmt tout pour que vous compreniez bien.
Bon courage pour la suite et BONNES VACANCES a TOUS apres !!!!

Post nº11 (id1557) envoyé par Olivier  le 05 Sep 2005, 16:42
J'ai eu tout sur le chapitre 4: la compression de données.

Question 1: qu'est ce qu'un code source? a quoi ca sert (=> canal, longueur moyenne etc). Sous-question: qu'est ce qu'un code instantané? à quoi ca sert? (=> utile car on peut le décoder en un seul passage).

Question 2: Inégalité de Kraft: démontrer (sur la base de l'arbre de décodage).

Question 3: Les codes instantanés optimaux. Trouver les li qui minimisent la longueur moyenne du code => multiplicateurs de Lagrange etc...Application au code de Shannon => démontrer H < L < H + 1 et la même inégalité pour le codage par blocs.

Question 4: expliquer le code de Huffmann sur base d'un exemple (très court, il demande que le binaire).


En résumé, il faut tout comprendre en détail (on s'y attend un peu vu que les notes sont autorisées). Mais les questions sont vraiment faciles (enfin j'ai eu un chapitre facile aussi ^^).
Il n'y a aucune raison de stresser, le prof est très sympa (même s'il ne donne pas la cote :P).
Voilà je pense que j'ai tout dit, GL et (HF) all :P.

Post nº10 (id1555) envoyé par aymeric  le 05 Sep 2005, 11:51
CCE:
- Principe
- Décodeur idéal (+demo Bayes)
- Différence entre poids min & distance minimale
- Distance minimum (+démo avec sphères)
- Borne de Hamming (+démo)
- Code de Hamming (+exemple)
Ca se sont les question qu'il m'a demande de preparer
Pis apres lors de l'oral a proprement parlé, il a suivi l'ordre du cours et m'a posé des questions sur tout ce qu'il y a dans le cours.

Post nº9 (id728) envoyé par arnaud  le 01 Sep 2004, 20:45
J'ai du parler brièvement de ce qu'était le codage de source (à quoi ça sert en gros... à savoir compresser les données émises par la source)
Puis dire ce qu'était un code instantané, en donner un exemple et montrer en quoi c déchiffrable "instantanément"
Ca ct les 2 ptites questions.

Viens l'inégalité de Kraft + démonstration (l'inégalité est une CNS de code instantané mais j'ai juste du démontrer que ct une CN)

Puis j'ai dû déterminer la longueur moyenne optimale d'un code instantané pour une source donnée
(c'est l'histoire avec les multiplicateur de Lagrange)
Et donc on montre que la borne inférieur à la longueur moyenne est l'entropie de shannon. H(X)=< L

Il m'a demandé si on pouvait atteindre cette borne.
En toute généralité, non pcq on trouve que l_i = -log_d_(p_i) qui n'est pas entier en toute généralité et donc on doit prendre le plafond des l_i ce qui donne le code de shannon.
Mais dans le cas particulier où les p_i sont dse puissances de d (d étant le nombre de symboles de l'alphabet du code), alors oui les l_i sont des entiers. on peut atteindre la longueur moyenne minimale. On dit alors que le code est dia ... qqch

Puis il m'a demandé de lui donner une borne supérieure pour cette longueur dans le cas général.
Comme on a: l_i =< plafond de l_i =< l_i + 1
Quand on somme, on trouve: H(X) =< L =< H(X) + 1 (en tenant compte ke la somme des p_i vaut 1)

Il m'a demandé si on pouvait réduire cette borne supérieure.
Oui en codant par bloc (par extension d'ordre n de la source). Dans ce cas ce "bit de pénalité" se répartit sur les n symboles du bloc et on a une pénalité de 1/n bit par symbole qui tend vers 0 pour n très grand.

Enfin il m'a demandé un exemple de code de Hamming.
Mais ça je savais pas cmt on faisait. Il l'a pas trop mal pris.

Et à la fin il donne pas de cote, il m'a juste dit que ct bon, même sans le code de Hamming.
Il est donc pas méchant et il aide un peu.
Mais j'dois avouer que j'ai eu du bol sur les questions.

*Spcial* Post nº8 (id726) envoyé par arnaud  le 01 Sep 2004, 18:16
Résumé des questions déjà tombées:

I. ENTROPIE DE SHANON
- Entropie (déf)

II. ASYMPTOTIC EQUIPARTITION PROPERTY (AEP)
- Séquences Typiques
- Théorème d'AEP

III. DATA COMPRESSION (CODAGE DE SOURCE)
- Principe de compression de données
- Principe de codage de source
- Longueur moyenne d'un code
- Codes instantanés (déf)
- Inégalité de Kraft (+démo)
- Longueur optimale L* (code optimal)
- Code de Shanon
- Premier théorème de Shannon
- Code d'Huffman (Construction+principe)

IV. CAPACITE DE CANAL
- Capacité informationnelle + opérationnelle (déf)
- Canal Binaire Symétrique (CBS)
- Canal Binaire à effacement (CBE)
- Second Théorème de Shanon
- Séquences conjointement typiques et théorème de Shannon

V. CCE:
- Principe
- Décodeur idéal (+demo Bayes)
- Différence entre poids min & distance minimale
- Distance minimum (+démo avec sphères)
- Code de Hamming (+exemple)
- Code de Hamming Canonique (Encodage + Décodage)
- Borne de Hamming (+démo)

Post nº7 (id717) envoyé par fsamyn  le 31 Aug 2004, 16:42
Voici la suite:
- il m'a demandé dans quoi s'insérait mes trois prmière question: compression de données.
- ex de fonctionnement de code de Hamming.
ccl: il est trés sympas mais il faut tt savoir justifier, il est très pointilleux. mais il faut aussi connaitre le coiurs dans son ensemble: les grands théorèmes etc.

bonne me... pour la suite

Post nº6 (id716) envoyé par fsamyn  le 31 Aug 2004, 16:38
Je suis passé cette après midi et j'ai ey:
- code instantanné: déf et à quoi ca sert? Il m'a en plus baladé sur les code dfu.
- inégalité de Kraft: démo. il faut tt savoir justifier.
- calcul de la longueur optimal de mots codes: bien justifier et il m'a demandé de faire le lien avec le premier théorème de Shanon. +donner le code de Shanon et comparer à l'entropie.

Post nº5 (id715) envoyé par nmainil  le 31 Aug 2004, 15:57
Je suis passé ce matin et j'ai eu :

- CCE : principe
- CCE : décodeur idéal
- CCE : distance minimum d'un CCE
- CCE : borne de Hamming
- Comment utilise-t-on les séquences conjointement typiques dans le second théorème de Shannon

Post nº4 (id709) envoyé par anonyme  le 30 Aug 2004, 17:18
donc t entre, t as ton cours il te laisse seul tu remplis tes tableaux et t explique hésite pas a mettre le plus possible

moi g eu (tout le monde a eu ca cette aprem je pense)

code correcteur d 'erreur dans tous les sens :

expliquer en gros le principe d un CCE
principe du décodeur idéal
distance entre mots code <--> nb erreur (à démontrer avec les shpère)
borne de hamming démontrer
exemple d'utilisation du code de Hamming

Post nº3 (id708) envoyé par anonyme  le 30 Aug 2004, 17:01
jai passé cerf aujourd'hui. il est tres sympa comme tout le monde le dit, et il insiste vraiment sur la comprehension.

Donc ta mission en passant cet examen, c'est d'une part de recopier toute la partie du cours qui concerne les question (elles se suivent, c facile a retrouver). Veille donc a avoir un poignet bien degourdi, et ne perds pas trop de temps a contempler ton oeuvre au tableau.

Ensuite, apres une demi-heure, il arrive et te dis avec son plus beau sourire "je t'ecoute!". Tu dois donc etre capable de lui expliquer TOUT ce que tu as ecrit (chacun de tes traits!). Et il ne demande rien d'autre que ce qui a un rapport direct avec la question.

jai eu:
- capacite (def informationnelle et operationnelle)
- 2e theoreme de Shannon
- CBS et CBE (je lui ai parlé du feedback alors qu'il l'a pas demandé. ca lui a plu!)
- lien entre sequences conjointement typiques et le theoreme de Shannon

il ne cote vraiment pas vache, faut juste tout expliquer et si ya des trucs flous, il reexplique tout gentillement!

Post nº2 (id695) envoyé par anonyme  le 22 Aug 2004, 14:22
Voila un medley des questions qui se trouvent sur la mailing list 2005,

amusez vous bien

Paille


Cerf :
1. CCE principe, code idéal, distance d'un CCE
2. Borne de Hamming principe plus démo
3. Exemple avec une matrice qcq de Hamming

Il est vraiment super sympa et il s'intéresse principalement à la compréhension

J'ai passé l'exam de Cerf et il n'est pas tres complique... Il vous pose plusieurs petites que vous notez au tableau. Il vous laisse 1/2 heure avec votre cours et ous préparez la question au tableau.Vous écrivez ce que vous voulez. Il revient ensuite et vous lui expliquez tout ce que vous avez écrit. Il pose des petites quesions en plus pour voir si vous avez bien compris son cours... J'ai discuté 45 min avec lui probablement pcq j'étais tt seul à passer.
A part ca, il est très sympa mais ne donne pas la cote finale, juste une petite estimation.

En fait l'exercice qu'il donne c'est plutôt un exemple traité au cours.Rien ne vient des TP.

Principe des CCE
Decodeur Idéal: Définition & Démo des formules ( Cf Bayes... )
Différence entre poids min & distance minimale
Bornes de Hamming :Déf & Démo...
Application : Codes de Hamming ( Canonique : Encodage et décodage )-Cest la partie exercice pour celui qui veut savoir.
Tous ceux qui passent n'ont en général pas la même question.
Je ne sais pas le détail des questions des autres.Mais en tout cas il y en a qui ont été interrogés sur l'équipartition asymptotique...


Alors mes quetions

CCE
but et principe
decodeur ideal
distance de Hamming (distance d'un code correcteur d'erreur)
bornes de Hamming (démonstration)

Huffman

Construction
Principe


Je suis entré, j'ai eu 4 questions à écrire au tableau.

- Code source: objectifs et classes.

- Inegalité de Kraft = demo.

- En déduire qqch sur les codes optimaux. ( ineglaité saturé )

- Exemple au choix d'un algo de Hauffman.

Il m a laissé une demi heure pour écrire ce que je voulais au tableau, puis il est revenu et j'ai exposé mes explications.

Tout se suivait dans le cours. Pas de piège, il demande d'expliquer le cours. Il met sur la voie si on cale. Si on est bon, il ose qq questions bonus comme:

"Comment appelle t on une source dont les longeurs des codes sont entieres?" Je ne me rappelle plus , ca commence par "dia"...

Cerf
1. CCE
2. Borne de Hamming
3. Exemple avec une matrice qcq de Hamming


Pour ceux que ça intéresse.J'ai eu 4 questions:

-équipartition asymptotique
-séquence typique
-compression des données
-canal binaire symétrique

il donne une approximation du style plus de 12 ou moins.

J'ai eu :

Codage de source
Longueur moyenne d'un code
Code de Shannon

exemple de Huffman

Post nº1 (id401) envoyé par Archives  le 03 Jun 2004, 16:13
Questions de cerf (septembre 2003)

- Codage de source
- Longueur moyenne d'un code
- Code de Shannon
- exemple de Huffman
- équipartition asymptotique
- séquence typique
- compression des données
- canal binaire symétrique
- CCE principe, code idéal, distance d'un CCE
- Borne de Hamming principe plus démo
- Exemple avec une matrice qcq de Hamming

Il donne les points en comparant les étudiants. Il faut donc attendre qu'il termine d'interroger. Mais il donne une approximation du style plus de 12 ou moins.
Il est vraiment super sympa et il s'intéresse principalement à la compréhension


oraux.pnzone.net - infos - 2ms