Site des Oraux

Reconnaissance de formes et d'images 2006 (5) :: post
Années :: 2007 :: Toutes

Post nº5 (id2380) envoyé par Jonathan  le 23 Jun 2006, 03:29
Bonjours tout le monde,
J'ai eu a expliquer la redondance inter-pixel avec surtout le concept d'entropie (Ho H1 H2...) et les transformations. J'ai fait un topo grossier autour de l'exemple du cours. Il m'a posé des questions sur les transformations disponibles. Il m'a ensuite demander de parler de cette entropie dans les classificateurs (arbre de décision surtout). Ensuite on s'est baladé a deux dans ce magnifique cours lui me posant les questions et moi les éludant.

Toujours aussi sympa...

Bon courage et désolé du lag entre fin exam et post

Jonathan

Post nº4 (id2379) envoyé par Benjamin/Jésus  le 22 Jun 2006, 20:47
Les physiciens ont eu:

- Classification Supervisée: le Perceptron à un Neurone.

Donc expliquer tous les termes du titre, expliquer comment on change les poids du neurone pour trouver le plan de séparation (on fait w_i=w_i+ si x est mal classé - toutes grandeurs vectorielles et <,> est le produit scalaire).

Puis petites questions:

- Trou de mémoire

- Trou de mémoire

- Qu'est-ce qu'un bon choix d'attribut: attribut à grande variance (donc bonnne discrimination), deux attributs différents doivent être décorrellés (éviter redondance) et un attribut doit avoir une bonne entropie (être pertinent et contenir de l'information)

Désolé pour les trous de mémoire, mais le cerveau est en bouillie après Plasmas.

Post nº3 (id2378) envoyé par helene  le 22 Jun 2006, 20:47
hello
g eu : "parlez moi de la classification non supervisée"
puis des ptites questions style "quel est le moyen de classification supervisée qui utilise l'entropie, expliquez l'entropie, ..."
j'ai aussi du expliquer le principe du chapitre 5, sans calcul
voilà voilà
bonne merde
hélène

Post nº2 (id2329) envoyé par caribou  le 20 Jun 2006, 18:51
Expliquer l'entropie dans le codage, expliquer à quoi il sert, donner un exemple d'application (il demande Huffman)

sous questions: -Parler des codes dérivés du Huffman (les sous optimaux)
-expliquer par quelle technique on peut compresser lorsqu'il y a une redondance dans l'image (transformée)
-une technique de classification utilise l'entropie, laquelle et comment ? (les arbres de décisions)


effectivement, il est très sympa, apres la petite présentation il pose les sous questions et à mon grand étonnement, même si on ne connait pas tout mais qu'on montre qu'on a compris , il est plus que satisfait. Perso je ne me rappelais plus vraiment des codes sous optimaux, je lui ai dit qu'il y en avait qui s'appelait THC, et qu'ils étaient dérivés de Huffman. Il m'a dit que de toute facon je savais les retrouver et que ce n'etait pas grave.

Il cote donc bien en fct de ce qui restera dans la tete et pas en fct de ce qui risque de partir ;)

Post nº1 (id1956) envoyé par dim  le 02 Jun 2006, 14:40
From nos ancêtres...

nos questions d'hier (ca servira aux générations futures, que chui gentil!):

1)Redondance inter-pixel+auto-correlation+entropie d'ordre 0,1,3+ codage par transformée

2) classificateur supervisé Bayesien+ dire qq mots sur ou intervient le stade de supervision et comment les calculer ses valuers si on a pas assez d'exemples (approximation Gaussienne)



oici quelques questions de Van Ham issues des ML des années précédentes:

A propos des questions d'exam:

Celles dont je me rappelle (péniblement parce que c'était il y a un an):
- le classificateur baysien (j'avais fait l'impasse et je suis tombé dessus
en
juin),
- les arbres de décision,
- les réseaux de neurones formels (classes lin. séparables et non lin.
séparables mais pas tous les développemments mathématiques de fou qui
suivent),
- les codages prédictifs (avec pertes et sans pertes),
- le codage arithmétique,
- les éléments de la théorie de l'information (j'avais fait l'impasse et je
suis
tombé dessus en septembre),
- ...


J'ai eu en Van Ham comme questions:
- le chapitre 2 (type de redondance, définition entropie, information,
rapport
avec redondances, types de codage,...)
- la classification non supervisée (le clustering)

D'après ce que j'ai compris, tout le monde aura le chapitre deux comme
première
question et un type de classificateur comme deuxième question. Voila
mes questions: 1°) codage entropique : code Huffman +dérivés
2°) arbres de décision
- codage prédictif avec et sans perte + exemple
- réseaux neuronaux à 1 neurone pour 2 classes linéairement séparables ou
non

petites questions en plus:
- learning set/testing set: pq, différences
- réseaux de neurones: pq descente de gradient risque de ne pas marcher pour
classes linéairement séparables (parce que descente de gradient donne
minimum
local pas forcément global donc risque de foirage de l'algo)
- problèmes posés par la notion de distance dans l'espace des attributs
quand
les attributs sont de dimension différence (problème d'échelles) et remèdes
(x
-> (x-moyenne)/écart_type)

Codage arithmétique et entropie, information, lien entre les 2, utilisation
des transformées.
Classificateur par + proches voisins et problèmes de métriques.

Il demande quasiment tout et puis il te ballade dans le cours. Sinon il côté
bien large et les TP's font entre +2 et -2 sur la côté finale.
nos questions d'hier (ca servira aux générations futures, que chui gentil!):

1)Redondance inter-pixel+auto-correlation+entropie d'ordre 0,1,3+ codage par
transformée

2) classificateur supervisé Bayesien+ dire qq mots sur ou intervient le
stade de supervision et comment les calculer ses valuers si on a pas assez
d'exemples (approximation Gaussienne)


Salut,

j'ai eu ELEC 376 ce matin! apparemment j'etais le seul.
Alors on entre et puis il donne la question
j'ai eu Apprentissage non classé
il faut lui dire les 3 techniques cf SEC, regroupements hierarchiques et
regroupement par graphe.
Apres avoir fait la présentation sur le sujet il pose quelques questions et
ceci un peu dans toutes les parties du cours ( telle que deffinition
entropie etc..) mais sans rentrer dans les détails.
Autrement, il cote de facon assez large.
Courage,

Bart.


bonjour,

j'ai eu une grosse question: les arbres de décision et des petites questions
en + pour le plaisir (pq l'information est définie en bit, le jack-knife,
que veux dire l'entropie...). Il côte très large.

mehdi



Ma question :

Espace des attributs dans le cas de l'analyse d'image, classification supervisée quand on dispose d'un ensemble d'exemples. La méthode de jesaisplusqui, le truc avec une approche statistique et qui parle du risque de mal classer un objet (Lij / Rj) etc...

Petites questions concernant en gros le dernier TP.

Olivier



Questions de ce matin, tout le monde la même

le clustering
puis petites questions sur l'espace d'attributs (quel problème principal (problème d'unité), comment remettre sur la même échelle ? (x-m/s), quelques petites questions sur la matrice variance-covariance




oraux.pnzone.net - infos - 50ms