CBOW c. s. skip-gramme: pourquoi inverser le contexte et les mots cibles?

Dans cette page, il est dit que:

[...] skip-gramme inverse des contextes et des objectifs, et tente de prédire chaque mot de sa cible word [...]

Cependant, en regardant l'ensemble de données d'apprentissage qu'il produit, le contenu de X et de Y la paire semble être interexchangeable, comme ces deux couples (X, Y):

(quick, brown), (brown, quick)

Alors, pourquoi distinguer que beaucoup d'entre contexte et objectifs si c'est la même chose à la fin?

Aussi, faire Udacity Profondes de l'Apprentissage en cours d'exercice sur word2vec, je me demande pourquoi ils semblent faire la différence entre ces deux approches que beaucoup dans ce problème:

Une alternative à sauter-gramme est une autre Word2Vec modèle appelé CBOW Continu (Sac de Mots). Dans le CBOW modèle, au lieu de prévoir un contexte word à partir d'un vecteur de mot, vous le prédire un mot à partir de la somme de toutes les parole des vecteurs dans son contexte. Mettre en œuvre et évaluer un CBOW modèle formés sur le text8 dataset.

Ne serait pas cela donne le même résultat?