如果是监督学习,word2vec 模型中的 x 变量和 y 变量是什么。在这两种口味中 - CBOW 和 skip-gram 模型。
尽管一些博客将其解释为无监督学习。
谢谢
如果是监督学习,word2vec 模型中的 x 变量和 y 变量是什么。在这两种口味中 - CBOW 和 skip-gram 模型。
尽管一些博客将其解释为无监督学习。
谢谢
首先,我将其称为自我监督,因为您不需要人工标签,但仍然需要标签让 NN 学习。
CBOW 和 skip-gram 都“组合”到 word2vec 中,但它们是浅层神经网络架构(尽管不同)。
由于它们是不同的架构,它们做不同的事情:
CBOW学习通过上下文来预测单词。或者通过查看上下文来最大化目标词的概率。
skip-gram模型旨在预测上下文,因此在给定单词 xyz 的情况下,它必须理解它并告诉我们上下文 abc__dfg 很有可能是 xyz 的“周围”。
鉴于此,您可以尝试自己推断输入和输出数据应该是什么样子,以对 CBOW、skip-gram(单词的矩阵表示和概率以及表示单词和多类输出的向量)的这种期望输入输出进行建模。
还要检查这个答案