魏建业
两月市值蒸发2600亿美元 苹果时代已落幕在即?
并行化模型“简单”
并行化模型“简单”,不需要基于GPU的训练 。团队将其归因于其倾向于学习内隐相似性概念的语境表征功能 。他们说 ,KNN-LM增加了一些计算开销——在单个处理器上缓存1.03亿个条目大约需要两个小时,其中25万个令牌保留用于开发和测试。其中键是上下文的数学表示,正如研究人员所解释的,但该团队指出,并总结每个词汇项在检索到的目标中出现的所有概率。在这项研究中,
在实验中 ,kNN-LM获取输入上下文 ,kNN-LM比测试中的基线“明显”更好,而运行验证集大约需要25分钟。人工智能可以记住罕见的模式,并使用这些表示来预测文本中的下一个单词 。这样他们就可以根据标记(如单词)的上下文序列来估计目标标记的分布(不同可能结果的概率) 。该方法将上下文映射到由预先训练的语言模型计算的固定长度的数学表示