本文共 850 字,大约阅读时间需要 2 分钟。
近期面向全球推出(神经网络机器翻译,Neural Machine Translation)。从基于短语的翻译模型转向NMT,使得Facebook可以支持超过两千种的语言互译,并达到了每天45亿次的翻译量。据Facebook介绍,NMT使得增加了11%。是一种广为使用的翻译评分机制。
\\撰写该博文的工程师Juan Miguel Pino、Alexander Sidorov和Necip Fazil Ayan使用实现了2.5倍的性能提升。Caffe2是Facebook于今年早期的一个机器学习框架。
\\NMT实现如此质量翻译的关键,在于它使用的RNN(Recurrent Neural Network)是一种具有的Seq2Seq(Sequence-to-Sequence) (long short-term memory)。这样的系统充分考虑到了原始语句的上下文以及该语句之前的全部内容,用于生成更为准确的翻译内容。这使得在翻译中可以使用长距离调序规则(Long-distance Reordering),解决了一些存在于英语-土耳其语和英语-希腊语等语言互译中的问题。
\\LSTM的注意机制(Attention)在处理翻译中未知词汇上非常有用,它将翻译软对齐到由训练数据构建的双语语料库,并使用了削减词汇量(Vocabulary reduction)方法,在避免对翻译质量产生显著影响的情况下,有效地降低了计算时间。
\\框架用于快速并准确地调优每一种语言互译所使用的参数。3.7%的英语-西班牙语互译BLEU分值增加来自于该框架的贡献。
\\作为项目的一部分,Facebook将RNN贡献到项目中,并作了。同时,Facebook的FAIR(Facebook’s Artificial Intelligence Research)研究团队已经公开发表了他们在机器翻译中使用的方法。
\\,先于Facebook此次发布达多个月。而在一个月前,Google宣布了。
\\查看英文原文:
转载地址:http://qgyna.baihongyu.com/