近年来,微型(MSI)一直有在积极为内容创作者提供出色的笔记本电脑。 本周,该公司发布了全新的 Modern 15 系列笔记本,为内容创作者提供了新的入门级选项。 目前该公司仅提供了唯一的 A10RAS-061JP 机型,基于英特尔十代酷睿 Comet Lake 处理器和英伟达 GeForce MX330 独显。提供体面的性能的同时,价格上也更加平易近人。

 在超过320亿个句子中挖掘平行语料,计算上是非常昂贵的。在当前版本的CCMatrix语料库中,作者限制为38种语言。 

以上这些,从数据来源上讲都有局限。为了使并行语料库量大、覆盖主题广泛,Facebook在CCMatrix这项工作中,选择使用了随机抓取web中的数据作为并行语料的来源,他们每个月随机发送url,从而获得包含各种语言的网页快照(TB级)。  

Schwenk等人首先用CCMatrix对神经翻译系统(NMT)进行训练,然后在TED数据集上进行测试,结果如下:

当然,在TED上的SOTA远比这些高;但需要注意,这里测试所用的NMT系统没有使用Transformer框架等最新技术。

 CCMatrix使NMT研究社区能够利用比以前仅几十种语言对更大的双语料数据集。这可以加速创建更有效的NMT模型,这些模型可以使用更多的语言,尤其是语料库相对有限的资源较少的模型。

 首先,从语料来源上讲。目前有几个公共的多语言并行语料库,主要来自一些国际会议(如European Parliament 、the United Nations)的语料,这些都是专业的人工翻译语料,使用语言较为正式,且仅限于政治主题。此外也有几个依靠志愿者翻译而形成的语料库,例如news commentary 、Opensub- Titles 、the TED corpus等。2019年Facebook的Schwenk等人曾利用Wikipedia中的语料进行挖掘,从而开发了WikiMatrix数据集。

然后通过预处理去除高达70%的重复数据(例如模板文件、导航菜单、cookie等),并使用fastText(语言识别器,可以识别176种语言)来识别文档中的语言,最后使用一个在Wikipedia上训练的模型来过滤掉低质量的内容,只保留较低困惑度的文档。如此处理获得一个包含有327亿个句子的CCNet数据集。

为了评估这个数据集的质量,Schwenk等人还利用这个数据集进行了神经机器翻译系统的测试,并与几个公共测试集进行了对比。

当然,Facebook在构建CCMatrix过程中所提出的数据集构建方法更值得推广,或许能够帮助更多人来创建大规模数据集。

一个 HDMI 视频输出、3.5mm 音频插孔、microSD 读卡器,红外传感器 / 带有麦克风阵列的网络摄像头、以及立体声扬声器。MSI Modern 15 可选银色或黑色的外观(拉丝铝工艺),屏幕为 15.6 英寸的 FHD 面板。

雷锋网原创文章,。详情见转载须知。

不过由于余弦距离的绝对阈值在全局上并不一致,所以Schwenk在这里所采用的是Margin criterion: 

在这项工作中,使用的挖掘方法的底层思想是,首先学习一种多语言的语义嵌入,即在一个嵌入空间中语义上相似的句子会有较近的距离,而与它们所使用的语言无关。这意味着空间中的距离可以作为两个句子是否是相互翻译的指标。

用于大规模训练多语言句嵌入的框架

这里只选择了其中的27种语言。以上所有BLEU值的平均值为14.3,英语对的平均BLEU值为26.7,最高的BLEU值为42.9。

十次快照语料中,不同语言的单句数量(其中一次快照只包含英语)

由于规模庞大且使用了大量公共文本,或许CCMatrix将成为NMT领域中用于构建和评估系统的最常用资源之一。

产品定位方面,Modern 15 仅次于微型自家的 Prestige 系列,因而没有六核 CPU 和 GeForce RTX 独显等高端配置。散热方面, 微星 为该机的 CPU 和 GPU 部分配备了 Cooler Boost 3 冷却方案,包含两个 风扇 和三根粗热管。

1、在TED数据集上进行测试

CCMatrix:这里给出了单语文本的数量和提取的平行句子的数量(单位:百万),margin阈值为1.06,以及在TED测试中的BLEU分数。(编者注:这是11月份数据,当时数据集规模为35亿并行语料,下同) 

该机将于 2 月 27 日在日本开售,价格为 16.5 万日元(10386 RMB),目前尚不清楚该公司是否打算将该产品推向欧洲或美国市场。

由于边框较窄,因此整机与 14 英寸的传统笔记本大小相当,厚度 15.9 mm,重 1.6 公斤。电池方面,MSI Modern 15 单次可续航 9 个小时(根据 JEITA 2.0 规范),兼顾半固定 / 常连接应用。

利用CCMatrix在亚洲翻译研讨会的俄语/日语翻译任务上进行的测试如上图所示。这里所使用的模型与前面一样,没有Transformer,没有layer dropout。尽管相比SOTA略差,但仍然在同一层次。 

为了解决这一问题,在去年七月份,Facebook曾发布了第一个系统处理Wikipedia上所有语言(包括资源贫乏的语言和方言)的数据集WikiMatrix,大约包含了亿级的并行语料,覆盖1620种语言对。

据雷锋网AI科技评论了解,最近Facebook基于新的方法和数据源,开发并开源了一个目前为止最大的并行语料数据集 CCMatrix。这个数据集包含 45 亿并行语料(是WikiMatrix的近50倍),覆盖576种语言对。

CCMatrix:每种语言对的并行语料数量(单位:百万),Margin阈值为1.06。举例来说,希腊语/汉语对的语料数量为470万。