微信AI在NLP领域又获一项世界第一
![]() 过这一次,微信AI团队说,这不仅是他们在机器阅读理解方面的进展,也是他们在数学推理方面的第一篇工作。 这一方案,并没有以当前业界主流的BERT为核心,而是以数字感知的图神经网络(NumGNN)方案为基础。 微信AI团队介绍,在NumGNNd为核心的情况下,结合NAQANet的基础模块以及改进的前处理方法,在不使用BERT、RoBERTa等预训练模型的条件下,就能获得了高达67.97%的F1值。 在实际提交到榜单上的NumNet+上,他们又进一步融入RoBERTa的能力,并增加了对多span型问题的支持,从而使单模型 F1值能够高达82.99%。 从而,他们也得出了一个结论:
微信AI团队说,这一方案可以帮助人工智能提升阅读理解能力和逻辑推理能力,将来也会将其中的技术应用到腾讯小微智能对话助手中。 不过区别于谷歌和百度等智能语音助手的To C产品形式,目前腾讯小微智能对话助手,主要还是以云服务形式对外输出。 微信成绩意味着什么?AI考数学 先从数据集DROP说起。 DROP数据集,由AI2(Allen Institute for Artificial Intelligence)实验室提出,主要考察的是模型做类似数学运算相关的操作能力。 (小巧合,微信之父张小龙英文名也叫Allen,但allen.ai的域名属于AI2) 与SQuAD数据集中大多都是“刘德华老婆是谁?”的问题不同,其中的问题会涉及到数学运算的情况。 比如说,给我们5个人每个人买2个蛋挞,一共要买几个蛋挞? 这个问题对于人来说很简单,但对于机器来说却很困难。 微信AI团队解释了这背后的原因:机器不仅要能够比较数字相对的大小,还要能够知道和哪些数字做比较并进行推理,这就需要把数字相对的大小等等知识注入模型。 但在之前大多数机器阅读理解模型中,基本上都将数字与非数字单词同等对待,无法获知数字的大小关系,也不能完成诸如计数、加减法等数学运算。 (编辑:阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |

