查看原文
其他

一个让AI“更聪明”的新尝试

阿里云 2022-07-02


如何将人类知识注入预训练模型,让知识和数据有机融合,一直是AI研究中的难题。


近日,达摩院首次利用半监督学习将标注的人类知识注入预训练对话模型,在MultiWOZ2.1等三个国际主流对话数据集中均实现了最佳效果,提升幅度明显,为知识和数据融合探索出新路径。


达摩院新模型在三大国际数据集上的表现


01

什么是预训练模型


预训练模型是AI近年来重要的发展趋势,其打破了传统模型通用性差的制约,可做到举一反三,解决多种任务。


常见的预训练模型有预训练语言模型,可以出题让AI写高考作文;预训练多模态模型,可以给到文字让AI生成图片。


预训练对话模型还需要考虑对话过程中的策略,如:对话轮次、上下文情境、对话人员的角色等,以便理解对方意图并做出恰当回复。


打个比方,在凌晨时分提问AI“明天天气如何”,AI根据理解作出的回答通常是当日天亮后的天气,而非客观事实上的“明天”。


对话特有的属性总结


经过快速发展,业内已成功构建出万亿参数的大模型。但不少研究者认为,数据量只是一方面,如果能将人类知识有机注入预训练模型,AI有望像人类一样思考。


不过,这并不容易。由于知识数量级远小于无标注数据,简单混合容易导致知识被淹没,或者出现严重的过拟合。


02

AI模型的基本训练方法


目前,预训练模型的主流训练方法还是以有监督学习和自监督学习为主,半监督学习更多是配合有监督学习,用于减少数据标注、降低成本等场景。


有监督预训练:存在有标数据进行指导,所学出的特征对某些相关下游任务更加适配,但是却严重依赖人工标注;


自监督预训练:可不再受到人工标注的局限,利用海量无标数据进行学习,但学习成果更多是普适的语义表示。


半监督预训练:从迁移学习的角度来看,可以认为是一个前两种范式的自然延伸,可以充分利用有限的标注知识和大量的无标数据。


此次,达摩院研究人员将半监督学习和自监督学习进行融合,在预训练对话模型中实现了这一创新工作,相关论文已被AAAI2022接收。


半监督使用示意图


03

达摩院的半监督预训练建模方案


构建知识库:

达摩院构建了目前最大的对话动作标签知识库,用于刻画对话策略,总量达97万轮次;


SPACE 1.0模型:

此外,达摩院还设计了新型预训练对话模型SPACE 1.0,采用 encoder+decoder 架构,预训练的目标既包含了传统的建模对话理解和对话生成的自监督 loss,也包含了建模对话策略的半监督 loss。


达摩院使用的半监督训练方法


新模型在斯坦福 In-Car,剑桥MultiWOZ2.0和亚马逊 MultiWOZ2.1这三个国际主流对话数据集上均实现了SOTA(最佳效果),部分提升超过5%,幅度较大。


在具体案例中,新模型能够更准确预测出对话动作,能够更好和人类进行对话,避免答非所问。


一轮完整的对话过程


达摩院资深算法专家李永彬表示,这项工作还只是起步,如何将更多的人类标注知识通过半监督的方式注入到预训练模型中、如何让模型自动选择合适的知识、如何更好评价知识注入的效果,还需要体系化的探索和创新。


目前,SPACE 1.0模型已应用于阿里云智能客服等产品,对外输出服务客户。据艾瑞咨询最近发布的《2022年中国对话式AI行业发展白皮书》,阿里云智能客服已领跑中国对话式AI行业。



/ END /


更多推荐


点击阅读原文,查看完整技术解读!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存