0
点赞
收藏
分享

微信扫一扫

“最会写”的中文大模型Weaver来了,中文创意写作能力超GPT-4


分享| Weaver

ChatGPT等通用大模型支持的功能成百上千,但是对于普通日常用户来说,智能写作一定是最常见的,也是大模型最能真正帮上忙的使用场景之一。尽管大模型经常能写出看起来像模像样的文字,但是大多数情况下内容的创意程度和文风都经不起深究。尤其是在创作领域,大模型常见的“GPT文风”更是让利用大模型进行创意写作看起来简单,实际却困难重重。

近日,波形智能的大模型团队发布了一款专精AI写作的专业大模型Weaver。通过写作领域专业预训练和一套创新性的数据生成和Alignment算法,Weaver在写作领域的各种任务上均取得了领先GPT-4和众多中文通用大模型的效果,尤其是在生成内容的创意性和文风质量上大幅领先,是一款更能写出“人话”的大模型。

论文地址:

https://arxiv.org/pdf/2401.17268.pdf

ChatGPT等大模型在通用指令跟随和问答任务中效果出色,但是将大模型应用于专业写作,尤其是需要创造性和个性化文风的创意写作领域却依然面临重重阻碍。其中最大的问题就是大模型生成内容风格过于平淡,或者说文风过于“GPT”,缺少创造性。

为了解决这个问题,训练出更适合专业写作的大模型,论文研究团队分析了为什么GPT和其他通用大模型都做不好创意写作类任务。

首先,通用大模型的预训练过程,因为希望让模型在更多的数据中自监督学习,预训练的数据集中常常会包含非常多的低质量内容,真正由专业作家和内容创作者写作的高质量文本内容可能只占预训练数据总量的0.1%不到。因此,经过预训练后的语言模型在建模了整个互联网的文本分布之后,自然会倾向于输出较为普通的内容。

而在模型的对齐阶段,OpenAI等公司众包标注指令微调数据集的过程中的标注员的教育/写作水平有限,没有对标注者的写作/创作能力进行筛选。另外标注的过程中的标准也主要强调回答的无害性(harmlessness)和有效性(helpfulness),而没有考虑回答内容的创造性和语言/写作风格。因此,经过指令微调的语言模型反而更容易生成平庸无趣的文字。最后,在RLHF/DPO等alignment算法中,模型的训练数据和Reward Model均由经过指令微调后的模型生成或训练得到,因此对于文风和创造性上,RLHF/DPO的过程也只能是“矮子里拔将军”,无法强化出真正擅长写作的大模型。

基于此观察,论文研究团队提出了一个尤其适合创意写作领域的垂域专业模型训练pipeline,并基于此方案训练了Weaver,一个全球领先的创意写作大模型。该方案覆盖了模型的(持续)预训练,指令微调(instruction tuning),和对齐(RLHF/DPO)阶段。在预训练阶段,团队进行了非常仔细的数据筛选和过滤,利用人工+规则+机器学习模型协同的方案,从开源预训练数据集中找到了高质量的小说/短故事/创意文案等类别的文本内容,舍弃掉了大量的低质量内容和代码/广告等数据,并下采样了一部分高质量的新闻数据,同时结合了大规模的私有创作领域数据 (小说,短故事等),构建出了超过200B的可以让模型专注学习创作能力的预训练数据。

在指令微调阶段,论文研究团队参考并改进了Meta提出的LongForm和HumpBack 方案,构建了一套可以基于一段高质量内容,自动生成各种写作相关任务指令和对应的高质量输出的Instruction Backtranslation流水线。团队总结并定义了“写内容”,“写大纲”,“扩写”,“润色”,“精简”,“风格迁移 (仿写)”,“审校”,“头脑风暴”,“起标题”,和“写作相关对话”十个类别的任务。对于一类任务,如“润色”,标注Prompt中首先解释任务的定义和几个输入输出样例,之后给出一个从一段文本中自动挖掘润色任务指令/输入/输出的例子和标注的思考过程: “首先在文本中找到一段写的很好的句子,假设这句话是经过一次润色而来的,之后猜测在润色之前这句话会是什么样子,最后分析润色前后的变化,推理出润色的指令会是什么样子。”之后标注的Prompt中输入需要标注的例子并指示大模型按照例子中的标注流程进行输出,最后parse出模型输出中标注的“指令/输入/输出”部分,组合成一条写作指令数据。

相比OpenAI等公司的标准众包标注指令数据的流程,论文研究团队的标注策略更高效(众包标注者只需要挑选特定领域高质量的内容即可,后续标注流程由AI完成),而众包标注和目前常用的self-instruct类的全自动标注流程相比,论文研究团队的标注流程能够生成更高质量的数据(因为输出是手工挑选的高质量内容或其中的一部分)。基于这个策略,论文研究团队收集了涵盖小说写作,创意写作,专业写作,营销文案写作这四大领域中高质量的内容并进行了自动化标注,产出了100万+高质量的写作领域指令微调数据集。

“最会写”的中文大模型Weaver来了,中文创意写作能力超GPT-4_众包

图1: Weaver训练数据分布和来源

接下来,在对齐(Alignment)阶段,论文研究团队提出了Constitutional DPO, 一套全新的,基于原则高效将模型和专业作家/创作者对齐的方案。和以往基于模型输出+人类/大模型评估的对齐策略不同。Constitutional DPO以人类创作者创作的高质量的输出作为正样本,利用人类作家/编辑整理提炼出的各个领域写作的“原则 (Principles)”,用这些原则去生成能够教会模型更好地遵守这些原则的负样本。具体来说,专业作家/编辑首先整理出四大领域十个任务中,好的内容需要遵循的共200余条原则。对于每一个原则,编辑总结出原则的详细解释和一对符合/违背该原则的例子,并用几句话解释出符合/违背原则的原因。之后,对于每一个正样本,负例生成的prompt中首先展示出领域-任务上的原则集合和原则对应的例子和解释,之后展示出正样本,要求大模型分析出正样本最符合哪几条原则,并推理出如何修改能够在作出较少改变的情况下让正样本转而违背这个原则,从而变成一条质量没那么好的输出。团队精选了各个领域高评分/高阅读量/高点赞评论数的内容作为正样本,通过Consitutional DPO的流水线生成出了数万条偏好数据(preference data),并利用这些数据对模型利用DPO进行了对齐训练。

“最会写”的中文大模型Weaver来了,中文创意写作能力超GPT-4_机器学习_02

图2 - Constitutional DPO方法示意图

“最会写”的中文大模型Weaver来了,中文创意写作能力超GPT-4_众包_03

图3 - 专家标注的写作原则

除此之外,论文研究团队还设计了一套支持RAG-aware training的数据生成方案,过滤/精选出了一系列输出内容明显基于其他内容的样本,通过10余个常用的RAG模版,构造出了10万余条的RAG训练数据,使得Weaver模型能够原生支持RAG,能够结合参考文献和范文进行高质量的创作/仿写。除此之外,团队还设计了一套让Weaver支持Function Calling的数据生成方案。最终Weaver的微调数据量总和达到了100万+量级。

Weaver模型家族一共包括四个不同大小的模型,名字叫做Weaver-mini/base/pro/ultra, 分别包括18亿, 60亿,140亿和340亿参数。为了评估Weaver模型和通用大模型的写作能力,论文研究团队构建了一个新的用户大模型专业写作能力评估的Benchmark。Benchmark中精选了涵盖四大写作领域30余个子领域的十项写作任务的有代表性指令,共包含2000+条指令。团队收集了Weaver和10余个有代表性的开源+闭源模型在Benchmark上的输出,并分别进行了人工对比评估和基于GPT4的自动评估。

评估结果显示,Weaver Ultra在Benchmark中对生成内容的新颖度和文风的评估中对比包括GPT-4在内的通用大模型均有显著领先,在生成内容的流畅性和切题程度上也和行业领先的GPT-4相当,领先其他开源/闭源模型。而其他较小的Weaver模型也都在各项指标中相比大2-3倍的通用大模型有明显优势。

图4: Weaver在WriteBench的评测结果

图5: Weaver和其他大模型在人工评测中的ELO Rating

除了标准Benchmark的人工和自动评估以外,论文研究团队还在包含人机交互的实际应用场景中对Weaver Ultra和GPT-4进行了用户体验测评。由4位人类写手在同样的Chat Interface分别使用Weaver Ultra和GPT-4,以相同的主题分别创作了两个短故事,一。测评结果显示,人类写手利用Weaver进行创作的效率相比使用GPT-4提升了约40%,而专业编辑对创作内容的质量评比中也全部更倾向于采用Weaver创作的文案。分析显示,Weaver带来的效率提升主要来自于生成内容的文风更得体,需要的后编辑更少,以及创作过程中Weaver交互更加直接,不会输出无用的废话和疑问。而来自专业编辑的反馈主要集中在基于Weaver创作的作品风格往往更符合实用标准,以及创作的内容个新颖程度更高,不死板。

“最会写”的中文大模型Weaver来了,中文创意写作能力超GPT-4_众包_04

举报

相关推荐

0 条评论