欢迎访问合肥育英学校!

合肥育英学校

您现在的位置是: 首页 > 奥数 >今年高考英语ai得分134分是多少(今年高考英语ai得分134分怎么样)

今年高考英语ai得分134分是多少(今年高考英语ai得分134分怎么样)

发布时间:2025-02-12 11:01:56 奥数 128次 作者:合肥育英学校

奥飞寺明敏

量子比特|公众号QbitAI

今年高考英语ai得分134分是多少(今年高考英语ai得分134分怎么样)

在接受了语文作文的挑战之后,AI现在又将目光投向了高考英语。

结果朋友,我今年高考英语卷子(国家A级卷子)一开始就拿到了134分。

这并不是偶然的超额成就。

在2018年至2021年的10组真实测试中,AI的成绩均在125分以上,最高记录为138.5分,并且还获得了听力和阅读理解满分。的成绩

这是CMU学者Qin。提出的高考英语测试AI系统

其参数量仅为GPT-3的16分之一,平均成绩却比GPT-3高出15分。

其背后的秘密叫做重构预训练(reStructuredPre-training),是作者提出的一种新学习范式。

具体来说,就是从维基百科、YouTube等平台重新提取和重构信息,然后喂给AI进行训练,从而赋予AI更强的泛化能力。

两位学者用足100多页的论文,深入解释了这一新范式。

那么,这个范式到底是关于什么的呢?

让我们仔细看看吧~

什么是重构预训练?

论文的标题很简单,叫做reStructuredPre-training(RST)。

核心观点可以凝结成一句话,请拨打重视数据啊!

作者认为,这个世界上到处都有有价值的信息,但目前的人工智能系统并没有充分利用数据中的信息。

例如,维基百科和Github包含了模型可以学习的各种信号:实体、关系、文本摘要、文本主题等。由于技术瓶颈,这些信号之前没有被考虑。

因此,作者在这篇文章中提出了统一使用神经网络的方法存储和访问包含各种类型信息的数据。

它们以信号为单位以结构化的方式表示数据,这与数据科学中我们经常将数据结构化为表或JSON格式,然后通过专门的语言(例如SQL)检索所需的信息非常相似。

具体来说,这里的信号实际上是指数据中的有用信息。

例如,在“莫扎特出生于萨尔茨堡”这句话中,“莫扎特”和“萨尔茨堡”都是信号。

那么,就需要在各个平台上进行数据挖掘,提取信号。作者将这个过程比作从矿井中寻找宝藏。

接下来,利用提示的方法,可以将这些来自不同地方的信号统一为一种形式。

最后,这些重新组织的数据被整合并存储到语言模型中。

这样,研究就可以统一来自10个数据源的26种不同类型的信号,让模型获得很强的泛化能力。

结果表明,在多个数据集中,RST-T和RST-A零样本学习的性能为优于GPT-3的少样本学习性能。

为了进一步测试新方法的性能,作者还想到了让AI做高考题的方法。

他们表示,现在很多工作方法都遵循中国GPT-3的思想,在应用场景上他们也遵循OpenAI和DeepMind进行评估。

例如GLUE评估基准、蛋白质折叠评分等。

基于对当前AI模型发展的观察,笔者认为可以开辟一条新的赛道进行尝试,于是想到利用高考来实践AI。

他们一共找来了10套往年和往年的试卷来批改,请高中老师来批改。

对于听力/图像理解等问题,还邀请机器视觉、语音识别领域的学者提供帮助。

最终完善了这套高考英语AI模型。您也可以拨打她Qin。

从测试结果可以看出,秦老师的学术水平绝对是一流的,他的10套试卷成绩全部高于T0pp和GPT-3。

此外,作者还提出了一个高考基准。

他们觉得目前很多评估基准任务都非常简单,大部分没有实用价值,很难与人类条件进行比较。

高考题不仅涵盖了多种知识点,而且直接有人类分数进行对比,可谓一石二鸟。

NLP的第五范式?

如果从更深层次来看,作者认为重构预训练可能会成为NLP的新范式,即预训练/微调过程视为数据存储/访问过程。

此前,作者将NLP的发展概括为四种范式:

P1。全监督学习,非神经网络时代的非神经网络P2.基于神经网络的全监督学习(FullySupervisedLearning,NeuralNetwork)P3预训练、微调范式(Pre-train、Fine-tune)P4.预训练、提示、预测范式(Pre-train、prompt、Predict)然而,基于目前对NLP发展的观察,他们认为未来或许可以以数据为中心的方式来看待问题。

也就是说预训练/微调、few-shot/zero-shot等概念的区分会更加模糊,核心只会集中在一点——

有价值的信息有多少、能利用多少。

此外,他们还提出了NLP进化假说。

其核心思想是,技术发展的方向始终是做更少的事情来实现更好、更通用的系统。

笔者认为NLP经历了特征工程、架构工程、目标工程、提示工程,目前正在向数据工程方向发展。

复旦武大校友打造

本文成果WeizheYuan。

她毕业于武汉大学本科,随后前往卡内基梅隆大学读研究生,学习数据科学。

研究方向侧重于NLP任务的文本生成和评估。

去年,她有一篇论文被AAAI2022和NeurIPS2021接收,并获得了ACL2021最佳演示论文奖。

论文通讯作者为卡内基梅隆大学语言技术研究所(LTI)博士后研究员刘鹏飞。

2019年于复旦大学计算机系获得博士学位,师从邱锡鹏教授、黄玄晶教授。

研究兴趣包括NLP模型可解释性、迁移学习、任务学习等。

博士期间获得计算机领域多项奖学金,包括IBM博士奖学金、微软学者奖学金、腾讯人工智能奖学金、百度奖学金等。

OneMoreThing

值得一提的是,刘鹏飞向我们介绍这部作品时,直言“我们一开始并没有打算投稿”。

这是因为他们不希望会议论文的格式限制了他们在撰写论文时的想象力。

我们决定把这篇论文当作一个故事来讲述,给“读者”一种看电影的体验。

这就是我们在第三页设置“观看模式”全景图的原因。

就是要带大家了解NLP发展的历史以及我们设想的未来是什么,让每一位研究者都能有一定的参与感,感觉自己在通过矿山寻宝来引领预训练语言模型(PLM)是一个通向更美好明天的过程。

文章的最后,还隐藏着一些惊喜的彩蛋。

例如PLMs主题表情包:

以及最后的插图:

这么看吧,100多页的论文读起来也不会累了~

论文地址:

https://arxiv.org/abs/2206.11147——完——

量子比特QbitAI·今日头条签约