分享
中新经纬>>产经>>正文

陈巍:GPT-4究竟会展现出怎样的能力?

2023-03-16 14:23:49 中新经纬

  中新经纬3月16日电 题:GPT-4究竟会展现出怎样的能力?

  作者 陈巍 中关村云计算产业联盟、中国光学工程学会专家

  3月14日,OpenAI发布了最新NLP(自然语言处理)大作“GPT-4”。GPT-4的技术报告里把OpenAI团队作为唯一作者。参与项目的有数百人,堪称新时代的AI登月工程。

  能看明白图梗的大型多模态模型

  与ChatGPT稍有不同,GPT-4是一个大型多模态模型(输入图像和文本,文本输出)。其中GPT是生成式预训练模型的缩写。大型多模态模型可以广泛用于对话系统、文本摘要和机器翻译。一般情况下,大型多模态模型包括额外的视觉语言模型组件(VLM)。

  GPT-4实际上是在2022年8月完成训练的,直到2023年3月14日才发布。在发布之前,OpenAI一直在对该模型进行对抗性测试和改进。GPT-4的内容窗口能支持多达32000个token(令牌)。

  但更为有趣的是,GPT-4已经能看懂一些图梗了,不再仅仅是对话助手。当然,这离大家期待的看懂视频还有一段距离。

  据OpenAI介绍,虽然目前GPT-4在现实场景中的能力可能不如人类,但在各种专业和学术考试上表现出明显超越人类水平的能力,包括大家熟悉的GRE考试,堪称考试小能手。

  这对孩子们是不是一个坏消息?例如,GPT-4在模拟律师考试中,分数排在应试者的前10%左右。GPT-4也优于现有的其他语言模型。相比之下,GPT-3.5的得分则在倒数10%附近。如果GPT-4来做中国的高考卷,是不是能上北大清华了?

  GPT-4技术特征和不足

  与ChatGPT类似,GPT-4也是一种基于Transformer的大模型,支持多国语言,经过预训练可以预测或自动生成文本。

  OpenAI表示,对GPT-4而言,训练后的对齐(Alignment)是提高性能和改善体验的关键。从技术上看,人类反馈强化学习(RLHF)微调仍然是GPT-4的要点。考虑到LLM(第四代大型语言模型)领域的竞争格局和GPT-4等大型模型的安全隐患,OpenAI暂时还未公布GPT-4的模型架构、模型大小、训练技术。

  相对于GPT-3.5和其他大语言模型,GPT-4在复杂任务上表现出更可靠、更有创意,并且能够处理更细微的指示的关键特征。GPT-4可以接受文本和图像提示,并允许用户指定任何视觉或语言任务。例如,GPT-4可以在给定由分散的文本和图像组成的输入的情况下反馈文本输出(例如自然语言、代码等)。在带有文本和照片的文档、图表或屏幕截图方面,GPT-4 也驾轻就熟。此外,GPT-4包括few-shot和思维链提示。对于公众来说,图像输入仍然是仅供内部研究预览,并不公开。而且,这次GPT-4直接整合入Bing搜索引擎之中。

  GPT-4也有一些不足,例如仍然会一本正经地胡说八道,上下文连续对话轮次有限,并且无法从经验中学习。因此如果不对GPT-4的使用进行安全性限制,GPT-4可能会产生大量的认知偏差、虚假信息,甚至侵犯个人隐私。另外,由于数据集时效的原因,GPT-4缺乏对2021年9 月之后的事件的了解。GPT-4有时会犯一些简单的推理错误,也可能会像人类一样在技术难题上出现错误,例如GPT-4可能在生成的代码中引入安全漏洞。

  训练价值和安全性技术表现如何?

  OpenAI表示,在过去2年的GPT-4研发中,超算和训练技术表现出至关重要的价值。OpenAI与Azure的超算团队一起,共同设计了针对大模型训练的超级计算机,为GPT-4的训练提供了关键的算力支撑和研发加速。OpenAI在GPT-4技术报告中,甚至把Supercomputing lead(超级计算领导)和Infrastructure lead(基础设施领导)的排名放在了预训练模型团队的最前面。

  OpenAI的团队从理论基础层面进行优化,改进了GPT-3.5的一些bug,使得GPT-4能够前所未有地进行稳定高速的训练。这方面可以看出OpenAI团队的数学和计算理论功底。

  从技术报告描述的模型训练过程来看,GPT-4的训练与GPT-3.5类似。包括SFT(有监督微调)的预训练、基于RLHF(人类反馈强化学习)的奖励模型训练和强化学习的PPO(近端策略优化)算法微调。与之前的GPT模型不同的是,OpenAI使用基于规则的奖励模型(RBRM) 在PPO微调期间向GPT-4提供额外的奖励信号。

  OpenAI投入了大量资源来提高GPT-4的安全性和一致性。包括引入专家进行对抗性测试和红队测试,模型辅助的安全流水线以及安全指标的改进。OpenAI引入的安全专家达到了50多人,覆盖AI一致性风险、网络安全、生物风险等领域。

  与ChatGPT一样,OpenAI使用强化学习和人类反馈 (RLHF) 来微调模型的行为,以产生更符合用户意图的响应。但当给定不安全的输入时,模型可能会生成不良内容,例如提供有关犯罪的建议。另外,模型也可能对安全输入变得过于谨慎,拒绝无害的请求。

  GPT-4的安全流水线包括两个主要部分:一组额外的安全相关 RLHF训练提示,以及基于规则的奖励模型(RBRM)。RBRM是一组zero-shot GPT-4 分类器。这些分类器在RLHF微调期间为GPT-4策略模型提供额外的奖励信号,以正确的输出行为为目标进行训练,例如拒绝生成有害内容或不拒绝无害的请求。(中新经纬APP)

  本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。

责任编辑:孙庆阳

来源:中新经纬

编辑:郭晋嘉

广告等商务合作,请点击这里

未经过正式授权严禁转载本文,侵权必究

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。
关注中新经纬微信公众号(微信搜索“中新经纬”或“jwview”),看更多精彩财经资讯。
关于我们  |   About us  |   联系我们  |   广告服务  |   法律声明  |   招聘信息  |   网站地图

本网站所刊载信息,不代表中新经纬观点。 刊用本网站稿件,务经书面授权。

未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。

[京B2-20230170]  [京ICP备17012796号-1]

违法和不良信息举报电话:18513525309 报料邮箱(可文字、音视频):zhongxinjingwei@chinanews.com.cn

Copyright ©2017-2024 jwview.com. All Rights Reserved


北京中新经闻信息科技有限公司