当前位置:首页 > 新闻资讯 > IT业界 > 新闻
ChatGPT已不够聪明?GPT-4有望孵化超级AI
  • 2023/3/16 10:24:17
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:吴新
  • 作者:
【电脑报在线】大数据时代,信息技术更迭很快,但真没想到能快成这样。大多数人还没能和ChatGPT聊上天的今天,它的下一代技术已经登场且应用也快速落地……

接近人类思维的GPT-4


日前,人工智能研究公司OpenAI公布了其大型语言模型的最新版本——GPT-4.该公司表示,GPT-4在许多专业测试中表现出超过绝大多数人类的水平。


提到OpenAI很多人或许有些陌生,那ChatGPT呢?前者于2020年发布了GPT(生成型预训练变换模型)-3(生成型预训练变换模型),并将其与GPT-3.5分别用于创建Dall-E和聊天机器人ChatGPT,这两款产品极大地吸引了公众的关注,并刺激其他科技公司更积极地追求人工智能(AI)。


OpenAI表示,在内部评估中,相较于GPT-3.5,GPT-4产生正确回应的可能性要高出40%。而且GPT-4是多模态的,同时支持文本和图像输入功能。


据OpenAI介绍,在某些情况下,GPT-4比之前的GPT-3.5版本有了巨大改进,新模型将产生更少的错误答案,更少地偏离谈话轨道,更少地谈论禁忌话题,甚至在许多标准化测试中比人类表现得更好。例如,GPT-4在模拟律师资格考试的成绩在考生中排名前10%左右,在SAT阅读考试中排名前7%左右,在SAT数学考试中排名前11%左右。


OpenAI表示,虽然两个版本在日常对话中看起来很相似,但当任务复杂到一定程度时,差异就表现出来了,GPT-4更可靠、更有创造力,能够处理更微妙的指令。


“曲率引擎已经吹动了发丝。”民生证券计算机分析师吕伟用《三体》里的热词来形容GPT-4的智能与进步。在他看来,官方发布相较以往版本主要三大突破,本质上都是更接近“真人”的通用智能:


1.像人一样更具备创造协作输出能力,具备更有创造性的写作能力,包括编歌曲、写剧本、学习用户写作风格等;

2.像人一样具备视觉输入处理分析能力,可以图文等多模态同时综合分析,给出答案;

3.像人一样具备超长文本的处理分析能力。


不过,OpenAI也警告称,GPT-4还不完美,在许多情况下,它的能力不如人类。该公司表示:“GPT-4仍有许多已知的局限性,我们正在努力解决,比如社会偏见、幻觉和对抗性提示。”


OpenAI透露,摩根士丹利正在使用GPT-4来组织数据,而电子支付公司Stripe正在测试GPT-4是否有助于打击欺诈。其他客户还包括语言学习公司Duolingo、Khan Academy和冰岛政府。


OpenAI合作伙伴微软也表示,新版必应搜索引擎将使用GPT-4。


ChatGPT或被全面吊打


作为OpenAI旗下的明星产品,ChatGPT必然会被拿出来同GPT-4对比一番。


与ChatGPT所用的模型相比,GPT-4不仅能够处理图像内容,且回复的准确性有所提高。目前GPT-4没有免费版本,仅向ChatGPT Plus的付费订阅用户及企业和开发者开放。


“这是OpenAI努力扩展深度学习的最新里程碑。”OpenAI介绍,GPT-4在专业和学术方面表现出近似于人类的水平。例如,它在模拟律师考试中的得分能够排进前10%左右,相比之下,GPT-3.5的得分只能排在倒数10%左右。


与此前的GPT系列模型相比,GPT-4最大的突破之一是在文本之外还能够处理图像内容。OpenAI表示,用户同时输入文本和图像的情况下,它能够生成自然语言和代码等文本。


目前图像处理功能还未公开,不过该公司在官网上展示了一系列案例。例如,输入如下图片并询问“这张图片有什么不寻常之处”,GPT-4可作出回答“这张照片的不同寻常之处在于,一名男子正在行驶中的出租车车顶上,使用熨衣板熨烫衣服。”


在官方演示中,GPT-4几乎就只花了1-2秒的时间,识别了手绘网站图片,并根据要求实时生成了网页代码制作出了几乎与手绘版一样的网站。


除了普通图片,GPT-4还能处理更复杂的图像信息,包括表格、考试题目截图、论文截图、漫画等,例如根据专业论文直接给出论文摘要和要点。


与此前的模型相比,GPT-4的准确性有所提高。OpenAI称,该公司花费6个月的时间,利用对抗性测试程序和ChatGPT的经验教训迭代调整GPT-4,从而在真实性、可操纵性和拒绝超出设定范围方面取得了有史以来最好的结果,“至少对我们而言,GPT-4训练运行前所未有地稳定,成为首个能够提前准确预测其训练性能的大型模型。”


OpenAI称,在公司内部的对抗性真实性评估中,GPT-4的得分比最新的GPT-3.5高40%,相应的“不允许内容请求的倾向”降低了 82%,根据政策响应敏感请求(如医疗建议和自我伤害)的频率提高了29%。


不仅是英语,该模型在多种语言方面均表现出优越性。OpenAI称,在测试的26种语言中,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型的英语语言性能。其中GPT-4的中文能够达到80.1%的准确性,而GPT-3.5的英文准确性仅为70.1%,GPT-4英文准确性提高到了85.5%。


应用场景已加速落地

由于GPT-4没有免费版本,仅向ChatGPT Plus的付费订阅用户及企业和开发者开放。14日晚,大批新订用户涌入,以至于OpenAI的付款系统被挤爆了。


GPT-4是一个多模态大型语言模型,即支持图像和文本输入,以文本形式输出;扩写能力增强,能处理超过25000个单词的文本;更具创造力,并且能够处理更细微的指令。


OpenAI用一张“梗图”演示了GPT-4特有的多模态功能。用户提问:解释下图的笑点是什么,并对图片中的每部分进行描述。GPT-4的回答如下图所示:


对比以往版本,当晚使用过的用户多数惊叹于GPT-4图片输入、文字输出的表达。但这一功能目前还未完全上线,有用户反馈,“多模态输入暂时不能体验,初期上线的还是只有文字输入”。


OpenAI创始人Sam Altman当晚也在社交媒体介绍称,他们正在预览GPT-4的图片输入模式,以防止可能出现的安全伦理问题。


微软方面则表示GPT是辅助写作(Generative Pre-trained Transformer ),从机器学习、做语言翻译的基础开始,会自己收集大量的数据,做出包括文字、图片、视频等在内的新内容。微软公司副总裁、微软大中华区首席运营官康容在采访中对《科创板日报》记者表示,“我们跟某国内手机厂商聊,他们希望挑战OpenAI,希望生成的图片是一个25-30岁女士模特,金头发、蓝眼睛站在稻田上,蓝天无云,拿着品牌手机。”


一般来说,设计图片需要找代理公司,沟通客户需求,但有时做出来的东西不是想要的,但GPT可以提供不同版本,而且都是全新的、没有看过的东西。”


微软大中华区Azure事业部总经理陶然介绍,目前OpenAI和微软Azure服务的合作主要在三个方面。“第一,是GPT模型。要强调的是GPT模型并不等同于ChatGPT,而是一个数据模型;第二,是DALL-E 2图像生成模型,第三,是Codex代码生成模型。”


结尾:AI开启梦想


“想想今天,每个人都在看同一个电视节目,也许人们都在看《权力的游戏》的最后一季,”他说,“但想象一下,如果你可以让你的AI以不同的方式进行,甚至可能将自己作为主角置身其中,并进行互动体验。”


在一场多元创新大会上,OpenAI联合创始人兼总裁Greg Brockman谈到了他对AI的看法,在他眼里,未来AI更像是一个全天候的助手,它能够“放大”人们的能力,并帮助人类获得新的想法。


在此之前,许多人——包括Brockman本人在内——都认为AI将从一些体力劳动开始替代人类的工作,但如今的事实恰好相反。Brockman在谈话中表示,未来人类基于认知的工作将首先被机器取代,例如内容审核。


因此,在AI浪潮中,人类需要更高级别的技能、判断和认知。

编辑|张毅
审核|吴新
壹零社
本文出自2023-03-13出版的《电脑报》2023年第10期 A.新闻周刊
(网站编辑:ChengJY)