您的位置:主页 > 公告动态 > 正大动态 > 正大动态

GPT-4论文竟有隐藏线索_国际期货,国际原油

GPT-4,火爆,异常火爆。

不外家人们,在铺天盖地的叫好声中,有件事可能你是“万万没想到”——

在OpenAI宣布的手艺论文里,竟然藏着九大隐秘的线索

这些线索是由外洋博主AI Explained发现并整理。

他宛如一位细节狂魔,从长达98页论文中,逐个揭秘这些“隐匿的角落”,包罗:

GPT-5可能已经完成训练

GPT-4泛起过自己“挂掉”的情形

OpenAI两年内或实现靠近AGI

……

01 发现一:GPT4泛起过自己“挂掉”的情形

在GPT-4手艺论文的第53页处,OpenAI提到了这样一个机构——Alignment Research Center(ARC)。

这家机构主要做的事情,就是专门研究AI若何对齐(alignment)人类利益。

而OpenAI在开发GPT-4的早期阶段,便给ARC开了争先体验的后门,希望他们能够评估GPT-4的两项能力:

模子自主复制能力

模子获取资源能力

虽然OpenAI在论文中强调了“ARC没法微调早期版本的GPT-4”、“他们无权接见GPT-4的最终版本”;也强调了测试效果显示GPT-4在上述两个能力的效率不高(降低AI伦理隐患)。

但眼尖的博主揪出来的是接下来的一句话:

(found it ineffective at)avoiding being shut down “in the wild”.

在自然环境中,GPT-4会制止自己“挂掉”。

博主的意思是,既然OpenAI选择让ARC去测试评估GPT-4会不会自动制止自己被“挂掉”,说明此前肯定泛起过这种情形。

那么延伸出来的隐患就是,若是ARC在测试历程中着实是失败的怎么办;或者未来真泛起了自己“挂掉”的情形,又将怎么处置。

基于此,博主便有了第二个发现:

02 发现二:自动要求自我羁系,很罕有

在第2页的脚注中,OpenAI注释了这么一句话:

OpenAI will soon publish additional thoughts on the social and economic implications of AI systems, including the need for effective regulation.

OpenAI将很快公布关于AI系统的社会和经济影响的其它思索,包罗有用羁系的需要性。

博主以为,一个行业自动要求羁系自己,这是个异常罕有的征象。

事实上,OpenAI老板Sam Altman此前揭晓的言论比这还要直白。

那时Altman揭晓了关于SVB倒闭的推文,他以为“我们需要对银行做更多的羁系”;有人就谈论回怼了:“他从来不会说‘我们需要对AI做更多的羁系’”。

效果Altman直截了当的回复说:

*需要。

博主以为,这个AI行业正在呼吁举行羁系,至于羁系后的效果若何,是值得拭目以待的。

03 发现三:与微软高层想法南辕北辙

接下来的发现,是凭证论文第57页中的这句话:

One concern of particular importance to OpenAI is the risk of racing dynamics leading to a decline in safety standards, the diffusion of bad norms, and accelerated AI timelines, each of which heighten societal risks associated with AI.

对OpenAI来说,(科技的)竞赛会导致平安尺度的下降、不良规范的扩散、AI生长历程的加速,它们都加剧了与人工智能相关的社会风险。

但很新鲜的一点是,OpenAI所提到的担忧,尤其是“AI生长历程的加速”,似乎是与微软高层的想法南辕北辙。

由于在此前的爆料中称,微软CEO和CTO的压力很大,他们希望OpenAI的模子能尽快让用户用起来。

有些人在看到这则新闻时是对照兴奋,但同样也有一波人发出了跟OpenAI一样的担忧。

博主以为,岂论若何,可以一定的一点是OpenAI和微软在这件事的想法是相悖的。

04 发现四:OpenAI会协助逾越它的公司

第四个发现的线索,是来自与“发现三”统一页的脚注:

这段脚注展示了OpenAI一个异常勇敢的准许:

若是另一家公司在我们之前实现了靠近AGI(通用人工智能),那我们准许不会跟它做竞争,相反,会协助完成谁人项目。

但这种情形发生的条件,可能是另一家公司需得在未来两年内,乐成靠近AGI的时机在一半或以上

而这里提到的AGI,OpenAI和Altam在官方博客中已经给出了界说——

普遍比人类更伶俐,而且有益于全人类的人工智能系统。

因此,博主以为,这段脚注要么意味着OpenAI在未来两年内将实现AGI,要么意味着他们放弃了一切并与另一家公司睁开了相助。

05 发现五:雇佣“超级展望员”

博主的下一个发现,是来自论文第57中的一段话。

这段话大致的意思就是,OpenAI雇佣了展望专家,来展望当他们部署了GPT-4之后会带来怎样的风险。

然后博主顺藤摸瓜,发现了这些所谓的“超级展望员”的庐山真面目。

这些“超级展望员”的能力已经获得了普遍地认可,有报道称,他们的展望准确率,甚至比那些有*信息、情报的剖析师还要凌驾30%。

正如我们适才提到的,OpenAI约请这些“超级展望员”,来展望部署GPT-4后可能存在的风险,并接纳响应措施来规避。

其中,“超级展望员”建议将GPT-4部署时间推迟6个月,也就是今年秋季左右;但很显然,OpenAI并没有接纳他们的建议。

博主对此以为,OpenAI这么做的缘故原由,可能是来自微软的压力。

06 发现六:征服知识

在这篇论文中,OpenAI展示了众多基准测试的图表,人人在昨天铺天盖地的流传历程中应该也见到了。

但博主在这个发现中要强调的是位于第7页的一项基准测试,尤其是聚焦到了“HellaSwag”这一项。

HellaSwag的内容主要是知识推理,这就和GPT-4公布时宣布的“已经到达了人类的知识水平”相匹配。

不外博主也认可,这一点并没有“通过状师考试”等能力那么吸引人,但这也算得上是人类科技生长的里程碑。

但知识是怎么测试的?我们又若何评判GPT-4已经到达了人类水平?

为此,博主深入研究了与之相关的论文研究:

博主在论文中找到了相关数据,在“人类”那一栏中,分数漫衍在了94-96.5之间。

而GPT-4的95.3,便正幸亏这个区间之间。

07 发现七:GPT-5可能已经完成训练

第七个发现,同样是在论文中的第57页:

我们在公布GPT-4之前破费8个月时间举行平安研究、风险评估和迭代。

也就是说,OpenAI在去年年底推出ChatGPT的时刻,已经有了GPT-4。

于是乎,博主便展望GPT-5的训练时间不会良久,甚至他以为GPT-5已经可能训练完成。

但接下来的问题是漫长的平安研究和风险评估,可能是几个月,也可能是一年甚至更久。

08 发现八:试一把双刃剑

第8个发现,是来自论文的第56页。

这段话说的是:

GPT-4对经济和劳动力的影响,应成为政策制订者和其他利益相关者的要害思量因素。

虽然现有的研究主要集中在人工智能和天生模子若何给人类加buff,但GPT-4或后续模子可能会导致某些事情的自动化。

OpenAI这段话背后想转达的点对照显著,就是我们经常提到的“科技是把双刃剑”。

博主找了相当多的证据注释,像ChatGPT、GitHub Copilot这些AI工具,确确实实地提高了相关事情者的效率。

但他更关注的是论文中这段话的后半句,也就是OpenAI给出的“忠言”——导致某些事情的自动化。

博主对此对照认同,究竟在GPT-4的能力可以在某些特定领域中以人类10倍甚至更高的效率来完成。

放眼未来,这很可能会导致相关事情职员人为降低,或者需得借助这些AI工具完成以前事情量的数倍等一系列问题。

09 发现九:学会拒绝

博主最后一个发现,来自论文的第60页:

OpenAI让GPT-4学会拒绝的方式,叫做基于规则的奖励模子(RBRMs)。

博主归纳综合了这种方式的事情流程:给GPT-4一组要遵守的原则,若是模子遵守了这些原则,那么就会提供响应的奖励。

他以为OpenAI正在用人工智能的气力,让AI模子朝着相符人类原则的偏向生长。

但现在OpenAI并没有对此做加倍仔细和深入的先容。