GPT-4,还是来了

在前两天凌晨,OpenAI 发布了多模态预训练大模型 GPT-4。

这不一觉醒来,GPT-4 都快刷屏了,不管是在朋友圈还是网络上都看到了很多信息和文章。


GPT 是 Generative Pre-trained Transformer 的缩写,也即生成型预训练变换模型的意思。


OpenAI在公告中写道,GPT-4 是一个多模态大模型,也是 OpenAI 努力扩展深度学习最新的里程碑

GPT-4宣布发布

据说,目前为止功能最强大的模型,相信这两天大家在网络上看到的信息比较多也比较杂,关于GPT-4,我们这里也总结一下。

1.支持视觉输入

GPT-4拥有多模态能力,现在可以接受图像输入并理解图像内容,这也是这次发布比较有吸引力的一个点。

比如官方给出了一个示例,给出一幅图,手套掉下去会怎么样?


GPT-4可以理解并输出给到:它会掉到木板上,并且球会被弹飞。

另外GPT-4也可以识别与解析图片内容,比如直接将论文截图后丢给GPT-4,它就可以自动对其进行理解和分析



用户甚至还可以直接画一个网站草图拍照丢给GPT-4,它就可以立马帮助生成代码


2、文字输入限制提升


GPT-4的文字输入限制进一步提升,得益于此,GPT-4的实用性也进一步扩展。比如发布会直播上OpenAI总裁现场演示了一波GPT-4给代码修Bug。


用户可以直接把万字的程序文档丢给GPT-4等着解决方法

3性能提升


在正常的对话过程中,对于GPT-3.5和GPT-4之间的区别感知可能很微妙,但是当处理一些复杂输入时GPT-4的优势会更明显。


团队表示,GPT-4 在各种专业测试和学术基准上的表现与人类水平相当,其中一个数据就是它通过了模拟律师考试,且分数在应试者的前10%左右,而此前发布的 GPT-3.5,则处于倒数 10% 的行列。


OpenAI也在那些为机器学习模型设计的传统基准上评估了 GPT-4。从实验结果来看,GPT-4 大大优于现有的大型语言模型,以及大多数 SOTA 模型。


4、依然有限制性


尽管这次发布的GPT-4表现出了很强大的能力,但是官方依然表示GPT-4与早期的 GPT 模型具有相似的局限性,并不是绝对可靠。


官方表示使用这些语言模型时还是要谨慎审查其输出内容,必要时使用与特定用例的需求相匹配的确切协议(例如人工审查、附加上下文或完全避免高风险场景下的使用) 。


GPT-4仍然可能会产生幻觉、生成错误答案,并出现推理错误,所以团队这也是提前给打了一个预防针。

虽然这仍然是一个问题,但GPT-4相较于于以前的模型显著减少了“幻觉”。在内部的对抗性真实性评估中,GPT-4 的得分比最新的 GPT-3.5 高 40%。


5、关于使用

聊了这么多,普通用户要想使用上GPT-4估计还要再等等。

目前是只有ChatGPT Plus付费订阅会员才可以试用GPT-4,且试用阶段每四小时最多发100条信息。

而且目前来说,用户依然只能发出纯文本信息,像图像等一些视觉输入功能估计后续才会放开使用。

目前OpenAI是开放了GPT-4 API的申请通道,申请地址是https://openai.com/waitlist/gpt-4-api。


用户如果想要使用的话,可以先提申请加入waitlist列表等待通过。

这两天有太多关于人工智能的消息,不知道怎么表达,感觉一个全新的人机交互的时代到来了,欢迎大家一起评论区交流讨论。

展开阅读全文

页面更新:2024-04-26

标签:基准   幻觉   模型   图像   视觉   团队   官方   内容   用户   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top