在前两天凌晨,OpenAI 发布了多模态预训练大模型 GPT-4。
这不一觉醒来,GPT-4 都快刷屏了,不管是在朋友圈还是网络上都看到了很多信息和文章。
GPT 是 Generative Pre-trained Transformer 的缩写,也即生成型预训练变换模型的意思。
OpenAI在公告中写道,GPT-4 是一个多模态大模型,也是 OpenAI 努力扩展深度学习最新的里程碑
据说,目前为止功能最强大的模型,相信这两天大家在网络上看到的信息比较多也比较杂,关于GPT-4,我们这里也总结一下。
1.支持视觉输入
GPT-4拥有多模态能力,现在可以接受图像输入并理解图像内容,这也是这次发布比较有吸引力的一个点。
比如官方给出了一个示例,给出一幅图,手套掉下去会怎么样?
GPT-4可以理解并输出给到:它会掉到木板上,并且球会被弹飞。
另外GPT-4也可以识别与解析图片内容,比如直接将论文截图后丢给GPT-4,它就可以自动对其进行理解和分析
用户甚至还可以直接画一个网站草图拍照丢给GPT-4,它就可以立马帮助生成代码
2、文字输入限制提升
GPT-4的文字输入限制进一步提升,得益于此,GPT-4的实用性也进一步扩展。比如发布会直播上OpenAI总裁现场演示了一波GPT-4给代码修Bug。
用户可以直接把万字的程序文档丢给GPT-4等着解决方法
3性能提升
在正常的对话过程中,对于GPT-3.5和GPT-4之间的区别感知可能很微妙,但是当处理一些复杂输入时GPT-4的优势会更明显。
团队表示,GPT-4 在各种专业测试和学术基准上的表现与人类水平相当,其中一个数据就是它通过了模拟律师考试,且分数在应试者的前10%左右,而此前发布的 GPT-3.5,则处于倒数 10% 的行列。
OpenAI也在那些为机器学习模型设计的传统基准上评估了 GPT-4。从实验结果来看,GPT-4 大大优于现有的大型语言模型,以及大多数 SOTA 模型。
4、依然有限制性
尽管这次发布的GPT-4表现出了很强大的能力,但是官方依然表示GPT-4与早期的 GPT 模型具有相似的局限性,并不是绝对可靠。
官方表示使用这些语言模型时还是要谨慎审查其输出内容,必要时使用与特定用例的需求相匹配的确切协议(例如人工审查、附加上下文或完全避免高风险场景下的使用) 。
GPT-4仍然可能会产生幻觉、生成错误答案,并出现推理错误,所以团队这也是提前给打了一个预防针。
虽然这仍然是一个问题,但GPT-4相较于于以前的模型显著减少了“幻觉”。在内部的对抗性真实性评估中,GPT-4 的得分比最新的 GPT-3.5 高 40%。
5、关于使用
聊了这么多,普通用户要想使用上GPT-4估计还要再等等。
目前是只有ChatGPT Plus付费订阅会员才可以试用GPT-4,且试用阶段每四小时最多发100条信息。
而且目前来说,用户依然只能发出纯文本信息,像图像等一些视觉输入功能估计后续才会放开使用。
目前OpenAI是开放了GPT-4 API的申请通道,申请地址是https://openai.com/waitlist/gpt-4-api。
用户如果想要使用的话,可以先提申请加入waitlist列表等待通过。
这两天有太多关于人工智能的消息,不知道怎么表达,感觉一个全新的人机交互的时代到来了,欢迎大家一起评论区交流讨论。
页面更新:2024-04-26
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号