惊天秘密,首发3行代码,0资源,就能跑免费LLAMA 30B大模型

最近我一直在找最低成本的跑开源大模型的技术方案,突然发现一个3行代码,0资源,就能跑免费LLAMA 30B大模型。而这个30B的模型,正常运行要60G以上的显卡,效果超过了GPT3.5

Hugging face发布了他们的HuggingChat模型,网址,注意:不用注册,不用token就可以运行

https://huggingface.co/chat/


本来以为这个就很厉害了,发现他们还发布了python代码

这下想跑各种企业自动化也是可以随便玩了了

安装hugchat以后,三行代码搞定

官网原始截图



3行代码搞定大模型,速度很快6s基本能出结果

pip install hugchat
from hugchat import hugchat
chatbot = hugchat.ChatBot()
print(chatbot.chat("HI"))

4.8s出结果


可以干啥

之前写的各种Langchain等自动化的玩法都可以直接玩起来,资源消耗几乎为零。

背后的模型

Huggingface抖了一个机灵,用了一个xor的方法,规避了商业的风险:由于LLaMA模型由Meta AI附加了许可证,因此不可直接分发基于LLaMA的模型。我们提供OA模型的XOR权重。

感谢Mick编写了xor_codec.py脚本,使得这个过程得以实现。
注意:此过程适用于oasst-sft-6-llama-30b模型。在未来,可以将相同的过程应用于其他模型,但校验和将不同。


Huggingface 源代码

https://pypi.org/project/hugchat/

The chat() function receives these parameters:

展开阅读全文

页面更新:2024-04-23

标签:模型   代码   资源   权重   玩法   源代码   截图   脚本   秘密   过程   发现

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top