这是我用到过的目前比较可行的方法,国内可直接访问,完全免费,长期可用。这里仅做记录,需要的朋友可以参考一下。
Kaggle提供了一个无需设置,可定制的Jupyter Notebooks环境。可以免费访问GPU和社区发布的数据和代码。
Kaggle本身就是做科学计算的,用于模型训练,大数据分析等等。
重要的是,国内完全可以直接访问。这一点非常重要,省去了各种网络魔法的麻烦。
具体步骤
1,使用email注册Kaggle
注册成功后登录,点击个人图标,查看Profile
点击Account
你会看到具体的GPU以及TPU情况
目前每周GPU可用时长30小时,TPU可用时长20小时。每周重置。一般来说,都是用不完的。
2,创建自己的notebook,启动SD Web UI
当然,kaggle网站有大量的公开notebook,你可用搜一下,看看有没有你需要的。
将默认生成的代码替换为以下代码。
这里,我们拉取AUTOMATIC1111代码,启动一个基本的Stable Diffusion Web UI。
#需要首先安装一下Python3.10
!conda create -n webui_env -c cctbx202208 -y
!source /opt/conda/bin/activate webui_env && conda install -q -c cctbx202208 python -y
!/opt/conda/envs/webui_env/bin/python3 -m pip install -q torch==1.13.1+cu117 torchvision==0.14.1+cu117 -f https://download.pytorch.org/whl/torch_stable.html
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /kaggle/working/stable-diffusion-webui
#使用2/18的版本,最新的可能与gpu不兼容
!git checkout 0cc0ee1bcb4c24a8c9715f66cede06601bfc00c8
#下载模型,放到/kaggle/working/目录中
!wget -O /kaggle/working/stable-diffusion-webui/models/ChilloutMix.safetensors -L https://your-model-url/
#最后,执行启动UI
%cd /kaggle/working/stable-diffusion-webui
!/opt/conda/envs/webui_env/bin/python3 launch.py --no-half --share --enable-insecure-extension-access
注意:将 https://your-model-url/ 替换为你的模型url地址
具体可以到model4ai.web.app上自行选择。
画的好不好,选择合适的模型也是一个关键因素 [抠鼻]
侧边选项中,记得选择GPU加速器。否则,默认CPU一般是跑不动的。
大概3、5分钟,启动完成后,你会看到
打开这个地址,就是熟悉的UI了。跟本地运行看到的一摸一样。[呲牙]
Done.
页面更新:2024-05-31
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号