https://github.com/CompVis/stable-diffusion/
有人在64位Ubuntu22.04LTS上工作吗?您能分享一下如何让它正常工作的步骤吗?还是只链接到已知的测试/工作指南?
发布于 2022-10-26 20:36:33
明白了。我会把它写下来,以防它对别人有帮助。这将最初只涉及CPU“采样”(生成图像),直到我得到GPU采样工作。采样应该完全脱机运行。
用pip安装
pip install --upgrade diffusers transformers scipy torchsudo apt install git-lfshttps://huggingface.co/runwayml/stable-diffusion-v1-5克隆git存储库(您必须先登录或注册并接受他们的许可协议)然后,您可以创建一个小型Python脚本(在上面克隆的git的本地工作副本中),并运行它来自己尝试取样: from diffusers import StableDiffusionPipeline pipe = StableDiffusionPipeline.from_pretrained('.') prompt = "a photo of an astronaut riding a horse on mars" image = pipe(prompt).images[0] image.save("astronaut_rides_horse.png")
https://github.com/invoke-ai/InvokeAI#installation
这也提供了一个非常好的web。
我的GPU以Intel CometLake-S GT2 [UHD Graphics 630]的形式出现在lspci | grep VGA或neofetch上。screenfetch称它为Mesa Intel(R) UHD Graphics 630 (CML GT2)。无论哪种方式,我都不知道如何使用这个GPU进行采样(或者如果可能的话)。
发布于 2022-10-31 19:48:33
从你的评论:
我在找“简单按钮”
相当大一部分(可能是大多数)稳定的扩散用户目前使用AUTOMATIC1111 web-UI的本地安装。还有一个安装脚本作为主要的启动机制(在每次启动时执行Git更新):
sudo apt install wget git python3 python3-venv # system dependencies
bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
# Download model file(s) (e.g. Hugging Face account, which does require an account and login) and install into `models/Stable-Diffusion` subdirectory完全依赖项和可选依赖项都在此页上。
这个特定的存储库似乎以闪电般的速度移动,并且很快地将若干特征添加到文档中。
https://askubuntu.com/questions/1437304
复制相似问题