2023年3月24日
稳定的UnCLIP 2.1
基于SD2.1-768的768×768分辨率的新稳定扩散微调(stable unCLIP 2.1,Hugging Face)。该模型允许图像变化和混合操作,如具有CLIP延迟的分层文本条件图像生成中所述,并且由于其模块性,可以与其他模型(如KARLO)组合。有两种变体:稳定的unCLIP-L和稳定的unCLIP-H,它们分别以CLIP-ViT-L和ViT-H图像嵌入为条件。此处提供说明。
SD unCLIP的公开演示已在clipdrop.co/stable-diffusion-reimagine上提供
2022年12月7日
2.1版
768×768分辨率的新稳定扩散模型(stable diffusion 2.1-v,HuggingFace)和512×512分辨率的(stable diffusion 2.1-base,Hugging Face),都基于与2.0相同的参数和架构,并在2.0上进行了微调,对LAION-5B数据集进行了限制较少的NSFW滤波。默认情况下,当未安装xformers时,将以完全精确的方式评估模型的注意力操作。要启用fp16(v2.1模型上的普通注意力模块可能会导致数值不稳定),请使用ATTN_PRECISION=fp16-python<thescript.py>运行脚本
2022年11月24日