贝博恩创新科技网

limageAssistant安装教程,如何快速上手?

第一部分:准备工作

在开始安装之前,请确保你的电脑满足以下基本要求,limageAssistant 对硬件有一定要求,尤其是显存。

limageAssistant安装教程,如何快速上手?-图1
(图片来源网络,侵删)

硬件要求

  • 显卡:

    • 强烈推荐 NVIDIA 显卡,因为其 CUDA 计算生态最成熟,性能最好。
    • 显存:
      • 入门级 (体验): 6GB ~ 8GB,可以运行一些较小的模型(如 SDXL-Turbo, Flux.1-dev [fp8]),但生成速度较慢,无法处理高分辨率或复杂提示词。
      • 主流级 (推荐): 12GB ~ 16GB,可以流畅运行大多数主流模型(如 SDXL 1.0, Flux.1-dev [s5]),体验较好。
      • 高端级 (发烧友): 24GB 及以上,可以运行所有模型,包括 Flux.1-pro 这种超大模型,并且可以开启更高性能的设置(如 xFormers)。
    • AMD 显卡: 目前支持不完善,社区有第三方补丁,但官方不保证兼容性,不推荐新手使用。
    • Intel 显卡: 支持情况一般,性能有限,不推荐。
  • 内存:

    • 推荐 16GB 及以上,虽然模型主要加载在显存中,但足够的系统内存可以保证系统在处理图像时不会卡顿。
  • 硬盘空间:

    • 至少预留 50GB 可用空间,用于存放模型文件(约 5-20GB/个)和生成的图片。

软件要求

  • 操作系统:

    limageAssistant安装教程,如何快速上手?-图2
    (图片来源网络,侵删)
    • Windows 10 / 11 (64位):最主流,支持最好。
    • macOS (Apple Silicon M1/M2/M3):支持良好,性能优异。
    • Linux: 支持良好,但需要一定的命令行操作基础。
  • 必备软件:

    • Git: 用于从代码仓库下载和更新程序。
    • Python: limageAssistant 的运行环境。强烈建议使用 Python 3.10.6,因为这个版本与大多数依赖库兼容性最好,不要使用最新的 Python 3.12,可能会有兼容性问题。
    • NVIDIA 显卡驱动: 确保已安装最新或较新的稳定版驱动,并包含了 CUDA 工具包。

第二部分:详细安装步骤 (以 Windows 为例)

本教程将使用最推荐的 Git + venv (虚拟环境) 方式进行安装,这能最大程度地避免环境冲突。

步骤 1:安装 Git

  1. 访问 Git 官网 下载并安装安装程序。
  2. 一路点击 "Next" 使用默认设置即可安装完成。
  3. 安装后,打开命令行工具(按 Win + R,输入 cmd 回车),输入 git --version,如果显示版本号,则安装成功。

步骤 2:安装 Python

  1. 访问 Python 官网 下载 Python 3.10.6 的安装包。

  2. 运行安装包,最重要的一步:勾选 "Add python.exe to PATH",然后点击 "Install Now"。

    limageAssistant安装教程,如何快速上手?-图3
    (图片来源网络,侵删)
  3. 安装完成后,打开命令行工具,输入 python --version,如果显示 Python 3.10.6,则安装成功。

步骤 3:下载 limageAssistant 代码

  1. 创建一个你想存放项目的文件夹,例如在 D 盘创建 D:\AI\limage
  2. 在该文件夹空白处,按住 Shift 键点击鼠标右键,选择 "在此处打开 PowerShell 窗口""在此处打开终端窗口"
  3. 在打开的命令行窗口中,输入以下命令克隆代码仓库:
    git clone https://github.com/lujinhong/limageAssistant.git
  4. 等待下载完成,你会看到多出一个 limageAssistant 文件夹。

步骤 4:创建并激活虚拟环境

这一步是为了隔离项目依赖,避免与系统或其他 Python 项目冲突。

  1. 在上一步打开的命令行窗口中,进入 limageAssistant 目录:
    cd limageAssistant
  2. 创建虚拟环境(这里我们创建一个名为 venv 的文件夹):
    python -m venv venv
  3. 激活虚拟环境
    • Windows (CMD/PowerShell) 中:
      .\venv\Scripts\activate
    • macOS/Linux 中:
      source venv/bin/activate

      激活成功后,你的命令行提示符前面会出现 (venv) 字样。

步骤 5:安装项目依赖

我们将在虚拟环境中安装 limageAssistant 所需的所有库。

  1. 确保你的虚拟环境已经激活。
  2. 在命令行中输入以下命令进行安装:
    pip install -r requirements.txt

    这个过程可能会比较慢,请耐心等待,如果遇到网络问题,可以尝试使用国内镜像源:

    pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

第三部分:下载模型

limageAssistant 本身不包含模型,你需要自己下载模型文件(.safetensors.ckpt 格式)。

模型下载渠道

  1. Civitai: https://civitai.com/

    全球最大的 AI 艺术模型和资源社区,资源最丰富,但需要注意筛选合规的模型。

  2. Hugging Face: https://huggingface.co/

    官方和开源模型的聚集地,很多官方模型都在这里发布。

  3. WarpStation AI / ModelScope: https://modelscope.cn/

    国内优秀的模型库,访问速度快,有许多中文优化和特化模型。

推荐新手模型

  • SDXL 系列模型:
    • Lyriel SDXL 1.0: 通用性强,质量高,适合大部分场景。
    • Realistic Vision V6.0 (SDXL): 生成照片级真实感图片。
  • Flux 系列模型 (未来主流):
    • Flux.1-dev [s5]: 性能与质量的绝佳平衡点,是目前最推荐的 Flux 模型之一。
    • Flux.1-dev [fp8]: 对显存要求较低(约 8GB),是入门 Flux 的好选择。
    • Flux.1-pro: 效果顶级,但需要 24GB+ 显存。

模型存放位置

下载的模型文件需要放在 limageAssistant/models 目录下的 Stable-diffusion 文件夹里。 D:\AI\limage\limageAssistant\models\Stable-diffusion\


第四部分:启动与使用

步骤 1:启动程序

  1. 确保你的虚拟环境已激活 ((venv) 提示符存在)。
  2. limageAssistant 根目录下,打开命令行窗口。
  3. 输入以下命令启动 Web 界面:
    python app.py
  4. 等待程序加载,当看到类似 Running on http://127.0.0.1:7860 的提示时,说明启动成功。

步骤 2:访问 Web 界面

  1. 打开你的浏览器(推荐 Chrome 或 Edge),在地址栏输入 http://127.0.0.1:7860 并回车。
  2. 你将看到 limageAssistant 的操作界面。

步骤 3:基本使用

  1. 选择模型:

    • 在界面的左上角,点击 "模型" 或 "Model"。
    • 在下拉菜单中选择你刚刚下载并放入 models/Stable-diffusion 文件夹的模型。
    • 点击 "加载模型",等待模型加载到显存中。
  2. 输入提示词:

    • 在 "提示词" 文本框中,用英文描述你想要生成的图像。
    • 示例: `A beautiful landscape with mountains and a
分享:
扫描分享到社交APP
上一篇
下一篇