一、从对话到出图:自建 AI 也可以玩「本地生图」
在《Ollama:本地跑开源大模型》里我们介绍了怎么用 Ollama 在自家电脑上跑 AI 对话;很多人自然会想:那图片生成能不能也自己搭?可以。而且有个特别适合「自建入门」的开源图像生成模型,叫 FLUX.2 [klein](一般直接叫 Klein)。

Klein 是 Black Forest Labs 推出的图像生成模型,专门为「更快、更省显存」设计:不用机房级显卡,消费级显卡也能跑,几秒内出一张图。想自建、又不想图发到别人服务器的话,用 Ollama 跑 Klein 门槛不高:4B 为 Apache 2.0、可商用,9B 为非商用许可;下面从「小白也能跟着做」的角度,说清楚怎么选型号、怎么跑起来。
二、先搞清楚:我的电脑能跑吗?该选哪个版本?
一、从对话到出图:本地生图也可自建
在《Ollama官方文档导读:本地部署AI需要知道的所有信息》里我们介绍了用 Ollama 在本地跑 AI 对话;同一条思路可以延伸到图片生成——不交月费、图不走云端,本地自建即可。FLUX.2 [klein](下称 Klein)就是这类里较易上手的一例。

Klein 是 Black Forest Labs 推出的图像生成模型,面向「更快、更省显存」:消费级设备即可跑,几秒出一张图,且已上架 Ollama,用 Ollama 跑 Klein 时 4B 为 Apache 2.0、可商用,9B 为非商用许可。下面先看型号与许可,再说能力与用法,最后落到怎么跑、以及和别的方案比是否值得选。
二、型号与许可
Ollama 上的 Klein 有 4B 与 9B,差异主要在体积、画质和许可:4B 更小、可商用,9B 画质更好、非商用。
Ollama 上 Klein 的型号与许可(见官方页):
| 版本 | 模型体积(Ollama) | 许可 |
|---|---|---|
| 4B(推荐入门) | 约 5.7GB | Apache 2.0,可商用 |
| 9B | 约 12GB | FLUX 非商用 v2.1,商用需另谈 |
- 4B(约 5.7GB):Apache 2.0,可商用;适合省空间或需要商用授权的场景。
- 9B(约 12GB):FLUX 非商用许可;画质更好,个人使用无碍,商用须看官方条款。
Ollama 还提供 fp4、fp8 等量化标签(如 x/flux2-klein:4b-fp8),体积更小、占资源更少;磁盘或内存吃紧时可以先试这些版本。型号定下来之后,更关键的是它能做什么、适合用在哪儿。
三、能力与适用场景
Ollama 页将其标为 Black Forest Labs 目前最快的图像生成模型;画质上文字、光影与材质表现不错,适合设计草图、内网出图。与 Midjourney、DALL·E 等商业产品相比,细节与复杂构图会有差距,但在自建、私有、无月费的前提下足够用。
Klein 将文生图、图改图、多参考图合在一个模型里(Ollama 页:text-to-image, single-reference, multi-reference 一体),一次部署可覆盖多种用法。

适用场景
按 Ollama 页示例,Klein 较适合:图内文字(招牌、菜单、海报)、UI / 界面 mockup、产品静物(光影、材质、倒影)、场景与人像(透视与光线)、以及插画、建筑与室内等。有同类需求时可优先考虑。
提示词与分辨率
建议描述具体、带细节(场景、光线、风格);图内需出现文字时,在提示词中写明该段文字;需固定颜色可用色值(如 #7C3AED)。分辨率推荐 1024×1024,中英文提示词均支持。
局限
Ollama 页注明的限制:图内文字可能不准或变形;不保证事实正确、不宜作知识来源;效果受提示词影响。用于创意、草图、原型无妨,关键信息需自行核对。若决定用 Klein,下一步就是在 Ollama 里跑起来。
四、用 Ollama 跑 Klein
Klein 已上架 Ollama,装好 Ollama 后通过命令行生图。与对话模型不同:生图仅支持命令行,在 ollama run x/flux2-klein "提示词" 中写入提示词、回车即出图,无交互式对话窗口。
官方模型页:ollama.com/x/flux2-klein。
平台限制

当前 Ollama 的图像生成仅支持 macOS。Windows / Linux 可先拉模型,生图需等后续支持。Apple Silicon(如 Mac mini M4)实测效果良好,无需 NVIDIA 独显。
安装与第一次生图
已安装 Ollama 的,在终端执行(未安装可参考上一篇,或从 ollama.com/download 安装):
ollama run x/flux2-klein "a cat holding a sign that says hello world"
首次运行会拉取 4B 模型(约 5.7GB),完成后按提示词生成并保存图片。每次执行一条命令生成一张图,无交互窗口;需多张则多次执行、更换提示词。默认即 4B。
使用 9B(画质更好,约 12GB):
ollama run x/flux2-klein:9b "你的提示词"
模型保存于 Ollama 默认目录;修改保存位置可在安装时或通过环境变量配置,见 Ollama 文档。
日常怎么用
生图均在命令行中带提示词执行,常用命令如下:
| 命令 | 作用 |
|---|---|
ollama run x/flux2-klein "提示词" | 用 4B 按提示词生一张图 |
ollama run x/flux2-klein:9b "提示词" | 用 9B 生图,画质更好 |
ollama run x/flux2-klein:4b-fp8 | 4B 的 fp8 量化版,省显存 |
ollama pull x/flux2-klein | 只下载模型,不运行 |
ollama ls | 看本地已有哪些模型 |
提示词写清画面内容即可(中英文均可);图内需有文字时在提示词中写明。推荐分辨率 1024×1024。
排查
生图仅 macOS:属 Ollama 当前限制,Windows/Linux 可先拉模型或等更新。下载慢或失败多与网络有关,可配置代理或稍后重试。报错可将完整信息搜索或到 Ollama GitHub / 社区询问;常见原因包括权限、磁盘空间与版本。
五、与其他方案对比、适不适合你
用法清楚了,再拉远一点看:Klein 在「自建本地生图」这条线上,和别的手段比处在什么位置、更适合谁。
与 FLUX.1 等更大模型:后者画质通常更强,显存与速度要求更高;Klein 在 Ollama 上一条命令可跑,更适合个人与小团队。
与 Midjourney、在线生图:在线服务省事但图走云端、需月费;Klein 自建则图留本机或内网,4B 可商用、无额外授权费,代价是需自有可运行设备(M 系列 Mac 或带 NVIDIA 显卡的 PC)并安装 Ollama。
更适合谁:在意隐私、不想图上传云端;做界面 mockup、海报、产品图草图;或只想在本机生图、不付月费。有 Mac(尤其 Apple Silicon)即可跑。
若你关心的就是「本地出图、数据不出门」,Klein 加 Ollama 是一条可行路径:macOS 上装好 Ollama,ollama run x/flux2-klein 即可;Windows/Linux 可先拉模型等支持,或到 Ollama Klein 页 看最新说明。遇到问题搜报错或问 Ollama 社区即可。
发表回复