使用本地部署的DEEPSEEK R1进行提示词优化,只需要提供简单的画面描述即可生成详细画面提示词。同理,对系统提示词进行简单修改,即可优化AI视频提示词。

1、先使用OLLAMA下载7b的DEEPSEEK R1模型(虽然有点吃显卡,但是效果比1.5B模型好得多)

2、使用命令行启动ollama服务。

3、模型本地部署地址http://localhost:11434

4、更新模型列表可以看到DEEPSEEK R1 1.5B模型(在OLLAMA中部署了多个模型,即可看到不同模型,根据需求自己选,使用1.5B是因为显卡是3060跑7B费劲,1.5B速度也快。如果显卡给力,选32B也是可以。但是提升不大)

5、系统提示词中可以参考以下内容  :

 

1、目标:根据用户提供简单的描述输出画面的详细描述,

2、具体要求:

- 输出结果是英语自然语言,绝对禁止出现中文。

- 输出结果中首先严格按照用户要求准确描述画面类型和艺术风格

- 突出主体形象和细节刻画。


6、在ollama talk中输入你的创意想法。

7、为节约显存,推理完毕提示词后建议加显存清理节点。

8、通过提取字符串节点,提取提示词(不要推理过程,推理过程在画图中影响不大,但是AI视频影响较大)

9、TOKEN最大长度自行设定,1024、2048都可以。

提示词推理出来后,直接输出到clip文本节点即可。画图(主要是针对自然语言提示词,如SDXL、flux、sd3等,SD1.5可能需要改系统提示词,保证输出的是tag模式提示词,有兴趣的朋友可以自行修改)也行,AI视频也行。节点自己接续上就行了。