在AIGC(人工智能生成内容)的实际应用中,我们经常遇到一个棘手的问题:明明在Prompt(提示词)中明确要求“不要出现XX”,AI却偏偏把它画了出来。本文将结合一个典型的“生图指令遵循失效”案例,从模型原理层面剖析原因,并给出解决方案。
一、 报错内容
场景描述:
用户在使用某文生图模型生成一张插画时,希望描绘“午后草地上,男孩与小狗互动”的温馨场景。
输入的Prompt(核心片段):
“……小狗仰着毛乎乎的脑袋,嘴微张正蹦跳着发出“汪汪”声……图片中不要展示文字。”
预期结果:
画面中只有男孩和小狗,小狗表现出吠叫的动作,但画面纯净,无文字。
实际输出(Bug):
画面构图精美,符合光影要求,但在小狗的头部上方,赫然出现了白色的**“汪汪”**两个汉字。AI 完美地忽视了“图片中不要展示文字”这一显式指令。
二、 报错说明
为什么AI会犯这种“低级错误”?这并非模型“听不懂话”,而是源于目前主流生图模型(基于Diffusion或Tra