用 AI 全自动写小说,最大的难题是什么?

做了一年 AI 写作工具后,我终于明白为什么"一键生成长篇小说"是个伪命题。

先说结论

AI 写小说最大的难题不是"写不好",而是"记不住"。

一个真实的翻车现场

上个月我用某 AI 工具写了一部修仙小说的前三章:

  • 第一章:主角叫张三,筑基期,师傅是青云宗长老
  • 第二章:主角叫张三,金丹期(?),师傅变成了玄天宗掌门
  • 第三章:主角叫李四(???),还俗下山了

AI 不是写不出华丽的文字,而是它压根不知道自己上一章写了什么。

技术上,这叫"上下文窗口"问题

目前主流大模型的 context window:

模型上下文窗口约等于字数
GPT-4128K tokens~6万字
Claude200K tokens~10万字
Gemini1M tokens~50万字

看起来很多?一部网文轻松 100-300 万字。

就算是 Gemini 的 100 万 tokens,塞进去的不只是正文,还有:

  • 人物设定表
  • 世界观设定
  • 大纲和细纲
  • 前情提要
  • 写作风格样本

实际可用的"记忆空间"大打折扣。

更致命的问题:一致性崩塌

长篇小说有三个一致性要求:

1. 人物一致性

第10章:女主性格冷艳高贵
第50章:女主突然变成傻白甜
第100章:女主人设量子叠加态

2. 逻辑一致性

前文:主角被废了灵根
后文:主角突然施展了高阶法术
(作者:我觉得可以圆回来.jpg)

3. 风格一致性

第1卷:文笔细腻,节奏舒缓
第3卷:突然变成爽文风格
第5卷:开始混入各种流行梗

AI 每次生成都是"独立同分布"的,它不会自动维护这些约束。

现有方案的困境

方案一:塞更多上下文

把所有前文都塞进 prompt,成本爆炸:

  • 100万字小说,每生成一章都要处理全部前文
  • API 成本直接起飞
  • 延迟高到用户想砸电脑

方案二:RAG 检索

用向量数据库存储前文,按需检索相关片段:

  • 检索不一定准确
  • 容易丢失细节
  • “相关"不等于"必要”

方案三:总结压缩

定期总结前文,用摘要代替原文:

  • 信息损失严重
  • 细节和伏笔容易丢失
  • 越往后写,累积误差越大

我的思考:状态化 vs 无状态

传统 AI 工具是无状态的——每次对话都是全新开始。

但小说创作本质上是有状态的——需要持续积累的记忆。

这让我想到一个类比:

无状态工具有状态伙伴
代写枪手专属编辑
每次重新了解需求熟悉你的风格和偏好
交付即结束关系持续积累

可能的解法

我目前在探索的方向:

1. 分层记忆系统

长期记忆:世界观、人物核心设定
中期记忆:当前卷的剧情线
短期记忆:当前章节上下文

2. 主动遗忘机制

不是什么都要记住,而是智能判断:

  • 这个伏笔重要吗?
  • 这个人物还会出现吗?
  • 这段描写影响后续吗?

3. 结构化知识图谱

把小说世界建模成知识图谱:

  • 人物关系网络
  • 时间线
  • 因果链

生成时做实时校验。

写在最后

AI 全自动写小说,现阶段确实是个难题。

但这不妨碍我们用 AI 辅助写小说——让它做扩写、润色、生成对话,人类把控整体方向和一致性。

完全交给 AI?或许还需要等下一代模型架构的突破。


作者正在做一个叫 StoryAlter 的 AI 写作工具,欢迎交流。

如果这篇文章对你有帮助,点个赞?