文案是产品与用户沟通的最直接的桥梁,也是影响用户理解和行为决策的关键。
此前,各业务都陆续建立了自己的语义规范。怎样让静态的语义文档,变成日常工作中随手能用的一个工具,是推进规范应用的重要环节。
我们借助当前的 AI 工具,搭建了一个 Coze 应用 ——AI语义助手。以下是详细过程。
我手上有整理好的语义文档,内容包含语义规范和案例,形式包含纯文本、图片、表格、多模态(文本、图片、表格混合)等。
我想让 AI 阅读这些文档,并根据文档中的相关规范和案例,回答我的问题,问题包括写文案、优化已有文案、看文案是否满足规范、几组文案对比看哪个更好。提问的方式包括文本和图片(比如根据图片写文案):
首先我尝试了直接询问 DeepSeek/Kimi,把这些文档作为附件,和问题一起发给它们,回答的还行,但也有一些缺点:
- 效果像抽卡,不太稳定,可能文档大小超过了上下文 token 的限制。
- 有些大模型只能识别图片文字,不能理解图片内容,这就丢失了部分语义规范的信息。
- 每次都要把规范丢给 AI,用起来太麻烦。
我需要有一个工具,它吃透了已经确定的语义规范,可以根据我的问题,直接参考规范生成答案。
根据这个目标,我开始搭建工作流。因为工作流,可以按部就班地执行命令,达成比较高的确定性。
工作流工具
常用的工作流工具有 Coze、Dify、n8n、FastGPT 等。
- Coze:字节跳动开发的工具,免费且易用,支持 API 调用,可以快速创建机器人应用。优点是界面友好,上手快,支持多种知识库导入方式;缺点是自定义功能相对有限,有些高级功能还在开发中。
- Dify:开源的 AI 应用开发平台,提供了更多自定义选项。优点是灵活性高,可以深度定制工作流;缺点是部署和维护相对复杂,对技术要求较高。
- n8n:强大的自动化工作流平台,支持丰富的集成。优点是可以连接各种服务和 API,自动化程度高;缺点是学习曲线陡峭,不太适合设计师使用。
- FastGPT:专注于快速搭建 GPT 应用的平台。优点是针对 LLM 应用优化,知识库管理功能强大;缺点是某些功能需要付费,国内使用稳定性有时受限。
考虑到易用性、稳定性和成本,我最终选择了 Coze 作为开发工具。它足够简单,让没有编程背景的设计师也能快速上手,同时现有的功能也足够实现我的需求。
任务拆解
主要步骤:知识库优化-工作流搭建-应用界面搭建
先优化知识库。目的是把人能读懂的语义规范,让计算机也能读懂,让大模型回答得更准、更好。
再搭建工作流。规定好 AI 工作的流程,让它可以按部就班地完成具体任务。相当于后端工作。
最后搭建应用界面。把建好的工作流套一个皮,让它更好用。相当于前端工作。
知识库优化的学问挺深。网上有很多关于知识库 RAG(检索增强生成)的知识,但很多都需要写代码。我摸索了一些对设计师友好的、无代码实现的知识库优化方法:
- 内容划分:将相关内容集中放在一起,划分清楚段落,减少冗余和交叉引用,提高检索效率。
- 格式转换:文本、表格优先选择 Markdown 格式;多模态文件使用 PDF 格式。
- 命名模式:为文档使用清晰一致的命名模式,如”[类别]-[名称]”,帮助 AI 更好地理解文档内容关系。
- 标签说明:在文档中添加文档的介绍,如“适用于 XXX 业务”,帮助 AI 快速定位主题。
- 图片处理:对于图片,添加详细的文本描述,帮助 AI 理解图片内容。
- 重点突出:使用粗体、标题等格式突出关键信息,帮助 AI 识别重点内容。
- 示例丰富:对每条规范增加 2-3 个正反面例子,帮助 AI 更好理解应用场景。
- 测试验证:上传后进行多轮测试,找出回答不准确的地方,针对性优化文档内容。
我把它上传为 Coze 的知识库。
工作流是 AI 助手的核心引擎,决定了用户输入如何被处理并生成有价值的输出。工作流的核心是数据如何从一个节点流向另一个节点,语义助手主要包含:输入流-处理流-生成流-输出流-反馈流。
输入流
用户交互阶段,从用户那里获取必要信息,包括以下节点:
- 输入:定义输入的参数,这里包括用户输入的问题(文本)、上传的图片(非必填),以及业务和功能(见后)。
- 业务选择:不同业务适用的语义规范不同,需要区分业务。根据用户选择的业务,调用不同的知识库。
- 功能选择:经过调研,AI 助手需要有以下功能,这些功能的要求和输出内容不同。根据用户选择的功能,走不同的工作流。
处理流
后台数据处理阶段,将用户输入转化为有用的查询和分析:
-
- Query 改写:Query(查询)是指用户输入的问题或请求。我们要做的 AI 助手和客服助手还不太一样,客服助手是直接从知识库中查询,而我们需要在知识库的基础上二次加工,所以不能直接使用用户的问题作为 Query,而要进行改写,转换成更适合知识库检索的形式,从而提高检索准确率。比如用户问“我要在会员卡介绍页写一段文案,促进转化….”,我们提取出属于商业文案的范畴,可以改写为“商业文案设计规范和案例”。
- 知识库检索:这一步需要检索出相关的规范和案例,提供给后续的大模型节点使用。Coze 的知识库检索需要设置以下内容:
生成流
AI 理解和生成阶段,处理信息并生成回答:
① 大模型生成:基于知识库的检索信息,回答用户的问题。大模型节点核心是设置提示词,这也是整个工作流最关键的部分。提示词包括系统提示词和用户提示词,前者更像是 AI 行为的”操作系统”,决定了它处理问题的基本框架;后者像是给 AI 的”任务单”,根据用户输入的内容完成任务。我们可以这么设置:
输出流
最终呈现阶段,将生成的内容传递给用户:
输出:把生成的内容输出。这里我同时用了 2-3 个大模型回答问题,所以输出时需要把答案拼接在一起,同时使用了 Markdown 语言定义格式,提高阅读性。
反馈流
优化循环,用于持续改进。这里设置了一个单独的工作流,当答案生成后,用户可以点赞或点踩进行反馈,后台会记录用户的输入、答案和反馈。后台日志也会记录全流程的关键数据,为后续优化提供依据。
工作流的设计需要考虑数据的完整性、准确性和传递效率。在实际实施中,可能需要根据测试结果多次调整各节点间的数据传递方式和内容格式,以达到最佳效果。
Coze 提供了界面拼搭工具,可以通过拖拽完成基础页面的搭建。
在界面设计中,优先考虑了简洁性和易用性,将功能按钮明确展示在主界面。主要设计了以下几个核心元素:
- 选择区:下拉选择业务和功能。
- 输入区:宽敞的文本框,支持图片上传,并有明确的操作提示。
- 动作区:行动按钮“问一问”和“清空”。
- 答案区:显示回答,Markdown 形式,底部有复制、重新生成、点赞/点踩功能。
搭建时要注意几点:
- 加载状态反馈:此时应设计加载动画,缓解用户等待的不安感。
- 结果展示层次:使用卡片、分割线或背景色区分不同部分的内容,增强可读性。
- 组件展示逻辑:确保各组件在不同状态(等待输入、加载中、显示结果、出错)下的展示逻辑清晰。
比如点击问一问后,工作流开始工作,此时还没有答案输出,先显示加载动画,然后答案输出后,加载动画消失,工具栏出现。
工作流搭建完成后,需要进行多轮测试和优化,确保 AI 语义助手能够稳定、准确地回答用户问题:
测试策略
- 场景测试:针对不同业务、不同功能类型,准备典型场景的测试用例。
- 边界测试:测试知识库中没有直接答案的问题,验证 AI 的泛化能力。
- 负面测试:故意提出不合理或错误的问题,验证 AI 的错误处理能力。
- 性能测试:测试响应时间,特别是在知识库较大时的检索效率。
优化方向
- 知识库优化:根据测试结果,调整知识库内容的组织方式和颗粒度。
- 提示词调整:优化系统提示词和用户提示词,提高回答的准确性和相关性检索。
- 参数调优:调整最大召回数量、最小匹配度等参数,平衡查全率和查准率。
- 模型选择:测试不同的大模型,选择最适合语义助手场景的模型或模型组合。
通过多轮测试和优化,我们可以不断提升 AI 语义助手的表现,使其真正成为设计师日常工作中的得力助手。
经过以上步骤,我们成功打造了一个能够理解并应用语义规范的 AI 助手。以下是几个实际应用场景的效果展示:
从 0 到 1 搭建 AI 语义助手的过程,不仅仅是技术的实践,更是我们对于设计语义规范应用场景的深度思考。通过这个项目,我们实现了几个关键目标:
- 规范从静态到动态:将原本静态的语义文档转变为可交互的智能工具,大大提高了规范的可用性。
- 效率提升:设计师可以快速获取语义建议,减少查阅文档的时间成本。
- 一致性保障:基于统一规范的 AI 助手确保了不同场景下语义表达的一致性。
- 知识沉淀:随着使用量增加,通过反馈流收集的数据可以持续优化语义规范本身。
未来,我们计划在以下方向继续优化 AI 语义助手:
- 规范迭代:基于用户反馈和实际应用效果,定期更新语义规范库。
- 功能扩展:增加多轮对话等高级功能,满足更复杂的工作场景。
- 个性化定制:为不同业务线提供定制化的语义助手,更精准地匹配各自的需求。
- 自我学习:通过分析用户反馈和日志,持续优化回答质量和响应速度。
这个项目不仅提升了语义规范的应用效率,也为我们探索 AI 赋能设计工作提供了宝贵经验。希望这份经验分享能够帮助更多设计师将 AI 工具融入自己的工作流程中,释放创造力,提升设计质量。
欢迎关注「58UXD」的微信公众号: