装了啥特别篇:编辑部近期 AI 用法拼盘

昨天 16:57

按:我们之前制作过一期题为《少数派编辑部怎么用AI打工?》的装了啥特别篇,其中介绍了AI工具在编辑部日常工作中的实际应用。本期中,编辑部成员们将根据最近使用AI工具的经验和心得,继续介绍一些自己认为有 ...


按:我们之前制作过一期题为《少数派编辑部怎么用 AI 打工?》的装了啥特别篇,其中介绍了AI 工具在编辑部日常工作中的实际应用。本期中,编辑部成员们将根据最近使用 AI 工具的经验和心得,继续介绍一些自己认为有用的场景,希望能给你一些参考。


龙虾记账

@克莱德我从 OpenClaw 上线的那个周末开始用它,目前它为我带来的收益为负(因为花了不少 token),所以我这里同样没有什么「颠覆认知触发范式转移的躺赚」故事。目前安装的十来个非官方预置技能包里,最常用的是自己手搓的 ynab-smart-entry。

把要点好几下的记账,简化为打一行字

记账几乎是我第一时间想到「我需要用 OpenClaw 来做的事情」之一。一方面 YNAB 这个服务提供了 API 文档可以直接用,另一方面记账这件事即便简化到 YNAB 这种主张信封预算的地步,记录开销、拆分账单、核算对账这些工作也依然处处都是「摩擦力」,有摩擦力就会有因为不想或者忘记打开 app 而搁置的一天。

所以记账这件事对我而言,交给每天都要打开无数次的即时通讯工具更加切实有效。这里首先还是得夸一夸 OpenClaw——用 YNAB API 完成记账这件事并非不能使用常见自动化工具和服务实现,但以往前提都是我自己得足够了解 YNAB 的 API 文档。而现在我们可以直接把 API 文档扔给 OpenClaw 让它自己啃,然后自己摸索着做一套基于 API 和大模型本身的自然语言识别能力的记账技能。

同时,就像早期 OpenClaw 大火时大家在网络上的推荐文章中看到的那样,上面那样的记账流程,还可以进一步从「自然语言」简化为「自然语音」。OpenClaw 配合特定模型时解决问题的意愿非常积极,当你第一次语音发送一条记账指令时,它也能自己去找 Whisper 并帮你配置好:

把要打一行字的记账,再简化为一句话

Vibe dubugging 也是 YNAB 这个技能包不断完善的主要途径之一,比如在后续使用的过程中,OpenClaw 根据我的记账习惯加入了对拆分交易的原生支持,即一笔订单多个子项,每个子项独立推断分类,提交时再自动汇总——这是 YNAB 在 app 和 API 中都有提供的功能,但不管用哪种传统的自动化解决方案(比如 Tasker 或快捷指令)都比较难解决「要不要拆分」的问题。

所以在此基础上我的 YNAB 技能包还加入了三层的分类推断机制:如果我的记账指令中直接匹配到了以往用过的商家名或关键字,则参考以往的记录自动补全、建议分类等其他字段,如果是近似的商家名称,比如「盒马鲜生」和「盒马」,也会自动学习往期交易记录决定用哪个……这种基于已有信息的识别、判断和推理,应该也算是 OpenClaw 记账的一大优势了。

最近我也在同事的建议下使用 Skill Creator 重新完善了一下 YNAB 这个技能,包括技能包结构优化,采用渐进式披露(progressive disclosure)的方案按需加载商家映射表、分类 ID 这些具体数据,补全了触发词和输入格式方便精准触发等。如果你也有已经在用的、通过长期对话调试沉淀下来的自建技能包,不妨也用 Skill Creator 做一个 2.0 版本升级。

至于其他技能包像快递、高德地图等,其实都只是看到了、配置一下、简单试试就放一边了。倒不是说完全用不上,只是我很认可同事的一个观点:想不明白「为什么要用 OpenClaw 代替操作 app 的时候,那就用 app。不要创造需求。

在万物皆可 cli、麦当劳都要接个 MCP 的当下,OpenClaw 更适合做一个跨服务的自动化调度员,而不是「帮我开下灯」这种需求都要一轮对话来完成的新款传话筒。

让 GPT 多说人话的自定义指令

@张奕源Nick分享这个小东西的背景是:在 OpenAI 推出 GPT-5.4 之后,大家对于模型回答质量的反馈不一。经过我的摸索和长期使用,我发现使用以下预置提示词并配合 ChatGPT 的设置,可以在知识性的日常问答中获得相对不错的结果。

使用方法及提示词为:

一、打开 ChatGPT 客户端,在设置中找到名为「Personalisation」的选项;

二、「Base style and tone」选项设置为「Efficient」;

三、「Characteristics」中的四个选项均设为「Less」;

四、在「Custom Instructions」中贴入下面的提示词——

每次问答都启用网络搜索功能。

进行网络搜索时,不使用中文来源。

不使用emoji。

以英文回应时,使用英式英语。

以中文回应时,使用香港繁体而非简化字。即使我使用简化字提问,也请用香港繁体回答。

在中文语境中,不使用斜线(/)代替顿号(、)或连词如「和」或「或」。例如,应写作「你可以选择苹果或香蕉」,而非「你可以选择苹果 / 香蕉」。

在中文语境中,使用直角引号体系(「」),而非弯引号(“”)。

以标准的纯文本格式回应。不添加任何符号(如加粗、斜体、「===」)或其它装饰性格式符号。

在回答结尾不要提出任何问题。

五、其它选项可以酌情填写,保存并返回即可。日常问答中建议开启思考模式,这样 ChatGPT 才会在几乎每次问答时都加载预置提示词。

设置和填写之后的效果

接下来,我会逐条解释提示词对应的功能或者目的,你可以根据个人需要任意增减。

每次问答都启用网络搜索功能。

相信你一定多少了解过大语言模型(LLM)的基本原理——工程师们先准备一大堆文字素材丢给电脑,电脑会通过机器学习系统来吸收这些文字,并逐渐产生类似智能的东西,最终可以与人类用自然语言问答。

所以,如果不开启网络搜索功能,大模型给出的答案都会基于它学过的文字来生成和推断。它的学习素材以及给出的答案都有可能是过时的、片面的、未经验证的,甚至是胡扯八道的。更重要的是,大模型以这种方式给出的答案几乎没有出处,也就无法反向溯源。随便看看或许还行,但肯定不能用来干正事。

开启网络搜索后,虽然依旧不能保证大模型的答案绝对准确,但它毕竟是互联网内容筛选后的结果,至少能确保基础的时效性。而且,ChatGPT 会在每段答案的末尾给出信息源,在参考答案时也能顺带判断一下靠不靠谱。

进行网络搜索时,不使用中文来源。

这条不是对中文信息本身有偏见,而是大模型一旦使用中文消息源,就会大量引用垃圾内容农场的文字(譬如搜狐新闻、今日头条及知乎里的傻屌回答等)。可能因为 GPT 的原生训练语言是英文的缘故,它在搜索英文信息时对信息源的把控比中文讲究很多,尤其在搜索健康、科学类的内容时,GPT 基本都会优先引用主流论文或者权威文章。

所以,如果你需要引用中文消息源,可以在提问时单独加一句「可以引用中文消息,但请辨别消息来源,只选择权威或有专业人士背书的信息」(大意相同即可)。

不使用 emoji。

如果你不喜欢文章里插入满屏表情符号,那和大模型聊天时,你一定感受过剧烈的痛苦。虽然 ChatGPT 客户端已经内置了 Emoji 开关,但它还是会时常蹦跶一两个出来。与其被动等待,不如主动了结。

以英文回应时,使用英式英语。

这是我的个人习惯,我自己学习、使用的都是英式英语,很多单词拼写(譬如「colour」,以及上文用到的「personalise」)和表达式都与 GPT 默认的美语有所不同,所以我会让 ChatGPT 实时转换一下。

以中文回应时,使用香港繁体而非简化字。即使我使用简化字提问,也请用香港繁体回答。

这也是我的个人习惯。我生活里会更习惯读写传统汉字(即「繁体字」),所以会让 ChatGPT 转换一道。而在主流传统字方案中,香港字形相对更考究一丢丢(譬如「裏」〔HK〕vs「裡」〔TW〕,),于是就让 GPT 顺便帮我转了。

拓展阅读:https://sspai.com/prime/story/vol020-im-chinese

在中文语境中,不使用斜线(/)代替顿号(、)或连词如「和」或「或」。例如,应写作「你可以选择苹果或香蕉」,而非「你可以选择苹果 / 香蕉」。

滥用斜杠号是最近最让我头大的标点误用现象。大模型在吃下大量瞎他妈用标点的素材之后,现在也开始原样吐出了,必须要封堵一下。

这句提示词里,我额外给 GPT 举了个例子,主要是想让它理解我在说什么。滥用斜杠号的具体错因我此前在社交媒体上讲过,这里就复制粘贴啦——

我发现在中文语境里滥用斜杠号(/)的状况愈加流行,看得我难受。讲两句:

会员专属文章,欢迎加入少数派会员。
优质内容
权益周边
会员社群
power+
评论区
全部评论0
成为少数派会员方可评论,立即加入。若已是少数派会员,点击登录
还没有评论,来发表第一个评论吧
全部评论
还没有评论,来发表第一个评论吧
成为少数派会员方可评论,立即加入。若已是少数派会员,点击登录
会员新功能
内容侧边栏
点击这里拉开侧边栏,即可查看会员内容列表,快速切换内容。