核心看点
- 💡 给AI工具创建定制CLI,比直接给文档更高效
- 🔧 Nick展示了codex-threads、slack-cli、typefully-cli三个实际案例
- 🎯 核心心法:重复提供的同类信息,应该封装成命令而不是反复粘贴原文
OpenAI Codex团队工程师Nick分享了他使用Codex的最佳实践——与其给AI提供原始文档和日志,不如打造定制CLI工具。
为什么CLI比连接器更好用?
Nick认为,当工具可以用精确命令表达时,Codex最能发挥威力。这听起来显而易见,但实际上彻底改变了他管理日常工作的方式。
连接器或MCP服务器适合”访问”场景(他用Slack、Linear、Sentry都是这种方式)。但有时候数据源太大、太嘈杂、太笨拙,直接塞给AI效果很差。
这时候他想要的是:一个放在旁边的独立工具——带参数的命令、稳定JSON输出、可预测的错误信息、清晰的帮助界面。
三个真实案例
1. codex-threads:管理旧线程
Codex线程里有很多有价值的模式,但原始存档太嘈杂。Nick创建了codex-threads CLI:
codex-threads --json sync
codex-threads --json messages search "build a CLI" --limit 20
codex-threads --json threads resolve "tweet idea"
codex-threads --json threads read <session-id>
这个工具维护一个本地可搜索索引,让Codex可以搜索、解析、读取旧线程。
2. slack-cli:高效研究Slack
当答案埋在某个频道线程里时,Nick让Codex用命令研究:
slack-cli search "app server auth" --all-pages --max-pages 3 --json
slack-cli read-thread L143 123522523239.633199 --json
slack-cli context R152 25723525099.626199 --before 5 --after 5 --json
这让AI可以广泛搜索、精确定位线程、提取相关上下文。
3. typefully-cli:内容排期
Nick用Typefully管理大量内容创作,CLI封装了他真正需要的操作:
typefully-cli --json drafts list --social-set <id> --limit 20
typefully-cli --json drafts create --social-set <id> --body-file draft.json
typefully-cli --json queue schedule-read --social-set <id>
配套的Skill告诉AI:默认创建草稿、永不主动发布、必要时用body文件避免转义问题。
心法总结
Nick的核心方法论很简单:
如果你反复给AI提供同样的文档、日志、输出或API调用方式,你应该停止解释,直接给它一个命令。然后把这个CLI封装成Skill,让AI记住如何使用它。
CLI + Skill 的组合,让AI每次都能精准调用,而不需要重复粘贴上下文。
参考链接
本文地址:https://www.163264.com/10846