点亮星杯!迎接探索者!
"哨兵"的目标,不是让系统更复杂,而是让复杂变得更可信。在国产系统的环境里,切换、配置、修复,每一步都像是在盲飞。工具在变,命令在变,甚至标准也在变——唯一没变的,是那种"怕出错"的紧张。
"哨兵"不是要取代人,而是要让人重新掌握确定性。
借助 Kat-Coder,它能让一次操作、一次配置,都变得可理解、可回滚、可验证。我们相信,AI 不是做事的机器,而是让人重新理解系统的中介。
这不是自动化的傲慢,而是一种安静的工程伦理:
——让计算变得透明,让理解重新成为力量。
项目"哨兵"(Sentinel)的使命,是做第一盏航标:把命令记忆换成意图表达与边界设定,把一次性操作换成可回滚的掌控感。Linux 技能是一门新语言——可学、可练、可验证——不是对智力的评判。
我们理解,有时切换系统像是一道命题作文。但这也是一个契机:借助 AI,看见计算机工作的因果链与选择权。你不需要记住所有命令;你只需要提出好的问题。
一个规范驱动的 AI 运维工具
"哨兵"是一个运行在 Claude Code 环境中的命令行助手,它将 AI 的灵活性与工程的严谨性结合起来。
智能运维助手
用户可以直接在 Claude Code 终端中,用自然语言下达指令(如"帮我安装 C++ 编译工具"),"哨兵"会自动分析、规划并安全地执行任务。
国产系统适配
重点支持统信 UOS、深度 Deepin、银河麒麟等。内置对这些系统特有配置和包管理器(如玲珑)的适配,解决国内环境的维护难题。
自动化运维脚本库
提供一套预定义的、经过验证的自动化脚本,覆盖环境初始化、软件安装、系统监控、安全扫描等全流程,帮助新手快速完成复杂配置。
规范驱动开发 (SDD)
我们不只是在"使用"AI,我们利用 spec-kit 框架来"驾驭"AI,确保代码的质量和安全。
spec-kit 提供了一套结构化的工作流。我们首先为项目定义一个"宪法"(Constitution)——设定不可违背的安全和风格准则(如:操作必须幂等、禁止硬编码密钥)。
随后,我们通过 Claude Code 终端,使用斜杠命令引导 AI 精确地生成符合规范、安全可靠的运维代码。
三步释放 AI 运维能力
如果你是数字移民,请从这里开始:三步航线(意图 → 校验 → 可回滚执行)。任何危险动作都在干跑模式先呈证据,再执行。
-
1
/specify💭 意图定义需求
用自然语言描述你的运维需求。(例如:"我需要一个脚本来检测系统发行版")
-
2
/plan🛡️ 约束规划约束
提供技术约束。(例如:"使用 Python,优先读取 /etc/os-release 文件")
-
3
/tasks↩️ 回滚点执行与交互
AI 将任务分解并逐一编码。你可以在此过程中持续对话、调试,直至任务完成。
让"专业性"从记忆迁移到判断
我们不把人推进命令行,而是把命令行退到幕后;不是替代学习,而是压缩学习的疼痛带。未来的"会用电脑",是给出目标、设清约束、看懂回滚。
5 年后的运维早晨
"把昨夜异常登录做成图表,标注高于中等的风险"。
问题提出比命令记忆更重要。
可见承诺:默认 --dry-run、日志落盘、复盘片段自动生成。
副驾驶 vs 导航仪
"哨兵"是"导航仪":你给目的地与禁入区,它规划最优且可回退的路径。
可见承诺:先 test 再 switch,失败自动回滚。
宪法式 AI:边界内的自由
不是围栏困住,而是安全活动区。AI 以证据与回滚线自证其合理。
可见承诺:意图→证据→执行→回滚,路径全程可审计。
Project Sentinel 不承诺一夜成师,但承诺:从此是一条有灯塔照明、可回头的航线。你的旅程,从第一个问题开始。
从企业赋能到个人掌控
项目目标是双重的:既为企业降低国产化替代的门槛,也为个人开发者提供前所未有的系统控制力。
掌控阶梯 (Control Ladder)
- 0 被系统牵着走
- 1 能走既定路线
- 2 看懂系统脉络
- 3 可做选择与取舍
- 4 扩展系统边界
AI 压缩学习的疼痛带:跳过"命令记忆",直达"理解—决策—扩展"。
企业视角:降低运维门槛
在国产化替代进程中,企业面临的主要挑战是员工对新系统的熟练度。
我们的目标是利用 32B-Coder 级模型驱动 AI 助手,让员工通过自然语言操控系统,极大降低操作难度,实现平稳过渡。
个人视角:实现全面控制
借助大模型的开放能力,我们引导用户走过"了解系统 → 应用系统 → 操作系统 → 控制系统"的完整路径。
这不仅是基础使用,更是质的飞跃:最终用户将能通过 Python, R, C++ 等工具构建自己的独立应用,实现对系统的深度掌控。
判断力的工程化
真正的安全不是让 AI 不能做事,而是让它有理由地做事:意图—证据—执行—回滚,全程可审计、可复盘。
[ 核心理论设计 · 安全控制范畴 ]
理论框架:AI 风险自检流程
- 预设一个 16 类风险行为 知识库,描述其特征和消除方法。
- 代码过滤:一个小模型 ($M_1$) 初步猜测即将执行的行为是否有风险。
- 风险上报:抽取 $M_1$ 的猜测结果,并将对应的风险描述和缓解措施提交给负责执行的大模型 ($M_2$)。
- 知识阅读:$M_2$ 必须阅读并分析这些风险信息,确保风险警示被充分理解。
- 综合判断:$M_2$ 根据分析结果,最终判断是否执行该高风险行为,或选择更安全的替代方案。
为什么需要'宪法式AI'?
传统担忧:AI 会误执行危险命令(如 rm -rf /)
我们的答案:不是'禁止'AI 执行,而是'强制'AI 思考。
就像人类社会,最有效的约束不是法律条文,而是被广泛认同的价值观和决策框架。这是 spec-kit 的核心哲学:不是控制AI的行为,而是塑造AI的'判断力'。
理论基础:广义蒙提霍尔模型
2.1 模型推广
$M_1$ 选择 $n$ 个候选块,构成 "信任集" $C_g$
全知的 $M_2$ 从 "非信任集" $C_o$ 中排除 1 个错误块,形成 "备选集" $C_m$ (大小为 $k-n-1$)
2.2 召回率定义
初筛召回率: $$R_n = P(c^* \in C_g)$$
2.3 三种策略
| 策略 | 期望 | 搜索成本 |
|---|---|---|
| 信任 $C_g$ | $E_1 = R_n$ | $\propto n$ |
| 信任 $C_m$ | $E_2 = 1 - R_n$ | $\propto k-n-1$ |
| 混合 $C_g \cup C_m$ | $E_3 = 1$ | $\propto k-1$ |