迎接您的 AI 运维伙伴

一个基于 Claude Codespec-kit 的智能运维工具,让系统听懂你的意图与边界

别背更多命令了——你提供方向,"哨兵"提供可验证的路径与回滚。在新大陆上,保持好奇就够了。

项目初衷 (Why)

点亮星杯!迎接探索者!

"哨兵"的目标,不是让系统更复杂,而是让复杂变得更可信。在国产系统的环境里,切换、配置、修复,每一步都像是在盲飞。工具在变,命令在变,甚至标准也在变——唯一没变的,是那种"怕出错"的紧张。

"哨兵"不是要取代人,而是要让人重新掌握确定性。
借助 Kat-Coder,它能让一次操作、一次配置,都变得可理解、可回滚、可验证。我们相信,AI 不是做事的机器,而是让人重新理解系统的中介

这不是自动化的傲慢,而是一种安静的工程伦理
——让计算变得透明,让理解重新成为力量。

项目"哨兵"(Sentinel)的使命,是做第一盏航标:把命令记忆换成意图表达与边界设定,把一次性操作换成可回滚的掌控感。Linux 技能是一门新语言——可学、可练、可验证——不是对智力的评判。

我们理解,有时切换系统像是一道命题作文。但这也是一个契机:借助 AI,看见计算机工作的因果链选择权。你不需要记住所有命令;你只需要提出好的问题

[数字移民探索新大陆的旅程]
"是什么" (What)

一个规范驱动的 AI 运维工具

"哨兵"是一个运行在 Claude Code 环境中的命令行助手,它将 AI 的灵活性与工程的严谨性结合起来。

智能运维助手

用户可以直接在 Claude Code 终端中,用自然语言下达指令(如"帮我安装 C++ 编译工具"),"哨兵"会自动分析、规划并安全地执行任务。

国产系统适配

重点支持统信 UOS、深度 Deepin、银河麒麟等。内置对这些系统特有配置和包管理器(如玲珑)的适配,解决国内环境的维护难题。

自动化运维脚本库

提供一套预定义的、经过验证的自动化脚本,覆盖环境初始化、软件安装、系统监控、安全扫描等全流程,帮助新手快速完成复杂配置。

[spec-kit 规范驱动开发流程示意图]
"怎么做" (How)

规范驱动开发 (SDD)

我们不只是在"使用"AI,我们利用 spec-kit 框架来"驾驭"AI,确保代码的质量和安全。

spec-kit 提供了一套结构化的工作流。我们首先为项目定义一个"宪法"(Constitution)——设定不可违背的安全和风格准则(如:操作必须幂等、禁止硬编码密钥)。

随后,我们通过 Claude Code 终端,使用斜杠命令引导 AI 精确地生成符合规范、安全可靠的运维代码。

工作流程 (Process)

三步释放 AI 运维能力

如果你是数字移民,请从这里开始:三步航线(意图 → 校验 → 可回滚执行)。任何危险动作都在干跑模式先呈证据,再执行。

  1. 1

    /specify

    💭 意图

    定义需求

    用自然语言描述你的运维需求。(例如:"我需要一个脚本来检测系统发行版")

  2. 2

    /plan

    🛡️ 约束

    规划约束

    提供技术约束。(例如:"使用 Python,优先读取 /etc/os-release 文件")

  3. 3

    /tasks

    ↩️ 回滚点

    执行与交互

    AI 将任务分解并逐一编码。你可以在此过程中持续对话、调试,直至任务完成。

洞见与展望 (Insights)

让"专业性"从记忆迁移到判断

我们不把人推进命令行,而是把命令行退到幕后;不是替代学习,而是压缩学习的疼痛带。未来的"会用电脑",是给出目标、设清约束、看懂回滚。

5 年后的运维早晨

"把昨夜异常登录做成图表,标注高于中等的风险"。
问题提出比命令记忆更重要

可见承诺:默认 --dry-run、日志落盘、复盘片段自动生成。

副驾驶 vs 导航仪

"哨兵"是"导航仪":你给目的地与禁入区,它规划最优且可回退的路径。

可见承诺:testswitch,失败自动回滚。

宪法式 AI:边界内的自由

不是围栏困住,而是安全活动区。AI 以证据回滚线自证其合理。

可见承诺:意图→证据→执行→回滚,路径全程可审计。

Project Sentinel 不承诺一夜成师,但承诺:从此是一条有灯塔照明、可回头的航线。你的旅程,从第一个问题开始。

设计指标 (Metrics)

从企业赋能到个人掌控

项目目标是双重的:既为企业降低国产化替代的门槛,也为个人开发者提供前所未有的系统控制力。

掌控阶梯 (Control Ladder)

  1. 0 被系统牵着走
  2. 1 能走既定路线
  3. 2 看懂系统脉络
  4. 3 可做选择与取舍
  5. 4 扩展系统边界

AI 压缩学习的疼痛带:跳过"命令记忆",直达"理解—决策—扩展"。

企业视角:降低运维门槛

在国产化替代进程中,企业面临的主要挑战是员工对新系统的熟练度。

我们的目标是利用 32B-Coder 级模型驱动 AI 助手,让员工通过自然语言操控系统,极大降低操作难度,实现平稳过渡。

个人视角:实现全面控制

借助大模型的开放能力,我们引导用户走过"了解系统 → 应用系统 → 操作系统 → 控制系统"的完整路径。

这不仅是基础使用,更是质的飞跃:最终用户将能通过 Python, R, C++ 等工具构建自己的独立应用,实现对系统的深度掌控。

安全设计 (Security)

判断力的工程化

真正的安全不是让 AI 不能做事,而是让它有理由地做事:意图—证据—执行—回滚,全程可审计、可复盘。

[ 核心理论设计 · 安全控制范畴 ]

理论框架:AI 风险自检流程

  1. 预设一个 16 类风险行为 知识库,描述其特征和消除方法。
  2. 代码过滤:一个小模型 ($M_1$) 初步猜测即将执行的行为是否有风险。
  3. 风险上报:抽取 $M_1$ 的猜测结果,并将对应的风险描述和缓解措施提交给负责执行的大模型 ($M_2$)。
  4. 知识阅读:$M_2$ 必须阅读并分析这些风险信息,确保风险警示被充分理解。
  5. 综合判断:$M_2$ 根据分析结果,最终判断是否执行该高风险行为,或选择更安全的替代方案。

为什么需要'宪法式AI'?
传统担忧:AI 会误执行危险命令(如 rm -rf /
我们的答案:不是'禁止'AI 执行,而是'强制'AI 思考。

就像人类社会,最有效的约束不是法律条文,而是被广泛认同的价值观和决策框架。这是 spec-kit 的核心哲学:不是控制AI的行为,而是塑造AI的'判断力'

理论基础:广义蒙提霍尔模型

2.1 模型推广

$M_1$ 选择 $n$ 个候选块,构成 "信任集" $C_g$

全知的 $M_2$ 从 "非信任集" $C_o$ 中排除 1 个错误块,形成 "备选集" $C_m$ (大小为 $k-n-1$)

2.2 召回率定义

初筛召回率: $$R_n = P(c^* \in C_g)$$

2.3 三种策略

策略 期望 搜索成本
信任 $C_g$ $E_1 = R_n$ $\propto n$
信任 $C_m$ $E_2 = 1 - R_n$ $\propto k-n-1$
混合 $C_g \cup C_m$ $E_3 = 1$ $\propto k-1$