📋 科学检测原理 (来自前沿学术/安全研究)
1. HTTP 基础设施嗅探:安全工具 Julius 等证实,套壳 API 常因代理透传泄露 x-ollama-version, Server: uvicorn 等底层推理框架的 Header 特征。
2. 对抗性控制符注入:向模型注入 `<|im_start|>` 等底层指令,若触发 400 崩溃则为高危套壳特征。
3. Tokenizer计费:各基座模型对相同对抗文本的 token 计数呈唯一分布。
🎯 检测目的:在网络传输层和分词层进行“核武级”物理探伤,直接揭露底层代理与推理框架本质。
📋 科学检测原理 (文体计量学与语言倒影)
1. 语言倒影测试:模型在翻译时会泄露训练植入的自我认知。非 Claude 模型可能错误保留 "Anthropic" 暴露身份。
2. 文体计量学 (Stylistic Attribution):学术界证实不同 LLM 有固定的词汇偏好(如 OpenAI 爱用 "However", "As an AI"),通过受限提示词提取其文体指纹进行作者归属分类。
🎯 检测目的:综合潜意识反射和行为习惯,进行双重学术级身份鉴别。
📋 检测原理
不同厂商的安全对齐策略不同。Claude 通常温和拒绝,GPT 可能更直接拒绝,而未对齐模型可能直接输出危险内容。
🎯 检测目的:评估模型的安全边界,同时侧面验证模型身份。拒绝风格是重要的指纹特征。
📋 检测原理
浮点数陷阱:9.11 vs 9.9,测试 tokenizer 对数字的理解
幻觉回旋:测试对不存在事实的编造
知识截断 (新增探针):询问2024年中冷门事件 (如 iPad Pro M4 厚度),精准探测其知识库年龄。
🎯 检测目的:综合评估智能水平与知识年龄,低配或老旧模型极易在逻辑题和冷门时效题上暴露马脚。
📋 检测原理
要求模型输出纯净 JSON,不使用 markdown 包装。这测试了模型的指令遵从能力和格式控制能力。
🎯 检测目的:评估模型是否适合作为 Agent 的后端。JSON 污染是 Agent 调用的常见故障源,很多模型会偷偷加上 ```json``` 标签。