Explorer 的 system prompt 明确告知 sandbox 规则 — "每条 SQL 必须包含聚合函数或 LIMIT",减少 LLM 生成违规 SQL 浪费轮次 LLM 客户端单例 — 所有组件共享一个 openai.OpenAI 实例,不再各建各的 sanitize 顺序修复 — 小样本抑制放在 float round 之前,避免被 round 干扰 quick_detect 从 O(n²) 改为 O(n) — 按列聚合一次,加去重,不再对每行重复算整列统计 历史上下文实际生效 — get_context_for 的结果现在会注入到 Explorer 的初始 prompt 里,多轮分析时 LLM 能看到之前的发现
22 lines
940 B
JSON
22 lines
940 B
JSON
{
|
|
"name": "工单来源与状态分布",
|
|
"description": "分析不同来源的工单状态分布,评估渠道效果。",
|
|
"tags": [
|
|
"来源",
|
|
"工单状态",
|
|
"分布",
|
|
"渠道"
|
|
],
|
|
"preset_queries": [
|
|
{
|
|
"purpose": "统计每个来源的工单数量及状态分布。",
|
|
"sql": "SELECT 来源, 工单状态, COUNT(*) AS 工单数量 FROM tickets GROUP BY 来源, 工单状态 ORDER BY 来源, 工单状态"
|
|
},
|
|
{
|
|
"purpose": "计算每个来源的工单关闭比例。",
|
|
"sql": "SELECT 来源, ROUND(SUM(CASE WHEN 工单状态 = 'close' THEN 1 ELSE 0 END) * 100.0 / COUNT(*), 2) AS 关闭比例 FROM tickets GROUP BY 来源 ORDER BY 关闭比例 DESC"
|
|
}
|
|
],
|
|
"exploration_hints": "比较不同来源的关闭比例,识别效果最佳的渠道。分析状态为'temporary close'的工单特征,如问题类型或责任人,以优化处理流程。",
|
|
"placeholders": {}
|
|
} |