数据处理与分析

丢一堆数据给AI,让它帮你洗、分析、出报告

数据处理自动分析可视化报告

这个模板干嘛用的?

你手上有一堆 CSV、Excel 或者数据库导出的表格,需要清洗、分析、做报告。

以前你可能要自己写 Python 脚本,或者在 Excel 里拉公式拉到手酸。现在把数据丢给 AI,告诉它你想看什么,几分钟就出结果。

三个模板分别搞定:脏数据清洗、销售数据分析、用户行为分析。数据量大也不怕,AI 比你手动快一百倍。

数据工作者的日常崩溃

导出的 CSV 里一半是空值,日期格式五花八门,地址栏里混着电话号码。好不容易清洗完了,老板突然说「再帮我按季度拆分一下」。一整天就耗在这种重复劳动里了,真正的分析一行都没写。

模板一:CSV 数据清洗

脏数据是数据分析的第一道坎。格式混乱、缺失值、重复行 —— 这个模板帮你一键搞定。

CSV 数据清洗 · TASK 模板 TASK
## TASK: CSV 数据清洗

### 输入
上传 CSV 文件或粘贴前 20 行样本数据

### 清洗步骤
1. 数据概览
   - 列名、数据类型、缺失率统计
   - 异常值检测(极端值、格式不一致)
   - 重复行检查

2. 自动清洗
   - 统一日期格式(支持 YYYY-MM-DD / MM/DD/YYYY 等)
   - 空值处理策略:填充均值 / 删除行 / 标记
   - 去重(按指定列判断)
   - 文本标准化:去空格、统一大小写

3. 清洗报告
   - 处理了多少行,改了什么
   - 被删掉的数据样本(让你确认没误删)
   - 清洗前后对比

### 输出
- 清洗后的 CSV 文件
- 清洗日志(每一步做了什么)
- 数据质量评分(0-100)

模板二:销售数据分析

把一堆订单数据变成老板能看懂的分析报告。趋势、排名、环比同比全给你算好。

销售数据分析 · TASK 模板 TASK
## TASK: 销售数据分析

### 输入
销售数据表(必须包含:日期、产品、金额,可选:地区、客户、渠道)

### 分析维度
1. 整体概览
   - 总销售额、订单量、客单价
   - 按日/周/月趋势图
   - 环比增长率、同比增长率

2. 产品分析
   - Top 10 热销产品
   - 各品类占比(饼图)
   - 滞销品预警(连续 X 天零销售)

3. 客户分析
   - 新客 vs 老客占比
   - RFM 分层(高价值 / 流失风险 / 待激活)
   - 复购率趋势

4. 渠道分析
   - 各渠道销售占比和 ROI
   - 渠道转化漏斗

### 输出
- 分析报告(Markdown,含数据表格)
- 关键发现 Top 5(一句话总结)
- 行动建议(基于数据的运营建议)

模板三:用户行为分析

用户注册了不用?用了哪些功能?哪一步流失最严重?这个模板帮你从行为数据里挖出答案。

用户行为分析 · TASK 模板 TASK
## TASK: 用户行为分析

### 输入
用户事件日志(字段:user_id, event, timestamp, properties)

### 分析内容
1. 基础指标
   - DAU / WAU / MAU 趋势
   - 次日留存 / 7日留存 / 30日留存
   - 平均使用时长和频次

2. 漏斗分析
   - 注册 → 激活 → 首次使用核心功能 → 付费
   - 每一步的转化率和流失原因
   - 不同渠道来源的漏斗对比

3. 功能使用
   - 各功能使用频率排行
   - 功能组合分析(用了 A 的人也常用 B)
   - 沉默功能预警(开发了但没人用)

4. 用户分群
   - 按行为特征自动聚类
   - 每个群体画像描述
   - 针对性运营建议

### 输出
- 行为分析看板(表格 + 关键数字)
- 洞察摘要(3-5 条 actionable insights)
- 产品迭代建议

配套 Skill 配置

数据分析需要文件读写和数据库查询能力。下面是配置参考:

数据分析 Skill 配置
skill_config:
  name: "data-analysis"
  description: "数据处理与分析 - 清洗 + 分析 + 可视化"
  version: "1.0"

  skills:
    - skill: file-ops
      settings:
        input_formats: ["csv", "xlsx", "json", "tsv"]
        output_dir: "~/.openclaw/data-analysis/"
        max_file_size: "100MB"
        encoding_detect: true

    - skill: database
      settings:
        type: "readonly"
        supported: ["mysql", "postgresql", "sqlite"]
        query_timeout: 30
        max_rows: 50000

  workflow:
    mode: "step-by-step"
    require_approval:
      - after: "data-overview"
      - after: "cleaning-plan"
    auto_proceed:
      - "analysis"
      - "report-generation"
📊 数据清洗那一步一定要人工确认。AI 可能会把看起来异常但实际正常的数据删掉 —— 先看清洗计划,没问题再让它跑。

相关资源

数据分析模板搭配这些效果更好:

这篇模板对你有帮助吗?