Crime Prediction · Foundation Model

ST-Crime
面向环境依赖型犯罪时空预测的
检索增强预训练基础模型

Retrieval Augmented Pre-trained Foundation Model

汪韬 · 张一帆 · 陈鹏
中国人民公安大学
2026年1月

犯罪时空预测的挑战

犯罪活动每年给美国带来损失和处理成本高达4.9万亿美元

现有模型泛化能力弱,依赖大量城市标注数据

模型难以跨城市迁移,需要重新设计和训练

什么是环境依赖型犯罪?

发生概率、时间及空间分布受到城市物理环境因素显著影响的犯罪行为,呈现出高度时空聚集性

✓ 环境依赖型犯罪

• 入室盗窃(Burglary)

• 抢劫(Robbery)

• 重罪袭击(Felony Assault)

• 重大盗窃(Grand Larceny)

✗ 非环境依赖型犯罪

• 网络犯罪

• 金融诈骗

• 贪污腐败

• 依赖互联网或社会关系网络

犯罪预测方法的演进

📊

传统统计模型

• 核密度估计

• 热点分析

• 自激点过程

• 着眼整体趋势

🤖

机器学习模型

• 随机森林

• 贝叶斯模型

• LSTM+自编码器

• 处理异构数据

🧠

深度学习模型

• GNN+RNN

• Transformer架构

• 注意力机制

• 捕捉复杂依赖

核心创新:ST-Crime基础模型

生成式预训练 + 提示学习

通过在大规模多城市犯罪数据上进行掩码时空重建预训练,学习通用的犯罪时空分布表示,再通过提示微调机制快速适应不同城市

核心思想

从多个历史执法记录丰富的城市中提取犯罪活动的共性时空模式,构建可迁移的知识库。部署至新城市时,自动从知识库中检索匹配的共性模式,融合本地特征与共性知识,实现准确预测。

ST-Crime的三大核心组件

1

犯罪张量构建

异构犯罪数据转化为统一的标准化表示

• 将研究区域划分为N个地理单元

• 构建时间序列T = (t₁, t₂, ..., tₖ)

• 系统性反映所有类别犯罪的发生情况

• 为模型提供统一输入格式

2

Transformer主干网络

捕获犯罪时空分布的跨区域、跨时间全局依赖关系

• 利用自注意力机制

• 通过掩码建模进行预训练

• 从多城市数据中学习可迁移模式

• 深入分析时空复杂关联

3

犯罪时空记忆检索增强

共性时空模式中检索提示,增强预测性能和泛化能力

三个子组件

🧠 时空记忆
🔗 犯罪类型交互
📊 自适应图学习

实验结果与性能对比

Experimental Results on 4 US Cities (2019 Data)

数据集规模

4城市

纽约、洛杉矶
旧金山、芝加哥

30万+

犯罪记录

4类型

环境依赖型
犯罪

全年

2019年数据

充分训练场景

纽约 Macro-F1

0.7397

提升 1.57%

少样本场景

芝加哥 Macro-F1

0.6586

提升 7.02%

零样本场景

芝加哥 Macro-F1

0.6031

提升 7.73%

全面性能提升

纽约(充分训练)

Macro-F1 ↑1.57%

Micro-F1 ↑1.15%

洛杉矶(充分训练)

Macro-F1 ↑4.30%

Micro-F1 ↑6.06%

旧金山(充分训练)

Macro-F1 ↑6.45%

Micro-F1 ↑9.63%

三种训练场景的表现

充分训练

• 使用3城市全年数据

• 纽约、洛杉矶、旧金山

• Macro-F1: 0.74~0.67

• 显著优于基线模型

少样本(20%)

• 仅用20%芝加哥数据微调

• Macro-F1: 0.6586

• 相比次优提升7.02%

• 快速适应新城市

零样本

• 直接在芝加哥推理

• 无需任何微调

• Macro-F1: 0.6031

• 优秀的跨城市泛化

应用价值与意义

公共安全管理

从被动响应向数据驱动的主动预警转型,提升城市安全管理效率

警力资源优化

精准预测犯罪高发时间和区域,实现警力资源的科学配置

跨城市部署

强大的泛化能力使模型可快速部署至新城市,无需大量标注数据

预防性执法

预防和打击犯罪提供重要工具,降低犯罪发生率

ST-Crime的核心优势

🎯

高精度

在多个城市和场景下显著优于基线

🌐

强泛化

零样本场景下仍保持优秀性能

快部署

少样本微调即可快速适应新城市