【算法背景介绍】

在社会治安管理朝着智能化、精细化方向加速推进的重要阶段,及时且精准地监测公共场所中的打架行为,已然成为维护社会秩序稳定、保障公民人身安全以及提升城市治理水平的核心任务之一。公共场所作为人员密集且流动频繁的区域,其环境复杂多变,人员行为难以预测。不同场所的人员密度、人员构成差异巨大,活动类型也丰富多样,而且现场还可能存在光线明暗变化、人群遮挡、背景嘈杂等因素。这些状况不仅直接反映了当前社会治安的状况和管理的有效性,更与公众的安全感、社会的和谐稳定以及城市的文明形象等紧密相连。一旦公共场所中出现打架行为,如商场内因纠纷引发的肢体冲突、街头因口角升级的暴力斗殴,或者因群体性事件导致的混乱打斗等情况,若未能及时察觉并迅速制止,极易引发人员受伤、财产损失甚至引发更大规模的群体性事件,给社会带来极大的负面影响和危害。

传统公共场所打架行为监测方式主要依赖安保人员现场巡查和监控室人员人工查看监控画面。然而,受公共场所面积不断扩大、人员流动速度加快以及监控画面数量众多等因素限制,人工巡查很难全面覆盖公共场所的各个角落,尤其是那些处于偏僻位置、光线昏暗或者人员密集区域的突发打架情况,往往难以被及时观察到。而且,早期基于简单人工判断的监测方法,由于人员行为复杂多样、监控画面清晰度有限以及各种环境因素干扰,误判率高达 40%以上,根本无法满足社会治安管理“精准化、全方位”的需求。因此,开发一套具备高精度、强适应性且能实时监测的公共场所打架行为智能检测系统,成为提升社会治安管理水平和治理效能的关键技术突破点。

目前现有技术存在诸多明显瓶颈:人工巡查不仅效率极其低下(安保人员难以在短时间内巡查完大面积的公共场所),而且巡查人员还面临着被暴力行为伤害等风险;基于简单动作特征提取的传统算法,难以准确区分正常行为与打架行为(例如,一些激烈的体育活动、嬉戏打闹等行为与打架行为在动作上可能有相似之处),在光线昏暗、人员密集等复杂环境下,算法性能会急剧下降;传统目标检测模型对人员行为的多变性(如不同年龄段、性别人员的打架动作差异)和尺度变化(从轻微的推搡到激烈的拳打脚踢)适应性较差,对于小范围、隐蔽性的打架行为(如两人悄悄扭打)的漏检率超过 50%,难以满足实际社会治安管理的复杂需求。

基于 YOLOv11 的打架行为检测系统为社会治安管理带来了革命性的变革。YOLOv11 作为先进的目标检测算法,具备强大的特征提取和实时检测能力。该系统充分发挥 YOLOv11 的端到端实时检测优势,并针对公共场所复杂环境进行了深度优化。

此系统能够精准识别“normal”(正常行为)和“fight”(打架行为)这两个关键类别。它可以准确捕捉打架行为的各种动作特征,无论是轻微的推搡、拉扯,还是激烈的拳打、脚踢、抱摔;无论是两人之间的单打独斗,还是多人参与的群殴,系统都能敏锐识别。同时,对于正常行为,如行走、站立、交谈、购物等,系统也能准确区分。通过对大量公共场所打架行为视频数据的学习和训练,系统能够保持较高的检测准确率,即便在光线变化大、人员流动速度快、存在各种遮挡和干扰等复杂场景下,也能稳定发挥检测性能。

同时,系统具备强大的抗干扰能力,能够有效应对公共场所的广告牌、车辆、树木等干扰因素,不会因这些干扰而出现误判或漏判的情况。这为新型智能化社会治安建设提供了坚实的技术支撑,助力相关部门实现高效、精准、科学的治安管理,及时发现并制止打架行为,维护社会秩序的正常进行和公民人身安全的稳定可靠,提升城市的核心竞争力和文明形象。

【效果展示】

基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_召回率

基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_召回率_02

【测试环境】

windows10
anaconda3+python3.8
torch==2.3.1
ultralytics==8.3.120

【模型可以检测出类别】

normal

fight

【训练数据集介绍】

 数据集中有部分增强图片,主要是旋转增强,此外数据集有很多段视频截取而成。注意normal是负样本,因此有些人没标注也是可以的都是为了过滤不是打架情况。不标注就当作背景训练

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件)

图片数量(jpg文件个数):9168

标注数量(xml文件个数):9168

标注数量(txt文件个数):9168

标注类别数:2

所在仓库:firc-dataset

标注类别名称(注意yolo格式类别顺序不和这个对应,而以labels文件夹classes.txt为准):["fight","normal"]

每个类别标注的框数:

fight 框数 = 6967

normal 框数 = 9725

总框数:16692

使用标注工具:labelImg

标注规则:对类别进行画矩形框

重要说明:该数据集介绍和实际训练数据集由于存在校验审核张数可能不一致,整体是一致的

特别声明:本数据集不对训练的模型或者权重文件精度作任何保证

图片预览:

基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_ico_03

编辑

基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_召回率_04


基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_ico_05


标注例子:

基于yolov11的打架行为检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面_数据集_06


【训练信息】

参数


训练集图片数

6786

验证集图片数

1397

训练map

87.5%

训练精度(Precision)

83.5%

训练召回率(Recall)

82.4%

验证集精度统计:

Class

Images

Instances

P

R

mAP50

mAP50-95

all

1397

2649

0.835

0.824

0.875

0.638

normal

777

1538

0.785

0.768

0.821

0.583

fight

1071

1111

0.885

0.88

0.93

0.692

【界面设计】

class Ui_MainWindow(QtWidgets.QMainWindow):signal = QtCore.pyqtSignal(str, str)def setupUi(self):self.setObjectName("MainWindow")self.resize(1280, 728)self.centralwidget = QtWidgets.QWidget(self)self.centralwidget.setObjectName("centralwidget")self.weights_dir = './weights'self.picture = QtWidgets.QLabel(self.centralwidget)self.picture.setGeometry(QtCore.QRect(260, 10, 1010, 630))self.picture.setStyleSheet("background:black")self.picture.setObjectName("picture")self.picture.setScaledContents(True)self.label_2 = QtWidgets.QLabel(self.centralwidget)self.label_2.setGeometry(QtCore.QRect(10, 10, 81, 21))self.label_2.setObjectName("label_2")self.cb_weights = QtWidgets.QComboBox(self.centralwidget)self.cb_weights.setGeometry(QtCore.QRect(10, 40, 241, 21))self.cb_weights.setObjectName("cb_weights")self.cb_weights.currentIndexChanged.connect(self.cb_weights_changed)self.label_3 = QtWidgets.QLabel(self.centralwidget)self.label_3.setGeometry(QtCore.QRect(10, 70, 72, 21))self.label_3.setObjectName("label_3")self.hs_conf = QtWidgets.QSlider(self.centralwidget)self.hs_conf.setGeometry(QtCore.QRect(10, 100, 181, 22))self.hs_conf.setProperty("value", 25)self.hs_conf.setOrientation(QtCore.Qt.Horizontal)self.hs_conf.setObjectName("hs_conf")self.hs_conf.valueChanged.connect(self.conf_change)self.dsb_conf = QtWidgets.QDoubleSpinBox(self.centralwidget)self.dsb_conf.setGeometry(QtCore.QRect(200, 100, 51, 22))self.dsb_conf.setMaximum(1.0)self.dsb_conf.setSingleStep(0.01)self.dsb_conf.setProperty("value", 0.25)self.dsb_conf.setObjectName("dsb_conf")self.dsb_conf.valueChanged.connect(self.dsb_conf_change)self.dsb_iou = QtWidgets.QDoubleSpinBox(self.centralwidget)self.dsb_iou.setGeometry(QtCore.QRect(200, 160, 51, 22))self.dsb_iou.setMaximum(1.0)self.dsb_iou.setSingleStep(0.01)self.dsb_iou.setProperty("value", 0.45)self.dsb_iou.setObjectName("dsb_iou")self.dsb_iou.valueChanged.connect(self.dsb_iou_change)self.hs_iou = QtWidgets.QSlider(self.centralwidget)self.hs_iou.setGeometry(QtCore.QRect(10, 160, 181, 22))self.hs_iou.setProperty("value", 45)self.hs_iou.setOrientation(QtCore.Qt.Horizontal)self.hs_iou.setObjectName("hs_iou")self.hs_iou.valueChanged.connect(self.iou_change)self.label_4 = QtWidgets.QLabel(self.centralwidget)self.label_4.setGeometry(QtCore.QRect(10, 130, 72, 21))self.label_4.setObjectName("label_4")self.label_5 = QtWidgets.QLabel(self.centralwidget)self.label_5.setGeometry(QtCore.QRect(10, 210, 72, 21))self.label_5.setObjectName("label_5")self.le_res = QtWidgets.QTextEdit(self.centralwidget)self.le_res.setGeometry(QtCore.QRect(10, 240, 241, 400))self.le_res.setObjectName("le_res")self.setCentralWidget(self.centralwidget)self.menubar = QtWidgets.QMenuBar(self)self.menubar.setGeometry(QtCore.QRect(0, 0, 1110, 30))self.menubar.setObjectName("menubar")self.setMenuBar(self.menubar)self.statusbar = QtWidgets.QStatusBar(self)self.statusbar.setObjectName("statusbar")self.setStatusBar(self.statusbar)self.toolBar = QtWidgets.QToolBar(self)self.toolBar.setToolButtonStyle(QtCore.Qt.ToolButtonTextBesideIcon)self.toolBar.setObjectName("toolBar")self.addToolBar(QtCore.Qt.TopToolBarArea, self.toolBar)self.actionopenpic = QtWidgets.QAction(self)icon = QtGui.QIcon()icon.addPixmap(QtGui.QPixmap(":/images/1.png"), QtGui.QIcon.Normal, QtGui.QIcon.Off)self.actionopenpic.setIcon(icon)self.actionopenpic.setObjectName("actionopenpic")self.actionopenpic.triggered.connect(self.open_image)self.action = QtWidgets.QAction(self)icon1 = QtGui.QIcon()icon1.addPixmap(QtGui.QPixmap(":/images/2.png"), QtGui.QIcon.Normal, QtGui.QIcon.Off)self.action.setIcon(icon1)self.action.setObjectName("action")self.action.triggered.connect(self.open_video)self.action_2 = QtWidgets.QAction(self)icon2 = QtGui.QIcon()icon2.addPixmap(QtGui.QPixmap(":/images/3.png"), QtGui.QIcon.Normal, QtGui.QIcon.Off)self.action_2.setIcon(icon2)self.action_2.setObjectName("action_2")self.action_2.triggered.connect(self.open_camera)self.actionexit = QtWidgets.QAction(self)icon3 = QtGui.QIcon()icon3.addPixmap(QtGui.QPixmap(":/images/4.png"), QtGui.QIcon.Normal, QtGui.QIcon.Off)self.actionexit.setIcon(icon3)self.actionexit.setObjectName("actionexit")self.actionexit.triggered.connect(self.exit)self.toolBar.addAction(self.actionopenpic)self.toolBar.addAction(self.action)self.toolBar.addAction(self.action_2)self.toolBar.addAction(self.actionexit)self.retranslateUi()QtCore.QMetaObject.connectSlotsByName(self)self.init_all()

【常用评估参数介绍】

在目标检测任务中,评估模型的性能是至关重要的。你提到的几个术语是评估模型性能的常用指标。下面是对这些术语的详细解释:

Class:
这通常指的是模型被设计用来检测的目标类别。例如,一个模型可能被训练来检测车辆、行人或动物等不同类别的对象。
Images:
表示验证集中的图片数量。验证集是用来评估模型性能的数据集,与训练集分开,以确保评估结果的公正性。
Instances:
在所有图片中目标对象的总数。这包括了所有类别对象的总和,例如,如果验证集包含100张图片,每张图片平均有5个目标对象,则Instances为500。
P(精确度Precision):
精确度是模型预测为正样本的实例中,真正为正样本的比例。计算公式为:Precision = TP / (TP + FP),其中TP表示真正例(True Positives),FP表示假正例(False Positives)。
R(召回率Recall):
召回率是所有真正的正样本中被模型正确预测为正样本的比例。计算公式为:Recall = TP / (TP + FN),其中FN表示假负例(False Negatives)。
mAP50:
表示在IoU(交并比)阈值为0.5时的平均精度(mean Average Precision)。IoU是衡量预测框和真实框重叠程度的指标。mAP是一个综合指标,考虑了精确度和召回率,用于评估模型在不同召回率水平上的性能。在IoU=0.5时,如果预测框与真实框的重叠程度达到或超过50%,则认为该预测是正确的。
mAP50-95:
表示在IoU从0.5到0.95(间隔0.05)的范围内,模型的平均精度。这是一个更严格的评估标准,要求预测框与真实框的重叠程度更高。在目标检测任务中,更高的IoU阈值意味着模型需要更准确地定位目标对象。mAP50-95的计算考虑了从宽松到严格的多个IoU阈值,因此能够更全面地评估模型的性能。
这些指标共同构成了评估目标检测模型性能的重要框架。通过比较不同模型在这些指标上的表现,可以判断哪个模型在实际应用中可能更有效。

【使用步骤】

使用步骤:
(1)首先根据官方框架ultralytics安装教程安装好yolov11环境,并安装好pyqt5
(2)切换到自己安装的yolo11环境后,并切换到源码目录,执行python main.py即可运行启动界面,进行相应的操作即可

【提供文件】

python源码
yolo11n.pt模型
训练的map,P,R曲线图(在weights\results.png)
测试图片(在test_img文件夹下面)

注意提供训练的数据集,请到mytxt.txt文件中找到地址