垃圾分类智能监控摄像头 yolox-爱代码爱编程
垃圾分类智能监控摄像头系统运用了神经网络人工智能视觉算法技术,垃圾分类智能监控摄像头能够全面监测垃圾投放点的情况。系统通过建立AI监控及音柱,在垃圾投放点安装全彩高清监控摄像机,实时采集垃圾投放现场的视频。通过神经网络人工智能视觉算法的识别能力,系统能够对垃圾乱投、垃圾箱满溢、厨余垃圾未破袋、误时投放等垃圾分类违规投放行为进行实时识别。垃圾分类智能监控摄像头一旦发现违规投放行为,系统会立即通过音柱对现场进行语音提示,提醒投放者及时纠正错误。垃圾分类智能监控摄像头是一套集视频采集、智能分析、语音提示、平台预警为一体的智能监管系统。
YOLOX在YOLO系列的基础上做了一系列的工作,其主要贡献在于:在YOLOv3的基础上,引入了Decoupled Head,Data Aug,Anchor Free和SimOTA样本匹配的方法,构建了一种anchor-free的端到端目标检测框架,并且达到了一流的检测水平。此外,本文提出的 YOLOX-L 模型在视频感知挑战赛(CVPR 2021年自动驾驶研讨会)上获得了第一名。作者还提供了支持ONNX、TensorRT、NCNN和Openvino的部署版本。
目标检测分为Anchor Based和Anchor Free两种方式。在Yolov3、Yolov4、Yolov5中,通常都是采用 Anchor Based的方式,来提取目标框。Yolox 将 Anchor free 的方式引入到Yolo系列中,使用anchor free方法有如下好处:降低了计算量,不涉及IoU计算,另外产生的预测框数量较少。假设feature map的尺度为80x80,anchor based方法在Feature Map上,每个单元格一般设置三个不同尺寸大小的锚框,因此产生3x80x80=19200个预测框。而使用anchor free的方法,仅产生80x80=6400个预测框,降低了计算量。
缓解了正负样本不平衡问题:anchor free方法的预测框只有anchor based方法的1/3,而预测框中大部分是负样本,因此anchor free方法可以减少负样本数,进一步缓解了正负样本不平衡问题。避免了anchor的调参:anchor based方法的anchor box的尺度是一个超参数,不同的超参数设置会影响模型性能。anchor free方法避免了这一点。
随着城市化进程的不断推进,垃圾分类问题愈发凸显。为了提高垃圾分类的效率和质量,基于神经网络人工智能视觉算法的垃圾分类智能监控摄像头应运而生。垃圾分类智能监控摄像头通过对垃圾乱投、垃圾箱满溢、厨余垃圾未破袋、误时投放等垃圾分类违规投放行为进行实时识别并现场进行语音提示,同时将预警数据推送到后端管理平台或管理人员手机 APP,实现了垃圾分类投放行为的智能监管。
class Detect(nn.Module):
stride = None # strides computed during build
onnx_dynamic = False # ONNX export parameter
def __init__(self, nc=80, anchors=(), ch=(), inplace=True): # detection layer
super().__init__()
self.nc = nc # number of classes
self.no = nc + 5 # number of outputs per anchor
self.nl = len(anchors) # number of detection layers
self.na = len(anchors[0]) // 2 # number of anchors
self.grid = [torch.zeros(1)] * self.nl # init grid
self.anchor_grid = [torch.zeros(1)] * self.nl # init anchor grid
self.register_buffer('anchors', torch.tensor(anchors).float().view(self.nl, -1, 2)) # shape(nl,na,2)
self.m = nn.ModuleList(nn.Conv2d(x, self.no * self.na, 1) for x in ch) # output conv
self.inplace = inplace # use in-place ops (e.g. slice assignment)
def forward(self, x):
z = [] # inference output
for i in range(self.nl):
x[i] = self.m[i](x[i]) # conv
bs, _, ny, nx = x[i].shape # x(bs,255,20,20) to x(bs,3,20,20,85)
x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous()
if not self.training: # inference
if self.onnx_dynamic or self.grid[i].shape[2:4] != x[i].shape[2:4]:
self.grid[i], self.anchor_grid[i] = self._make_grid(nx, ny, i)
y = x[i].sigmoid()
if self.inplace:
y[..., 0:2] = (y[..., 0:2] * 2 - 0.5 + self.grid[i]) * self.stride[i] # xy
y[..., 2:4] = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i] # wh
else: # for YOLOv5 on AWS Inferentia https://github.com/ultralytics/yolov5/pull/2953
xy = (y[..., 0:2] * 2 - 0.5 + self.grid[i]) * self.stride[i] # xy
wh = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i] # wh
y = torch.cat((xy, wh, y[..., 4:]), -1)
z.append(y.view(bs, -1, self.no))
return x if self.training else (torch.cat(z, 1), x)
def _make_grid(self, nx=20, ny=20, i=0):
d = self.anchors[i].device
if check_version(torch.__version__, '1.10.0'): # torch>=1.10.0 meshgrid workaround for torch>=0.7 compatibility
yv, xv = torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)], indexing='ij')
else:
yv, xv = torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)])
grid = torch.stack((xv, yv), 2).expand((1, self.na, ny, nx, 2)).float()
anchor_grid = (self.anchors[i].clone() * self.stride[i]) \
.view((1, self.na, 1, 1, 2)).expand((1, self.na, ny, nx, 2)).float()
return grid, anchor_grid
垃圾分类智能监控摄像头系统的优势在于智能化和高效性。垃圾分类智能监控摄像头通过神经网络人工智能视觉算法技术的应用,系统能够高精度地识别垃圾分类违规投放行为,有效降低错误报警和误报率。同时,垃圾分类智能监控摄像头将预警数据推送到后端管理平台或管理人员手机 APP,方便管理人员对违规情况进行监管和处理,提升垃圾分类的监管效率和质量。垃圾分类智能监控摄像头致力于为城市垃圾分类管理提供更智能、高效的解决方案,共同推动绿色环保事业的发展。