代码编织梦想

在这里插入图片描述

环境搭建

代码地址:https://github.com/TexasInstruments/edgeai-mmdetection
先下载代码到本地,或者终端git clone https://github.com/TexasInstruments/edgeai-mmdetection.git
上面完成后。

1.需创建虚拟环境:

如:conda create --name mmdet python==3.7

2 运行设置环境代码

conda activate mmdet  (上述环境名字)

在终端 根目录运行 ./setup.sh文件
完成上述后会生成"mmdet" 文件夹

3 重点配置

并在完成后最后一行提醒你 上述库依torchvision包接下来你要键入git clone https://github.com/TexasInstruments/edgeai-torchvision.git
完成后会在文件夹出现edgeai-torchvision

4 安装所有依赖库

cd 进入torchvision文件夹

继续运行 ./setup.sh文件

至此所有的依赖库安装完毕

5 训练自己的数据集

1.需要将你的数据弄成VOC格式或者coco格式

2.将数据放在data/VOCdevkit/下,如下图所示

该

6 更改配置文件

1.修改mmdetection/mmdet/datasets/voc.py中
CLASSES = ('cat1', 'dog', 'pig') 换成你的标签名。
2.修改mmdetection/mmdet/core/evaluation/class_names.py
将类别换成

def voc_classes():
    return [
        'cat1', 'dog', 'pig' 
    ]
    #改类别

3.tools/train.py
修改cfg.gpu_ids 来更改自己所要用到的GPU个数和id

4.tools/train.py
133行修改权重保存路径

4.scripts/train_detection_main.py
修改 distribute=0 或者1,来选择是否分布式训练,训练报错时 选为0会有可能解决BUG
修改dataset_style=“voc” 或者“coco”

5.在config/edgeai/ssd/ssd_mobilenet_fpn_lite.py
修改 num_classes

6.config/edgeai/ssd/xbase
修改epoch和打印信息 以及多少epoch保存一次权重等

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/ALiLiLiYa/article/details/128008149

【mmdetection】使用自定义的coco格式数据集进行训练及测试_yee_ko的博客-爱代码爱编程

目录 一、mmdetection简介二、环境安装1、安装教程2、运行demo测试环境是否安装成功 三、训练自定义的dataset1、准备dataset2、Training前修改相关文件3、Training 四

mmdetection之cascade-爱代码爱编程

我们在使用mmdetection中神经网络训练自己的数据集时,工具中大部分的网络模型要求使用的数据格式要同COCO,COCO数据集的标注文件是json的格式,但是我们自己标注的annotation文件多是xml文件。接下来我将介绍如何用mmdetection训练自己标注的数据集。 一、mmdetection的安装(目前官方只支持Linux系统安装) 1

mmdetection环境搭建以及使用自己的数据集测试-爱代码爱编程

一、环境 ubuntu 18.04 cuda 10.1 pytorch 1.6 二、安装mmcv 安装mmcv-full。mmdetection依赖于mmcv,并且要安装pytorch对应的版本,就像torchvision一样,各版本下载链接在https://openmmlab.oss-accelerate.aliyuncs.com/mmcv/dist/

用MMdetection训练测试自己的voc数据集-爱代码爱编程

1. 数据准备 (供个人学习,侵删) 将准备好的voc数据集按照以下路径存放 mmdetection ├── mmdet ├── tools ├── configs ├── data │ ├── VOCdevkit │ │ ├── VOC2007 │ │ │ ├── Annotations │ │ │ ├── JPEGImages │ │ │ ├── I

【mmdetection】使用cascade-rcnn、faster-rcnn训练自定义的coco数据集-爱代码爱编程

目录 一.开始二.配置训练环境1.创建虚拟环境、激活环境2.下载pytroch、torchvision、cudatoolkit3.下载mmcv-full4.下载mmdetection5.下载mmdetection需求包6.下载mmdet三.验证环境是否安装完所有依赖包1.下载预训练模型2.运行demo命令验证3.运行结果四.训练自己的模型1.制作c

MMdetection环境搭建(win10)-爱代码爱编程

一、 创建虚拟环境 这里创建python3.7环境 二、安装torch及cudatoolkit 进入torch官网,找到需要的torch及cuda(torch官网已经搭配并打包一起,后续不用设置环境变量,激活环境直接用即可) 找到以前版本,这里安装torch1.8.0和cuda11.1版本(后续安装mmcv需要对应) 复制这条命令

MMdetection3d环境搭建和使用避坑记录-爱代码爱编程

MMdetection3d环境搭建和使用避坑记录 官方github:https://github.com/open-mmlab/mmdetection3d 官方文档:https://mmdetection3d.readthedocs.io/ 本文以在MMdetection3d平台简单训练和测试pointpillars为例,推荐一套不容易报错的一条龙配

MMDetection训练自己的数据集过程-爱代码爱编程

接着前一篇MMDetection亲测安装教程,安装好后就来尝试训练自己的数据集吧,以训练 RetinaNet 模型为例说明。 1. 准备数据集 本文采用VOC格式训练,在 mmdetection 项目中新建data文件夹,按如下组织形式存放自己的数据。 ./data └── VOCdevkit   └── VOC2007     ├── Ann

mmdetection: yolox训练自己的voc数据集_小屋*的博客-爱代码爱编程

目录 1.数据集准备2.创建环境3.修改配置参数4.训练5.测试6.可视化 本次使用的mmdetection版本为: 1.数据集准备 VOC数据集格式 Annotations 存放所有xml标签,JPEGImages存放所有图像,ImageSet用来划分数据集。 xml文件示例: 在data目录下新建train_val.py: impo

【mmdetection3d】环境搭建,使用pointpillers训练&测试&可视化kitti数据集_kitti立体匹配数据集如何测试-爱代码爱编程

文章目录 前言3D目标检测概述KITTI数据集简介MMDetection3D环境搭建数据集准备训练测试及可视化绘制损失函数曲线 参考资料 前言 2D卷不动了,来卷3D,之后更多地工作会放到3D

mmdetection从配置到训练_openmim-爱代码爱编程

一、什么是mmdetection 商汤科技(2018 COCO 目标检测挑战赛冠军)和香港中文大学最近开源了一个基于Pytorch实现的深度学习目标检测工具箱mmdetection,支持Faster-RCNN,Mask-R