欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

[Faster-Rcnn]培训和测试

最编程 2024-09-30 21:42:52
...


Blog’s 主页: 白乐天_ξ( ✿>◡❛)
???? 个人Motto:他强任他强,清风拂山冈!
???? 欢迎来到我的学习笔记!

1.提前准备

1.1. mobaxterm(远程连接服务器)

链接:https://mobaxterm.mobatek.net/download-home-edition.html

1.2. 本文源码下载

点击下载源码

2.经典目标检测模型 Faster-Rcnn

2.1.创建实例

在这里插入图片描述

在这里插入图片描述

  1. 接下来配置数据硬盘的大小。每个实例默认附带了50GB的数据硬盘,首次创建可以就选择默认大小50GB。

注意: 如果您通过官方预制方式下载模型,建议扩容至60GB。

  1. 继续选择安装的镜像,选择PyTorch 2.4.0。

  1. 为保证安全登录,创建密钥对,输入自定义的名称,然后选择自动创建并将创建好的私钥保存的自己电脑中并将后缀改为.pem,以便后续本地连接使用。


  1. 创建好密钥对后,选择刚刚创建好的密钥对,并点击立即创建,等待一段时间后即可启动成功!

例如我创建的时“BaiLetian”。

点击立即创建:

2.2.登录服务器

  1. 实例创建完成后,复制访问链接:
ssh -p 39763 root@cn-north-b.ssh.damodel.com

  1. 打开安装好的MobaXterm

  1. 选择 SSH 远程登录,并使用下载的私钥进行免密登录。点击ok

  1. 输入root回车进行登录。

2.3.配置Faster-RCNN

  1. 上传与解压代码
  • 将下载的源码文件上传至服务器的/root/workspace/目录;
  • 使用如下命令解压文件:
unzip mmdetection-3.3.0.zip
  1. 安装依赖库
  • 接下来安装Faster-RCNN的环境,需要使用的命令:
# 安装mmcv包
pip install mmcv==2.1.0 -f https://download.openmmlab.com/mmcv/dist/cu121/torch2.1/index.html -i https://mirrors.aliyun.com/pypi/simple/

# 从源码安装mmdetection-3.3.0
cd mmdetection-3.3.0
pip install -r requirements/build.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
pip install -v -e ./ -i https://pypi.tuna.tsinghua.edu.cn/simple/

# 安装必要包
pip install numpy==1.24.4 -i https://pypi.tuna.tsinghua.edu.cn/simple/
pip install setuptools==69.5.1 -i https://pypi.tuna.tsinghua.edu.cn/simple/
pip install instaboostfast -i https://pypi.tuna.tsinghua.edu.cn/simple/

# 安装全景分割依赖panopticapi
cd panopticapi
pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple/
cd ..

# 安装 LVIS 数据集依赖
cd lvis-api
pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple/
cd ..

# 安装 albumentations 依赖
pip install -r requirements/albu.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
pip install mmengine -i https://pypi.tuna.tsinghua.edu.cn/simple/

  1. 环境安装完毕,进行测试:
# 环境安装完毕
# 测试一下
python 1.py

2.4.数据集简介

COCOmini 数据集是一个用于各种计算机视觉任务的数据集,包括但不限于目标检测、实例分割、关键点检测、和图像分类。

特点与组成部分:

  • 多标签:不同于单一标签的数据集,COCO 中的图像通常包含多个不同的对象类别,这使得它非常适合上下文理解的研究。
  • 多样性和复杂性:图像涵盖了广泛的生活场景,从室内到室外,从城市到自然环境,提供了丰富的视觉多样性。
  • 详尽的注释:每个对象实例都有精确的边界框和分割掩码,以及关键点注释对于人体类别的对象。
  • 80 个对象类别:COCO 包含了 80 种常见的物体类别,如人、动物、交通工具、家具等。

2.5.测试数据并保存

  • 经过训练得到pth权重后,可使用该权重预测数据集。输入命令python tools/test.py./checkpoints/faster-rcnn_r50_fpn_1x_coco.py./checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth --show-dir /root/workspace/mmdetection-3.3.0/result/进行预测,左侧为真实物体的位置,右侧为预测结果。

测试结果展示:
在这里插入图片描述

2.6.保存实验数据与下载

  • 前往控制台 - GPU 云实例,保存镜像,以便下次使用时省去配置环境的过程。

3.总结提炼

  • 提供经典目标检测模型的实践经验,助力技术学习。
  • 利用云服务器加速模型训练与测试。
  • 借助特定数据集进行数据处理与分析。
  • 保存镜像方便下次使用,提高实验效率。