智慧工地检测数据集,基础生产要素篇,采用voc标注(可提供yolo方式标注),无人机,监控摄像,手持拍照等方式,对工地中工人、材料、机器和环境等共计15类对象类别(分别为人,板,砖,切割机,挂钩,反光背心,木头,脚手架,电箱,护栏,安全帽,钢筋,手推车,漏斗,宣传横幅标语)进行标注。从多个建筑工地收集了超过20,000张图像,涵盖了不同情况、天气条件和建设阶段,覆盖了不同的角度和视角。共24GB数据量
- 智慧工地检测数据集(基础生产要素篇)
- 规模:超过20,000张图像,数据量约24GB
- 类别:15类检测目标
- 人
- 板
- 砖
- 切割机
- 挂钩
- 反光背心
- 木头
- 脚手架
- 电箱
- 护栏
- 安全帽
- 钢筋
- 手推车
- 漏斗
- 宣传横幅标语
- 标注格式:支持VOC格式标注,同时提供YOLO格式标注
数据集特点
- 高质量影像:所有图像均为高分辨率的图像,适合用于精确的目标检测。
- 详细标注:每张图像都有详细的边界框标注,采用VOC和YOLO格式。这些标注可以用于训练模型来识别工地中的工人、材料、机器和环境等。
- 多样性:包含多种环境下拍摄的图像,如不同的建筑工地、不同的天气条件、不同的建设阶段等,适用于各种应用场景。
- 广泛适用性:支持多种深度学习框架,特别是VOC和YOLO系列模型。
数据集统计
目标类别 | 图片张数 | 标注个数 |
---|---|---|
人 | ||
板 | ||
砖 | ||
切割机 | ||
挂钩 | ||
反光背心 | ||
木头 | ||
脚手架 | ||
电箱 | ||
护栏 | ||
安全帽 | ||
钢筋 | ||
手推车 | ||
漏斗 | ||
宣传横幅标语 | ||
总计 | >20,000 |
数据集结构
ConstructionSiteDetectionDataset/
├── images/ # 图像文件
│ ├── train/ # 训练集图像
│ │ ├── image_00001.jpg
│ │ ├── image_00002.jpg
│ │ └── ...
│ ├── val/ # 验证集图像
│ │ ├── image_00001.jpg
│ │ ├── image_00002.jpg
│ │ └── ...
│ └── test/ # 测试集图像
│ ├── image_00001.jpg
│ ├── image_00002.jpg
│ └── ...
├── annotations/ # VOC格式标签
│ ├── train/ # 训练集标签
│ │ ├── image_00001.xml
│ │ ├── image_00002.xml
│ │ └── ...
│ ├── val/ # 验证集标签
│ │ ├── image_00001.xml
│ │ ├── image_00002.xml
│ │ └── ...
│ └── test/ # 测试集标签
│ ├── image_00001.xml
│ ├── image_00002.xml
│ └── ...
├── labels/ # YOLO格式标签
│ ├── train/ # 训练集标签
│ │ ├── image_00001.txt
│ │ ├── image_00002.txt
│ │ └── ...
│ ├── val/ # 验证集标签
│ │ ├── image_00001.txt
│ │ ├── image_00002.txt
│ │ └── ...
│ └── test/ # 测试集标签
│ ├── image_00001.txt
│ ├── image_00002.txt
│ └── ...
└── data.yaml # 数据配置文件
标注格式示例
每行表示一个物体的边界框和类别:
YOLO格式
class_id cx cy w h
class_id
:类别ID(从0开始编号)- 0:
人
- 1:
板
- 2:
砖
- 3:
切割机
- 4:
挂钩
- 5:
反光背心
- 6:
木头
- 7:
脚手架
- 8:
电箱
- 9:
护栏
- 10:
安全帽
- 11:
钢筋
- 12:
手推车
- 13:
漏斗
- 14:
宣传横幅标语
- 0:
cx
:目标框中心点x坐标 / 图像宽度。cy
:目标框中心点y坐标 / 图像高度。w
:目标框宽度 / 图像宽度。h
:目标框高度 / 图像高度。
例如:
0 0.453646 0.623148 0.234375 0.461111
VOC格式
<annotation>
<folder>train</folder>
<filename>image_00001.jpg</filename>
<path>/path/to/dataset/train/image_00001.jpg</path>
<source>
<database>Unknown</database>
</source>
<size>
<width>640</width>
<height>480</height>
<depth>3</depth>
</size>
<segmented>0</segmented>
<object>
<name>人</name>
<pose>Unspecified</pose>
<truncated>0</truncated>
<difficult>0</difficult>
<bndbox>
<xmin>100</xmin>
<ymin>200</ymin>
<xmax>300</xmax>
<ymax>400</ymax>
</bndbox>
</object>
<!-- 更多对象 -->
</annotation>
使用该数据集进行模型训练
1. 数据预处理与加载
首先,我们需要加载数据并将其转换为适合YOLOv5等模型使用的格式。假设你已经安装了PyTorch和YOLOv5。
import os
from PIL import Image
import torch
from torch.utils.data import Dataset, DataLoader
from torchvision import transforms
class ConstructionSiteDetectionDataset(Dataset):
def __init__(self, image_dir, label_dir, transform=None):
self.image_dir = image_dir
self.label_dir = label_dir
self.transform = transform
self.image_files = [f for f in os.listdir(image_dir) if f.endswith('.jpg')]
def __len__(self):
return len(self.image_files)
def __getitem__(self, idx):
img_name = self.image_files[idx]
img_path = os.path.join(self.image_dir, img_name)
label_path = os.path.join(self.label_dir, img_name.replace('.jpg', '.txt'))
# 加载图像
image = Image.open(img_path).convert('RGB')
if self.transform:
image = self.transform(image)
# 加载标注
with open(label_path, 'r') as f:
lines = f.readlines()
boxes = []
labels = []
for line in lines:
class_id, cx, cy, w, h = map(float, line.strip().split())
boxes.append([cx, cy, w, h])
labels.append(int(class_id))
boxes = torch.tensor(boxes, dtype=torch.float32)
labels = torch.tensor(labels, dtype=torch.int64)
return image, boxes, labels
# 数据增强
transform = transforms.Compose([
transforms.Resize((640, 640)),
transforms.ToTensor(),
])
# 创建数据集
train_dataset = ConstructionSiteDetectionDataset(image_dir='ConstructionSiteDetectionDataset/images/train/', label_dir='ConstructionSiteDetectionDataset/labels/train/', transform=transform)
val_dataset = ConstructionSiteDetectionDataset(image_dir='ConstructionSiteDetectionDataset/images/val/', label_dir='ConstructionSiteDetectionDataset/labels/val/', transform=transform)
test_dataset = ConstructionSiteDetectionDataset(image_dir='ConstructionSiteDetectionDataset/images/test/', label_dir='ConstructionSiteDetectionDataset/labels/test/', transform=transform)
train_loader = DataLoader(train_dataset, batch_size=4, shuffle=True, num_workers=4)
val_loader = DataLoader(val_dataset, batch_size=4, shuffle=False, num_workers=4)
test_loader = DataLoader(test_dataset, batch_size=4, shuffle=False, num_workers=4)
2. 构建模型
我们可以使用YOLOv5模型进行目标检测任务。假设你已经克隆了YOLOv5仓库,并按照其文档进行了环境设置。
git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt
创建数据配置文件 data/construction_site_detection.yaml
:
train: path/to/ConstructionSiteDetectionDataset/images/train
val: path/to/ConstructionSiteDetectionDataset/images/val
test: path/to/ConstructionSiteDetectionDataset/images/test
nc: 15 # 类别数
names: ['人', '板', '砖', '切割机', '挂钩', '反光背心', '木头', '脚手架', '电箱', '护栏', '安全帽', '钢筋', '手推车', '漏斗', '宣传横幅标语']
3. 训练模型
使用YOLOv5进行训练。
python train.py --img 640 --batch 16 --epochs 100 --data data/construction_site_detection.yaml --weights yolov5s.pt --cache
4. 评估模型
在验证集上评估模型性能。
python val.py --img 640 --batch 16 --data data/construction_site_detection.yaml --weights runs/train/exp/weights/best.pt --task test
5. 推理
使用训练好的模型进行推理。
python detect.py --source path/to/test/image.jpg --weights runs/train/exp/weights/best.pt --conf 0.5
实验报告
实验报告应包括以下内容:
- 项目简介:简要描述项目的背景、目标和意义。
- 数据集介绍:详细介绍数据集的来源、规模、标注格式等。
- 模型选择与配置:说明选择的模型及其配置参数。
- 训练过程:记录训练过程中的损失变化、学习率调整等。
- 评估结果:展示模型在验证集上的性能指标(如mAP、准确率)。
- 可视化结果:提供一些典型样本的检测结果可视化图。
- 结论与讨论:总结实验结果,讨论可能的改进方向。
- 附录:包含代码片段、图表等补充材料。
依赖库
确保安装了以下依赖库:
pip install torch torchvision
pip install -r yolov5/requirements.txt
总结
这个智慧工地检测数据集提供了丰富的标注数据,非常适合用于训练和评估目标检测模型。通过YOLOv5框架,可以方便地构建和训练高性能的目标检测模型。实验报告可以帮助你更好地理解和分析模型的表现,并为进一步的研究提供参考。
标签:--,image,ConstructionSiteDetectionDataset,self,train,集之,数据,工地,dir From: https://blog.csdn.net/2401_88441190/article/details/143234415