.\YOLO-World\configs\deploy\detection_onnxruntime-fp16_dynamic.py
# 设置基础路径为指定的配置文件路径
_base_ = (
'../../third_party/mmdeploy/configs/mmdet/detection/'
'detection_onnxruntime-fp16_dynamic.py')
# 定义代码库配置,包括模型类型、任务类型、后处理参数等
codebase_config = dict(
type='mmyolo',
task='ObjectDetection',
model_type='end2end',
post_processing=dict(
score_threshold=0.1,
confidence_threshold=0.005,
iou_threshold=0.3,
max_output_boxes_per_class=100,
pre_top_k=1000,
keep_top_k=100,
background_label_id=-1),
module=['mmyolo.deploy'])
# 定义后端配置,使用onnxruntime作为后端
backend_config = dict(
type='onnxruntime')
.\YOLO-World\configs\deploy\detection_onnxruntime-int8_dynamic.py
# 设置基础路径为指定的配置文件路径
_base_ = (
'../../third_party/mmdeploy/configs/mmdet/detection/'
'detection_onnxruntime-fp16_dynamic.py')
# 定义后端配置,设置精度为int8
backend_config = dict(
precision='int8')
# 定义代码库配置,包括模型类型、任务类型、后处理参数等
codebase_config = dict(
type='mmyolo',
task='ObjectDetection',
model_type='end2end',
post_processing=dict(
score_threshold=0.1,
confidence_threshold=0.005,
iou_threshold=0.3,
max_output_boxes_per_class=100,
pre_top_k=1000,
keep_top_k=100,
background_label_id=-1),
module=['mmyolo.deploy'])
# 重新定义后端配置,设置类型为onnxruntime
backend_config = dict(
type='onnxruntime')
.\YOLO-World\configs\deploy\detection_onnxruntime_static.py
# 设置基础路径为指定的配置文件路径
_base_ = (
'../../third_party/mmyolo/configs/deploy/'
'detection_onnxruntime_static.py')
# 定义代码库配置,包括类型、任务、模型类型和后处理参数
codebase_config = dict(
type='mmyolo',
task='ObjectDetection',
model_type='end2end',
post_processing=dict(
score_threshold=0.25,
confidence_threshold=0.005,
iou_threshold=0.65,
max_output_boxes_per_class=200,
pre_top_k=1000,
keep_top_k=100,
background_label_id=-1),
module=['mmyolo.deploy'])
# 定义后端配置,类型为onnxruntime
backend_config = dict(
type='onnxruntime')
.\YOLO-World\configs\deploy\detection_tensorrt-fp16_static-640x640.py
_base_ = (
'../../third_party/mmyolo/configs/deploy/'
'detection_tensorrt-fp16_static-640x640.py')
# 设置基础配置文件路径
onnx_config = dict(
type='onnx',
export_params=True,
keep_initializers_as_inputs=False,
opset_version=11,
save_file='end2end.onnx',
input_names=['input'],
output_names=['dets', 'labels'],
input_shape=(640, 640),
optimize=True)
# 设置 ONNX 配置参数,包括类型、是否导出参数、是否保留初始化器作为输入、操作集版本、保存文件名、输入输出名称、输入形状、是否优化
backend_config = dict(
type='tensorrt',
common_config=dict(fp16_mode=True, max_workspace_size=1 << 34),
model_inputs=[
dict(
input_shapes=dict(
input=dict(
min_shape=[1, 3, 640, 640],
opt_shape=[1, 3, 640, 640],
max_shape=[1, 3, 640, 640])))
])
# 设置后端配置参数,包括类型、通用配置、模型输入
use_efficientnms = False # whether to replace TRTBatchedNMS plugin with EfficientNMS plugin # noqa E501
# 是否使用 EfficientNMS 插件替换 TRTBatchedNMS 插件
codebase_config = dict(
type='mmyolo',
task='ObjectDetection',
model_type='end2end',
post_processing=dict(
score_threshold=0.25,
confidence_threshold=0.005,
iou_threshold=0.65,
max_output_boxes_per_class=100,
pre_top_k=1,
keep_top_k=1,
background_label_id=-1),
module=['mmyolo.deploy'])
# 设置代码库配置参数,包括类型、任务、模型类型、后处理参数、模块
.\YOLO-World\configs\deploy\detection_tensorrt-int8_static-640x640.py
_base_ = [
'../../third_party/mmdeploy/configs/mmdet/_base_/base_static.py', # 定义基础配置文件路径
'../../third_party/mmdeploy/configs/_base_/backends/tensorrt-int8.py'] # 定义后端配置文件路径
onnx_config = dict(input_shape=(640, 640)) # 定义输入形状配置
backend_config = dict( # 定义后端配置
common_config=dict(max_workspace_size=1 << 30), # 定义通用配置,设置最大工作空间大小
model_inputs=[ # 定义模型输入配置
dict( # 第一个模型输入配置
input_shapes=dict( # 定义输入形状
input=dict( # 输入名称为input
min_shape=[1, 3, 640, 640], # 最小形状
opt_shape=[1, 3, 640, 640], # 最佳形状
max_shape=[1, 3, 640, 640]))) # 最大形状
])
codebase_config = dict( # 定义代码库配置
type='mmyolo', # 模型类型为mmyolo
task='ObjectDetection', # 任务为目标检测
model_type='end2end', # 模型类型为端到端
post_processing=dict( # 后处理配置
score_threshold=0.1, # 分数阈值
confidence_threshold=0.005, # 置信度阈值
iou_threshold=0.3, # IoU阈值
max_output_boxes_per_class=100, # 每类最大输出框数
pre_top_k=1000, # 预选框数
keep_top_k=100, # 保留框数
background_label_id=-1), # 背景标签ID
module=['mmyolo.deploy']) # 模块为mmyolo.deploy
.\YOLO-World\configs\finetune_coco\yolo_world_l_dual_vlpan_2e-4_80e_8gpus_finetune_coco.py
_base_ = (
'../../third_party/mmyolo/configs/yolov8/'
'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 定义自定义的导入模块和设置是否允许导入失败
custom_imports = dict(
imports=['yolo_world'],
allow_failed_imports=False)
# 超参数设置
num_classes = 80
num_training_classes = 80
max_epochs = 80 # 最大训练轮数
close_mosaic_epochs = 10
save_epoch_intervals = 5
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-4
weight_decay = 0.05
train_batch_size_per_gpu = 16
load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'
persistent_workers = False
# 模型设置
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldDualPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
text_enhancder=dict(type='ImagePoolingAttentionModule',
embed_channels=256,
num_heads=8)),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 数据集设置
text_transform = [
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义一个包含多个元素的列表,每个元素是一个字典,用于进行仿射变换
mosaic_affine_transform = [
dict(
type='MultiModalMosaic',
img_scale=_base_.img_scale,
pad_val=114.0,
pre_transform=_base_.pre_transform),
dict(
type='YOLOv5RandomAffine',
max_rotate_degree=0.0,
max_shear_degree=0.0,
max_aspect_ratio=100.,
scaling_ratio_range=(1 - _base_.affine_scale,
1 + _base_.affine_scale),
# img_scale is (width, height)
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
border_val=(114, 114, 114))
]
# 定义训练数据处理流程的列表
train_pipeline = [
*_base_.pre_transform,
*mosaic_affine_transform,
dict(
type='YOLOv5MultiModalMixUp',
prob=_base_.mixup_prob,
pre_transform=[*_base_.pre_transform,
*mosaic_affine_transform]),
*_base_.last_transform[:-1],
*text_transform
]
# 定义第二阶段训练数据处理流程的列表
train_pipeline_stage2 = [
*_base_.train_pipeline_stage2[:-1],
*text_transform
]
# 定义 COCO 训练数据集的配置字典
coco_train_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(
type='YOLOv5CocoDataset',
data_root='data/coco',
ann_file='annotations/instances_train2017.json',
data_prefix=dict(img='train2017/'),
filter_cfg=dict(filter_empty_gt=False, min_size=32)),
class_text_path='data/texts/coco_class_texts.json',
pipeline=train_pipeline)
# 定义训练数据加载器的配置字典
train_dataloader = dict(
persistent_workers=persistent_workers,
batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=coco_train_dataset)
# 定义测试数据处理流程的列表
test_pipeline = [
*_base_.test_pipeline[:-1],
dict(type='LoadText'),
dict(
type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
]
# 定义 COCO 验证数据集的配置字典
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
# 定义数据集参数,指定数据集类型为YOLOv5CocoDataset
dataset=dict(
type='YOLOv5CocoDataset',
# 数据集根目录
data_root='data/coco',
# 标注文件路径
ann_file='annotations/instances_val2017.json',
# 数据前缀,包含图片路径
data_prefix=dict(img='val2017/'),
# 过滤配置,设置不过滤空的ground truth,最小尺寸为32
filter_cfg=dict(filter_empty_gt=False, min_size=32)),
# 类别文本路径
class_text_path='data/texts/coco_class_texts.json',
# 测试数据处理管道
pipeline=test_pipeline)
# 创建验证数据加载器,使用 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将验证数据加载器赋值给测试数据加载器
test_dataloader = val_dataloader
# 训练设置
# 默认钩子函数设置
default_hooks = dict(
param_scheduler=dict(
scheduler_type='linear',
lr_factor=0.01,
max_epochs=max_epochs),
checkpoint=dict(
max_keep_ckpts=-1,
save_best=None,
interval=save_epoch_intervals))
# 自定义钩子函数设置
custom_hooks = [
dict(
type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
dict(
type='mmdet.PipelineSwitchHook',
switch_epoch=max_epochs - close_mosaic_epochs,
switch_pipeline=train_pipeline_stage2)
]
# 训练配置设置
train_cfg = dict(
max_epochs=max_epochs,
val_interval=5,
dynamic_intervals=[((max_epochs - close_mosaic_epochs),
_base_.val_interval_stage2)])
# 优化器包装器设置
optim_wrapper = dict(
optimizer=dict(
_delete_=True,
type='AdamW',
lr=base_lr,
weight_decay=weight_decay,
batch_size_per_gpu=train_batch_size_per_gpu),
paramwise_cfg=dict(
bias_decay_mult=0.0,
norm_decay_mult=0.0,
custom_keys={'backbone.text_model': dict(lr_mult=0.01),
'logit_scale': dict(weight_decay=0.0)}),
constructor='YOLOWv5OptimizerConstructor')
# 评估设置
# 验证评估器设置
val_evaluator = dict(
_delete_=True,
type='mmdet.CocoMetric',
proposal_nums=(100, 1, 10),
ann_file='data/coco/annotations/instances_val2017.json',
metric='bbox')
.\YOLO-World\configs\finetune_coco\yolo_world_l_dual_vlpan_2e-4_80e_8gpus_mask-refine_finetune_coco.py
_base_ = (
'../../third_party/mmyolo/configs/yolov8/'
'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(
imports=['yolo_world'],
allow_failed_imports=False)
# 定义超参数
num_classes = 80 # 类别数
num_training_classes = 80 # 训练类别数
max_epochs = 80 # 最大训练轮数
close_mosaic_epochs = 10 # 关闭镶嵌的轮数
save_epoch_intervals = 5 # 保存模型的间隔
text_channels = 512 # 文本通道数
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2] # 颈部嵌入通道数
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32] # 颈部头数
base_lr = 2e-4 # 基础学习率
weight_decay = 0.05 # 权重衰减
train_batch_size_per_gpu = 16 # 每个 GPU 的训练批次大小
load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth' # 加载预训练模型路径
persistent_workers = False # 持久化工作进程
# 模型设置
model = dict(
type='YOLOWorldDetector', # 模型类型
mm_neck=True, # 多模态颈部
num_train_classes=num_training_classes, # 训练类别数
num_test_classes=num_classes, # 测试类别数
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'), # 数据预处理器
backbone=dict(
_delete_=True, # 删除原有的设置
type='MultiModalYOLOBackbone', # 多模态 YOLO 骨干网络
image_model={{_base_.model.backbone}}, # 图像模型
text_model=dict(
type='HuggingCLIPLanguageBackbone', # 文本模型
model_name='openai/clip-vit-base-patch32', # 模型名称
frozen_modules=['all'])), # 冻结模块
neck=dict(type='YOLOWorldDualPAFPN', # 颈部设置
guide_channels=text_channels, # 引导通道数
embed_channels=neck_embed_channels, # 嵌入通道数
num_heads=neck_num_heads, # 头数
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'), # 块配置
text_enhancder=dict(type='ImagePoolingAttentionModule', # 文本增强器
embed_channels=256, # 嵌入通道数
num_heads=8)), # 头数
bbox_head=dict(type='YOLOWorldHead', # 边界框头部设置
head_module=dict(type='YOLOWorldHeadModule', # 头部模块设置
embed_dims=text_channels, # 嵌入维度
num_classes=num_training_classes)), # 训练类别数
train_cfg=dict(assigner=dict(num_classes=num_training_classes))) # 训练配置
# 数据集设置
# 定义文本转换器,包含随机加载文本和打包检测输入两个步骤
text_transform = [
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
]
# 定义马赛克仿射变换器,包含多模态马赛克、YOLOv5复制粘贴和YOLOv5随机仿射三个步骤
mosaic_affine_transform = [
dict(
type='MultiModalMosaic',
img_scale=_base_.img_scale,
pad_val=114.0,
pre_transform=_base_.pre_transform),
dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
dict(
type='YOLOv5RandomAffine',
max_rotate_degree=0.0,
max_shear_degree=0.0,
max_aspect_ratio=100.,
scaling_ratio_range=(1 - _base_.affine_scale,
1 + _base_.affine_scale),
# img_scale is (width, height)
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
border_val=(114, 114, 114),
min_area_ratio=_base_.min_area_ratio,
use_mask_refine=_base_.use_mask2refine)
]
# 定义训练管道,包含基础预处理、马赛克仿射变换、YOLOv5多模态混合等步骤
train_pipeline = [
*_base_.pre_transform,
*mosaic_affine_transform,
dict(
type='YOLOv5MultiModalMixUp',
prob=_base_.mixup_prob,
pre_transform=[*_base_.pre_transform,
*mosaic_affine_transform]),
*_base_.last_transform[:-1],
*text_transform
]
# 定义第二阶段训练管道,包含文本转换器
train_pipeline_stage2 = [
*_base_.train_pipeline_stage2[:-1],
*text_transform
]
# 定义COCO训练数据集,包含多模态数据集和管道
coco_train_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(
type='YOLOv5CocoDataset',
data_root='data/coco',
ann_file='annotations/instances_train2017.json',
data_prefix=dict(img='train2017/'),
filter_cfg=dict(filter_empty_gt=False, min_size=32)),
class_text_path='data/texts/coco_class_texts.json',
pipeline=train_pipeline)
# 定义训练数据加载器,包含持久化工作进程设置
train_dataloader = dict(
persistent_workers=persistent_workers,
# 设置每个 GPU 的训练批量大小
batch_size=train_batch_size_per_gpu,
# 设置数据集的拼接函数为 yolow_collate
collate_fn=dict(type='yolow_collate'),
# 设置数据集为 coco_train_dataset
dataset=coco_train_dataset)
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
*_base_.test_pipeline[:-1], # 复制基础测试数据处理流程,去掉最后一个元素
dict(type='LoadText'), # 加载文本数据
dict(
type='mmdet.PackDetInputs', # 打包检测输入数据
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts')) # 指定元数据的键值
]
# 定义 COCO 验证数据集,包括数据集信息、类别文本路径和数据处理流程
coco_val_dataset = dict(
_delete_=True, # 删除原有的数据集配置
type='MultiModalDataset', # 多模态数据集类型
dataset=dict(
type='YOLOv5CocoDataset', # 使用 YOLOv5 格式的 COCO 数据集
data_root='data/coco', # 数据根目录
ann_file='annotations/instances_val2017.json', # 标注文件路径
data_prefix=dict(img='val2017/'), # 图像数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32)), # 数据过滤配置
class_text_path='data/texts/coco_class_texts.json', # 类别文本路径
pipeline=test_pipeline) # 数据处理流程
# 定义验证数据加载器,使用 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 测试数据加载器与验证数据加载器相同
test_dataloader = val_dataloader
# 训练设置
default_hooks = dict(
param_scheduler=dict(
scheduler_type='linear', # 使用线性学习率调度器
lr_factor=0.01, # 学习率因子
max_epochs=max_epochs), # 最大训练轮数
checkpoint=dict(
max_keep_ckpts=-1, # 保留的最大检查点数
save_best=None, # 保存最佳模型的配置
interval=save_epoch_intervals)) # 保存检查点的间隔
custom_hooks = [
dict(
type='EMAHook', # 指数移动平均钩子
ema_type='ExpMomentumEMA', # 指数动量 EMA 类型
momentum=0.0001, # 动量参数
update_buffers=True, # 更新缓冲区
strict_load=False, # 严格加载
priority=49), # 优先级
dict(
type='mmdet.PipelineSwitchHook', # 数据处理流程切换钩子
switch_epoch=max_epochs - close_mosaic_epochs, # 切换数据处理流程的轮数
switch_pipeline=train_pipeline_stage2) # 切换后的数据处理流程
]
train_cfg = dict(
max_epochs=max_epochs, # 最大训练轮数
val_interval=5, # 验证间隔
dynamic_intervals=[((max_epochs - close_mosaic_epochs), _base_.val_interval_stage2)]) # 动态间隔设置
optim_wrapper = dict(
optimizer=dict(
_delete_=True, # 删除原有的优化器配置
type='AdamW', # 使用 AdamW 优化器
lr=base_lr, # 基础学习率
weight_decay=weight_decay, # 权重衰减
batch_size_per_gpu=train_batch_size_per_gpu), # 每个 GPU 的批处理大小
paramwise_cfg=dict(
bias_decay_mult=0.0, # 偏置衰减倍数
norm_decay_mult=0.0, # 归一化层衰减倍数
custom_keys={'backbone.text_model': dict(lr_mult=0.01), # 自定义键值对,指定学习率倍数
'logit_scale': dict(weight_decay=0.0)}), # 自定义键值对,指定权重衰减
constructor='YOLOWv5OptimizerConstructor') # 优化器构造器
# 评估设置
# 创建一个字典,用于配置评估器的参数
val_evaluator = dict(
# 标记是否删除
_delete_=True,
# 评估器类型为 mmdet.CocoMetric
type='mmdet.CocoMetric',
# 提议框数量的元组
proposal_nums=(100, 1, 10),
# COCO 数据集的标注文件路径
ann_file='data/coco/annotations/instances_val2017.json',
# 评估指标为 bbox
metric='bbox')
.\YOLO-World\configs\finetune_coco\yolo_world_l_efficient_neck_2e-4_80e_8gpus_mask-refine_finetune_coco.py
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'], allow_failed_imports=False)
# 定义基础配置文件路径和自定义导入配置
# _base_ 为基础配置文件路径
# custom_imports 为自定义导入配置,包含导入模块和是否允许导入失败
# hyper-parameters
num_classes = 80
num_training_classes = 80
max_epochs = 80 # Maximum training epochs
close_mosaic_epochs = 10
save_epoch_intervals = 5
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-4
weight_decay = 0.05
train_batch_size_per_gpu = 16
load_from = 'pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'
persistent_workers = False
# 定义超参数
# num_classes 为类别数量
# max_epochs 为最大训练轮数
# text_channels 为文本通道数
# neck_embed_channels 为颈部嵌入通道数
# neck_num_heads 为颈部注意力头数
# base_lr 为基础学习率
# weight_decay 为权重衰减
# train_batch_size_per_gpu 为每个 GPU 的训练批量大小
# load_from 为预训练模型路径
# persistent_workers 为是否持久化工作进程
# model settings
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='EfficientCSPLayerWithTwoConv')),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 定义模型设置
# type 为模型类型
# mm_neck 为是否使用多模态颈部
# data_preprocessor 为数据预处理器类型
# backbone 为骨干网络配置
# neck 为颈部网络配置
# bbox_head 为边界框头部配置
# train_cfg 为训练配置
# dataset settings
text_transform = [
# 定义数据集设���
# text_transform 为文本转换器
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义一个包含多个数据增强操作的列表,用于对图像进行仿射变换
mosaic_affine_transform = [
# 多模态镶嵌操作,设置图像缩放、填充值、预处理操作
dict(type='MultiModalMosaic',
img_scale=_base_.img_scale,
pad_val=114.0,
pre_transform=_base_.pre_transform),
# YOLOv5CopyPaste 操作,设置复制粘贴的概率
dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
# YOLOv5RandomAffine 操作,设置随机仿射变换的参数
dict(
type='YOLOv5RandomAffine',
max_rotate_degree=0.0,
max_shear_degree=0.0,
max_aspect_ratio=100.,
scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),
# 图像缩放比例为 (宽度, 高度)
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
border_val=(114, 114, 114),
min_area_ratio=_base_.min_area_ratio,
use_mask_refine=_base_.use_mask2refine)
]
# 训练数据处理流程,包括预处理、仿射变换、MixUp 操作等
train_pipeline = [
*_base_.pre_transform, *mosaic_affine_transform,
# YOLOv5MultiModalMixUp 操作,设置 MixUp 操作的概率和预处理操作
dict(type='YOLOv5MultiModalMixUp',
prob=_base_.mixup_prob,
pre_transform=[*_base_.pre_transform, *mosaic_affine_transform]),
# 最后的数据处理操作,除最后一个元素外,添加文本转换操作
*_base_.last_transform[:-1], *text_transform
]
# 第二阶段训练数据处理流程,除最后一个元素外,添加文本转换操作
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# COCO 训练数据集配置,设置数据集路径、注释文件、类别文本路径和数据处理流程
coco_train_dataset = dict(_delete_=True,
type='MultiModalDataset',
dataset=dict(
type='YOLOv5CocoDataset',
data_root='data/coco',
ann_file='annotations/instances_train2017.json',
data_prefix=dict(img='train2017/'),
filter_cfg=dict(filter_empty_gt=False,
min_size=32)),
class_text_path='data/texts/coco_class_texts.json',
pipeline=train_pipeline)
# 训练数据加载器配置,设置持久化工作进程、每个 GPU 的批处理大小、数据集和数据整理函数
train_dataloader = dict(persistent_workers=persistent_workers,
batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=coco_train_dataset)
# 测试数据处理流程,除最后一个元素外,保持不变
test_pipeline = [
*_base_.test_pipeline[:-1],
# 创建一个字典,指定类型为'LoadText'
dict(type='LoadText'),
# 创建一个字典,指定类型为'mmdet.PackDetInputs',并指定元数据的键值
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
# 以下代码存在语法错误,缺少左括号,需要修复
# 定义 coco_val_dataset 字典,包含数据集信息和数据预处理流程
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(type='YOLOv5CocoDataset',
data_root='data/coco',
ann_file='annotations/instances_val2017.json',
data_prefix=dict(img='val2017/'),
filter_cfg=dict(filter_empty_gt=False, min_size=32)),
class_text_path='data/texts/coco_class_texts.json',
pipeline=test_pipeline)
# 定义 val_dataloader 字典,包含验证数据集信息
val_dataloader = dict(dataset=coco_val_dataset)
# 将验证数据集赋值给测试数据集
test_dataloader = val_dataloader
# 定义默认的训练设置
default_hooks = dict(param_scheduler=dict(scheduler_type='linear',
lr_factor=0.01,
max_epochs=max_epochs),
checkpoint=dict(max_keep_ckpts=-1,
save_best=None,
interval=save_epoch_intervals))
# 定义自定义的训练设置
custom_hooks = [
dict(type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
dict(type='mmdet.PipelineSwitchHook',
switch_epoch=max_epochs - close_mosaic_epochs,
switch_pipeline=train_pipeline_stage2)
]
# 定义训练配置
train_cfg = dict(max_epochs=max_epochs,
val_interval=5,
dynamic_intervals=[((max_epochs - close_mosaic_epochs),
_base_.val_interval_stage2)])
# 定义优化器包装器
optim_wrapper = dict(optimizer=dict(
_delete_=True,
type='AdamW',
lr=base_lr,
weight_decay=weight_decay,
# 设置每个 GPU 的训练批量大小
batch_size_per_gpu=train_batch_size_per_gpu),
# 针对参数进行配置,包括偏置项和归一化项的衰减倍数,以及自定义键值对
paramwise_cfg=dict(bias_decay_mult=0.0,
norm_decay_mult=0.0,
custom_keys={
'backbone.text_model':
dict(lr_mult=0.01),
'logit_scale':
dict(weight_decay=0.0)
}),
# 使用 YOLOWv5 优化器构造函数
constructor='YOLOWv5OptimizerConstructor')
# 定义评估器的设置
val_evaluator = dict(_delete_=True, # 删除原有的评估器设置
type='mmdet.CocoMetric', # 使用 mmdet 库中的 CocoMetric 类
proposal_nums=(100, 1, 10), # 提议框的数量设置
ann_file='data/coco/annotations/instances_val2017.json', # COCO 数据集的标注文件路径
metric='bbox') # 评估指标为边界框(bbox)
.\YOLO-World\configs\pretrain\yolo_world_l_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py
# 设置基础配置文件路径
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 自定义导入模块
custom_imports = dict(imports=['yolo_world'],
allow_failed_imports=False)
# 超参数设置
num_classes = 1203
num_training_classes = 80
max_epochs = 100 # 最大训练轮数
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16
# 模型设置
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldDualPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
text_enhancder=dict(type='ImagePoolingAttentionModule',
embed_channels=256,
num_heads=8)),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 数据集设置
text_transform = [
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
*_base_.pre_transform, # 使用基础预处理操作
dict(type='MultiModalMosaic', # 使用多模态马赛克操作
img_scale=_base_.img_scale, # 图像缩放比例
pad_val=114.0, # 填充值
pre_transform=_base_.pre_transform), # 预处理操作
dict(
type='YOLOv5RandomAffine', # 使用YOLOv5随机仿射变换操作
max_rotate_degree=0.0, # 最大旋转角度
max_shear_degree=0.0, # 最大剪切角度
scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale), # 缩放比例范围
max_aspect_ratio=_base_.max_aspect_ratio, # 最大长宽比
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2), # 边界
border_val=(114, 114, 114)), # 边界填充值
*_base_.last_transform[:-1], # 使用基础最后的转换操作
*text_transform, # 文本转换操作
]
# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
type='MultiModalDataset', # 多模态数据集类型
dataset=dict(
type='YOLOv5Objects365V1Dataset', # 使用YOLOv5 Objects365V1数据集
data_root='data/objects365v1/', # 数据根目录
ann_file='annotations/objects365_train.json', # 标注文件
data_prefix=dict(img='train/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32)), # 过滤配置
class_text_path='data/texts/obj365v1_class_texts.json', # 类别文本路径
pipeline=train_pipeline) # 数据处理管道
# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/mixed_grounding/', # 数据根目录
ann_file='annotations/final_mixed_train_no_coco.json', # 标注文件
data_prefix=dict(img='gqa/images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义flickr训练数据集
flickr_train_dataset = dict(
type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/flickr/', # 数据根目录
ann_file='annotations/final_flickr_separateGT_train.json', # 标注文件
data_prefix=dict(img='full_images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=True, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=dict(_delete_=True,
type='ConcatDataset',
datasets=[
obj365v1_train_dataset,
flickr_train_dataset, mg_train_dataset
],
ignore_keys=['classes', 'palette']))
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
*_base_.test_pipeline[:-1],
dict(type='LoadText'),
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
]
# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(type='YOLOv5LVISV1Dataset',
data_root='data/coco/',
test_mode=True,
ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
data_prefix=dict(img=''),
batch_shapes_cfg=None),
class_text_path='data/texts/lvis_v1_class_texts.json',
pipeline=test_pipeline)
# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader
# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator
# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
checkpoint=dict(interval=save_epoch_intervals,
rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
dict(type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
# 创建一个字典,包含PipelineSwitchHook的相关参数
dict(type='mmdet.PipelineSwitchHook',
# 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
switch_epoch=max_epochs - close_mosaic_epochs,
# 设置切换的pipeline为train_pipeline_stage2
switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs, # 最大训练轮数
val_interval=10, # 验证间隔
dynamic_intervals=[((max_epochs - close_mosaic_epochs), # 动态间隔
_base_.val_interval_stage2)]) # 验证阶段2的间隔设置
# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
_delete_=True, # 删除原有的优化器配置
type='AdamW', # 优化器类型为AdamW
lr=base_lr, # 学习率
weight_decay=weight_decay, # 权重衰减
batch_size_per_gpu=train_batch_size_per_gpu), # 每个GPU的批处理大小
paramwise_cfg=dict(bias_decay_mult=0.0, # 偏置项衰减倍数
norm_decay_mult=0.0, # 归一化层衰减倍数
custom_keys={ # 自定义键值对
'backbone.text_model': # 文本模型的键
dict(lr_mult=0.01), # 学习率倍数
'logit_scale': # 输出层缩放的键
dict(weight_decay=0.0) # 输出层权重衰减
}),
constructor='YOLOWv5OptimizerConstructor') # 构造函数为YOLOWv5OptimizerConstructor
.\YOLO-World\configs\pretrain\yolo_world_l_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_val.py
# 设置基础配置文件路径
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 自定义导入模块
custom_imports = dict(imports=['yolo_world'],
allow_failed_imports=False)
# 超参数设置
num_classes = 1203
num_training_classes = 80
max_epochs = 100 # 最大训练轮数
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16
# 模型设置
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldDualPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
text_enhancder=dict(type='ImagePoolingAttentionModule',
embed_channels=256,
num_heads=8)),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 数据集设置
text_transform = [
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
*_base_.pre_transform, # 使用基础预处理操作
dict(type='MultiModalMosaic', # 使用多模态马赛克操作
img_scale=_base_.img_scale, # 图像缩放比例
pad_val=114.0, # 填充值
pre_transform=_base_.pre_transform), # 预处理操作
dict(
type='YOLOv5RandomAffine', # 使用YOLOv5随机仿射变换操作
max_rotate_degree=0.0, # 最大旋转角度
max_shear_degree=0.0, # 最大剪切角度
scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale), # 缩放比例范围
max_aspect_ratio=_base_.max_aspect_ratio, # 最大长宽比
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2), # 边界
border_val=(114, 114, 114)), # 边界填充值
*_base_.last_transform[:-1], # 使用基础最后的转换操作
*text_transform, # 文本转换操作
]
# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
type='MultiModalDataset', # 多模态数据集类型
dataset=dict(
type='YOLOv5Objects365V1Dataset', # 使用YOLOv5 Objects365V1数据集
data_root='data/objects365v1/', # 数据根目录
ann_file='annotations/objects365_train.json', # 标注文件
data_prefix=dict(img='train/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32)), # 过滤配置
class_text_path='data/texts/obj365v1_class_texts.json', # 类别文本路径
pipeline=train_pipeline) # 数据处理管道
# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/mixed_grounding/', # 数据根目录
ann_file='annotations/final_mixed_train_no_coco.json', # 标注文件
data_prefix=dict(img='gqa/images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义flickr训练数据集
flickr_train_dataset = dict(
type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/flickr/', # 数据根目录
ann_file='annotations/final_flickr_separateGT_train.json', # 标注文件
data_prefix=dict(img='full_images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=True, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表等参数
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=dict(_delete_=True,
type='ConcatDataset',
datasets=[
obj365v1_train_dataset,
flickr_train_dataset, mg_train_dataset
],
ignore_keys=['classes', 'palette']))
# 定义测试数据处理流程,包括加载文本和打包检测输入等操作
test_pipeline = [
*_base_.test_pipeline[:-1],
dict(type='LoadText'),
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
]
# 定义 COCO 验证数据集,包括数据集类型、数据根目录、测试模式、注释文件等参数
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(type='YOLOv5LVISV1Dataset',
data_root='data/coco/',
test_mode=True,
ann_file='lvis/lvis_v1_val.json',
data_prefix=dict(img=''),
batch_shapes_cfg=None),
class_text_path='data/texts/lvis_v1_class_texts.json',
pipeline=test_pipeline)
# 定义验证数据加载器,指定数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader
# 定义验证评估器,包括评估类型、注释文件和评估指标等参数
val_evaluator = dict(type='mmdet.LVISMetric',
ann_file='data/coco/lvis/lvis_v1_val.json',
metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator
# 训练设置,包括参数调度器和检查点保存间隔等参数
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
checkpoint=dict(interval=save_epoch_intervals,
rule='greater'))
# 自定义钩子,包括指数动量 EMA 钩子的设置
custom_hooks = [
dict(type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
# 创建一个字典,包含PipelineSwitchHook的相关参数
dict(type='mmdet.PipelineSwitchHook',
# 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
switch_epoch=max_epochs - close_mosaic_epochs,
# 设置切换的pipeline为train_pipeline_stage2
switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs, # 最大训练轮数
val_interval=10, # 验证间隔
dynamic_intervals=[((max_epochs - close_mosaic_epochs), # 动态间隔
_base_.val_interval_stage2)]) # 验证阶段2的间隔设置
# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
_delete_=True, # 删除原有的优化器配置
type='AdamW', # 优化器类型为AdamW
lr=base_lr, # 学习率
weight_decay=weight_decay, # 权重衰减
batch_size_per_gpu=train_batch_size_per_gpu), # 每个GPU的批处理大小
paramwise_cfg=dict(bias_decay_mult=0.0, # 偏置项衰减倍数
norm_decay_mult=0.0, # 归一化层衰减倍数
custom_keys={ # 自定义键值对
'backbone.text_model': # 文本模型的键
dict(lr_mult=0.01), # 学习率倍数
'logit_scale': # 输出层缩放的键
dict(weight_decay=0.0) # 输出层权重衰减
}),
constructor='YOLOWv5OptimizerConstructor') # 构造函数为YOLOWv5OptimizerConstructor
.\YOLO-World\configs\pretrain\yolo_world_m_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
'yolov8_m_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'],
allow_failed_imports=False)
# 定义基础配置文件路径和自定义导入配置
# _base_ 为基础配置文件路径
# custom_imports 为自定义导入配置,包含导入模块和是否允许导入失败
# hyper-parameters
num_classes = 1203
num_training_classes = 80
max_epochs = 100 # Maximum training epochs
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16
# 定义超参数
# num_classes 为总类别数
# num_training_classes 为训练类别数
# max_epochs 为最大训练轮数
# 其他参数为训练过程中使用的超参数
# model settings
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldDualPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
text_enhancder=dict(type='ImagePoolingAttentionModule',
embed_channels=256,
num_heads=8)),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 定义模型配置
# 包括模型类型、数据预处理器、骨干网络、颈部网络、检测头等配置
# dataset settings
text_transform = [
# 定义数据集文本转换
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
*_base_.pre_transform, # 使用基础预处理操作
dict(type='MultiModalMosaic', # 使用多模态马赛克操作
img_scale=_base_.img_scale, # 图像缩放比例
pad_val=114.0, # 填充值
pre_transform=_base_.pre_transform), # 预处理操作
dict(
type='YOLOv5RandomAffine', # 使用YOLOv5随机仿射变换操作
max_rotate_degree=0.0, # 最大旋转角度
max_shear_degree=0.0, # 最大剪切角度
scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale), # 缩放比例范围
max_aspect_ratio=_base_.max_aspect_ratio, # 最大长宽比
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2), # 边界
border_val=(114, 114, 114)), # 边界填充值
*_base_.last_transform[:-1], # 使用基础最后的转换操作
*text_transform, # 文本转换操作
]
# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
type='MultiModalDataset', # 多模态数据集类型
dataset=dict(
type='YOLOv5Objects365V1Dataset', # 使用YOLOv5 Objects365V1数据集
data_root='data/objects365v1/', # 数据根目录
ann_file='annotations/objects365_train.json', # 标注文件
data_prefix=dict(img='train/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32)), # 过滤配置
class_text_path='data/texts/obj365v1_class_texts.json', # 类别文本路径
pipeline=train_pipeline) # 数据处理管道
# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/mixed_grounding/', # 数据根目录
ann_file='annotations/final_mixed_train_no_coco.json', # 标注文件
data_prefix=dict(img='gqa/images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义flickr训练数据集
flickr_train_dataset = dict(
type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/flickr/', # 数据根目录
ann_file='annotations/final_flickr_separateGT_train.json', # 标注文件
data_prefix=dict(img='full_images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=True, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=dict(_delete_=True,
type='ConcatDataset',
datasets=[
obj365v1_train_dataset,
flickr_train_dataset, mg_train_dataset
],
ignore_keys=['classes', 'palette']))
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
*_base_.test_pipeline[:-1],
dict(type='LoadText'),
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
]
# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(type='YOLOv5LVISV1Dataset',
data_root='data/coco/',
test_mode=True,
ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
data_prefix=dict(img=''),
batch_shapes_cfg=None),
class_text_path='data/texts/lvis_v1_class_texts.json',
pipeline=test_pipeline)
# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader
# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator
# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
checkpoint=dict(interval=save_epoch_intervals,
rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
dict(type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
# 创建一个字典,包含PipelineSwitchHook的相关参数
dict(type='mmdet.PipelineSwitchHook',
# 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
switch_epoch=max_epochs - close_mosaic_epochs,
# 设置切换的pipeline为train_pipeline_stage2
switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs, # 最大训练轮数
val_interval=10, # 验证间隔
dynamic_intervals=[((max_epochs - close_mosaic_epochs), # 动态间隔
_base_.val_interval_stage2)]) # 验证阶段2的间隔设置
# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
_delete_=True, # 删除原有的优化器配置
type='AdamW', # 优化器类型为AdamW
lr=base_lr, # 学习率
weight_decay=weight_decay, # 权重衰减
batch_size_per_gpu=train_batch_size_per_gpu), # 每个GPU的批处理大小
paramwise_cfg=dict(bias_decay_mult=0.0, # 偏置项衰减倍数
norm_decay_mult=0.0, # 归一化层衰减倍数
custom_keys={ # 自定义键值对
'backbone.text_model': # 文本模型的键
dict(lr_mult=0.01), # 学习率倍数
'logit_scale': # 输出层缩放的键
dict(weight_decay=0.0) # 输出层权重衰减
}),
constructor='YOLOWv5OptimizerConstructor') # 构造函数为YOLOWv5OptimizerConstructor
.\YOLO-World\configs\pretrain\yolo_world_s_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
'yolov8_s_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'],
allow_failed_imports=False)
# 定义基础配置文件路径
# 定义自定义导入模块和是否允许导入失败
# hyper-parameters
num_classes = 1203
num_training_classes = 80
max_epochs = 100 # Maximum training epochs
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16
# 定义超参数
# 定义模型类别数、训练类别数、最大训练轮数等
# model settings
model = dict(
type='YOLOWorldDetector',
mm_neck=True,
num_train_classes=num_training_classes,
num_test_classes=num_classes,
data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
backbone=dict(
_delete_=True,
type='MultiModalYOLOBackbone',
image_model={{_base_.model.backbone}},
text_model=dict(
type='HuggingCLIPLanguageBackbone',
model_name='openai/clip-vit-base-patch32',
frozen_modules=['all'])),
neck=dict(type='YOLOWorldDualPAFPN',
guide_channels=text_channels,
embed_channels=neck_embed_channels,
num_heads=neck_num_heads,
block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
text_enhancder=dict(type='ImagePoolingAttentionModule',
embed_channels=256,
num_heads=8)),
bbox_head=dict(type='YOLOWorldHead',
head_module=dict(type='YOLOWorldHeadModule',
embed_dims=text_channels,
num_classes=num_training_classes)),
train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 定义模型设置
# 包括模型类型、数据预处理器、骨干网络、颈部网络、边界框头部等配置
# dataset settings
text_transform = [
# 定义数据集设置
# 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
dict(type='RandomLoadText',
num_neg_samples=(num_classes, num_classes),
max_num_samples=num_training_classes,
padding_to_max=True,
padding_value=''),
# 定义一个字典,包含参数 type 和 meta_keys
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
*_base_.pre_transform, # 使用基础预处理操作
dict(type='MultiModalMosaic', # 使用多模态马赛克操作
img_scale=_base_.img_scale, # 图像缩放比例
pad_val=114.0, # 填充值
pre_transform=_base_.pre_transform), # 预处理操作
dict(
type='YOLOv5RandomAffine', # 使用YOLOv5随机仿射变换操作
max_rotate_degree=0.0, # 最大旋转角度
max_shear_degree=0.0, # 最大剪切角度
scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale), # 缩放比例范围
max_aspect_ratio=_base_.max_aspect_ratio, # 最大长宽比
border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2), # 边界
border_val=(114, 114, 114)), # 边界填充值
*_base_.last_transform[:-1], # 使用基础最后的转换操作
*text_transform, # 文本转换操作
]
# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
type='MultiModalDataset', # 多模态数据集类型
dataset=dict(
type='YOLOv5Objects365V1Dataset', # 使用YOLOv5 Objects365V1数据集
data_root='data/objects365v1/', # 数据根目录
ann_file='annotations/objects365_train.json', # 标注文件
data_prefix=dict(img='train/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32)), # 过滤配置
class_text_path='data/texts/obj365v1_class_texts.json', # 类别文本路径
pipeline=train_pipeline) # 数据处理管道
# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/mixed_grounding/', # 数据根目录
ann_file='annotations/final_mixed_train_no_coco.json', # 标注文件
data_prefix=dict(img='gqa/images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=False, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义flickr训练数据集
flickr_train_dataset = dict(
type='YOLOv5MixedGroundingDataset', # 使用YOLOv5混合定位数据集
data_root='data/flickr/', # 数据根目录
ann_file='annotations/final_flickr_separateGT_train.json', # 标注文件
data_prefix=dict(img='full_images/'), # 数据前缀
filter_cfg=dict(filter_empty_gt=True, min_size=32), # 过滤配置
pipeline=train_pipeline) # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
collate_fn=dict(type='yolow_collate'),
dataset=dict(_delete_=True,
type='ConcatDataset',
datasets=[
obj365v1_train_dataset,
flickr_train_dataset, mg_train_dataset
],
ignore_keys=['classes', 'palette']))
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
*_base_.test_pipeline[:-1],
dict(type='LoadText'),
dict(type='mmdet.PackDetInputs',
meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
'scale_factor', 'pad_param', 'texts'))
]
# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
_delete_=True,
type='MultiModalDataset',
dataset=dict(type='YOLOv5LVISV1Dataset',
data_root='data/coco/',
test_mode=True,
ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
data_prefix=dict(img=''),
batch_shapes_cfg=None),
class_text_path='data/texts/lvis_v1_class_texts.json',
pipeline=test_pipeline)
# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader
# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator
# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
checkpoint=dict(interval=save_epoch_intervals,
rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
dict(type='EMAHook',
ema_type='ExpMomentumEMA',
momentum=0.0001,
update_buffers=True,
strict_load=False,
priority=49),
# 创建一个字典,包含PipelineSwitchHook的相关参数
dict(type='mmdet.PipelineSwitchHook',
# 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
switch_epoch=max_epochs - close_mosaic_epochs,
# 设置切换的pipeline为train_pipeline_stage2
switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs, # 最大训练轮数
val_interval=10, # 验证间隔
dynamic_intervals=[((max_epochs - close_mosaic_epochs), # 动态间隔
_base_.val_interval_stage2)]) # 验证阶段2的间隔设置
# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
_delete_=True, # 删除原有的优化器配置
type='AdamW', # 优化器类型为AdamW
lr=base_lr, # 学习率
weight_decay=weight_decay, # 权重衰减
batch_size_per_gpu=train_batch_size_per_gpu), # 每个GPU的批处理大小
paramwise_cfg=dict(bias_decay_mult=0.0, # 偏置项衰减倍数
norm_decay_mult=0.0, # 归一化层衰减倍数
custom_keys={ # 自定义键值对
'backbone.text_model': # 文本模型的键
dict(lr_mult=0.01), # 学习率倍数
'logit_scale': # 输出层缩放的键
dict(weight_decay=0.0) # 输出层权重衰减
}),
constructor='YOLOWv5OptimizerConstructor') # 构造函数为YOLOWv5OptimizerConstructor
标签:num,train,yolo,_.,源码,dict,base,world,type
From: https://www.cnblogs.com/apachecn/p/18061438