首页 > 编程语言 >yolo-world 源码解析(一)

yolo-world 源码解析(一)

时间:2024-03-08 17:26:20浏览次数:28  
标签:num train yolo _. 源码 dict base world type

.\YOLO-World\configs\deploy\detection_onnxruntime-fp16_dynamic.py

# 设置基础路径为指定的配置文件路径
_base_ = (
    '../../third_party/mmdeploy/configs/mmdet/detection/'
    'detection_onnxruntime-fp16_dynamic.py')
# 定义代码库配置,包括模型类型、任务类型、后处理参数等
codebase_config = dict(
    type='mmyolo',
    task='ObjectDetection',
    model_type='end2end',
    post_processing=dict(
        score_threshold=0.1,
        confidence_threshold=0.005,
        iou_threshold=0.3,
        max_output_boxes_per_class=100,
        pre_top_k=1000,
        keep_top_k=100,
        background_label_id=-1),
    module=['mmyolo.deploy'])
# 定义后端配置,使用onnxruntime作为后端
backend_config = dict(
    type='onnxruntime')

.\YOLO-World\configs\deploy\detection_onnxruntime-int8_dynamic.py

# 设置基础路径为指定的配置文件路径
_base_ = (
    '../../third_party/mmdeploy/configs/mmdet/detection/'
    'detection_onnxruntime-fp16_dynamic.py')
# 定义后端配置,设置精度为int8
backend_config = dict(
    precision='int8')
# 定义代码库配置,包括模型类型、任务类型、后处理参数等
codebase_config = dict(
    type='mmyolo',
    task='ObjectDetection',
    model_type='end2end',
    post_processing=dict(
        score_threshold=0.1,
        confidence_threshold=0.005,
        iou_threshold=0.3,
        max_output_boxes_per_class=100,
        pre_top_k=1000,
        keep_top_k=100,
        background_label_id=-1),
    module=['mmyolo.deploy'])
# 重新定义后端配置,设置类型为onnxruntime
backend_config = dict(
    type='onnxruntime')

.\YOLO-World\configs\deploy\detection_onnxruntime_static.py

# 设置基础路径为指定的配置文件路径
_base_ = (
    '../../third_party/mmyolo/configs/deploy/'
    'detection_onnxruntime_static.py')
# 定义代码库配置,包括类型、任务、模型类型和后处理参数
codebase_config = dict(
    type='mmyolo',
    task='ObjectDetection',
    model_type='end2end',
    post_processing=dict(
        score_threshold=0.25,
        confidence_threshold=0.005,
        iou_threshold=0.65,
        max_output_boxes_per_class=200,
        pre_top_k=1000,
        keep_top_k=100,
        background_label_id=-1),
    module=['mmyolo.deploy'])
# 定义后端配置,类型为onnxruntime
backend_config = dict(
    type='onnxruntime')

.\YOLO-World\configs\deploy\detection_tensorrt-fp16_static-640x640.py

_base_ = (
    '../../third_party/mmyolo/configs/deploy/'
    'detection_tensorrt-fp16_static-640x640.py')
# 设置基础配置文件路径

onnx_config = dict(
    type='onnx',
    export_params=True,
    keep_initializers_as_inputs=False,
    opset_version=11,
    save_file='end2end.onnx',
    input_names=['input'],
    output_names=['dets', 'labels'],
    input_shape=(640, 640),
    optimize=True)
# 设置 ONNX 配置参数,包括类型、是否导出参数、是否保留初始化器作为输入、操作集版本、保存文件名、输入输出名称、输入形状、是否优化

backend_config = dict(
    type='tensorrt',
    common_config=dict(fp16_mode=True, max_workspace_size=1 << 34),
    model_inputs=[
        dict(
            input_shapes=dict(
                input=dict(
                    min_shape=[1, 3, 640, 640],
                    opt_shape=[1, 3, 640, 640],
                    max_shape=[1, 3, 640, 640])))
    ])
# 设置后端配置参数,包括类型、通用配置、模型输入

use_efficientnms = False  # whether to replace TRTBatchedNMS plugin with EfficientNMS plugin # noqa E501
# 是否使用 EfficientNMS 插件替换 TRTBatchedNMS 插件

codebase_config = dict(
    type='mmyolo',
    task='ObjectDetection',
    model_type='end2end',
    post_processing=dict(
        score_threshold=0.25,
        confidence_threshold=0.005,
        iou_threshold=0.65,
        max_output_boxes_per_class=100,
        pre_top_k=1,
        keep_top_k=1,
        background_label_id=-1),
    module=['mmyolo.deploy'])
# 设置代码库配置参数,包括类型、任务、模型类型、后处理参数、模块

.\YOLO-World\configs\deploy\detection_tensorrt-int8_static-640x640.py

_base_ = [
    '../../third_party/mmdeploy/configs/mmdet/_base_/base_static.py',  # 定义基础配置文件路径
    '../../third_party/mmdeploy/configs/_base_/backends/tensorrt-int8.py']  # 定义后端配置文件路径

onnx_config = dict(input_shape=(640, 640))  # 定义输入形状配置

backend_config = dict(  # 定义后端配置
    common_config=dict(max_workspace_size=1 << 30),  # 定义通用配置,设置最大工作空间大小
    model_inputs=[  # 定义模型输入配置
        dict(  # 第一个模型输入配置
            input_shapes=dict(  # 定义输入形状
                input=dict(  # 输入名称为input
                    min_shape=[1, 3, 640, 640],  # 最小形状
                    opt_shape=[1, 3, 640, 640],  # 最佳形状
                    max_shape=[1, 3, 640, 640])))  # 最大形状
    ])

codebase_config = dict(  # 定义代码库配置
    type='mmyolo',  # 模型类型为mmyolo
    task='ObjectDetection',  # 任务为目标检测
    model_type='end2end',  # 模型类型为端到端
    post_processing=dict(  # 后处理配置
        score_threshold=0.1,  # 分数阈值
        confidence_threshold=0.005,  # 置信度阈值
        iou_threshold=0.3,  # IoU阈值
        max_output_boxes_per_class=100,  # 每类最大输出框数
        pre_top_k=1000,  # 预选框数
        keep_top_k=100,  # 保留框数
        background_label_id=-1),  # 背景标签ID
    module=['mmyolo.deploy'])  # 模块为mmyolo.deploy

.\YOLO-World\configs\finetune_coco\yolo_world_l_dual_vlpan_2e-4_80e_8gpus_finetune_coco.py

_base_ = (
    '../../third_party/mmyolo/configs/yolov8/'
    'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 定义自定义的导入模块和设置是否允许导入失败
custom_imports = dict(
    imports=['yolo_world'],
    allow_failed_imports=False)

# 超参数设置
num_classes = 80
num_training_classes = 80
max_epochs = 80  # 最大训练轮数
close_mosaic_epochs = 10
save_epoch_intervals = 5
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-4
weight_decay = 0.05
train_batch_size_per_gpu = 16
load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'
persistent_workers = False

# 模型设置
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldDualPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
              text_enhancder=dict(type='ImagePoolingAttentionModule',
                                  embed_channels=256,
                                  num_heads=8)),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 数据集设置
text_transform = [
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义一个包含多个元素的列表,每个元素是一个字典,用于进行仿射变换
mosaic_affine_transform = [
    dict(
        type='MultiModalMosaic',
        img_scale=_base_.img_scale,
        pad_val=114.0,
        pre_transform=_base_.pre_transform),
    dict(
        type='YOLOv5RandomAffine',
        max_rotate_degree=0.0,
        max_shear_degree=0.0,
        max_aspect_ratio=100.,
        scaling_ratio_range=(1 - _base_.affine_scale,
                             1 + _base_.affine_scale),
        # img_scale is (width, height)
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
        border_val=(114, 114, 114))
]

# 定义训练数据处理流程的列表
train_pipeline = [
    *_base_.pre_transform,
    *mosaic_affine_transform,
    dict(
        type='YOLOv5MultiModalMixUp',
        prob=_base_.mixup_prob,
        pre_transform=[*_base_.pre_transform,
                       *mosaic_affine_transform]),
    *_base_.last_transform[:-1],
    *text_transform
]

# 定义第二阶段训练数据处理流程的列表
train_pipeline_stage2 = [
    *_base_.train_pipeline_stage2[:-1],
    *text_transform
]

# 定义 COCO 训练数据集的配置字典
coco_train_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(
        type='YOLOv5CocoDataset',
        data_root='data/coco',
        ann_file='annotations/instances_train2017.json',
        data_prefix=dict(img='train2017/'),
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    class_text_path='data/texts/coco_class_texts.json',
    pipeline=train_pipeline)

# 定义训练数据加载器的配置字典
train_dataloader = dict(
    persistent_workers=persistent_workers,
    batch_size=train_batch_size_per_gpu,
    collate_fn=dict(type='yolow_collate'),
    dataset=coco_train_dataset)

# 定义测试数据处理流程的列表
test_pipeline = [
    *_base_.test_pipeline[:-1],
    dict(type='LoadText'),
    dict(
        type='mmdet.PackDetInputs',
        meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                   'scale_factor', 'pad_param', 'texts'))
]

# 定义 COCO 验证数据集的配置字典
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    # 定义数据集参数,指定数据集类型为YOLOv5CocoDataset
    dataset=dict(
        type='YOLOv5CocoDataset',
        # 数据集根目录
        data_root='data/coco',
        # 标注文件路径
        ann_file='annotations/instances_val2017.json',
        # 数据前缀,包含图片路径
        data_prefix=dict(img='val2017/'),
        # 过滤配置,设置不过滤空的ground truth,最小尺寸为32
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    # 类别文本路径
    class_text_path='data/texts/coco_class_texts.json',
    # 测试数据处理管道
    pipeline=test_pipeline)
# 创建验证数据加载器,使用 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将验证数据加载器赋值给测试数据加载器
test_dataloader = val_dataloader

# 训练设置
# 默认钩子函数设置
default_hooks = dict(
    param_scheduler=dict(
        scheduler_type='linear',
        lr_factor=0.01,
        max_epochs=max_epochs),
    checkpoint=dict(
        max_keep_ckpts=-1,
        save_best=None,
        interval=save_epoch_intervals))
# 自定义钩子函数设置
custom_hooks = [
    dict(
        type='EMAHook',
        ema_type='ExpMomentumEMA',
        momentum=0.0001,
        update_buffers=True,
        strict_load=False,
        priority=49),
    dict(
        type='mmdet.PipelineSwitchHook',
        switch_epoch=max_epochs - close_mosaic_epochs,
        switch_pipeline=train_pipeline_stage2)
]
# 训练配置设置
train_cfg = dict(
    max_epochs=max_epochs,
    val_interval=5,
    dynamic_intervals=[((max_epochs - close_mosaic_epochs),
                        _base_.val_interval_stage2)])
# 优化器包装器设置
optim_wrapper = dict(
    optimizer=dict(
        _delete_=True,
        type='AdamW',
        lr=base_lr,
        weight_decay=weight_decay,
        batch_size_per_gpu=train_batch_size_per_gpu),
    paramwise_cfg=dict(
        bias_decay_mult=0.0,
        norm_decay_mult=0.0,
        custom_keys={'backbone.text_model': dict(lr_mult=0.01),
                     'logit_scale': dict(weight_decay=0.0)}),
    constructor='YOLOWv5OptimizerConstructor')

# 评估设置
# 验证评估器设置
val_evaluator = dict(
    _delete_=True,
    type='mmdet.CocoMetric',
    proposal_nums=(100, 1, 10),
    ann_file='data/coco/annotations/instances_val2017.json',
    metric='bbox')

.\YOLO-World\configs\finetune_coco\yolo_world_l_dual_vlpan_2e-4_80e_8gpus_mask-refine_finetune_coco.py

_base_ = (
    '../../third_party/mmyolo/configs/yolov8/'
    'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(
    imports=['yolo_world'],
    allow_failed_imports=False)

# 定义超参数
num_classes = 80  # 类别数
num_training_classes = 80  # 训练类别数
max_epochs = 80  # 最大训练轮数
close_mosaic_epochs = 10  # 关闭镶嵌的轮数
save_epoch_intervals = 5  # 保存模型的间隔
text_channels = 512  # 文本通道数
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]  # 颈部嵌入通道数
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]  # 颈部头数
base_lr = 2e-4  # 基础学习率
weight_decay = 0.05  # 权重衰减
train_batch_size_per_gpu = 16  # 每个 GPU 的训练批次大小
load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'  # 加载预训练模型路径
persistent_workers = False  # 持久化工作进程

# 模型设置
model = dict(
    type='YOLOWorldDetector',  # 模型类型
    mm_neck=True,  # 多模态颈部
    num_train_classes=num_training_classes,  # 训练类别数
    num_test_classes=num_classes,  # 测试类别数
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),  # 数据预处理器
    backbone=dict(
        _delete_=True,  # 删除原有的设置
        type='MultiModalYOLOBackbone',  # 多模态 YOLO 骨干网络
        image_model={{_base_.model.backbone}},  # 图像模型
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',  # 文本模型
            model_name='openai/clip-vit-base-patch32',  # 模型名称
            frozen_modules=['all'])),  # 冻结模块
    neck=dict(type='YOLOWorldDualPAFPN',  # 颈部设置
              guide_channels=text_channels,  # 引导通道数
              embed_channels=neck_embed_channels,  # 嵌入通道数
              num_heads=neck_num_heads,  # 头数
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),  # 块配置
              text_enhancder=dict(type='ImagePoolingAttentionModule',  # 文本增强器
                                  embed_channels=256,  # 嵌入通道数
                                  num_heads=8)),  # 头数
    bbox_head=dict(type='YOLOWorldHead',  # 边界框头部设置
                   head_module=dict(type='YOLOWorldHeadModule',  # 头部模块设置
                                    embed_dims=text_channels,  # 嵌入维度
                                    num_classes=num_training_classes)),  # 训练类别数
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))  # 训练配置

# 数据集设置
# 定义文本转换器,包含随机加载文本和打包检测输入两个步骤
text_transform = [
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
]

# 定义马赛克仿射变换器,包含多模态马赛克、YOLOv5复制粘贴和YOLOv5随机仿射三个步骤
mosaic_affine_transform = [
    dict(
        type='MultiModalMosaic',
        img_scale=_base_.img_scale,
        pad_val=114.0,
        pre_transform=_base_.pre_transform),
    dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
    dict(
        type='YOLOv5RandomAffine',
        max_rotate_degree=0.0,
        max_shear_degree=0.0,
        max_aspect_ratio=100.,
        scaling_ratio_range=(1 - _base_.affine_scale,
                             1 + _base_.affine_scale),
        # img_scale is (width, height)
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
        border_val=(114, 114, 114),
        min_area_ratio=_base_.min_area_ratio,
        use_mask_refine=_base_.use_mask2refine)
]

# 定义训练管道,包含基础预处理、马赛克仿射变换、YOLOv5多模态混合等步骤
train_pipeline = [
    *_base_.pre_transform,
    *mosaic_affine_transform,
    dict(
        type='YOLOv5MultiModalMixUp',
        prob=_base_.mixup_prob,
        pre_transform=[*_base_.pre_transform,
                       *mosaic_affine_transform]),
    *_base_.last_transform[:-1],
    *text_transform
]

# 定义第二阶段训练管道,包含文本转换器
train_pipeline_stage2 = [
    *_base_.train_pipeline_stage2[:-1],
    *text_transform
]

# 定义COCO训练数据集,包含多模态数据集和管道
coco_train_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(
        type='YOLOv5CocoDataset',
        data_root='data/coco',
        ann_file='annotations/instances_train2017.json',
        data_prefix=dict(img='train2017/'),
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    class_text_path='data/texts/coco_class_texts.json',
    pipeline=train_pipeline)

# 定义训练数据加载器,包含持久化工作进程设置
train_dataloader = dict(
    persistent_workers=persistent_workers,
    # 设置每个 GPU 的训练批量大小
    batch_size=train_batch_size_per_gpu,
    # 设置数据集的拼接函数为 yolow_collate
    collate_fn=dict(type='yolow_collate'),
    # 设置数据集为 coco_train_dataset
    dataset=coco_train_dataset)
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
    *_base_.test_pipeline[:-1],  # 复制基础测试数据处理流程,去掉最后一个元素
    dict(type='LoadText'),  # 加载文本数据
    dict(
        type='mmdet.PackDetInputs',  # 打包检测输入数据
        meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                   'scale_factor', 'pad_param', 'texts'))  # 指定元数据的键值
]
# 定义 COCO 验证数据集,包括数据集信息、类别文本路径和数据处理流程
coco_val_dataset = dict(
    _delete_=True,  # 删除原有的数据集配置
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5CocoDataset',  # 使用 YOLOv5 格式的 COCO 数据集
        data_root='data/coco',  # 数据根目录
        ann_file='annotations/instances_val2017.json',  # 标注文件路径
        data_prefix=dict(img='val2017/'),  # 图像数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 数据过滤配置
    class_text_path='data/texts/coco_class_texts.json',  # 类别文本路径
    pipeline=test_pipeline)  # 数据处理流程
# 定义验证数据加载器,使用 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 测试数据加载器与验证数据加载器相同
test_dataloader = val_dataloader

# 训练设置
default_hooks = dict(
    param_scheduler=dict(
        scheduler_type='linear',  # 使用线性学习率调度器
        lr_factor=0.01,  # 学习率因子
        max_epochs=max_epochs),  # 最大训练轮数
    checkpoint=dict(
        max_keep_ckpts=-1,  # 保留的最大检查点数
        save_best=None,  # 保存最佳模型的配置
        interval=save_epoch_intervals))  # 保存检查点的间隔
custom_hooks = [
    dict(
        type='EMAHook',  # 指数移动平均钩子
        ema_type='ExpMomentumEMA',  # 指数动量 EMA 类型
        momentum=0.0001,  # 动量参数
        update_buffers=True,  # 更新缓冲区
        strict_load=False,  # 严格加载
        priority=49),  # 优先级
    dict(
        type='mmdet.PipelineSwitchHook',  # 数据处理流程切换钩子
        switch_epoch=max_epochs - close_mosaic_epochs,  # 切换数据处理流程的轮数
        switch_pipeline=train_pipeline_stage2)  # 切换后的数据处理流程
]
train_cfg = dict(
    max_epochs=max_epochs,  # 最大训练轮数
    val_interval=5,  # 验证间隔
    dynamic_intervals=[((max_epochs - close_mosaic_epochs), _base_.val_interval_stage2)])  # 动态间隔设置
optim_wrapper = dict(
    optimizer=dict(
        _delete_=True,  # 删除原有的优化器配置
        type='AdamW',  # 使用 AdamW 优化器
        lr=base_lr,  # 基础学习率
        weight_decay=weight_decay,  # 权重衰减
        batch_size_per_gpu=train_batch_size_per_gpu),  # 每个 GPU 的批处理大小
    paramwise_cfg=dict(
        bias_decay_mult=0.0,  # 偏置衰减倍数
        norm_decay_mult=0.0,  # 归一化层衰减倍数
        custom_keys={'backbone.text_model': dict(lr_mult=0.01),  # 自定义键值对,指定学习率倍数
                     'logit_scale': dict(weight_decay=0.0)}),  # 自定义键值对,指定权重衰减
    constructor='YOLOWv5OptimizerConstructor')  # 优化器构造器

# 评估设置
# 创建一个字典,用于配置评估器的参数
val_evaluator = dict(
    # 标记是否删除
    _delete_=True,
    # 评估器类型为 mmdet.CocoMetric
    type='mmdet.CocoMetric',
    # 提议框数量的元组
    proposal_nums=(100, 1, 10),
    # COCO 数据集的标注文件路径
    ann_file='data/coco/annotations/instances_val2017.json',
    # 评估指标为 bbox
    metric='bbox')

.\YOLO-World\configs\finetune_coco\yolo_world_l_efficient_neck_2e-4_80e_8gpus_mask-refine_finetune_coco.py

_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'], allow_failed_imports=False)

# 定义基础配置文件路径和自定义导入配置
# _base_ 为基础配置文件路径
# custom_imports 为自定义导入配置,包含导入模块和是否允许导入失败

# hyper-parameters
num_classes = 80
num_training_classes = 80
max_epochs = 80  # Maximum training epochs
close_mosaic_epochs = 10
save_epoch_intervals = 5
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-4
weight_decay = 0.05
train_batch_size_per_gpu = 16
load_from = 'pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'
persistent_workers = False

# 定义超参数
# num_classes 为类别数量
# max_epochs 为最大训练轮数
# text_channels 为文本通道数
# neck_embed_channels 为颈部嵌入通道数
# neck_num_heads 为颈部注意力头数
# base_lr 为基础学习率
# weight_decay 为权重衰减
# train_batch_size_per_gpu 为每个 GPU 的训练批量大小
# load_from 为预训练模型路径
# persistent_workers 为是否持久化工作进程

# model settings
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='EfficientCSPLayerWithTwoConv')),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 定义模型设置
# type 为模型类型
# mm_neck 为是否使用多模态颈部
# data_preprocessor 为数据预处理器类型
# backbone 为骨干网络配置
# neck 为颈部网络配置
# bbox_head 为边界框头部配置
# train_cfg 为训练配置

# dataset settings
text_transform = [

# 定义数据集设���
# text_transform 为文本转换器
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义一个包含多个数据增强操作的列表,用于对图像进行仿射变换
mosaic_affine_transform = [
    # 多模态镶嵌操作,设置图像缩放、填充值、预处理操作
    dict(type='MultiModalMosaic',
         img_scale=_base_.img_scale,
         pad_val=114.0,
         pre_transform=_base_.pre_transform),
    # YOLOv5CopyPaste 操作,设置复制粘贴的概率
    dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
    # YOLOv5RandomAffine 操作,设置随机仿射变换的参数
    dict(
        type='YOLOv5RandomAffine',
        max_rotate_degree=0.0,
        max_shear_degree=0.0,
        max_aspect_ratio=100.,
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),
        # 图像缩放比例为 (宽度, 高度)
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
        border_val=(114, 114, 114),
        min_area_ratio=_base_.min_area_ratio,
        use_mask_refine=_base_.use_mask2refine)
]
# 训练数据处理流程,包括预处理、仿射变换、MixUp 操作等
train_pipeline = [
    *_base_.pre_transform, *mosaic_affine_transform,
    # YOLOv5MultiModalMixUp 操作,设置 MixUp 操作的概率和预处理操作
    dict(type='YOLOv5MultiModalMixUp',
         prob=_base_.mixup_prob,
         pre_transform=[*_base_.pre_transform, *mosaic_affine_transform]),
    # 最后的数据处理操作,除最后一个元素外,添加文本转换操作
    *_base_.last_transform[:-1], *text_transform
]
# 第二阶段训练数据处理流程,除最后一个元素外,添加文本转换操作
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# COCO 训练数据集配置,设置数据集路径、注释文件、类别文本路径和数据处理流程
coco_train_dataset = dict(_delete_=True,
                          type='MultiModalDataset',
                          dataset=dict(
                              type='YOLOv5CocoDataset',
                              data_root='data/coco',
                              ann_file='annotations/instances_train2017.json',
                              data_prefix=dict(img='train2017/'),
                              filter_cfg=dict(filter_empty_gt=False,
                                              min_size=32)),
                          class_text_path='data/texts/coco_class_texts.json',
                          pipeline=train_pipeline)
# 训练数据加载器配置,设置持久化工作进程、每个 GPU 的批处理大小、数据集和数据整理函数
train_dataloader = dict(persistent_workers=persistent_workers,
                        batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=coco_train_dataset)
# 测试数据处理流程,除最后一个元素外,保持不变
test_pipeline = [
    *_base_.test_pipeline[:-1],
    # 创建一个字典,指定类型为'LoadText'
    dict(type='LoadText'),
    # 创建一个字典,指定类型为'mmdet.PackDetInputs',并指定元数据的键值
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
# 以下代码存在语法错误,缺少左括号,需要修复
# 定义 coco_val_dataset 字典,包含数据集信息和数据预处理流程
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5CocoDataset',
                 data_root='data/coco',
                 ann_file='annotations/instances_val2017.json',
                 data_prefix=dict(img='val2017/'),
                 filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    class_text_path='data/texts/coco_class_texts.json',
    pipeline=test_pipeline)
# 定义 val_dataloader 字典,包含验证数据集信息
val_dataloader = dict(dataset=coco_val_dataset)
# 将验证数据集赋值给测试数据集
test_dataloader = val_dataloader
# 定义默认的训练设置
default_hooks = dict(param_scheduler=dict(scheduler_type='linear',
                                          lr_factor=0.01,
                                          max_epochs=max_epochs),
                     checkpoint=dict(max_keep_ckpts=-1,
                                     save_best=None,
                                     interval=save_epoch_intervals))
# 定义自定义的训练设置
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    dict(type='mmdet.PipelineSwitchHook',
         switch_epoch=max_epochs - close_mosaic_epochs,
         switch_pipeline=train_pipeline_stage2)
]
# 定义训练配置
train_cfg = dict(max_epochs=max_epochs,
                 val_interval=5,
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),
                                     _base_.val_interval_stage2)])
# 定义优化器包装器
optim_wrapper = dict(optimizer=dict(
    _delete_=True,
    type='AdamW',
    lr=base_lr,
    weight_decay=weight_decay,
    # 设置每个 GPU 的训练批量大小
    batch_size_per_gpu=train_batch_size_per_gpu),
    # 针对参数进行配置,包括偏置项和归一化项的衰减倍数,以及自定义键值对
    paramwise_cfg=dict(bias_decay_mult=0.0,
                       norm_decay_mult=0.0,
                       custom_keys={
                           'backbone.text_model':
                           dict(lr_mult=0.01),
                           'logit_scale':
                           dict(weight_decay=0.0)
                       }),
    # 使用 YOLOWv5 优化器构造函数
    constructor='YOLOWv5OptimizerConstructor')
# 定义评估器的设置
val_evaluator = dict(_delete_=True,  # 删除原有的评估器设置
                     type='mmdet.CocoMetric',  # 使用 mmdet 库中的 CocoMetric 类
                     proposal_nums=(100, 1, 10),  # 提议框的数量设置
                     ann_file='data/coco/annotations/instances_val2017.json',  # COCO 数据集的标注文件路径
                     metric='bbox')  # 评估指标为边界框(bbox)

.\YOLO-World\configs\pretrain\yolo_world_l_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py

# 设置基础配置文件路径
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 自定义导入模块
custom_imports = dict(imports=['yolo_world'],
                      allow_failed_imports=False)

# 超参数设置
num_classes = 1203
num_training_classes = 80
max_epochs = 100  # 最大训练轮数
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16

# 模型设置
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldDualPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
              text_enhancder=dict(type='ImagePoolingAttentionModule',
                                  embed_channels=256,
                                  num_heads=8)),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 数据集设置
text_transform = [
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
    *_base_.pre_transform,  # 使用基础预处理操作
    dict(type='MultiModalMosaic',  # 使用多模态马赛克操作
         img_scale=_base_.img_scale,  # 图像缩放比例
         pad_val=114.0,  # 填充值
         pre_transform=_base_.pre_transform),  # 预处理操作
    dict(
        type='YOLOv5RandomAffine',  # 使用YOLOv5随机仿射变换操作
        max_rotate_degree=0.0,  # 最大旋转角度
        max_shear_degree=0.0,  # 最大剪切角度
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),  # 缩放比例范围
        max_aspect_ratio=_base_.max_aspect_ratio,  # 最大长宽比
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),  # 边界
        border_val=(114, 114, 114)),  # 边界填充值
    *_base_.last_transform[:-1],  # 使用基础最后的转换操作
    *text_transform,  # 文本转换操作
]

# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]

# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5Objects365V1Dataset',  # 使用YOLOv5 Objects365V1数据集
        data_root='data/objects365v1/',  # 数据根目录
        ann_file='annotations/objects365_train.json',  # 标注文件
        data_prefix=dict(img='train/'),  # 数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 过滤配置
    class_text_path='data/texts/obj365v1_class_texts.json',  # 类别文本路径
    pipeline=train_pipeline)  # 数据处理管道

# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
                        data_root='data/mixed_grounding/',  # 数据根目录
                        ann_file='annotations/final_mixed_train_no_coco.json',  # 标注文件
                        data_prefix=dict(img='gqa/images/'),  # 数据前缀
                        filter_cfg=dict(filter_empty_gt=False, min_size=32),  # 过滤配置
                        pipeline=train_pipeline)  # 数据处理管道

# 定义flickr训练数据集
flickr_train_dataset = dict(
    type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
    data_root='data/flickr/',  # 数据根目录
    ann_file='annotations/final_flickr_separateGT_train.json',  # 标注文件
    data_prefix=dict(img='full_images/'),  # 数据前缀
    filter_cfg=dict(filter_empty_gt=True, min_size=32),  # 过滤配置
    pipeline=train_pipeline)  # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=dict(_delete_=True,
                                     type='ConcatDataset',
                                     datasets=[
                                         obj365v1_train_dataset,
                                         flickr_train_dataset, mg_train_dataset
                                     ],
                                     ignore_keys=['classes', 'palette']))

# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
    *_base_.test_pipeline[:-1],
    dict(type='LoadText'),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
]

# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5LVISV1Dataset',
                 data_root='data/coco/',
                 test_mode=True,
                 ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
                 data_prefix=dict(img=''),
                 batch_shapes_cfg=None),
    class_text_path='data/texts/lvis_v1_class_texts.json',
    pipeline=test_pipeline)

# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader

# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
                     ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
                     metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator

# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
                     checkpoint=dict(interval=save_epoch_intervals,
                                     rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    # 创建一个字典,包含PipelineSwitchHook的相关参数
    dict(type='mmdet.PipelineSwitchHook', 
         # 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
         switch_epoch=max_epochs - close_mosaic_epochs, 
         # 设置切换的pipeline为train_pipeline_stage2
         switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs,  # 最大训练轮数
                 val_interval=10,  # 验证间隔
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),  # 动态间隔
                                     _base_.val_interval_stage2)])  # 验证阶段2的间隔设置

# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
    _delete_=True,  # 删除原有的优化器配置
    type='AdamW',  # 优化器类型为AdamW
    lr=base_lr,  # 学习率
    weight_decay=weight_decay,  # 权重衰减
    batch_size_per_gpu=train_batch_size_per_gpu),  # 每个GPU的批处理大小
                     paramwise_cfg=dict(bias_decay_mult=0.0,  # 偏置项衰减倍数
                                        norm_decay_mult=0.0,  # 归一化层衰减倍数
                                        custom_keys={  # 自定义键值对
                                            'backbone.text_model':  # 文本模型的键
                                            dict(lr_mult=0.01),  # 学习率倍数
                                            'logit_scale':  # 输出层缩放的键
                                            dict(weight_decay=0.0)  # 输出层权重衰减
                                        }),
                     constructor='YOLOWv5OptimizerConstructor')  # 构造函数为YOLOWv5OptimizerConstructor

.\YOLO-World\configs\pretrain\yolo_world_l_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_val.py

# 设置基础配置文件路径
_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_l_syncbn_fast_8xb16-500e_coco.py')
# 自定义导入模块
custom_imports = dict(imports=['yolo_world'],
                      allow_failed_imports=False)

# 超参数设置
num_classes = 1203
num_training_classes = 80
max_epochs = 100  # 最大训练轮数
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16

# 模型设置
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldDualPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
              text_enhancder=dict(type='ImagePoolingAttentionModule',
                                  embed_channels=256,
                                  num_heads=8)),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 数据集设置
text_transform = [
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
    *_base_.pre_transform,  # 使用基础预处理操作
    dict(type='MultiModalMosaic',  # 使用多模态马赛克操作
         img_scale=_base_.img_scale,  # 图像缩放比例
         pad_val=114.0,  # 填充值
         pre_transform=_base_.pre_transform),  # 预处理操作
    dict(
        type='YOLOv5RandomAffine',  # 使用YOLOv5随机仿射变换操作
        max_rotate_degree=0.0,  # 最大旋转角度
        max_shear_degree=0.0,  # 最大剪切角度
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),  # 缩放比例范围
        max_aspect_ratio=_base_.max_aspect_ratio,  # 最大长宽比
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),  # 边界
        border_val=(114, 114, 114)),  # 边界填充值
    *_base_.last_transform[:-1],  # 使用基础最后的转换操作
    *text_transform,  # 文本转换操作
]

# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]

# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5Objects365V1Dataset',  # 使用YOLOv5 Objects365V1数据集
        data_root='data/objects365v1/',  # 数据根目录
        ann_file='annotations/objects365_train.json',  # 标注文件
        data_prefix=dict(img='train/'),  # 数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 过滤配置
    class_text_path='data/texts/obj365v1_class_texts.json',  # 类别文本路径
    pipeline=train_pipeline)  # 数据处理管道

# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
                        data_root='data/mixed_grounding/',  # 数据根目录
                        ann_file='annotations/final_mixed_train_no_coco.json',  # 标注文件
                        data_prefix=dict(img='gqa/images/'),  # 数据前缀
                        filter_cfg=dict(filter_empty_gt=False, min_size=32),  # 过滤配置
                        pipeline=train_pipeline)  # 数据处理管道

# 定义flickr训练数据集
flickr_train_dataset = dict(
    type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
    data_root='data/flickr/',  # 数据根目录
    ann_file='annotations/final_flickr_separateGT_train.json',  # 标注文件
    data_prefix=dict(img='full_images/'),  # 数据前缀
    filter_cfg=dict(filter_empty_gt=True, min_size=32),  # 过滤配置
    pipeline=train_pipeline)  # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表等参数
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=dict(_delete_=True,
                                     type='ConcatDataset',
                                     datasets=[
                                         obj365v1_train_dataset,
                                         flickr_train_dataset, mg_train_dataset
                                     ],
                                     ignore_keys=['classes', 'palette']))

# 定义测试数据处理流程,包括加载文本和打包检测输入等操作
test_pipeline = [
    *_base_.test_pipeline[:-1],
    dict(type='LoadText'),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
]

# 定义 COCO 验证数据集,包括数据集类型、数据根目录、测试模式、注释文件等参数
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5LVISV1Dataset',
                 data_root='data/coco/',
                 test_mode=True,
                 ann_file='lvis/lvis_v1_val.json',
                 data_prefix=dict(img=''),
                 batch_shapes_cfg=None),
    class_text_path='data/texts/lvis_v1_class_texts.json',
    pipeline=test_pipeline)

# 定义验证数据加载器,指定数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader

# 定义验证评估器,包括评估类型、注释文件和评估指标等参数
val_evaluator = dict(type='mmdet.LVISMetric',
                     ann_file='data/coco/lvis/lvis_v1_val.json',
                     metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator

# 训练设置,包括参数调度器和检查点保存间隔等参数
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
                     checkpoint=dict(interval=save_epoch_intervals,
                                     rule='greater'))
# 自定义钩子,包括指数动量 EMA 钩子的设置
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    # 创建一个字典,包含PipelineSwitchHook的相关参数
    dict(type='mmdet.PipelineSwitchHook', 
         # 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
         switch_epoch=max_epochs - close_mosaic_epochs, 
         # 设置切换的pipeline为train_pipeline_stage2
         switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs,  # 最大训练轮数
                 val_interval=10,  # 验证间隔
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),  # 动态间隔
                                     _base_.val_interval_stage2)])  # 验证阶段2的间隔设置

# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
    _delete_=True,  # 删除原有的优化器配置
    type='AdamW',  # 优化器类型为AdamW
    lr=base_lr,  # 学习率
    weight_decay=weight_decay,  # 权重衰减
    batch_size_per_gpu=train_batch_size_per_gpu),  # 每个GPU的批处理大小
                     paramwise_cfg=dict(bias_decay_mult=0.0,  # 偏置项衰减倍数
                                        norm_decay_mult=0.0,  # 归一化层衰减倍数
                                        custom_keys={  # 自定义键值对
                                            'backbone.text_model':  # 文本模型的键
                                            dict(lr_mult=0.01),  # 学习率倍数
                                            'logit_scale':  # 输出层缩放的键
                                            dict(weight_decay=0.0)  # 输出层权重衰减
                                        }),
                     constructor='YOLOWv5OptimizerConstructor')  # 构造函数为YOLOWv5OptimizerConstructor

.\YOLO-World\configs\pretrain\yolo_world_m_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py

_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_m_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'],
                      allow_failed_imports=False)

# 定义基础配置文件路径和自定义导入配置
# _base_ 为基础配置文件路径
# custom_imports 为自定义导入配置,包含导入模块和是否允许导入失败

# hyper-parameters
num_classes = 1203
num_training_classes = 80
max_epochs = 100  # Maximum training epochs
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16

# 定义超参数
# num_classes 为总类别数
# num_training_classes 为训练类别数
# max_epochs 为最大训练轮数
# 其他参数为训练过程中使用的超参数

# model settings
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldDualPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
              text_enhancder=dict(type='ImagePoolingAttentionModule',
                                  embed_channels=256,
                                  num_heads=8)),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 定义模型配置
# 包括模型类型、数据预处理器、骨干网络、颈部网络、检测头等配置

# dataset settings
text_transform = [

# 定义数据集文本转换
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
    *_base_.pre_transform,  # 使用基础预处理操作
    dict(type='MultiModalMosaic',  # 使用多模态马赛克操作
         img_scale=_base_.img_scale,  # 图像缩放比例
         pad_val=114.0,  # 填充值
         pre_transform=_base_.pre_transform),  # 预处理操作
    dict(
        type='YOLOv5RandomAffine',  # 使用YOLOv5随机仿射变换操作
        max_rotate_degree=0.0,  # 最大旋转角度
        max_shear_degree=0.0,  # 最大剪切角度
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),  # 缩放比例范围
        max_aspect_ratio=_base_.max_aspect_ratio,  # 最大长宽比
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),  # 边界
        border_val=(114, 114, 114)),  # 边界填充值
    *_base_.last_transform[:-1],  # 使用基础最后的转换操作
    *text_transform,  # 文本转换操作
]

# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]

# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5Objects365V1Dataset',  # 使用YOLOv5 Objects365V1数据集
        data_root='data/objects365v1/',  # 数据根目录
        ann_file='annotations/objects365_train.json',  # 标注文件
        data_prefix=dict(img='train/'),  # 数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 过滤配置
    class_text_path='data/texts/obj365v1_class_texts.json',  # 类别文本路径
    pipeline=train_pipeline)  # 数据处理管道

# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
                        data_root='data/mixed_grounding/',  # 数据根目录
                        ann_file='annotations/final_mixed_train_no_coco.json',  # 标注文件
                        data_prefix=dict(img='gqa/images/'),  # 数据前缀
                        filter_cfg=dict(filter_empty_gt=False, min_size=32),  # 过滤配置
                        pipeline=train_pipeline)  # 数据处理管道

# 定义flickr训练数据集
flickr_train_dataset = dict(
    type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
    data_root='data/flickr/',  # 数据根目录
    ann_file='annotations/final_flickr_separateGT_train.json',  # 标注文件
    data_prefix=dict(img='full_images/'),  # 数据前缀
    filter_cfg=dict(filter_empty_gt=True, min_size=32),  # 过滤配置
    pipeline=train_pipeline)  # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=dict(_delete_=True,
                                     type='ConcatDataset',
                                     datasets=[
                                         obj365v1_train_dataset,
                                         flickr_train_dataset, mg_train_dataset
                                     ],
                                     ignore_keys=['classes', 'palette']))

# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
    *_base_.test_pipeline[:-1],
    dict(type='LoadText'),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
]

# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5LVISV1Dataset',
                 data_root='data/coco/',
                 test_mode=True,
                 ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
                 data_prefix=dict(img=''),
                 batch_shapes_cfg=None),
    class_text_path='data/texts/lvis_v1_class_texts.json',
    pipeline=test_pipeline)

# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader

# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
                     ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
                     metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator

# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
                     checkpoint=dict(interval=save_epoch_intervals,
                                     rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    # 创建一个字典,包含PipelineSwitchHook的相关参数
    dict(type='mmdet.PipelineSwitchHook', 
         # 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
         switch_epoch=max_epochs - close_mosaic_epochs, 
         # 设置切换的pipeline为train_pipeline_stage2
         switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs,  # 最大训练轮数
                 val_interval=10,  # 验证间隔
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),  # 动态间隔
                                     _base_.val_interval_stage2)])  # 验证阶段2的间隔设置

# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
    _delete_=True,  # 删除原有的优化器配置
    type='AdamW',  # 优化器类型为AdamW
    lr=base_lr,  # 学习率
    weight_decay=weight_decay,  # 权重衰减
    batch_size_per_gpu=train_batch_size_per_gpu),  # 每个GPU的批处理大小
                     paramwise_cfg=dict(bias_decay_mult=0.0,  # 偏置项衰减倍数
                                        norm_decay_mult=0.0,  # 归一化层衰减倍数
                                        custom_keys={  # 自定义键值对
                                            'backbone.text_model':  # 文本模型的键
                                            dict(lr_mult=0.01),  # 学习率倍数
                                            'logit_scale':  # 输出层缩放的键
                                            dict(weight_decay=0.0)  # 输出层权重衰减
                                        }),
                     constructor='YOLOWv5OptimizerConstructor')  # 构造函数为YOLOWv5OptimizerConstructor

.\YOLO-World\configs\pretrain\yolo_world_s_dual_vlpan_l2norm_2e-3_100e_4x8gpus_obj365v1_goldg_train_lvis_minival.py

_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_s_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'],
                      allow_failed_imports=False)

# 定义基础配置文件路径
# 定义自定义导入模块和是否允许导入失败

# hyper-parameters
num_classes = 1203
num_training_classes = 80
max_epochs = 100  # Maximum training epochs
close_mosaic_epochs = 2
save_epoch_intervals = 2
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-3
weight_decay = 0.05 / 2
train_batch_size_per_gpu = 16

# 定义超参数
# 定义模型类别数、训练类别数、最大训练轮数等

# model settings
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldDualPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),
              text_enhancder=dict(type='ImagePoolingAttentionModule',
                                  embed_channels=256,
                                  num_heads=8)),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))

# 定义模型设置
# 包括模型类型、数据预处理器、骨干网络、颈部网络、边界框头部等配置

# dataset settings
text_transform = [

# 定义数据集设置
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义训练管道,包含一系列数据处理和增强操作
train_pipeline = [
    *_base_.pre_transform,  # 使用基础预处理操作
    dict(type='MultiModalMosaic',  # 使用多模态马赛克操作
         img_scale=_base_.img_scale,  # 图像缩放比例
         pad_val=114.0,  # 填充值
         pre_transform=_base_.pre_transform),  # 预处理操作
    dict(
        type='YOLOv5RandomAffine',  # 使用YOLOv5随机仿射变换操作
        max_rotate_degree=0.0,  # 最大旋转角度
        max_shear_degree=0.0,  # 最大剪切角度
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),  # 缩放比例范围
        max_aspect_ratio=_base_.max_aspect_ratio,  # 最大长宽比
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),  # 边界
        border_val=(114, 114, 114)),  # 边界填充值
    *_base_.last_transform[:-1],  # 使用基础最后的转换操作
    *text_transform,  # 文本转换操作
]

# 定义第二阶段的训练管道
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]

# 定义obj365v1训练数据集
obj365v1_train_dataset = dict(
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5Objects365V1Dataset',  # 使用YOLOv5 Objects365V1数据集
        data_root='data/objects365v1/',  # 数据根目录
        ann_file='annotations/objects365_train.json',  # 标注文件
        data_prefix=dict(img='train/'),  # 数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 过滤配置
    class_text_path='data/texts/obj365v1_class_texts.json',  # 类别文本路径
    pipeline=train_pipeline)  # 数据处理管道

# 定义mg训练数据集
mg_train_dataset = dict(type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
                        data_root='data/mixed_grounding/',  # 数据根目录
                        ann_file='annotations/final_mixed_train_no_coco.json',  # 标注文件
                        data_prefix=dict(img='gqa/images/'),  # 数据前缀
                        filter_cfg=dict(filter_empty_gt=False, min_size=32),  # 过滤配置
                        pipeline=train_pipeline)  # 数据处理管道

# 定义flickr训练数据集
flickr_train_dataset = dict(
    type='YOLOv5MixedGroundingDataset',  # 使用YOLOv5混合定位数据集
    data_root='data/flickr/',  # 数据根目录
    ann_file='annotations/final_flickr_separateGT_train.json',  # 标注文件
    data_prefix=dict(img='full_images/'),  # 数据前缀
    filter_cfg=dict(filter_empty_gt=True, min_size=32),  # 过滤配置
    pipeline=train_pipeline)  # 数据处理管道
# 定义训练数据加载器,设置批量大小、数据集拼接方式、数据集列表和忽略的键
train_dataloader = dict(batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=dict(_delete_=True,
                                     type='ConcatDataset',
                                     datasets=[
                                         obj365v1_train_dataset,
                                         flickr_train_dataset, mg_train_dataset
                                     ],
                                     ignore_keys=['classes', 'palette']))

# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
    *_base_.test_pipeline[:-1],
    dict(type='LoadText'),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
]

# 定义 COCO 验证数据集,设置数据集类型、根目录、测试模式、注释文件、数据前缀和批量形状配置
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5LVISV1Dataset',
                 data_root='data/coco/',
                 test_mode=True,
                 ann_file='lvis/lvis_v1_minival_inserted_image_name.json',
                 data_prefix=dict(img=''),
                 batch_shapes_cfg=None),
    class_text_path='data/texts/lvis_v1_class_texts.json',
    pipeline=test_pipeline)

# 定义验证数据加载器,设置数据集为 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 将测试数据加载器设置为验证数据加载器
test_dataloader = val_dataloader

# 定义验证评估器,设置评估类型为 LVIS 检测指标,注释文件为 LVIS 最小验证集的插入图像名称文件
val_evaluator = dict(type='mmdet.LVISMetric',
                     ann_file='data/coco/lvis/lvis_v1_minival_inserted_image_name.json',
                     metric='bbox')
# 将测试评估器设置为验证评估器
test_evaluator = val_evaluator

# 训练设置
# 默认钩子,设置参数调度器和检查点保存间隔
default_hooks = dict(param_scheduler=dict(max_epochs=max_epochs),
                     checkpoint=dict(interval=save_epoch_intervals,
                                     rule='greater'))
# 自定义钩子,设置指数动量 EMA 钩子的参数
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    # 创建一个字典,包含PipelineSwitchHook的相关参数
    dict(type='mmdet.PipelineSwitchHook', 
         # 设置切换pipeline的时机为最大训练轮数减去关闭mosaic的轮数
         switch_epoch=max_epochs - close_mosaic_epochs, 
         # 设置切换的pipeline为train_pipeline_stage2
         switch_pipeline=train_pipeline_stage2)
# 创建一个字典,包含训练配置参数
train_cfg = dict(max_epochs=max_epochs,  # 最大训练轮数
                 val_interval=10,  # 验证间隔
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),  # 动态间隔
                                     _base_.val_interval_stage2)])  # 验证阶段2的间隔设置

# 定义优化器包装器的配置参数
optim_wrapper = dict(optimizer=dict(
    _delete_=True,  # 删除原有的优化器配置
    type='AdamW',  # 优化器类型为AdamW
    lr=base_lr,  # 学习率
    weight_decay=weight_decay,  # 权重衰减
    batch_size_per_gpu=train_batch_size_per_gpu),  # 每个GPU的批处理大小
                     paramwise_cfg=dict(bias_decay_mult=0.0,  # 偏置项衰减倍数
                                        norm_decay_mult=0.0,  # 归一化层衰减倍数
                                        custom_keys={  # 自定义键值对
                                            'backbone.text_model':  # 文本模型的键
                                            dict(lr_mult=0.01),  # 学习率倍数
                                            'logit_scale':  # 输出层缩放的键
                                            dict(weight_decay=0.0)  # 输出层权重衰减
                                        }),
                     constructor='YOLOWv5OptimizerConstructor')  # 构造函数为YOLOWv5OptimizerConstructor

标签:num,train,yolo,_.,源码,dict,base,world,type
From: https://www.cnblogs.com/apachecn/p/18061438

相关文章

  • yolo-world 源码解析(二)
    .\YOLO-World\configs\pretrain\yolo_world_v2_l_vlpan_bn_2e-3_100e_4x8gpus_obj365v1_goldg_train_1280ft_lvis_minival.py#设置基础配置文件路径_base_=('../../third_party/mmyolo/configs/yolov8/''yolov8_l_syncbn_fast_8xb16-500e_coco.py�......
  • yolo-world 源码解析(三)
    .\YOLO-World\configs\segmentation\yolo_world_seg_l_dual_vlpan_2e-4_80e_8gpus_seghead_finetune_lvis.py_base_=('../../third_party/mmyolo/configs/yolov8/yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')#定义基础配置文件路径custom_imports......
  • yolo-world 源码解析(四)
    PreparingDataforYOLO-WorldOverviewForpre-trainingYOLO-World,weadoptseveraldatasetsaslistedinthebelowtable:DataSamplesTypeBoxesObjects365v1609kdetection9,621kGQA621kgrounding3,681kFlickr149kgrounding641kCC3M-L......
  • yolo-world 源码解析(五)
    .\YOLO-World\yolo_world\datasets\transformers\mm_transforms.py#导入所需的库importjsonimportrandomfromtypingimportTupleimportnumpyasnpfrommmyolo.registryimportTRANSFORMS#注册RandomLoadText类为TRANSFORMS模块@TRANSFORMS.register_module......
  • Marker 源码解析(一)
    .\marker\benchmark.pyimportargparseimporttempfileimporttimefromcollectionsimportdefaultdictfromtqdmimporttqdmfrommarker.convertimportconvert_single_pdffrommarker.loggerimportconfigure_loggingfrommarker.modelsimportload_all_mo......
  • Marker 源码解析(二)
    .\marker\marker\models.py#从marker.cleaners.equations模块中导入load_texify_model函数frommarker.cleaners.equationsimportload_texify_model#从marker.ordering模块中导入load_ordering_model函数frommarker.orderingimportload_ordering_model#从ma......
  • Hello,World
    HelloWorld随便新建一个文件夹,存放代码新建java文件文件后缀.javaHello.java[注意点]系统可能没有显示文件后缀名,需要手动打开编写代码publicclassHello{ publicstaticvoidmain(String[]args){ System.out.print("Hello,World!"); }}编译javac.jav......
  • springboot 2.4.0 启动源码分析
    SpringBoot启动的基本配置SpringBoot启动的配置主要有以下两个部分添加依赖最基本的springboot依赖只需要添加一个springboot启动器的依赖即可,如果是web服务则添加web的启动器<?xmlversion="1.0"encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"......
  • Spring-Framework6.1.x源码阅读环境搭建
    Spring-FrameWork6.1.x源码阅读环境搭建1.代码获取https://github.com/spring-projects/spring-framework.git。2.进入目录,修改目录下gradle/wrapper/gradle-wrapper.properties,看一下这里指定的gradle版本,distributionUrl=https://services.gradle.org/distributions/gradle-......
  • drf源码剖析----认证
    点击查看代码classRequest:def__init__(self,request,authenticators=None):self._request=requestself.authenticators=authenticatorsor()@propertydefuser(self):#类Request()中没有'_user',访问self._authenticate()......