目录
最近做街景语义分割相关的工作,因为没有gpu训练模型,且训练的模型往往MIOU很低,还不如直接找训练好的模型,所以在github找到了一个模型,具有cityscapes数据集预训练权重,不需要训练模型,不需要看懂模型,一行代码直接出语义分割之后的结果。
语义分割之后,用pyhton统计各个类别所占像素个数,用于后续定量指标的计算。
1、下载链接
1.1、CSDN链接,含权重文件直接使用,建议直接下这个,还不限速。
deeplabv3+代码及权重文件
这个已经包含权重,跳过第二步下载代码,直接第三步预测代码。
1.2 Github链接:
https://github.com/VainF/DeepLabV3Plus-Pytorch
链接失效,直接github搜索:VainF/DeepLabV3Plus-Pytorch
2、下载代码,下载预训练好的权重
选择哪一个都行,随便下载一个,以DeepLabV3Plus-ResNet101为例
没有checkpoints文件夹就自己建一个。
3、预测代码
单张图片:
python predict.py --input datasets/data/cityscapes/leftImg8bit/train/bremen/bremen_000000_000019_leftImg8bit.png --dataset cityscapes --model deeplabv3plus_mobilenet --ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth --save_val_results_to test_results
文件夹:
python predict.py --input datasets/data/cityscapes/leftImg8bit/train/bremen --dataset cityscapes --model deeplabv3plus_mobilenet --ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth --save_val_results_to test_results
python predict.py 意思是运行predict这个python文件
–input datasets/bremen_000000_000019_leftImg8bit.png 这里是输入文件/输入文件夹,修改为自己的比如:E:\深圳街景\A01街景原图\福田区
–dataset cityscapes 使用的数据集
–model deeplabv3plus_mobilenet 使用的模型,或者deeplabv3plus_resnet101
–ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth 权重文件,需要新建checkpoints文件夹,将权重文件放进去。或者使用best_deeplabv3plus_resnet101_cityscapes_os16.pth.tar这个权重文件
注:–model要与–ckpt权重文件保持一致,mobilenet就都mobilenet,resnet101就都resnet101。
–save_val_results_to test_results 输出文件夹,指定路径即可,不存在会按照指定的路径创建
直接将所有图片进行语义分割,随后将四个图片的像素求平均即可。
建议直接用四个方向的图预测。
如果是全景图的话,建议用ptgui pro拆分成上下前后左右六个方向,保留前后左右四个方向,是否保留上方向,自己考虑。根据我的结果是不建议,全是天空没有意义且模型分错严重。
全景图还是四个方向,见仁见智,论文中都有,只不过更多的是四个方向。
以文件夹为例:
python predict.py --input D:\街景图片 --dataset cityscapes --model deeplabv3plus_resnet101 --ckpt checkpoints/best_deeplabv3plus_resnet101_cityscapes_os16.pth.tar --save_val_results_to D:\语义分割后的图片
如果下载的模型是:
–model deeplabv3plus_mobilenet
–ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth
如果下载的模型是:
–model deeplabv3plus_resnet101
–ckpt checkpoints/best_deeplabv3plus_resnet101_cityscapes_os16.pth.tar
出现其他运行的错误,包括但不限于 numpy之类的,百度搜索一下就可以解决。
4、像素提取,或者说类别提取
语义分割之后,统计各类像素数量的代码:
常规提取代码:运行速度比较慢,大概2张/1s(不维护了,也不出了)。
改进提取代码+说明文档:能达到60张/s(取决于cpu),并且文件保存时间几乎为0。文档内容见下图。
需要代码(语义分割结果提取像素的代码,不是模型提升精度的代码)联系邮箱437969428@qq.com,放wx会被认为广告,下架博文,所以邮箱联系,邮箱有通知,看到会秒回。你直接在邮箱留下你的联系方式,我加你,节省你的时间,直接说要什么代码就行,不用太正式,你才是上帝,我是希望你买我代码的,所以不用太在意邮件格式。
5、文档部分内容截图
6、其他数据处理/程序/指导!!!
直接看PDF吧,搬过来调格式类似了。
通过网盘分享的文件:v1.1 数据_代码_指导.pdf
链接: https://pan.baidu.com/s/1E93QTFcdl7DQjCYZW1Kj2Q?pwd=GGGX 提取码: GGGX
目录:GIS数据处理/程序/指导,街景百度热力图POI路网建筑物AOI等
-
百度热力图指导,买数据提供指导,含详细说明文档。链接0-数据介绍:百度慧眼百度热力图数据处理,可直接用于论文。链接1-原理及应用:百度热力图数据获取,原理,处理及论文应用-CSDN博客 。链接2-Pro操作:百度热力图数据处理流程Arcgis PRO篇,Arcgis,QGIS见链接其他文章-CSDN博客。
-
多模型(含全部树模型)分类回归精度结果对比(回复审稿人意见之:为什么选某个模型?比如为什么选XGBoost?)。
回归模型:线性模型(Linear、Ridge 、Lasso、Huber 、Partial Least Squares),KNN,SVR,树模型(Decision Tree、RF、AdaBoost 、GBDT、XGBoost、LightGBM 、CatBoost )。可自定义增加。 分类模型:Logistic Regression、Naive Bayes、KNN、SVM、树模型(Decision Tree、RF、AdaBoost 、GBDT、XGBoost、LightGBM 、CatBoost )可自定义增加。
3.各种树模型分类回归代码(RF/GBDT/XGBoost/LightGBM/Catboost等模型对比,最优模型最优参数)。
3. 树模型-SHAP分析,上一步选模型,这一步用模型进行分析。
4. GCN用于街道研究,如GCN实现街道功能分类。
5. 树模型-SHAP分析,上一步选模型,这一步用模型进行分析。
6. 街景语义分割后像素提取,指标计算代码(绿视率、天空开阔度、界面围合度、视觉熵/景观多样性等),含详细说明文档。deeplabv3+街景图片语义分割,无需训练模型,看不懂也没有影响,直接使用,cityscapes数据集。
7. 街景主观感知两两对比程序(数据集生成,自定义每张图片出现次数,提示剩余总对比次数,对比程序!最少对比次数,最高的效率。街景主观感知1:街景图片两两对比程序),TrueSkill计算beautiful、safer等维度主观感知评分(原理,代码)均含详细说明文档。街景两两对比程序,Trueskill计算评分代码,训练模型,预测街景。
8. 街景主观感知训练,预测模型(beautiful, safer等自定义维度),多模型对比(ResNet50,ResNet101,EfficientNet、VGGNet、GoogleNet、DenseNet、MobileNet、ShuffleNet、Xception、ConvNeXt、Vision Transformer (ViT)、RegNet等),beautiful和safer维度精度均达到0.89。街景两两对比程序,Trueskill计算评分代码,训练模型,预测街景。
9. 街景图片色彩聚类。
10. 全国街景数据。
11. OSM路网简化指导(详细说明文档,双线变单线,fclass选择,拓扑检查,短道路处理)。
12. POI数据,重分类,各种密度,各种比例,功能混合度/熵/多样性计算。
13. 建筑物各种指标计算(建筑密度,容积率)。
14. 坐标系转化代码(bg09,wgs84,Gcj02等各种地理,投影转化)。
15. GIS相关处理,指标计算,街道街区相关,活力相关,街道品质相关。
需要代码联系邮箱437969428@qq.com。你直接在邮箱留下你的联系方式,我加你,节省你的时间,直接说要什么代码就行,不用太正式,你才是上帝,我是希望你买我代码的,所以不用太在意邮件格式。
标签:模型,街景,代码,--,deeplabv3,deeplabv3plus,cityscapes From: https://blog.csdn.net/m0_48587622/article/details/145071627