首页 > 编程问答 >关于立体视觉深度估计的一些问题

关于立体视觉深度估计的一些问题

时间:2024-07-30 08:34:09浏览次数:7  
标签:python image-processing computer-vision stereo-3d

目前我正在尝试做一些深度估计方面的工作。以下是我的代码

import cv2
import numpy as np
import math

left_camera_matrix = np.array([
    [379.631915328262,  -0.102220945295059, 315.958769543110],
    [  0,              379.732222668215,    203.885845031288],
    [  0,                0,                   1]
])
left_distortion = np.array([-0.417587221276122, 0.197712476970145, 0.000411591628002515, 0.000387147224501379, 0])

right_camera_matrix = np.array([
    [381.634497453356,  -0.288819419456584, 317.646637211302],
    [  0,              381.808417017535,    201.083906323572],
    [  0,                0,                   1]
])

right_distortion = np.array([-0.411726209080630, 0.177029424249621, -9.24380995973130e-05, -0.000341428776614118, 0])

R = np.array([
    [ 0.999991875121332,     0.000530694118664997, -0.00399600488918945],
    [-0.000511655123048737,  0.999988521078969,     0.00476402343943493],
    [0.00399848725858538,  - 0.00476194015594924,   0.999980667825931]
])  # 使用Rodrigues变换将om变换为R

T = np.array([
    [-80.0808305021553],
    [  0.104412532264216],
    [ -0.0774106064433224]
]) # 平移关系向量

size = (640, 400) # 图像尺寸
# 进行立体更正
(R1, R2, P1, P2, Q, validPixROI1, validPixROI2) = \
    cv2.stereoRectify(
        left_camera_matrix, left_distortion, right_camera_matrix, right_distortion, size, R, T)

# 计算更正map
left_map1, left_map2 = cv2.initUndistortRectifyMap(left_camera_matrix, left_distortion, R1, P1, size, cv2.CV_16SC2)
right_map1, right_map2 = cv2.initUndistortRectifyMap(right_camera_matrix, right_distortion, R2, P2, size, cv2.CV_16SC2)

def callbackFunc(e, x, y, f, p):
    if e == cv2.EVENT_LBUTTONDOWN:
        print(threeD[y][x])

def onm ouse_pick_points(event, x, y, flags, param):
    if event == cv2.EVENT_LBUTTONDOWN:
        threeD = param
        print('\n像素坐标 x = %d, y = %d' % (x, y))
        # print("世界坐标是:", threeD[y][x][0], threeD[y][x][1], threeD[y][x][2], "mm")
        print("世界坐标xyz 是:", threeD[y][x][0] / 1000.0, threeD[y][x][1] / 1000.0, threeD[y][x][2] / 1000.0, "m")
        distance = math.sqrt(threeD[y][x][0] ** 2 + threeD[y][x][1] ** 2 + threeD[y][x][2] ** 2)
        distance = distance / 1000.0  # mm -> m
        print("距离是:", distance, "m")

cap = cv2.VideoCapture(0)
(ret,frame) = cap.read()
img_channels = 3
stereo = cv2.StereoSGBM_create()

while ret:
    (ret, frame) = cap.read()
    left_frame = cv2.imread('./left.png')
    right_frame = cv2.imread('./right.png')

    img1_rectified = cv2.remap(left_frame, left_map1, left_map2, cv2.INTER_LINEAR)
    img2_rectified = cv2.remap(right_frame, right_map1, right_map2, cv2.INTER_LINEAR)

    imgL = cv2.cvtColor(img1_rectified, cv2.COLOR_BGR2GRAY)
    imgR = cv2.cvtColor(img2_rectified, cv2.COLOR_BGR2GRAY)


    blockSize=10
    stereo.setMinDisparity(0)
    stereo.setNumDisparities(6*16)
    stereo.setBlockSize(10)
    stereo.setDisp12MaxDiff(1)
    stereo.setPreFilterCap(0)
    stereo.setUniquenessRatio(0)
    stereo.setSpeckleRange(0)
    stereo.setSpeckleWindowSize(0)
    stereo.setP1(8 * 3 * blockSize**2)
    stereo.setP2(32 * 3 * blockSize**2)
    stereo.setMode(cv2.STEREO_SGBM_MODE_SGBM_3WAY)

    left_disparity = stereo.compute(imgL,imgR)

    disp = cv2.normalize(left_disparity,dst=None, alpha=0, beta=255, norm_type=cv2.NORM_MINMAX, dtype=cv2.CV_8U)
    threeD = cv2.reprojectImageTo3D(left_disparity, Q, handleMissingValues=True)

    threeD = threeD * 16
    cv2.imshow("show",disp)
    cv2.setMouseCallback("show", onm ouse_pick_points, threeD)
    if cv2.waitKey(1)&0xff==ord('q'):
        break
cv2.destroyAllWindows()
cap.release()


问题是,当我想通过视差图了解靠近相机的物体时,它无法工作,地图变得一团糟。 [1]: https://i.sstatic.net/JZHFK.png 但是当物体远离相机时,变得好一些,但仍然不理想 [2]: https://i.sstatic.net/FnlAK.png 我已经调整了参数,但仍然无法得到理想的地图。

这是左图[ 3]: https://i.sstatic.net/ZsaPx.png 和右框[4]: https://i.sstatic.net/4Ruq6.png


的代码和问题描述都很好,我理解在使用双目立体视觉进行深度估计时遇到的问题:近处物体深度估计不佳,即使是远处物体效果也不够理想。

我分析了的代码和提供的图片,总结出以下几点可能导致问题的原因和相应的改进建议:

1. 相机标定误差:

  • 标定误差是影响深度估计精度的重要因素。的代码使用了固定的相机内参和外参矩阵,需要确认这些参数是否准确。
  • 建议: 重新进行相机标定,确保获得高精度的相机内参和外参矩阵。可以使用 OpenCV 的标定工具或者 Matlab 的相机标定工具箱。

2. 立体校正问题:

  • 立体校正的目的是使两幅图像的极线位于同一水平线上,这是进行稠密匹配的前提条件。校正效果不佳会导致匹配误差增大,进而影响深度估计精度。
  • 建议: 检查立体校正的效果。可以使用 OpenCV 的 stereoCalibrate() 函数进行标定,并使用 rectifyImage() 函数进行校正。可以通过观察校正后的图像是否满足极线约束来判断校正效果。

3. SGBM 参数设置:

  • StereoSGBM 算法的各项参数对深度估计效果有很大影响。提供的参数设置可能不是最佳的,尤其是在处理近处物体时。
  • 建议:
    • 尝试减小 blockSize 参数,可以提高近处物体的细节表现,但可能会增加噪声。
    • 尝试增加 numDisparities 参数,可以扩大深度估计范围,但会增加计算量。
    • 调整 P1 P2 参数,可以控制视差图的平滑程度。
    • 可以参考 OpenCV 官方文档中对 StereoSGBM 参数的解释,进行更细致的调整。
    • 使用 StereoSGBM mode 参数,尝试不同的匹配模式,例如 MODE_HH 可能会得到更好的效果。

4. 遮挡和弱纹理区域:

  • 双目立体视觉算法在处理遮挡和弱纹理区域时会遇到困难,容易出现误匹配。
  • 建议:
    • 可以尝试使用其他深度估计方法,例如基于深度学习的方法,来处理这些区域。
    • 可以使用一些后处理方法,例如左右一致性检查,来剔除误匹配。

5. 代码实现:

  • 的代码中使用 reprojectImageTo3D() 函数将视差图转换为点云,需要检查该函数的输入参数是否正确。
  • 建议: 打印出 reprojectImageTo3D() 函数的输入参数,确保其类型和值正确。

一些额外的建议:

  • 为了更好地分析问题,建议分别显示左视图、右视图、校正后的左视图、校正后的右视图以及视差图。
  • 可以尝试使用其他公开的双目立体视觉数据集,例如 Middlebury Stereo Datasets,来测试的代码和算法,并与其他方法进行比较。

希望以上建议能帮助解决问题,获得更好的深度估计结果! 如果还有其他问题,请随时提出。

标签:python,image-processing,computer-vision,stereo-3d
From: 73699694

相关文章

  • 即使使用 docker run -dit 命令,python-Docker 容器也会在运行两秒后退出
    我想从此处使用Dockerfile测试自定义kubernetes调度程序:FROMpython:3.7RUNpipinstallkubernetesCOPYscheduler.py/scheduler.pyCMDpython/scheduler.py一旦创建了映像和容器:dockerbuild-tapp.dockercontainerrun-d-it--namemy-sched......
  • Python多重处理,如何避免创建具有百万个对象的元组
    python多处理新手。我有一项任务,涉及访问网络服务数百万次并将响应保存在文件中(每个请求都有单独的文件)。我已经得到了高级工作代码,但对一些事情没有感到困惑。以下两种语法有什么区别?pool=Pool(processes=4)pool.starmap(task,listOfInputParametersTu......
  • Python OpenCV - 显示坏像素检查测试
    我想找到显示器中存在的每个坏像素。坏像素可能是颜色不正确的像素,或者像素只是黑色。显示屏的尺寸为160x320像素。所以如果显示效果好的话,必须有160*320=51200像素。如果显示器没有51200像素,那就是坏的。另外,我想知道每个坏像素的位置。一旦拍摄的图像太大,我将共享一个......
  • 在python日志输出的每一行前面添加变量缩进
    我正在将日志记录构建到一个Python应用程序中,我希望它是人类可读的。目前,调试日志记录了调用的每个函数以及参数和返回值。这意味着,实际上,嵌套函数调用的调试日志可能如下所示:2024-07-2916:52:26,641:DEBUG:MainController.initialize_componentscalledwithargs<control......
  • 使用 DQN 实现 pong,使用 python 中的特征向量而不是像素。我的 DQNA 实现代码正确吗,因
    我正在致力于使用OpenAI的Gym为Pong游戏实现强化学习(RL)环境。目标是训练人工智能代理通过控制球拍来打乒乓球。代理收到太多负面奖励,即使它看起来移动正确。具体来说,奖励函数会惩罚远离球的智能体,但这种情况发生得太频繁,即使球朝球拍移动时似乎也会发生。观察......
  • Python CDLL 无法加载两次
    我正在尝试用python创建一个密码管理器,但遇到了一个问题,一旦加载了一种类型的dll,我就无法加载不同的dll,在这个示例中,我加载了一个dll,并尝试解密加密的密码数据,它工作正常,直到我加载另一个不同的nss3.dll文件,此时它给我一个错误:“过程入口点HeapAlloc无法位于动态链......
  • 你能将 HTTPS 功能添加到 python Flask Web 服务器吗?
    我正在尝试构建一个Web界面来模拟网络设备上的静态接口,该网络设备使用摘要式身份验证和HTTPS。我想出了如何将摘要式身份验证集成到Web服务器中,但我似乎无法找到如何使用FLASK获取https,如果您可以向我展示如何实现,请评论我需要使用下面的代码做什么来实现这一点。from......
  • Python:比较 csv 文件并打印相似之处
    我需要比较两个csv文件并打印出它们的相似之处。第一个文件有名称和浓度,第二个文件就像只有名称的“最佳”列表,我需要绘制相似性图表。例如,这就是我的列表的样子:file1-old_file.csvname_id,conc_test1,conc_test2name1,####,####name2,###......
  • Python 类交叉引用
    我用Python创建了一个数独游戏。我有一个:单元格类-“保存”数字可能性单元格组-保存单元格类实例我使用这些组在数独中运行行、列和正方形功能。每个单元格包含所有组,他属于classCell:def__init__(groups):self.groups=groupscla......
  • 如何修复我的 Python Azure Function DevOps Pipeline 上的“找到 1 个函数(自定义)加载
    我正在尝试使用AzureDevOps构建管道将PythonAzureFunction部署到Azure门户。由于某种原因,代码被部署到服务器,但我在尝试访问端点时收到404错误。我收到一个错误,显示1functionsfound(Custom)0functionsloaded,以及在服务器上显示ModuleNotFound......