Advertisement

导航与定位:地图构建与更新_(14).地图构建中的环境感知技术

阅读量:

地图构建中的环境感知技术

在这里插入图片描述

在导航与定位系统中,环境感知技术构成地图构建的重要组成部分。该技术借助传感器实时采集周边环境的数据,并通过分析辨识并解析环境中存在的物体、建筑及其动态变化情况。这些信息不仅用于生成基础地图数据,在导航过程中持续更新和维护地图数据的同时还可以反映出环境的变化特征。本节将深入探讨几种主要的环境感知技术,并阐述它们在地图构建过程中的应用。

1. 激光雷达(LiDAR)感知

激光雷达(LiDAR)是一种利用发送激光脉冲并测量反射光的时间间隔来确定物体距离的传感器。在机器人导航和自动驾驶技术领域中得到广泛应用,在此过程中它能够生成高精度的空间数据集,在此过程中对于构建详细的地图具有重要意义

1.1 原理

LiDAR系统发射激光脉冲,在遇到物体后会将反射回传感器的数据捕获进来。
利用测得的激光脉冲往返时间数据来计算传感器与物体之间的距离非常精确。
利用多组不同方向发出与接收的数据信息来构建一个三维点云模型,则能够详细地描绘出环境中的几何结构。

1.2 点云处理

点云处理涉及将原始点云数据转换为有用信息的过程。其中包含的主要步骤有:

滤波 :去除噪声点和离群点。

特征提取 :提取点云中的几何特征,如平面、边缘等。

聚类 :将点云中的点分组,识别出不同的物体。

配准 :将多个点云数据集对齐,生成完整地图。

1.2.1 滤波

过滤是点云处理中的首要步骤,在此过程中会对数据中的异常值进行剔除。常见的过滤方法包括统计滤波法和条件判别法等。

复制代码
    import open3d as o3d
    
    
    
    # 读取点云数据
    
    pcd = o3d.io.read_point_cloud("input.ply")
    
    
    
    # 统计滤波
    
    cl, ind = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=2.0)
    
    pcd_filtered = pcd.select_by_index(ind)
    
    
    
    # 可视化滤波前后的点云
    
    o3d.visualization.draw_geometries([pcd])
    
    o3d.visualization.draw_geometries([pcd_filtered])
1.2.2 特征提取

特征获取是从点云数据中获取关键信息的过程,在此过程中涉及的几何元素包括平面和边缘等基本要素。其中用于提取平面的常用方法是RANSAC算法。

复制代码
    # 平面提取
    
    plane_model, inliers = pcd_filtered.segment_plane(distance_threshold=0.01, ransac_n=3, num_iterations=1000)
    
    inlier_cloud = pcd_filtered.select_by_index(inliers)
    
    outlier_cloud = pcd_filtered.select_by_index(inliers, invert=True)
    
    
    
    # 可视化提取的平面和剩余点云
    
    inlier_cloud.paint_uniform_color([1.0, 0, 0])  # 将平面点云涂成红色
    
    outlier_cloud.paint_uniform_color([0.5, 0.5, 0.5])  # 将剩余点云涂成灰色
    
    o3d.visualization.draw_geometries([inlier_cloud, outlier_cloud])
1.2.3 聚类

该过程主要通过将点云中的点分组来实现对不同物体的识别。这一过程涉及多种聚类方法中的一种或几种。

复制代码
    # 聚类
    
    with o3d.utility.VerbosityContextManager(o3d.utility.VerbosityLevel.Debug) as cm:
    
    labels = np.array(outlier_cloud.cluster_dbscan(eps=0.02, min_points=10, print_progress=True))
    
    
    
    max_label = labels.max()
    
    print(f"Point cloud has {max_label + 1} clusters")
    
    colors = plt.get_cmap("tab20")(labels / (max_label if max_label > 0 else 1))
    
    colors[labels < 0] = 0  # 将噪声点涂成黑色
    
    outlier_cloud.colors = o3d.utility.Vector3dVector(colors[:, :3])
    
    o3d.visualization.draw_geometries([outlier_cloud])
1.2.4 配准

配准旨在通过将多个点云数据集对齐来生成完整地图。常用的配准方法中的一种是ICP算法。

复制代码
    # 读取另一个点云数据集
    
    pcd2 = o3d.io.read_point_cloud("input2.ply")
    
    
    
    # ICP配准
    
    threshold = 0.02
    
    trans_init = np.asarray([[1.0, 0.0, 0.0, 0.0], [0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0], [0.0, 0.0, 0.0, 1.0]])
    
    reg_p2p = o3d.pipelines.registration.registration_icp(pcd_filtered, pcd2, threshold, trans_init, o3d.pipelines.registration.TransformationEstimationPointToPoint())
    
    print(reg_p2p)
    
    print("Transformation is:")
    
    print(reg_p2p.transformation)
    
    
    
    # 可视化配准后的点云
    
    pcd2_transformed = pcd2.transform(reg_p2p.transformation)
    
    o3d.visualization.draw_geometries([pcd_filtered, pcd2_transformed])

2. 摄像头感知

摄像头感知是基于图像数据的采集与处理过程来实现环境特征的识别与分析。该技术在计算机视觉领域得到了广泛的应用,并广泛应用于物体识别、场景分析等多个子领域。

2.1 原理

摄像头的工作基础在于利用图像传感器收集环境中的影像数据;随后运用计算机视觉算法对这些影像进行分析与处理,以获取有价值的信息。常见步骤涉及图像预处理、特征提取以及目标识别等技术环节。

2.2 图像预处理

图像预处理旨在将原始图像转换为更适合后续处理的格式。常见的预处理步骤如灰度化、降噪和边缘检测等方法。

复制代码
    import cv2
    
    import numpy as np
    
    
    
    # 读取图像
    
    image = cv2.imread("input.jpg")
    
    
    
    # 灰度化
    
    gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    
    
    
    # 去噪
    
    blurred_image = cv2.GaussianBlur(gray_image, (5, 5), 0)
    
    
    
    # 边缘检测
    
    edges = cv2.Canny(blurred_image, 50, 150)
    
    
    
    # 显示预处理后的图像
    
    cv2.imshow("Original Image", image)
    
    cv2.imshow("Grayscale Image", gray_image)
    
    cv2.imshow("Blurred Image", blurred_image)
    
    cv2.imshow("Edges", edges)
    
    cv2.waitKey(0)
    
    cv2.destroyAllWindows()

2.3 特征提取

特征识别是从图像中获取有意义信息的一种技术。主流的特征提取技术主要包括SIFT和SURF算法等。

复制代码
    # SIFT特征提取
    
    sift = cv2.SIFT_create()
    
    keypoints, descriptors = sift.detectAndCompute(blurred_image, None)
    
    
    
    # 可视化特征点
    
    image_with_keypoints = cv2.drawKeypoints(image, keypoints, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
    
    cv2.imshow("Image with SIFT Keypoints", image_with_keypoints)
    
    cv2.waitKey(0)
    
    cv2.destroyAllWindows()

2.4 物体检测和识别

物体检测和识别被机器学习算法所应用,在图像数据中进行特定物体的检测。常用的检测方法包含以深度学习为基础的模型体系,其中 notable 的有 YOLO 和 Faster R-CNN 等。

复制代码
    # 使用YOLO进行物体检测
    
    net = cv2.dnn.readNetFromDarknet("yolov3.cfg", "yolov3.weights")
    
    layer_names = net.getLayerNames()
    
    output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()]
    
    
    
    # 图像预处理
    
    blob = cv2.dnn.blobFromImage(image, 0.00392, (416, 416), (0, 0, 0), True, crop=False)
    
    net.setInput(blob)
    
    outs = net.forward(output_layers)
    
    
    
    # 解析检测结果
    
    class_ids = []
    
    confidences = []
    
    boxes = []
    
    for out in outs:
    
    for detection in out:
    
        scores = detection[5:]
    
        class_id = np.argmax(scores)
    
        confidence = scores[class_id]
    
        if confidence > 0.5:
    
            center_x = int(detection[0] * image.shape[1])
    
            center_y = int(detection[1] * image.shape[0])
    
            width = int(detection[2] * image.shape[1])
    
            height = int(detection[3] * image.shape[0])
    
            x = int(center_x - width / 2)
    
            y = int(center_y - height / 2)
    
            class_ids.append(class_id)
    
            confidences.append(float(confidence))
    
            boxes.append([x, y, width, height])
    
    
    
    # 非极大值抑制
    
    indices = cv2.dnn.NMSBoxes(boxes, confidences, 0.5, 0.4)
    
    
    
    # 可视化检测结果
    
    with open("coco.names", "r") as f:
    
    classes = [line.strip() for line in f.readlines()]
    
    colors = np.random.uniform(0, 255, size=(len(classes), 3))
    
    
    
    for i in indices:
    
    i = i[0]
    
    box = boxes[i]
    
    x, y, w, h = box
    
    label = str(classes[class_ids[i]])
    
    color = colors[class_ids[i]]
    
    cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
    
    cv2.putText(image, label, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
    
    
    
    cv2.imshow("Object Detection", image)
    
    cv2.waitKey(0)
    
    cv2.destroyAllWindows()

3. 深度感知

深度感知技术利用环境的深度信息来生成三维地图。常用的深度感知方法主要有结构光、TOF技术和双目立体视觉等。

3.1 原理

深度感知采用多种技术手段收集环境中的深度数据,并将其转化为三维点云模型;结构光法借助特定光纹投影来获取物体表面几何信息;基于激光或红外脉冲信号的时间差测量则可实现精确的距离感知;而双目系统则利用两个摄像头捕获同一场景的不同视图,并通过立体匹配算法计算各点的空间坐标值

3.2 结构光深度感知

结构光深度感知采用特定的光照模式进行照射,在摄像头捕捉到反射回波的基础上计算深度信息。主流的结构光设备主要包括Kinect、Structure Core等装置。

复制代码
    import pyrealsense2 as rs
    
    import numpy as np
    
    import cv2
    
    
    
    # 初始化Realsense摄像头
    
    pipeline = rs.pipeline()
    
    config = rs.config()
    
    config.enable_stream(rs.stream.depth, 640, 480, rs.format.z16, 30)
    
    config.enable_stream(rs.stream.color, 640, 480, rs.format.bgr8, 30)
    
    
    
    # 启动摄像头
    
    pipeline.start(config)
    
    
    
    try:
    
    while True:
    
        # 获取一帧数据
    
        frames = pipeline.wait_for_frames()
    
        depth_frame = frames.get_depth_frame()
    
        color_frame = frames.get_color_frame()
    
        if not depth_frame or not color_frame:
    
            continue
    
    
    
        # 将数据转换为numpy数组
    
        depth_image = np.asanyarray(depth_frame.get_data())
    
        color_image = np.asanyarray(color_frame.get_data())
    
    
    
        # 可视化深度图像和彩色图像
    
        depth_colormap = cv2.applyColorMap(cv2.convertScaleAbs(depth_image, alpha=0.03), cv2.COLORMAP_JET)
    
        images = np.hstack((color_image, depth_colormap))
    
        cv2.imshow("Depth and Color Image", images)
    
    
    
        # 按q键退出
    
        if cv2.waitKey(1) & 0xFF == ord('q'):
    
            break
    
    
    
    finally:
    
    # 停止摄像头
    
    pipeline.stop()
    
    cv2.destroyAllWindows()

3.3 飞行时间(ToF)深度感知

测距技术(Time of Flight, ToF)基于光线反射原理,在接收端计算物体到传感器的距离。常用的ToF设备包括PMD、Microsoft ToF等。

复制代码
    import pytof as tof
    
    import numpy as np
    
    import cv2
    
    
    
    # 初始化ToF摄像头
    
    tof_camera = tof.ToFCamera()
    
    
    
    # 启动摄像头
    
    tof_camera.start()
    
    
    
    try:
    
    while True:
    
        # 获取深度图像
    
        depth_image = tof_camera.get_depth_image()
    
    
    
        # 可视化深度图像
    
        depth_colormap = cv2.applyColorMap(cv2.convertScaleAbs(depth_image, alpha=0.03), cv2.COLORMAP_JET)
    
        cv2.imshow("ToF Depth Image", depth_colormap)
    
    
    
        # 按q键退出
    
        if cv2.waitKey(1) & 0xFF == ord('q'):
    
            break
    
    
    
    finally:
    
    # 停止摄像头
    
    tof_camera.stop()
    
    cv2.destroyAllWindows()

3.4 双目立体视觉深度感知

该系统利用双眼设备通过两个摄像头获取同一场景的图像信息,并随后运用立体匹配算法估算出物体的深度。其中常见的算法包括SGM(Semi-Global Matching)和BM(Block Matching)等。

复制代码
    import cv2
    
    import numpy as np
    
    
    
    # 读取双目摄像头图像
    
    left_image = cv2.imread("left.jpg")
    
    right_image = cv2.imread("right.jpg")
    
    
    
    # 初始化立体匹配算法
    
    stereo = cv2.StereoSGBM_create(minDisparity=0, numDisparities=16*10, blockSize=15, P1=8*3*15**2, P2=32*3*15**2, disp12MaxDiff=1, preFilterCap=63, uniquenessRatio=10, speckleWindowSize=100, speckleRange=32)
    
    
    
    # 计算视差图
    
    disparity = stereo.compute(left_image, right_image)
    
    
    
    # 可视化视差图
    
    disparity_colormap = cv2.applyColorMap(cv2.convertScaleAbs(disparity, alpha=0.03), cv2.COLORMAP_JET)
    
    cv2.imshow("Disparity Map", disparity_colormap)
    
    cv2.waitKey(0)
    
    cv2.destroyAllWindows()

4. 多传感器融合

采用多传感器融合技术能够整合多种传感器数据以提升环境感知的准确性与抗干扰能力。传统的多传感器融合方法主要涉及卡尔曼滤波和粒子滤波等技术。

4.1 原理

多传感器融合的基本原理在于通过数据融合算法对来自不同传感器的数据进行综合处理以生成更精确的环境信息。卡尔曼滤波器作为一种基于贝叶斯理论的重要数据融合算法特别适用于线性系统的场景;而粒子滤波则特别适用于非线性系统的场景

4.2 卡尔曼滤波

卡尔曼滤波是一种递归滤波器,在状态预测与状态更新阶段结合来自传感器的数据进行系统运行状态的估算。卡尔曼滤波器在导航技术及机器人学领域被广泛应用,并且能够有效地抑制传感器噪声并准确反映系统的动态特性。

复制代码
    import cv2
    
    import numpy as np
    
    
    
    # 初始化卡尔曼滤波器
    
    kf = cv2.KalmanFilter(4, 2)
    
    kf.measurementMatrix = np.array([[1, 0, 0, 0], [0, 1, 0, 0]], np.float32)
    
    kf.transitionMatrix = np.array([[1, 0, 1, 0], [0, 1, 0, 1], [0, 0, 1, 0], [0, 0, 0, 1]], np.float32)
    
    kf.processNoiseCov = np.array([[1, 0, 0, 0], [0, 1, 0, 0], [0, 0, 1, 0], [0, 0, 0, 1]], np.float32) * 0.03
    
    kf.measurementNoiseCov = np.array([[1, 0], [0, 1]], np.float32) * 0.1
    
    
    
    # 初始化测量值
    
    measurement = np.array((2, 1), np.float32)
    
    prediction = np.zeros((2, 1), np.float32)
    
    
    
    # 模拟传感器数据
    
    def simulate_sensor_data():
    
    # 生成模拟数据
    
    return np.array([100 + np.random.randn(), 100 + np.random.randn()], np.float32)
    
    
    
    try:
    
    while True:
    
        # 获取传感器数据
    
        measurement = simulate_sensor_data()
    
    
    
        # 预测
    
        prediction = kf.predict()
    
    
    
        # 更新
    
        kf.correct(measurement)
    
    
    
        # 可视化预测和测量结果
    
        print("Measurement:", measurement)
    
        print("Prediction:", prediction)
    
    
    
        # 按q键退出
    
        if cv2.waitKey(1) & 0xFF == ord('q'):
    
            break
    
    
    
    finally:
    
    cv2.destroyAllWindows()

4.3 粒子滤波

该算法采用蒙特卡洛方法进行数据融合,在处理非线性问题时表现出色。首先利用随机采样生成多个状态样本以表示系统的概率分布;随后根据重要性权重筛选出较优样本,并通过重采样过程进一步优化这些样本以跟踪变化的状态。

该算法采用蒙特卡洛方法进行数据融合,在处理非线性问题时表现出色。首先利用随机采样生成多个状态样本以表示系统的概率分布;随后根据重要性权重筛选出较优样本,并通过重采样过程进一步优化这些样本以跟踪变化的状态。

复制代码
    import numpy as np
    
    import matplotlib.pyplot as plt
    
    
    
    # 初始化粒子
    
    num_particles = 100
    
    particles = np.random.normal(0, 10, (num_particles, 2))
    
    
    
    # 模拟传感器数据
    
    def simulate_sensor_data():
    
    return np.array([100 + np.random.randn(), 100 + np.random.randn()])
    
    
    
    # 重要性权重
    
    def importance_weight(particle, measurement):
    
    # 计算粒子与测量值之间的距离
    
    distance = np.linalg.norm(particle - measurement)
    
    return np.exp(-distance / 10)
    
    
    
    # 重采样
    
    def resample(particles, weights):
    
    indices = np.random.choice(np.arange(num_particles), size=num_particles, p=weights)
    
    return particles[indices]
    
    
    
    # 更新粒子
    
    def update_particles(particles, measurement):
    
    weights = np.array([importance_weight(particle, measurement) for particle in particles])
    
    weights /= np.sum(weights)
    
    particles = resample(particles, weights)
    
    return particles
    
    
    
    try:
    
    while True:
    
        # 获取传感器数据
    
        measurement = simulate_sensor_data()
    
    
    
        # 更新粒子
    
        particles = update_particles(particles, measurement)
    
    
    
        # 可视化粒子和测量结果
    
        plt.scatter(particles[:, 0], particles[:, 1], c='b', label='Particles')
    
        plt.scatter([measurement[0]], [measurement[1]], c='r', label='Measurement')
    
        plt.legend()
    
        plt.show()
    
    
    
        # 按q键退出
    
        if cv2.waitKey(1) & 0xFF == ord('q'):
    
            break
    
    
    
    finally:
    
    cv2.destroyAllWindows()

4.4 多传感器融合应用

多传感器融合技术在地图构建中发挥着关键作用,在复杂多变的环境下尤其显著。利用激光雷达、摄像头以及深度传感器等多种数据源进行信息融合处理后,则能够实现高精度且可靠的三维地图构建

多传感器融合技术在地图构建中发挥着关键作用,在复杂多变的环境下尤其显著

4.4.1 激光雷达与摄像头融合

激光雷达提供高质量的空间分布信息,而摄像头则提供丰富的视觉细节。通过将这两种传感器的数据进行整合分析,在构建综合地图时能够实现物体识别和几何结构的精准描述。

复制代码
    import open3d as o3d
    
    import cv2
    
    import numpy as np
    
    
    
    # 读取点云数据
    
    pcd = o3d.io.read_point_cloud("input.ply")
    
    
    
    # 读取图像
    
    image = cv2.imread("input.jpg")
    
    
    
    # 灰度化
    
    gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    
    
    
    # 去噪
    
    blurred_image = cv2.GaussianBlur(gray_image, (5, 5), 0)
    
    
    
    # SIFT特征提取
    
    sift = cv2.SIFT_create()
    
    keypoints, descriptors = sift.detectAndCompute(blurred_image, None)
    
    
    
    # 将点云数据转换为numpy数组
    
    points = np.asarray(pcd.points)
    
    
    
    # 将特征点与点云数据对齐
    
    # 假设有一个变换矩阵将图像坐标转换为点云坐标
    
    T = np.eye(4)  # 单位变换矩阵,实际应用中需要根据具体情况进行调整
    
    aligned_keypoints = [T @ np.array([kp.pt[0], kp.pt[1], 0, 1]) for kp in keypoints]
    
    aligned_keypoints = np.array([kp[:3] for kp in aligned_keypoints])
    
    
    
    # 将特征点添加到点云中
    
    pcd_with_features = o3d.geometry.PointCloud()
    
    pcd_with_features.points = o3d.utility.Vector3dVector(np.vstack((points, aligned_keypoints)))
    
    
    
    # 可视化点云和特征点
    
    o3d.visualization.draw_geometries([pcd_with_features])
4.4.2 深度传感器与摄像头融合

通过深度传感器能够获取环境中的深度数据,同时,通过摄像头能够捕获场景的视觉数据.通过融合这两种数据,从而构建出集深度信息与视觉特征于一体的三维地图.

复制代码
    import cv2
    
    import numpy as np
    
    import open3d as o3d
    
    
    
    # 读取双目摄像头图像
    
    left_image = cv2.imread("left.jpg")
    
    right_image = cv2.imread("right.jpg")
    
    
    
    # 初始化立体匹配算法
    
    stereo = cv2.StereoSGBM_create(minDisparity=0, numDisparities=16*10, blockSize=15, P1=8*3*15**2, P2=32*3*15**2, disp12MaxDiff=1, preFilterCap=63, uniquenessRatio=10, speckleWindowSize=100, speckleRange=32)
    
    
    
    # 计算视差图
    
    disparity = stereo.compute(left_image, right_image)
    
    
    
    # 将视差图转换为深度图
    
    depth = (0.54 * 640) / (disparity + 0.01)
    
    
    
    # 读取图像
    
    image = cv2.imread("input.jpg")
    
    
    
    # 灰度化
    
    gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
    
    
    
    # 去噪
    
    blurred_image = cv2.GaussianBlur(gray_image, (5, 5), 0)
    
    
    
    # SIFT特征提取
    
    sift = cv2.SIFT_create()
    
    keypoints, descriptors = sift.detectAndCompute(blurred_image, None)
    
    
    
    # 将深度图和特征点结合
    
    keypoints_with_depth = []
    
    for kp in keypoints:
    
    x, y = int(kp.pt[0]), int(kp.pt[1])
    
    d = depth[y, x]
    
    if d > 0:
    
        keypoints_with_depth.append((x, y, d))
    
    
    
    keypoints_with_depth = np.array(keypoints_with_depth)
    
    
    
    # 可视化深度图像和特征点
    
    depth_colormap = cv2.applyColorMap(cv2.convertScaleAbs(depth, alpha=0.03), cv2.COLORMAP_JET)
    
    cv2.imshow("Depth Image with SIFT Keypoints", cv2.drawKeypoints(depth_colormap, keypoints, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS))
    
    cv2.waitKey(0)
    
    cv2.destroyAllWindows()

4.5 总结

多传感器融合技术通过整合多种数据源来增强环境感知能力。卡尔曼滤波与粒子滤波分别用于处理线性和非线性系统的数据信息。在地图构建过程中,在激光雷达、摄像头以及深度传感器的基础上实现了高精度的地图构建,并从而提升了导航系统的可靠性和定位精度。

5. 未来趋势

随着传感器技术和计算能力不断进步,在地图构建中的应用环境感知技术也将持续深化

5.1 高精度传感器

新一代传感器具备更高分辨率的能力以及更低噪声水平的特点,在地图构建方面带来了显著提升,在细节刻画上展现出更高的精确度与可靠性。例如,在这一领域中采用先进的高分辨率激光雷达传感器与改进型摄像头结合的应用场景下,则能够实现对比现有技术更为微小目标的有效检测,并在复杂环境结构识别上展现出更强的能力

5.2 更高效的计算算法

随着深度学习与计算机视觉技术的进步,新的算法将实现对海量传感器数据的快速处理能力。例如,基于神经网络的点云处理及图像识别算法将进一步提升环境感知效率与准确性。

5.3 更智能的感知系统

未来的智能型环境感知系统将逐步发展出更高的智能化水平,并能根据不同场景灵活应对各类工作需求。例如,在运用机器学习技术后,在不同环境下可自主优化配置最匹配的传感器组以及最优处理方案从而实现最优的环境感知效果

5.4 结论

环境感知相关技术构成了地图构建与更新的重要组成部分之一。借助先进的激光雷达、数字摄像头以及深度成像传感器等装置,在实际应用中能够有效构建出具有高度精度的三维模型,并且这些多源数据的融合能够显著提升其在自动驾驶车辆及机器人中的应用效能。

全部评论 (0)

还没有任何评论哟~