多机协同文献调研(更新中,纯做笔记,自用)

多机协同文献调研

  • 1.多视角融合检测
    • 2023
      • VIMI: Vehicle-Infrastructure Multi-view Intermediate Fusion for Camera-based 3D Object Detection(code)
      • MFFN: Multi-View Feature Fusion Network for Camouflaged Object Detection (cvpr code)
      • Multi-View Target Transformation for Pedestrian Detection(wacv )
      • Multi-View Adversarial Discriminator: Mine the Non-Causal Factors for Object Detection in Unseen Domains(cvpr code)
      • Viewpoint equivariance for multi-view 3d object detection (cvpr code)
      • Dual Fusion-Propagation Graph Neural Network for Multi-View Clustering
      • NeRF-Det: Learning Geometry-Aware Volumetric Representation for Multi-View 3D Object Detection(ICCV)
      • X-View: Non-Egocentric Multi-View 3D Object Detector(trans )
    • 2020
      • Multi-View Vehicle Detection Based on Fusion Part Model With Active Learning(tans)
    • 2024
      • Exploring Recurrent Long-Term Temporal Fusion for Multi-View 3D Perception
      • Lifting Multi-View Detection and Tracking to the Bird's Eye View(cvpr code)
      • EMIFF: Enhanced Multi-scale Image Feature Fusion for Vehicle-Infrastructure Cooperative 3D Object Detection(ICRA CODE)
  • 2.3d目标检测(multi-view 3d object detection)
    • 2022
      • Mvss-net: Multi-view multi-scale supervised networks for image manipulation detection(TPAMI code)
    • 2024
      • Enhancing 3D Object Detection with 2D Detection-Guided Query Anchors
    • 2023
      • https://blog.csdn.net/weixin_47196664/article/details/135312372
      • Viewpoint Equivariance for Multi-View 3D Object Detection(cvpr code)
      • Temporal enhanced training of multi-view 3d object detector via historical object prediction(cvpr code)
      • Learning To Fuse Monocular and Multi-View Cues for Multi-Frame Depth Estimation in Dynamic Scenes
      • SA-BEV: Generating Semantic-Aware Bird's-Eye-View Feature for Multi-view 3D Object Detection
      • Imgeonet: Image-induced geometry-aware voxel representation for multi-view 3d object detection
      • SOGDet: Semantic-occupancy guided multi-view 3D object detection
  • 3.无人机协同检测
    • 2023
      • Multi-view Detection Method for UAVs Based on Probabilistic Fusion

关键词:ultiview Detection 多视图检测,https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/123766663,
多视角融合检测
多视角目标检测

参考帖子1:https://www.zhihu.com/question/651573920/answer/3468794482?utm_campaign=shareopn&utm_medium=social&utm_psn=1819927941745876992&utm_source=wechat_session

参考帖子2:https://blog.51cto.com/u_75269/10886654?_refluxos=a10

综述:3D object detection for autonomous driving: A comprehensive survey
纯视觉3d目标检测:纯视觉3D检测综述!一文详解3D检测现状、趋势和未来方向!
参考的一些文章:
CVPR 2023 | 多车协作让纯视觉3D目标探测媲美激光雷达
BEVStereo | nuScenes纯视觉3D目标检测新SOTA!(旷视、中科大)

1.多视角融合检测

2023

VIMI: Vehicle-Infrastructure Multi-view Intermediate Fusion for Camera-based 3D Object Detection(code)

在自动驾驶中,车辆-基础设施协同三维物体检测(VIC3D)利用来自车辆和交通基础设施的多视角摄像头,提供了超越单一车辆视角的全球视角和丰富的路况语义信息。在VIC3D中,存在两个主要挑战:1)由于摄像头时间不同步,融合多视角图像时会产生固有的校准噪声;2)将2D特征投影到3D空间时的信息丢失。为了解决这些问题,我们提出了一种新颖的三维物体检测框架,称为车辆-基础设施多视角中间融合(VIMI)。

首先,为了充分利用车辆和基础设施的整体视角,我们提出了多尺度交叉注意力(MCA)模块,在选择性多尺度上融合基础设施和车辆特征,以修正由摄像头不同步引入的校准噪声。然后,我们设计了一个摄像机感知通道掩蔽(CCM)模块,利用摄像机参数作为先验信息来增强融合特征。我们进一步引入了特征压缩(FC)模块,通过通道和空间压缩块来减小传输特征的大小,提高传输效率。实验结果表明,VIMI在新的VIC3D数据集DAIR-V2X-C上实现了15.61%的总体AP_3D和21.44%的AP_BEV,显著超越了最先进的早期融合和晚期融合方法,同时保持了可比的传输成本。

MFFN: Multi-View Feature Fusion Network for Camouflaged Object Detection (cvpr code)

近期关于伪装物体检测(COD)的研究旨在分割隐藏在复杂环境中的高度隐蔽物体。这些微小而模糊的伪装物体导致视觉上难以区分的特性。然而,目前的单视角COD检测器对背景干扰敏感。因此,伪装物体的模糊边界和变化形状很难通过单视角检测器完全捕捉。为了克服这些障碍,我们提出了一种受行为启发的框架,称为多视角特征融合网络(MFFN),它模拟人类在图像中寻找不清晰物体的行为,即从多个角度、距离和视角观察。具体而言,其关键思想是通过数据增强生成多种观察方式(多视角),并将其作为输入。MFFN通过比较和融合提取的多视角特征来捕捉关键的边界和语义信息。此外,我们的MFFN利用视角和通道之间的依赖性和交互性。具体而言,我们的方法通过一个名为多视角共同注意(CAMV)的两阶段注意模块利用不同视角之间的互补信息。同时,我们设计了一个局部-整体模块,称为通道融合单元(CFU),以迭代方式探索多样特征图的通道上下文线索。实验结果表明,我们的方法在使用相同数据进行训练时,表现优于现有的最先进方法。代码将发布在 https://github.com/dwardzheng/MFFN_COD。

Multi-View Target Transformation for Pedestrian Detection(wacv )

遮挡是单视角行人检测中最具挑战性的问题之一。 为了缓解遮挡问题,人们利用多视角系统来全面获取和识别遮挡目标。 大多数情况下,文献中的方法都是利用透视变换来聚合场景的不同感知视角,但投影失真问题会导致空间结构断裂,使这些方法无法充分探索投影特征。 在本文中,我们提出了一种新方法–多视角目标变换(Multi-view Target Transformation,MVTT),通过编码完整的目标特征并限制投影特征的关注区域,来解决多视角聚合固有的失真问题。 实验结果表明,我们提出的方法在公共数据集上的表现优于近期的相关方法。 消融研究也证实了拟议组件的有效性。

Multi-View Adversarial Discriminator: Mine the Non-Causal Factors for Object Detection in Unseen Domains(cvpr code)

单目三维物体检测已成为自动驾驶中的主流方法,因为它易于应用。其显著优势在于推理过程中不需要LiDAR点云。然而,目前大多数方法仍依赖于3D点云数据来标记训练阶段使用的真实值。这种训练与推理之间的不一致使得利用大规模反馈数据变得困难,并增加了数据收集成本。为了解决这一问题,我们提出了一种新的弱监督单目3D物体检测方法,可以仅使用在图像上标记的2D标签进行模型训练。具体而言,我们探索了该任务中的三种一致性,即投影、一致性、多视角一致性和方向一致性,并基于这些一致性设计了一种弱监督架构。此外,我们提出了一种新的2D方向标记方法,以指导模型进行准确的旋转方向预测。实验表明,我们的弱监督方法在性能上与一些全监督方法相当。当作为预训练方法使用时,我们的模型仅用1/3的3D标签就能显著超越相应的全监督基线。

Viewpoint equivariance for multi-view 3d object detection (cvpr code)

来自视觉传感器的三维物体检测是机器人系统的一项基础能力。最先进的方法专注于从多视角相机输入中推理和解码物体边界框。在本研究中,我们从多视角一致性在三维场景理解和几何学习中的重要作用中获得直觉。为此,我们引入了VEDet,这是一种新颖的三维物体检测框架,利用三维多视角几何来通过视角感知和等变性提高定位精度。VEDet采用基于查询的变换器架构,通过将图像特征与其三维视角几何的位置信息编码进行增强,来编码三维场景。我们在输出层设计了视角条件查询,这使得在训练过程中生成多个虚拟帧,从而通过强制多视角一致性来学习视角等变性。输入层注入的多视角几何作为位置信息编码,并在损失层进行正则化,为三维物体检测提供了丰富的几何线索,从而在nuScenes基准上取得了最先进的性能。代码和模型已在 https://github.com/TRI-ML/VEDet 发布。

Dual Fusion-Propagation Graph Neural Network for Multi-View Clustering

深度多视图表示学习的重点是为多源或多模态数据训练统一的低维表示。 随着图神经网络受到越来越多的关注,越来越多的研究人员将各种图模型引入多视图学习。 尽管已经取得了相当大的成就,但现有的大多数方法通常只传播单一视图的信息,并且只从属性或关系的角度融合多种信息。 为了解决上述问题,我们提出了一种高效模型,称为双融合-传播图神经网络(DFP-GNN),并将其应用于深度多视图聚类任务。 所提出的方法设计了三个子模块,具有以下优点:a) 所提出的特定视图传播模块和跨视图传播模块可以捕捉多个视图之间的一致性和互补性信息;b) 所设计的融合模块可以同时执行节点属性和节点间关系的多视图信息融合。 在流行数据库上的实验表明,与几种最先进的算法相比,DFP-GNN 取得了显著的效果。

NeRF-Det: Learning Geometry-Aware Volumetric Representation for Multi-View 3D Object Detection(ICCV)

我们介绍的 NeRF-Det 是一种以 RGB 图像为输入进行室内 3D 检测的新方法。 现有的室内 3D 检测方法难以建立场景几何模型,与之不同的是,我们的方法以端到端的方式利用 NeRF 来明确估计 3D 几何图形,从而提高 3D 检测性能。 具体来说,为了避免与 NeRF 按场景优化相关的大量额外延迟,我们引入了足够的几何先验,以增强 NeRF-MLP 的普适性。 此外,我们还通过共享 MLP 巧妙地连接了检测和 NeRF 分支,使 NeRF 能够高效地适应检测,并为 3D 检测提供几何感知的体积表示。 在 ScanNet 和 ARKITScenes 基准测试中,我们的方法分别以 3.9 mAP 和 3.1 mAP 的优势领先于同行。 我们提供了大量分析,以阐明 NeRF-Det 是如何工作的。 由于我们采用了联合训练设计,NeRF-Det 能够很好地泛化到未见过的场景中,用于物体检测、视图合成和深度估计任务,而无需根据场景进行优化。 代码见 https://github.com/facebookresearch/NeRF-Det。

X-View: Non-Egocentric Multi-View 3D Object Detector(trans )

用于自动驾驶的三维物体检测算法可从三维鸟瞰图或透视图或两者中对三维障碍物进行推理。 近期的研究试图通过挖掘和融合多个自我中心视图来提高检测性能。 虽然以自我为中心的透视图缓解了鸟瞰图的一些弱点,但在距离上,分段网格划分变得非常粗糙,目标和周围环境混杂在一起,这使得特征的辨别能力降低。 本文概括了三维多视角学习的研究,提出了一种新颖的基于多视角的三维检测方法,命名为 X-view,以克服多视角方法的缺点。 具体来说,X-view 突破了传统透视图的限制,即透视图的原点必须与三维笛卡尔坐标一致。 X-view 被设计为一种通用范例,几乎可以应用于所有基于激光雷达的三维探测器,而且只需增加少量运行时间,无论是基于体素/网格还是基于原始点。 我们在 KITTI 和 NuScenes 数据集上进行了实验,以证明我们提出的 X-view 的鲁棒性和有效性。 结果表明,X-view 与主流的最先进 3D 方法相结合,可以获得一致的改进。

2020

Multi-View Vehicle Detection Based on Fusion Part Model With Active Learning(tans)

基于计算机视觉的车辆检测技术被广泛应用于现实世界。 然而,这些技术大多只能检测单视角车辆,其性能很容易受到局部遮挡的影响。 因此,本文提出了一种新颖的多视角车辆检测系统,利用零件模型来解决部分遮挡问题和各类车辆之间的高差异问题。 本文有三个特点:首先,与可变形零件模型不同,本文中零件模型的构建是可视化的,可以随时更换。 其次,本文根据大量现代车辆的外观分析,通过主动学习算法,提出了一些新的车辆检测零件模型。 最后,本文提出了一种包含颜色变换和贝叶斯规则的方法来过滤背景,以加快检测时间并提高准确率。 在给定的数据集上,所提出的方法优于其他方法。

2024

Exploring Recurrent Long-Term Temporal Fusion for Multi-View 3D Perception

在基于摄像头的鸟瞰(BEV)三维感知中,长期时间融合是一项至关重要但却经常被忽视的技术。 现有的方法大多采用并行方式。 虽然并行融合可以从长期信息中获益,但随着融合窗口大小的增加,计算和内存开销也在增加。 另外,BEVFormer 采用了一种递归融合管道,可以有效地整合历史信息,但它无法从较长的时间帧中获益。 在这封信中,我们在基于 LSS 方法的基础上,探索了一种令人尴尬的简单长期循环融合策略,发现它已经能够同时享受两方面的优点,即丰富的长期信息和高效的融合管道。 我们还进一步提出了一个时间嵌入模块,以提高模型的鲁棒性,避免在实际场景中偶尔出现漏帧的情况。 我们将这一简单而有效的融合管道命名为 VideoBEV。 nuScenes 基准的实验结果表明,VideoBEV 在各种基于摄像头的三维感知任务中表现出色,包括物体检测(55.4% mAP 和 62.9% NDS)、分割(48.6% vehicle mIoU)、跟踪(54.8% AMOTA)和运动预测(0.80 m minADE 和 0.463 EPA)。

Lifting Multi-View Detection and Tracking to the Bird’s Eye View(cvpr code)

利用多视角聚合的优势,为解决多目标跟踪和检测中的遮挡和漏检等难题提供了一种前景广阔的解决方案。 通过战略性地将所有视图投射到地平面,并从鸟瞰视图(BEV)进行检测分析,多视图检测和三维物体识别的最新进展大大提高了性能。 在本文中,我们将无参数和参数化的现代提升方法与多视角聚合方法进行了比较。 此外,我们还介绍了一种架构,该架构可聚合多个时间步骤的特征以学习鲁棒检测,并结合基于外观和运动的线索进行跟踪。 目前的大多数跟踪方法要么专注于行人,要么专注于车辆。 在我们的工作中,我们将这两个分支结合起来,为跨场景设置的多视角检测增加了新的挑战。 我们的方法适用于两个领域的三个公共数据集:(1) 行人:Wildtrack 和 MultiviewX;(2) 路边感知: Synthehicle 在检测和跟踪方面达到了最先进的性能。

EMIFF: Enhanced Multi-scale Image Feature Fusion for Vehicle-Infrastructure Cooperative 3D Object Detection(ICRA CODE)

:在自动驾驶中,协同感知利用来自车辆和基础设施的多视角摄像头,提供了超越单一车辆视角的全球视角和丰富的路况语义信息。目前,在车辆-基础设施协同三维(VIC3D)物体检测中仍存在两个主要挑战:1)由于摄像头之间的时间不同步,融合多视角图像时会产生固有的姿态误差;2)由于通信带宽有限,传输过程中会导致信息丢失。为了解决这些问题,我们提出了一种新颖的基于摄像头的VIC3D任务三维检测框架,称为增强多尺度图像特征融合(EMIFF)。

为了充分利用车辆和基础设施的整体视角,我们提出了多尺度交叉注意力(MCA)和摄像机感知通道掩蔽(CCM)模块,以在尺度、空间和通道层面增强基础设施和车辆特征,从而修正由摄像头不同步引入的姿态误差。我们还引入了一个特征压缩(FC)模块,结合通道和空间压缩块,以提高传输效率。实验结果表明,EMIFF在DAIR-V2X-C数据集上实现了最先进的性能,显著超越了先前的早期融合和晚期融合方法,同时保持了可比的传输成本。

2.3d目标检测(multi-view 3d object detection)

2022

Mvss-net: Multi-view multi-scale supervised networks for image manipulation detection(TPAMI code)

由于通过复制移动、拼接和/或内绘等方式对图像进行处理可能会导致对视觉内容的误读,因此检测这类处理对媒体取证至关重要。 鉴于可能对内容进行的攻击多种多样,设计一种通用方法并非易事。 目前基于深度学习的方法在训练数据和测试数据完全一致的情况下很有前途,但在独立测试中表现不佳。 此外,由于缺乏真实的测试图像,其图像级检测特异性也令人怀疑。 问题的关键在于如何设计和训练一个深度神经网络,使其能够学习对新数据中的操作敏感的通用特征,同时又能防止对真实图像的误报。 我们提出了多视角特征学习,以共同利用篡改边界伪影和输入图像的噪声视角。 由于这两条线索都与语义无关,因此学习到的特征具有通用性。 为了有效地从真实图像中学习,我们使用多尺度(像素/边缘/图像)监督进行训练。 我们将新网络称为 MVSS-Net,并将其增强版称为 MVSS-Net++。 在数据集内和跨数据集场景下进行的实验表明,MVSS-Net++ 性能最佳,在 JPEG 压缩、高斯模糊和基于屏幕截图的图像重捕捉方面表现出更好的鲁棒性。

2024

Enhancing 3D Object Detection with 2D Detection-Guided Query Anchors

https://finance.sina.cn/tech/2024-06-27/detail-incaefsf9892062.d.html
在这篇入选的论文中,Nullmax纽劢提出了一种名为QAF2D(Query Anchor From 2D)的多相机3D目标检测新方法。该方法通过2D检测结果引导生成3D查询锚点(Query Anchor),显著提升了多相机3D目标检测的性能。同时,Nullmax纽劢还利用视觉提示(Visual Prompt)设计了一套两阶段的优化方法,让2D和3D检测器共用图像特征提取网络,有效降低了模型训练和部署的资源消耗。

2023

https://blog.csdn.net/weixin_47196664/article/details/135312372

Viewpoint Equivariance for Multi-View 3D Object Detection(cvpr code)

通过视觉传感器进行三维物体检测是机器人系统的一项基础能力。 最先进的方法侧重于从多视角摄像头输入中推理和解码物体边界框。 在这项工作中,我们从多视角一致性在三维场景理解和几何学习中不可或缺的作用中获得了直觉。 为此,我们引入了 VEDet,这是一种新颖的三维物体检测框架,它利用三维多视角几何图形,通过视点感知和等差关系改进定位。 VEDet 利用基于查询的转换器架构,通过对三维透视几何图形进行位置编码来增强图像特征,从而对三维场景进行编码。 我们在输出层设计了视图条件查询,从而能够在训练过程中生成多个虚拟帧,通过执行多视图一致性来学习视点等差性。 在输入层注入的多视角几何图形作为位置编码,并在损失层进行正则化,为三维物体检测提供了丰富的几何线索,从而在 nuScenes 基准测试中取得了一流的性能。 代码和模型可在 https://github.com/TRI-ML/VEDet 上获取。

Temporal enhanced training of multi-view 3d object detector via historical object prediction(cvpr code)

在本文中,我们提出了一种新的范式,称为历史物体预测(HoP),旨在更有效地利用时间信息进行多视角三维检测。HoP方法非常简单:给定当前时间戳t,我们从相邻帧生成时间戳t-k的伪鸟瞰图(BEV)特征,并利用该特征预测时间戳t-k的物体集。我们的方法的动机在于,强制检测器捕捉发生在历史时间戳上的物体的空间位置和时间运动,可以导致更准确的BEV特征学习。首先,我们精心设计了短期和长期时间解码器,这些解码器可以在不涉及相应相机图像的情况下生成时间戳t-k的伪BEV特征。其次,一个额外的物体解码器灵活地附加在一起,使用生成的伪BEV特征来预测物体目标。请注意,我们仅在训练过程中执行HoP,因此所提出的方法不会在推理时引入额外开销。作为一种即插即用的方法,HoP可以轻松地集成到最先进的BEV检测框架中,包括BEVFormer和BEVDet系列。此外,辅助的HoP方法与现有的时间建模方法互为补充,带来了显著的性能提升。我们在nuScenes数据集上进行了大量实验,以评估所提HoP的有效性。我们选择了代表性的方法,包括BEVFormer和BEVDet4D-Depth来评估我们的方法。令人惊讶的是,HoP在nuScenes测试集上以ViT-L模型达到了68.2%的NDS和61.6%的mAP,显著超越了排行榜上的所有3D物体检测器。

Learning To Fuse Monocular and Multi-View Cues for Multi-Frame Depth Estimation in Dynamic Scenes

多帧深度估算通常依靠多视角几何一致性实现高精度。 当应用于动态场景(如自动驾驶)时,这种一致性通常会在动态区域受到破坏,从而导致估计结果的损坏。 许多多帧方法都是通过明确的遮罩来识别动态区域,并以局部单目深度或特征表示的单目线索来补偿多目线索,从而处理动态区域。 由于遮罩的质量不受控制,以及两种线索融合的优势未得到充分利用,因此改进效果有限。 在本文中,我们提出了一种新颖的方法,无需启发式掩码,即可学习融合多视角和单眼线索,并将其编码为体积。 正如我们的分析所揭示的那样,在静态区域,多视角线索能捕捉到更准确的几何信息,而在动态区域,单目线索能捕捉到更有用的背景信息。 为了让从静态区域的多视角线索中学到的几何感知传播到动态区域的单眼表征中,并让单眼线索增强多视角成本量的表征,我们提出了交叉线索融合(CCF)模块,其中包括交叉线索注意(CCA),以编码来自每个来源的空间非局部相对内部关系,从而增强另一个来源的表征。 在真实世界数据集上的实验证明了所提方法的显著有效性和泛化能力。

SA-BEV: Generating Semantic-Aware Bird’s-Eye-View Feature for Multi-view 3D Object Detection

Imgeonet: Image-induced geometry-aware voxel representation for multi-view 3d object detection

SOGDet: Semantic-occupancy guided multi-view 3D object detection

在自动驾驶领域,对三维环境的准确和全面感知至关重要。鸟瞰图(BEV)方法作为一种前景解决方案,已被广泛应用于使用多视角图像进行三维物体检测。然而,现有的三维物体检测方法往往忽视了环境中的物理上下文,例如人行道和植被,从而导致性能不足。本文提出了一种新方法,称为SOGDet(语义占用引导的多视角三维物体检测),该方法利用三维语义占用分支来提高三维物体检测的准确性。具体而言,语义占用建模的物理上下文有助于检测器以更全面的视角感知场景。我们的SOGDet方法灵活易用,可以与大多数现有的BEV方法无缝集成。为了评估其有效性,我们将该方法应用于几个最先进的基线,并在独特的nuScenes数据集上进行了广泛实验。结果表明,SOGDet在nuScenes检测分数(NDS)和均值平均精度(mAP)方面持续提升了三种基线方法的性能。这表明,三维物体检测与三维语义占用的结合能够提供更全面的三维环境感知,从而帮助构建更强大的自动驾驶系统。代码可在以下链接获取:https://github.com/zhouqiu/SOGDet。

3.无人机协同检测

2023

Multi-view Detection Method for UAVs Based on Probabilistic Fusion

单个无人飞行器(UAV)的人体检测容易受到视角的限制,无法获得足够的物体特征信息。 为解决这一问题,本文提出了一种基于概率融合的无人机多视角检测方法。 该方法综合利用无人机从不同视角检测到的人体特征来提高检测效果。 首先,从 Okutama-action 数据集中选取图像,基于 Yolov8 训练人体检测器。 然后,采用 SIFT 算法进行全局特征匹配,以获得不同视角图像之间的视角变换矩阵,从而在同一坐标系中测量不同图像中物体之间的距离。 然后,利用全局最近邻的概念实现物体关联。 最后,利用基于概率的方法融合两架无人机的检测结果,并将结果与常见的融合方法进行比较。 实验结果表明,所提出的方法可以提高检测效率: 物体关联方法的准确率高于 90%,融合方法可以减少漏检。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/884253.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

解决银河麒麟V10向日葵远程连接断开问题

解决银河麒麟V10向日葵远程连接断开问题 方法一:重启系统方法二:执行xhost 命令 💖The Begin💖点点关注,收藏不迷路💖 当你在银河麒麟桌面操作系统V10上使用向日葵进行远程连接时,如果遇到频繁断…

Vue项目快速整合WangEditor富文本编辑器

Vue项目快速整合WangEditor富文本编辑器 一、安装依赖 npm i wangeditor --save //富文本编辑器 npm install highlight.js -S //代码高亮 npm install dompurify vue-dompurify-html // 防xss 库二、app.vue代码案例 已对接图片、视频接口 ,具体看如下代码…

基于飞腾平台的OpenCV的编译与安装

【写在前面】 飞腾开发者平台是基于飞腾自身强大的技术基础和开放能力,聚合行业内优秀资源而打造的。该平台覆盖了操作系统、算法、数据库、安全、平台工具、虚拟化、存储、网络、固件等多个前沿技术领域,包含了应用使能套件、软件仓库、软件支持、软件适…

景联文科技精准数据标注:优化智能标注平台,打造智能未来

景联文科技是一家致力于为人工智能提供全面数据标注解决方案的专业公司。 拥有一支由经验丰富的数据标注师和垂直领域专家组成的团队,确保数据标注的质量和专业性。 自建平台功能一站式服务平台,提供从数据上传、标注、审核到导出的一站式服务&#xff0…

Linux安装tomcat及配置环境变量超详细教程

微服务Linux解析部署使用全流程 linux系统的常用命令 Linux安装vim超详细教程 Linux安装JDK及配置环境变量超详细教程 1、上传压缩包 统一创建目录:/usr/local/tomcat,将压缩包上传到这个目录下。拖动文件到这个目录下即可。 2、执行解压命令 先进…

Sentinel-1 数据处理时如何手动下载高程数据

在Sentinel-1 数据数据预处理时,会使用高程数据进行地形校正。但选择自动下载高程时,由于网络原因经常会卡死,造成预处理过程不能正常进行! 这个问题经过我的反复实践,可以通过手动下载高程数据来解决。下面是具体方法…

章管家 listUploadIntelligent.htm SQL注入漏洞

漏洞描述: 章管家 listUploadIntelligent.htm 接口处存在SQL注入漏洞,未经身份验证的远程攻击者除了可以利用 SQL 注入漏洞获取数据库中的信息(例如,管理员后台密码、站点的用户个人信息)之外,甚至在高权限…

软件功能测试需进行哪些测试?第三方软件测评机构有哪些测试方法?

在信息化社会迅速发展的今天,软件功能测试在软件开发生命周期中占据着不可或缺的地位。软件功能测试是评估软件系统是否符合预期功能和用户需求的过程。其重要性体现在提升软件质量、确保用户满意度以及降低维护成本等方面。 软件功能测试是对软件应用程序进行的一…

robomimic应用教程(二)——策略运行与评估

得到训练好的pth后,下一并将其进行部署及效果评估 可以在jupyter notebook中进行此操作,文件为robomimic文件夹中的examples/notebooks/run_policy.ipynb 本文采用pycharm调试 该脚本用于在环境中评估策略,主要包括从model zoo下载checkpoi…

【web开发】Spring Boot 快速搭建Web项目(三)

Date: 2024.08.31 18:01:20 author: lijianzhan 简述:根据上篇原文Spring Boot 快速搭建Web项目(二),由于已经搭建好项目初始的框架,以及自动创建了一个启动类文件(TestWebApplication.java) …

【Python】Daphne:Django 异步服务的桥梁

Daphne 是 Django Channels 项目的一部分,专门用于为 Django 提供支持 HTTP、WebSocket、HTTP2 和 ASGI 协议的异步服务器。Daphne 是一个开源的 Python 异步服务器,它可以帮助开发者运行异步应用程序,并且非常适合与 Django Channels 一起使…

电子电路的基础知识

电子电路是现代电子技术的基础,由电子元件(如电阻、电容、电感、二极管、晶体管等)和无线电元件通过一定方式连接而成的电路系统。 以下是对电子电路的详细概述: 一、定义与分类 定义:电子电路是指由电子器件和有关无…

解压视频素材下载网站推荐

在制作抖音小说推文或其他短视频时,找到合适的解压视频素材非常重要。以下是几个推荐的网站,可以帮助你轻松下载高质量的解压视频素材: 蛙学网 蛙学网是国内顶尖的短视频素材网站,提供大量4K高清无水印的解压视频素材,…

【记录】Excel|不允许的操作:合并或隐藏单元格出现的问题列表及解决方案

人话说在前:这篇的内容是2022年5月写的,当时碰到了要批量处理数据的情况,但是又不知道数据为啥一直报错报错报错,说不允许我操作,最终发现是因为存在隐藏的列或行,于是就很无语地写了博客,但内容…

如何使用Flux+lora进行AI模型文字生成图片

目录 概要 前期准备 部署安装与运行 1. 部署ComfyUI 本篇的模型部署是在ComfyUI的基础上进行,如果没有部署过ComfyUI,请按照下面流程先进行部署,如已安装请跳过该步: (1)使用命令克隆 ComfyUI &…

【友元补充】【动态链接补充】

友元 友元的目的是让一个函数或者类,访问另一个类中的私有成员。 友元的关键字friend是一个修饰符。 友元分为友元类和友元函数 1.全局函数作友元 2.类作友元 3.类的一个成员函数作友元 好处:可以通过友元在类外访问类内的私有和受保护类型的成员 坏处…

Python画笔案例-068 绘制漂亮米

1、绘制漂亮米 通过 python 的turtle 库绘制 漂亮米,如下图: 2、实现代码 绘制 漂亮米,以下为实现代码: """漂亮米.py注意亮度为0.5的时候最鲜艳本程序需要coloradd模块支持,安装方法:pip install coloradd程序运行需要很长时间,请耐心等待。可以把窗口最小…

智能Ai语音机器人的应用价值有哪些?

随着时间的推移,人工智能的发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交融,成为人们无法拒绝,无法失去的一个重要存在。…

医疗大数据安全与隐私保护:数据分类分级的基石作用

医疗行业在数字化转型中迅猛发展,医疗大数据作为核心驱动力,深刻改变医疗服务的模式与效率。它不仅促进医疗信息的流通与共享,推动个性化、精准化的医疗服务新生态。同时,也在提升医疗服务质量、优化医疗资源配置等方面展现巨大潜…

Spring Ioc底层原理代码详细解释

文章目录 概要根据需求编写XML文件,配置需要创建的bean编写程序读取XML文件,获取bean相关信息,类,属性,id前提知识点Dom4j根据第二步获取到的信息,结合反射机制动态创建对象,同时完成属性赋值将…