添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
张永显, 马国锐, 崔志祥, 等. 面向大视角差的无人机影像序列学习型特征匹配[J]. 测绘学报,2023,52(2):230-243. DOI: 10.11947/j.AGCS.2023.20210472 ZHANG Yongxian, MA Guorui, CUI Zhixiang, et al. Learning feature matching for UAV image sequences with significantly different viewpoints[J]. Acta Geodaetica et Cartographica Sinica, 2023, 52(2): 230-243. DOI: 10.11947/j.AGCS.2023.20210472 1. 武汉大学测绘遥感信息工程国家重点实验室, 湖北 武汉 430079;
2. 31682部队, 甘肃 兰州 730020 ;
3. 中国地质调查局西宁自然资源综合调查中心, 青海 西宁 810000 收稿日期:2021-08-18;修回日期:2022-05-16
基金项目:国家重点研发计划(2018YFB1004603);中国地质调查局项目(DD20191016)
第一作者简介:张永显(1990-), 男, 博士生, 研究方向为多源遥感影像智能化处理。E-mail: zhyx009@whu.edu.cn
通信作者: 马国锐,E-mail: mgr@whu.edu.cn
摘要 :针对无人机大视角差影像之间存在仿射变形大、遮挡严重、视角差异显著等问题导致的同名点匹配存在多解和大量误匹配难题,本文提出了一种适用于大视角差影像稳健匹配方法。利用改进的具有双头通信机制的D2-Net卷积神经网络提取倾斜影像的学习型特征,在之后的同名点匹配搜索阶段,为解决唯一匹配点受到较多潜在可行解干扰的问题,设计了一种由粗到精的提纯策略,在稳健匹配同名点对的同时大幅降低匹配开销成本。将HPatches数据集中多组不同场景的影像序列和实地采集的无人机大视角差影像序列作为数据源对提出的方法进行测试,并与具有代表性的基于手工设计的ASIFT方法和基于深度学习的多种方法进行了比较。结果表明,本文方法能够提取稳健的大视角差影像序列仿射不变学习型特征,在正确匹配点数、匹配点正确率、匹配点均方根误差和匹配时间开销方面具有优势。
关键词 影像匹配 仿射变换 深度学习特征 卷积神经网络 无人机
Learning feature matching for UAV image sequences with significantly different viewpoints 1. State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing, Wuhan University, Wuhan 430079, China;
2. Troops 31682, Lanzhou 730020, China ;
3. Xining Center of Natural Resources Comprehensive Survey, China Geological Survey, Xining 810000, China
Foundation support: The National Key Research and Development Project (No. 2018YFB1004603);China Geological Survey Project (No. DD20191016)
First author: ZHANG Yongxian(1990—), male, PhD candidate, majors in intelligent processing of multi-source remote sensing images. E-mail: zhyx009@whu.edu.cn .
Corresponding author: MA Guorui, E-mail: mgr@whu.edu.cn .
Abstract : Aiming at the problems of large affine deformation, serious occlusion, and obvious viewpoint difference, a method of robust matching is proposed to solve the problems of multiple solutions and a number of mismatches in UAV image sequences matching with significantly different viewpoints. First, the improved dual-head communication D2-Net convolutional neural network is used to extract the learning features of the image sequences. In the subsequent matching search stage of the corresponding image points, a coarse-to-fine matching purification strategy is designed to solve the problem that the unique matching point is interfered by many potential feasible points, which achieves the robust matching and greatly reduces matching time cost. The proposed algorithm was tested using multiple sets of sequence images of different scenes in the HPatches dataset and field-collected images with large different viewpoints, and compared with the representative ASIFT method based on the hand-crafted and some methods based on deep learning. The results show that the proposed method can extract robust affine invariant deep learning features, and has advantages in terms of the number of correct matching points, the correct rate of matching points, the RMSE of matching points and the cost of matching time.
Key words : image matching affine transformation deep learning feature convolutional neural network UAV

大视角差影像序列匹配是利用倾斜摄影平台在不同时间、不同方位对目标区域依次获取多幅视角变化较大的影像,然后通过寻找不同影像之间的同名像点,得到像素级对应关系的方法,在三维重建、灾害应急、纹理映射等应用发挥着重要作用 [ 1 ] ,服务于地理空间感知智能的发展 [ 2 ] 。不同于常规的航空或卫星影像,无人机通过搭载非量测型相机拍摄大视角差影像序列,包含了更丰富的侧面信息,能够更加客观真实地反映目标区域的实际情况 [ 3 ] 。随着影像在质与量方面的升级,实际应用中对大视角差影像匹配算法的正确率、匹配点数量、匹配精度、匹配耗时等提出了更高的要求。但由于大视角差图像序列中存在仿射变形大、遮挡严重、视角差异显著等问题,使得被摄物体的几何特征、纹理特征等信息缺失,出现了同名点匹配存在多解和误匹配等现象,流失了大量有用的特征点信息,导致了最终确定的匹配点分布不均、稳健性低下等问题,在此基础上计算的图像之间变换矩阵无法充分体现被摄物体复杂的变换关系,严重影响了后续的工程应用 [ 4 ]

针对上述问题提出的解决大视角差影像匹配方法可划分为两大类,一是基于手工设计型的特征匹配方法,二是基于深度学习型的特征匹配方法。基于手工设计的影像视角变化较大的匹配方法归纳起来主要有4种 [ 5 ] :①由粗到精的特征匹配。文献[ 6 ]利用SIFT算法获取特征点,NCC算法优选匹配点对,LSM算法精确定位匹配点同名点对,实现了倾斜影像的高精度匹配。②基于仿射不变特征的倾斜影像匹配。文献[ 7 ]基于Gabor滤波分解及相位一致性提取归一化区域内的特征点,利用高斯混合模型确定同名点及影像间的变换矩阵来解决仿射不变区域特征点位精度低的问题。③基于几何纠正的倾斜影像匹配。文献[ 8 ]提出一种具有仿射不变性倾斜影像匹配方法,通过估算影像的相机轴定向参数计算初始仿射矩阵,再逆仿射变换得到纠正影像,对纠正影像进行SIFT匹配实现倾斜影像的匹配 [ 9 ] 。文献[ 10 ]利用机载POS数据对倾斜影像进行全局几何纠正,然后利用SIFT算法实现影像特征提取和匹配,但这种方法需获取相机外方位元素,对摄影系统提出了较高的要求。④基于模拟畸变的倾斜影像匹配。文献[ 11 ]通过分析SIFT在仿射变化条件下的效率,提出了以图像变换集为基础的仿射尺度不变特征变换算法,对图像平移、旋转、尺度缩放、光照变化表现出了较好性能。可知,上述基于手工设计的方法多数是以SIFT算法为基础进行改进,但由于SIFT算法仅适应较小仿射变换的约束,使得在视角差异较大时会出现计算复杂度高,算法稳健性低,实际应用性能不佳等问题。

近年来随着人工智能技术的发展,深度卷积神经网络CNN作为一种高层特征提取器被引入到图像匹配领域,借助其强大的特征学习能力和视觉推理能力,在影像匹配领域取得较好效果 [ 12 ] ,有望在应对大视角差影像序列匹配存在的困难中取得突破。文献[ 13 ]首先使用卷积神经网络MC-CNN计算序列影像匹配,证明了通过卷积神经网络提取的图像特征比手工设计的特征算子更加准确。受此启发,大量影像匹配工作利用卷积神经网络来计算匹配代价,并取得较好的匹配结果。如利用孪生网络提取特征和计算描述符相似度的MatchNet网络 [ 14 ] ,采用三元组损失函数的HardNet网络 [ 15 ] ,同时提取特征点和描述符的SuperPoint [ 16 ] 、D2-Net [ 17 ] 、R2D2 [ 18 ] 等网络,这些网络模型在标准数据集上取得了较好的效果,但直接应用于大倾斜无人机影像的匹配表现不佳 [ 19 ] 。文献[ 20 ]采用多分支卷积网络的倾斜立体影像仿射不变特征匹配,验证了这种方法对于低空无人机倾斜立体影像匹配的有效性,然而其匹配精度和匹配效率都受到了限制。

针对以上高分辨率大视角差影像匹配存在的相似特征干扰下匹配正确率低、计算规模大、同名特征点对稀少等挑战,应当设计一个具备匹配点精度高、耗时少、稳健性强等特点的学习型特征匹配模型。在已有的卷积神经网络模型中,D2-Net是一种能够高效提取深层次特征的网络,通过深层网络的学习,提取不同影像间的同名特征,具备了高效抵抗影像间非线性辐射畸变和几何畸变的性能。基于此,本文将通过对D2-Net网络进行适应性改进,使其能够有效地提取具有旋转不变性的学习型特征描述符,来弥补影像特征匹配算法对视角变化敏感的缺陷,然后采用由粗到精的特征提纯策略,实现稳健匹配同名点对的同时降低匹配时间成本,完成大视角差图像序列高精度匹配。

1 旋转不变局部学习型特征匹配方法 1.1 本文方法基本思想与流程

大视角差影像序列的稳健匹配,核心问题在于如何减小影像视角变化带来的影响,找到具有旋转不变性的特征表示方法 [ 21 ] 。为实现这一目的,本文提出的大视角差影像序列匹配方法着重考虑以下3个方面:①构建一种适合大视角差影像序列旋转不变特征提取和描述的CNN网络;②利用已经配对好的光照和拍摄角度都存在较大差异的数据训练CNN网络,让CNN特征提取器能够学习到具有视角、尺度、纹理、几何等变化的影像不变性特征;③设计一种对低内点率有较强稳健性能的误匹配剔除算法,以适应影像的旋转、尺度等变化。因此,匹配方法主要包括3个步骤:①网络模型设计,网络设计思想主要来源于D2-Net网络,对其增加随机旋转单应矩阵创建训练图像对,形成双头通信的D2-Net网络结构;②旋转不变学习型特征提取与描述,利用构造的网络模型作为特征提取器,在大视角差影像序列上提取学习型特征及其描述符;③特征匹配与误匹配剔除,特征匹配方法采用特征描述符最近邻和次近邻动态最优距离之比得到粗匹配同名点,结合RANSAC算法完成误匹配点对剔除,并通过重新验证相似性特征点的几何一致性,完成特征精匹配。本文方法流程如 图 1 所示。

第一,通过迁移学习微调原始模型的骨干网络VGG16,使构建的网络模型能够适应于视角差异显著的图像匹配。具体做法是通过迁移学习冻结浅层权重的同时微调最后一层,微调后网络结构如 图 2 所示。微调VGG16骨干网络能够有效提取显著性特征,在筛选特征明显的关键点时,降低了在另一幅图像中搜索同名特征点描述符的耗时,从而提高影像匹配效率和算法模型性能。为了在 R w × h × c 特征空间筛选出较为显著的特征点,采用了在高维特征图的通道方向和局部平面内同时最大的筛选策略 [ 17 ] ,选取VGG16的Conv4_3层的特征描述输出作为特征图,为提升匹配效率,特征匹配时采用前256维向量;另外,为能够扩大卷积计算的感受野,增加网络对全局特征的提取能力,避免空间分辨率的下降和模型参数量的提升,本文对Conv4_3所在的卷积模块全部采用空洞率为2的空洞卷积,提升特征多尺度表征能力 [ 17 ]

第二,通过共享骨干网络VGG16的方法增加分支网络,形成双头通信的网络结构。不同于D2-Net网络的是,设计网络的输入是随机裁剪成400×400×3大小的图像区域,随机旋转单应矩阵 H R ( θ )用于在平面内将图像旋转 θ 度,创建训练图像对。本文采用的训练方式、特征提取和特征描述方法遵循文献[ 17 ]中的定义,主要区别在于本文使用的训练数据是基于在平面内旋转后的图像对。由于传感器获取影像的视角差异,不同视角影像中同名点特征描述符存在差异,训练影像除了具备一系列旋转变化,还结合透视变换、尺度变换、光照变换等进一步模拟真实的视角变化,文献[ 22 ]提出的PhotoTourism数据集不仅具有同名点像素级标注的图像对,且能够满足上述特性,因此,本文还选用了该数据集进行模型训练。

数据包括HPatches标准数据集和实地采集影像两种类型。HPatches数据集包含多组剧烈视角变化的图像序列,每组图像序列由1幅参考图像、5幅不同视角的目标图像以及参考图像到目标图像的单应变换矩阵文件组成,能够较好地适用于算法性能测试。针对大视角差影像仿射变形大、视角差异显著、弱光照或夜晚条件等实际应用中的问题,按照无人机序列影像关键帧模式在维度上定向抽帧方法 [ 26 ] ,实地采集了2组可见光和3组热红外大视角差图像序列,共20幅影像,其中可见光图像尺寸为2000×1125像素,热红外图像尺寸为640×512像素,此外两种不同模态影像之间还存在灰度、分辨率、信噪比、纹理特征等方面的差异,每种场景大视角差图像序列之间存在尺度、旋转、地物类型、飞行模式(绕飞、直飞、俯冲)等多方面差异,对测试算法适应性具有较好的代表性。基本情况如 图 3 所示。

然后,选取了HPatches数据集中视点变化显著的55组图像对,对比本文方法、D2-Net方法 [ 17 ] 、适应异源遥感影像匹配的D2-Net改进方法CMM-Net [ 21 ] 、为获取高精度的像素级特征匹配对D2-Net改进的ASLFeat [ 25 ] 、R2D2和ASIFT方法。为公平比较,对比方法的参数配置为:ASIFT参数为倾斜度采样间隔Δ t = ,经纬度角采样间隔Δ ϕ =72° t 和3×3的二次采样,最近点与次近点比值ratio设置成0.8,基于卷积神经网络的方法中RANSAC约束模型使用单应性矩阵作为估计模型,最小随机样本数设置为4,残差阈值设置为10,随机样本选择最大迭代次数10 000次。试验中把匹配误差控制在3像素内的结果认定为正确匹配点对,上述6种方法匹配结果的具体统计值如 图 5 所示。可知,6种不同的匹配方法计算结果差异显著,本文方法在所有对比方法中匹配点对数量位于中间相对稳定位置,且匹配耗时受不同图像对的影响较小,始终保持在较小的匹配时长。因此,本文设计的双头D2-Net网络通信算法,不仅获取了丰富的特征点信息,得到稳健的匹配结果,而且匹配耗时较少,具有较高的综合性能。此外,也表明了直接利用在大型数据集上预训练模型,其泛化能力对视角差异较大的影像匹配具有一定的适应性,但获取的正确匹配点对相对稀少且分布不均匀,会使得算法稳健性较弱,对后续变换矩阵计算等操作影响严重。

图 6 展示了6种方法在5种不同场景的匹配,其中本文方法能够对所有场景的影像序列给出一定数量的正确匹配点对。基于手工设计的ASIFT方法对视角差异显著的影像序列具有较好的适应性,但当视角差异约50°或者更大时,存在较多误匹配( 图 6(b) ,场景2),甚至失败的情况( 图 6(d) ,场景4),基于深度学习的D2-Net、R2D2、CMM-Net和ASLFeat方法对视角差异较大的图像对较为敏感,匹配点对稀少或者匹配失败,但在尺度差异大的影像序列上,均取得了较好的匹配效果。可知,对比方法能够适应一定视角差异的影像匹配,但当视角差异超过50°时,匹配效果急剧下降,出现匹配失败情况,视角差异较大的影像序列匹配稳健性较弱。而本文方法在5种场景的所有图像序列中均得到数量丰富的正确匹配点,对于角差异超过50°的影像和尺度差异大的影像匹配,识别到的同名点均较为充足且分布均匀,说明本文方法在不同视点的倾角变化较大的影像匹配中有着较好的稳健性。

图 7 统计了6种对比方法在5种场景中的精提纯后匹配点数量和匹配耗时两个指标。从匹配点数量来看,本文方法在以视角差异显著的场景1、场景2和场景4影像序列中具有较为明显的优势,其他方法均出现匹配数量稀少甚至匹配不上的情况,在尺度差异明显的场景3和场景5中对比方法有着丰富的匹配点对数量,其中D2-Net、ASIFT、CMM-Net和R2D2匹配点数量均有超过本文方法的情况,说明了在极端视角差异情况下,剧烈的仿射变换会严重影响匹配算法性能,而尺度差异对算法性能影响不大。匹配耗时方面,D2-Net方法对于视角差异显著的场景1和场景2,匹配耗时严重,远高于其他方法,基于手工设计的ASIFT方法同样耗时较长,其他几种深度学习方法匹配耗时小于手工设计方法,且每种场景的影像序列匹配耗时相当,本文方法耗时在5种不同场景均用时相对较少。由此说明,对于大视角差图像序列匹配,通过构建双头通信机制的本文方法在保证识别出丰富的同名匹配点对的同时,降低了匹配时间成本,表现出较佳的匹配效果。

大视角差影像序列之间由于存在仿射变换、遮挡、视角、纹理等差异,使得同名点匹配存在多解和误匹配现象,导致了最终识别的匹配点分布不均、稳健性低下等问题。本文提出了一种适用于大视角差影像稳健匹配的方法,该方法通过构建一种适用于大视角差影像旋转不变学习型特征提取和描述的CNN网络,设计了一种对低内点率有较强稳健性能的误匹配剔除算法,引进已经配对好的光照和拍摄角度都存在较大差异的训练数据,实现了在稳健匹配同名点对的同时大幅降低匹配开销成本。在HPatches标准数据集和5种典型实地场景进行了大视角差影像序列匹配,并与适用于大视角差影像匹配的具有代表性的6种匹配方法进行了性能对比,验证了提出方法在正确匹配点数、匹配点正确率、匹配点均方根误差和匹配时间开销方面的优势。

李德仁, 肖雄武, 郭丙轩, 等. 倾斜影像自动空三及其在城市真三维模型重建中的应用[J]. 武汉大学学报(信息科学版), 2016, 41(6): 711-721.
LI Deren, XIAO Xiongwu, GUO Bingxuan, et al. Oblique image based automatic aerotriangulation and its application in 3D city model reconstruction[J]. Geomatics and Information Science of Wuhan University, 2016, 41(6): 711-721. 张永生, 张振超, 童晓冲, 等. 地理空间智能研究进展和面临的若干挑战[J]. 测绘学报, 2021, 50(9): 1137-1146.
ZHANG Yongsheng, ZHANG Zhenchao, TONG Xiaochong, et al. Progress and challenges of geospatial artificial intelligence[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(9): 1137-1146. DOI:10.11947/j.AGCS.2021.20200420 张卡, 宿东, 王蓬勃, 等. 深度学习技术在影像密集匹配方面的进展与应用[J]. 科学技术与工程, 2020, 20(30): 12268-12278.
ZHANG Ka, SU Dong, WANG Pengbo, et al. Progress and application of deep learning in image dense matching[J]. Science Technology and Engineering, 2020, 20(30): 12268-12278. DOI:10.3969/j.issn.1671-1815.2020.30.003 赵红蕊, 陆胜寒. 基于特征尺度分布与对极几何约束的高清影像快速密集匹配方法[J]. 测绘学报, 2018, 47(6): 790-798.
ZHAO Hongrui, LU Shenghan. Dense high-definition image matching strategy based on scale distribution of feature and geometric constraint[J]. Acta Geodaetica et Cartographica Sinica, 2018, 47(6): 790-798. DOI:10.11947/j.AGCS.2018.20170630 余美. 倾斜立体影像匹配若干问题研究[D]. 徐州: 中国矿业大学, 2018.
YU Mei. Research on several issues of oblique stereo image matching[D]. Xuzhou: China University of Mining and Technology, 2018. YANG Huachao, ZHANG Shubi, WANG Yongbo. Robust and precise registration of oblique images based on scale-invariant feature transformation algorithm[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(4): 783-787. DOI:10.1109/LGRS.2011.2181485 ZHANG Qiang, WANG Yabin, WANG Long. Registration of images with affine geometric distortion based on maximally stable extremal regions and phase congruency[J]. Image and Vision Computing, 2015, 36: 23-39. DOI:10.1016/j.imavis.2015.01.008 肖雄武, 郭丙轩, 李德仁, 等. 一种具有仿射不变性的倾斜影像快速匹配方法[J]. 测绘学报, 2015, 44(4): 414-421.
XIAO Xiongwu, GUO Bingxuan, LI Deren, et al. A quick and affine invariance matching method for oblique images[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(4): 414-421. DOI:10.11947/j.AGCS.2015.20140048 肖雄武, 李德仁, 郭丙轩, 等. 一种具有视点不变性的倾斜影像快速匹配方法[J]. 武汉大学学报(信息科学版), 2016, 41(9): 1151-1159.
XIAO Xiongwu, LI Deren, GUO Bingxuan, et al. A robust and rapid viewpoint-invariant matching method for oblique images[J]. Geomatics and Information Science of Wuhan University, 2016, 41(9): 1151-1159. 姜三, 许志海, 张峰, 等. 面向无人机倾斜影像的高效SfM重建方案[J]. 武汉大学学报(信息科学版), 2019, 44(8): 1153-1161.
JIANG San, XU Zhihai, ZHANG Feng, et al. Solution for efficient SfM reconstruction of oblique UAV images[J]. Geomatics and Information Science of Wuhan University, 2019, 44(8): 1153-1161. MOREL J M, YU Guoshen. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Imaging Sciences, 2009, 2(2): 438-469. DOI:10.1137/080732730 FAN Dazhao, DONG Yang, ZHANG Yongsheng. Satellite image matching method based on deep convolutional neural network[J]. Journal of Geodesy and Geoinformation Science, 2019, 2(2): 90-100. ŽBONTAR J, LECUN Y. Computing the stereo matching cost with a convolutional neural network[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, USA: IEEE, 2015: 1592-1599. HAN Xufeng, LEUNG T, JIA Yangqing, et al. MatchNet: unifying feature and metric learning for patch-based matching[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, USA: IEEE, 2015: 3279-3286. MISHCHUK A, MISHKIN D, RADENOVIC F, et al. Working hard to know your neighbor's margins: local descriptor learning loss[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2017: 4829-4840. DETONE D, MALISIEWICZ T, RABINOVICH A. SuperPoint: self-supervised interest point detection and description[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Salt Lake City, UT, USA: IEEE, 2018: 337-33712. DUSMANU M, ROCCO I, PAJDLA T, et al. D2-net: a trainable CNN for joint description and detection of local features[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2020: 8084-8093. REVAUD J, WEINZAEPFEL P, SOUZA C D, et al. R2D2: repeatable and reliable detector and descriptor[C]//Proceedings of 2019 IEEE Conference on Computer Vision and Pattern Recognition workshop. [S. l. ]: IEEE, 2019. JIANG San, JIANG Wanshou, GUO Bingxuan, et al. Learned local features for structure from motion of UAV images: a comparative evaluation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 10583-10597. DOI:10.1109/JSTARS.2021.3119990 张传辉, 姚国标, 张力, 等. 多分支网络联合的倾斜影像仿射不变特征匹配[J]. 测绘学报, 2021, 50(5): 641-651.
ZHANG Chuanhui, YAO Guobiao, ZHANG Li, et al. Affine invariant feature matching of oblique images based on multi-branch network[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(5): 641-651. DOI:10.11947/j.AGCS.2021.20200506 蓝朝桢, 卢万杰, 于君明, 等. 异源遥感影像特征匹配的深度学习算法[J]. 测绘学报, 2021, 50(2): 189-202.
LAN Chaozhen, LU Wanjie, YU Junming, et al. Deep learning algorithm for feature matching of cross modality remote sensing images[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(2): 189-202. DOI:10.11947/j.AGCS.2021.20200048 SNAVELY N, SEITZ S M, SZELISKI R. Photo tourism: exploring photo collections in 3D[J]. ACM Transactions on Graphics, 2006, 25(3): 835-846. SINGH PARIHAR U, GUJARATHI A, MEHTA K, et al. RoRD: rotation-robust descriptors and orthographic views for local feature matching[C]//Proceedings of 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Prague, Czech Republic: IEEE, 2021: 1593-1600. 蓝朝桢, 阎晓东, 崔志祥, 等. 用于无人机自主绝对定位的实时特征匹配方法[J]. 测绘科学技术学报, 2020, 37(3): 264-268, 274.
LAN Chaozhen, YAN Xiaodong, CUI Zhixiang, et al. Real-time feature matching method for the autonomous absolute location of UAV[J]. Journal of Geomatics Science and Technology, 2020, 37(3): 264-268, 274. LUO Zixin, ZHOU Lei, BAI Xuyang, et al. ASLFeat: learning local features of accurate shape and localization[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA: IEEE, 2020: 6588-6597. 张永生, 于英, 薛武. 无人机地理影像直播技术[M]. 北京: 科学出版社, 2020.
ZHANG Yongsheng, YU Ying, XUE Wu. UAV geographic image live broadcast technology[M]. Beijing: Science Press, 2020. 张永显,马国锐,崔志祥,张志军 ZHANG Yongxian, MA Guorui, CUI Zhixiang, ZHANG Zhijun
面向大视角差的无人机影像序列学习型特征匹配
Learning feature matching for UAV image sequences with significantly different viewpoints
测绘学报,2023,52(2):230-243
Acta Geodaetica et Cartographica Sinica, 2023, 52(2): 230-243
http://dx.doi.org/10.11947/j.AGCS.2023.20210472