<?xml version="1.0" encoding="gb2312"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005">
<channel xmlns:cfi="http://www.microsoft.com/schemas/rss/core/2005/internal" cfi:lastdownloaderror="None">
<title cf:type="text"><![CDATA[中国图象图形学报 -->最新文章目次]]></title>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[图像块的自适应均衡水印算法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A44F03C52DD940A1B&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=98494933359B55EC&eid=F18BA6286A889C1C&referenced_num=0&reference_num=19]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 针对水印算法通常利用实验确定强度参数，实验工作量大并且具有随机性，得到的参数无法较好地均衡水印不可见性和鲁棒性，提出一种基于图像块的自适应均衡水印算法。<b>方法</b> 利用尺度不变特征变换（SIFT）提取原始图像中鲁棒性强的特征点作为水印嵌入区域，将提取的嵌入区域分成4个大小相等且互不重叠的图像块，并对各图像块进行奇异值分解（SVD），得到与各块相应的奇异值矩阵，各块与水印做一级离散小波变换后产生的各子带相叠加，生成嵌入加密水印块，重组得到水印矩阵，降维后将特征点还原到原始图像。根据果蝇优化算法（FOA）中适应度函数迭代确定加密水印强度参数，构造水印图像的自适应嵌入，来均衡水印的不可见性和鲁棒性，水印检测可直接作用在受攻击后的图像上，无需校正恢复。<b>结果</b> 对标准灰度图像进行多组实验，得到含水印图像峰值信噪比均达到43dB以上；对水印载体图像分别进行噪声、压缩、剪切、旋转仿真攻击实验，提取水印图像与原始水印图像的归一化相关系数都达到0.94以上。<b>结论</b> SIFT算法实现图像块局部嵌入，提取特征点稳定性强，结合SVD算法使水印嵌入性能良好，利用FOA算法自适应确定最优参数，使水印图像嵌入效果达到最佳状态，最终均衡了水印的不可见性和鲁棒性。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[齐向明,李玥,高婷,郑泽]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>齐向明,李玥,高婷,郑泽</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A44F03C52DD940A1B&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=98494933359B55EC&eid=F18BA6286A889C1C&referenced_num=0&reference_num=19]]></guid><cfi:id>14</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[使用霍夫变换的3维点云拼合算法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF60CD9DB63300E47&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=A94616C4391AA5EF&eid=F176272DD933A0BB&referenced_num=0&reference_num=30]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 直接基于点云数据本身的拼合算法对点云模型的位置和重叠度有着较高的要求。为了克服这种缺陷，提出一种针对散乱点云的分步拼合算法。<b>方法</b> 不同于大多数已有的基于曲率信息的拼合算法，本文算法包含了一个序贯式的匹配点对筛选过程和一个基于霍夫变换的坐标变换参数估计过程。在筛选过程中，首先利用曲率相似度确定点云数据之间的初始匹配关系，然后利用刚体不变量特征邻域标识相似度以及持续特征直方图相似度对初始匹配点对进行连续两次筛选以便得到更为精确的匹配点对集。在参数估计阶段，通过对匹配点对的旋转矩阵和平移矢量的参数化处理，利用霍夫变换消除错误匹配点对对坐标变换参数估计的影响，从而得到更加准确的坐标变换参数，实现点云的3维拼合。<b>结果</b> 利用本文算法对两片部分重叠的点云数据进行了拼接实验。实验结果表明，本文算法能很好地实现对部分重叠点云的拼合。由于霍夫变换的引入，本文算法相较于经典的Ransac算法具有更高的正确率、稳定性以及抗噪性，在运行速度上也具有一定的优越性。<b>结论</b> 本文算法不仅能适用于任何具有任意初始相对位置的部分重叠点云的拼接，而且可以取得很高的拼合精度和很好的噪声鲁棒性。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[吴霄,陈聪梅,王加俊]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>吴霄,陈聪梅,王加俊</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF60CD9DB63300E47&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=A94616C4391AA5EF&eid=F176272DD933A0BB&referenced_num=0&reference_num=30]]></guid><cfi:id>13</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[结合双向相似性变换的重定向图像质量评价]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A352D20F58B3DCB9A&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=D397660E39E3E461&eid=A03A15CF5604A8B0&referenced_num=0&reference_num=22]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 显示设备的多样化使得图像重定向的作用日益凸显。不同的重定向方法产生不同视觉感受的重定向图像，而如何评价重定向图像的质量，优化重定向算法是当前研究的热点与难点，为此，提出一种结合双向相似性变换的重定向图像质量评价方法。<b>方法</b> 首先对原始图像和重定向图像进行像素点双向匹配，利用网格顶点坐标对计算前向变换矩阵和后向变换矩阵。然后由相似性变换矩阵与标准变换矩阵间的距离得到重定向图像的几何失真。由网格面积缺失得到重定向图像的信息损失。最后结合网格的显著性，融合前向匹配与后向匹配的几何失真和信息损失得到重定向图像的质量。<b>结果</b> 该方法在RetargetMe和CUHK数据库上的KRCC（Kendall rank correlation coefficient）和SROCC（Spearman rank-order correlation coefficient）性能分别达到了0.46和0.71，较现有方法有较大提升。在前向匹配与后向匹配测试中，双向匹配的测试结果优于单向匹配。<b>结论</b> 本文方法将图像的重定向处理看做相似性变换过程。实验结果表明，从相似性变换矩阵中提取的相关特征能够较精确度量重定向图像的几何失真，而由此引发的网格面积缺失也能准确反映出重定向图像的信息损失。另外，采用双向匹配机制一定程度上减少了像素匹配误差对实验结果的影响，有效提升了重定向图像质量预测的准确性。该方法对重定向图像的质量评价效果好，适用于重定向图像的质量预测及算法优化。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[富振奇,邵枫,蒋刚毅,郁梅]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>富振奇,邵枫,蒋刚毅,郁梅</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A352D20F58B3DCB9A&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=D397660E39E3E461&eid=A03A15CF5604A8B0&referenced_num=0&reference_num=22]]></guid><cfi:id>12</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[联合深度视频增强的3D-HEVC帧内编码快速算法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AFD879253D90F9571&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=8566B4AE2A8832E3&eid=4ECB3941871FD391&referenced_num=0&reference_num=20]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 针对高效3维视频编码标准（3D-HEVC）深度视频编码复杂度高和获取不准确的两个问题，现有算法单独进行处理，并没有进行联合优化。为了同时提升深度视频编码速度和编码效率，提出一种联合深度视频增强处理和帧内快速编码的方法。<b>方法</b> 首先，引入深度视频空域增强处理，消除深度视频中的虚假纹理信息，增强其空域相关性，为编码单元（CU）划分和预测模式选择提供进一步优化的空间；然后，针对增强处理过的深度视频的空域特征，利用纹理复杂度将CU进行分类，提前终止平坦CU的分割过程，减少了CU分割次数；最后，利用边缘强度对预测单元（PU）进行分类，跳过低边缘强度PU的深度模型模式。<b>结果</b> 实验结果表明，与原始3D-HEVC的算法相比，本文算法平均节省62.91%深度视频编码时间，并且在相同虚拟视点质量情况下节省4.63%的码率。与当前代表性的帧内低复杂度编码算法相比，本文算法深度视频编码时间进一步减少26.10%，相同虚拟视点质量情况下，编码码率节省5.20%。<b>结论</b> 该方法通过深度视频增强处理，保证了虚拟视点质量，提升了编码效率。对深度视频帧内编码过程中复杂度较高的CU划分和预测模式选择分别进行优化，减少了率失真代价计算次数，有效地降低了帧内编码复杂度。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[黄超,彭宗举,苗瑾超,陈芬]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>黄超,彭宗举,苗瑾超,陈芬</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AFD879253D90F9571&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=8566B4AE2A8832E3&eid=4ECB3941871FD391&referenced_num=0&reference_num=20]]></guid><cfi:id>11</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[融合判别式深度特征学习的图像识别算法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF25A57A226D921FA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=25467A5A28500A25&eid=AE43DE0664B02889&referenced_num=0&reference_num=22]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 卷积神经网络在图像识别算法中得到了广泛应用。针对传统卷积神经网络学习到的特征缺少更有效的鉴别能力而导致图像识别性能不佳等问题，提出一种融合线性判别式思想的损失函数LDloss（linear discriminant loss）并用于图像识别中的深度特征提取，以提高特征的鉴别能力，进而改善图像识别性能。<b>方法</b> 首先利用卷积神经网络搭建特征提取所需的深度网络，然后在考虑样本分类误差最小化的基础上，对于图像多分类问题，引入LDA（linear discriminant analysis）思想构建新的损失函数参与卷积神经网络的训练，来最小化类内特征距离和最大化类间特征距离，以提高特征的鉴别能力，从而进一步提高图像识别性能，分析表明，本文算法可以获得更有助于样本分类的特征。其中，学习过程中采用均值分批迭代更新的策略实现样本均值平稳更新。<b>结果</b> 该算法在MNIST数据集和CK+数据库上分别取得了99.53%和94.73%的平均识别率，与现有算法相比较有一定的提升。同时，与传统的损失函数Softmax loss和Hinge loss对比，采用LDloss的深度网络在MNIST数据集上分别提升了0.2%和0.3%，在CK+数据库上分别提升了9.21%和24.28%。<b>结论</b> 本文提出一种新的融合判别式深度特征学习算法，该算法能有效地提高深度网络的可鉴别能力，从而提高图像识别精度，并且在测试阶段，与Softmax loss相比也不需要额外的计算量。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[黄旭,凌志刚,李绣心]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>黄旭,凌志刚,李绣心</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF25A57A226D921FA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=25467A5A28500A25&eid=AE43DE0664B02889&referenced_num=0&reference_num=22]]></guid><cfi:id>10</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[自适应骨骼中心的人体行为识别算法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ADD8C2BF01ACDD34B&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=89389F643CA3F778&eid=20C3B205768D55E0&referenced_num=0&reference_num=10]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 基于3维骨架的行为识别研究在计算机视觉领域一直是非常活跃的主题，在监控、视频游戏、机器人、人机交互、医疗保健等领域已取得了非常多的成果。现今的行为识别算法大多选择固定关节点作为坐标中心，导致动作识别率较低，为解决动作行为识别中识别精度低的问题，提出一种自适应骨骼中心的人体行为识别的算法。<b>方法</b> 该算法首先从骨骼数据集中获取三维骨架序列，并对其进行预处理，得到动作的原始坐标矩阵；再根据原始坐标矩阵提取特征，依据特征值的变化自适应地选择坐标中心，重新对原始坐标矩阵进行归一化；最后通过动态时间规划方法对动作坐标矩阵进行降噪处理，借助傅里叶时间金字塔表示的方法减少动作坐标矩阵时间错位和噪声问题，再使用支持向量机对动作坐标矩阵进行分类。论文使用国际上通用的数据集UTKinect-Action和MSRAction3D对算法进行验证。<b>结果</b> 结果表明，在UTKinect-Action数据集上，该算法的行为识别率比HO3D J2算法高4.28%，比CRF算法高3.48%。在MSRAction3D数据集上，该算法比HOJ3D算法高9.57%，比Profile HMM算法高2.07%，比Eigenjoints算法高6.17%。<b>结论</b> 本文针对现今行为识别算法的识别率低问题，探究出问题的原因是采用了固定关节坐标中心，提出了自适应骨骼中心的行为识别算法。经仿真验证，该算法能有效提高人体行为识别的精度。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[冉宪宇,刘凯,李光,丁文文,陈斌]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>冉宪宇,刘凯,李光,丁文文,陈斌</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ADD8C2BF01ACDD34B&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=89389F643CA3F778&eid=20C3B205768D55E0&referenced_num=0&reference_num=10]]></guid><cfi:id>9</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[结合HSV空间的水面图像特征水岸线检测]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A0B74DC0075CDCFD9&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=E3D3D8D1B650AE1E&eid=FF58680609C9D068&referenced_num=0&reference_num=16]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 水岸线可用于无人艇视觉导航、运动状态估计，是无人水面艇自主航行的重要参照特征。水岸线类似于水天线，但由于水波、反光、倒影等因素，内河水岸线检测的背景更复杂，难以采用现有水天线检测技术。通过分析水面图像在HSV空间的特征，发现陆地区域的饱和度值均高于天空和水面区域；在光照较暗时，色彩信息不能使用，亮度图像中的陆地区域相对其他区域较暗，但仍然存在水岸线轮廓特征。基于这一分析结果，提出结合HSV空间的水面图像特征水岸线检测方法。<b>方法</b> 首先将RGB图像经过高斯滤波后变换到HSV空间，依据权重进行HSV空间特征分量选取，接着进行像素点非线性增强；然后在增强的图像上进行区域分割，并将各个区域定义为基底图像；其次分析饱和度图像的行列特性，提取高饱和度的陆地区域，并将其定义为模板图像，将模板图像覆盖在各个基底图像上，按重叠区域面积比选取基底图像；最后通过边缘检测算子检测水岸线。<b>结果</b> 本文采集不同季节，不同光照强度的水面图像进行水岸线检测实验，实验结果表明本文算法可以在不同光照环境下准确检测出水岸线，且轮廓清晰完整，本文算法的实时性可达到1帧/s。<b>结论</b> 本文提出的结合HSV空间的水面图像特征水岸线检测方法，可以在不同的光照环境中有效地检测出轮廓清晰完整的水岸线，验证了水面图像分析的结论，本文算法可适用于无人艇视觉导航中。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[彭明阳,王建华,闻祥鑫,丛晓奕]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>彭明阳,王建华,闻祥鑫,丛晓奕</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A0B74DC0075CDCFD9&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=E3D3D8D1B650AE1E&eid=FF58680609C9D068&referenced_num=0&reference_num=16]]></guid><cfi:id>8</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<i>C</i><sup>3</sup>连续的单位四元数插值样条曲线]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A7C83FCBEB8D602EA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=D45762219109E903&eid=1918ADDC93A85779&referenced_num=0&reference_num=15]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 构造一类<i>C</i><sup>3</sup>连续的单位四元数插值样条曲线，证明它的插值性和连续性，并把它应用于刚体关键帧动画设计中。<b>方法</b> 利用<b>R</b><sup>3</sup>空间中插值样条曲线的5次多项式调配函数的累和形式构造了<i>S</i><sup>3</sup>空间中单位四元数插值样条曲线，它不仅能精确通过一系列给定的方向，而且能生成<i>C</i><sup>3</sup>连续的朝向曲线。<b>结果</b> 与Nielson的单位四元数均匀B样条插值曲线的迭代构造方法相比，所提方法避免了为获取四元数B样条曲线控制顶点对非线性方程组迭代求解的过程，提高了运算效率；与单位四元数代数三角混合插值样条曲线的构造方法（Su方法）相比，所提方法只用到多项式基，运算速度更快。本例中创建关键帧动画所需的时间与Nielson方法和Su方法相比平均下降了73%和33%。而且，相比前两种方法，所提方法产生的四元数曲线连续性更高，由<i>C</i><sup>2</sup>连续提高到<i>C</i><sup>3</sup>连续，这意味着动画中刚体的朝向变化更加自然。<b>结论</b> 仿真结果表明，本文方法对刚体关键帧动画设计是有效的，对实时性和流畅性要求高的动画设计场合尤为适用。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[邢燕,白龙,樊文,檀结庆]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>邢燕,白龙,樊文,檀结庆</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A7C83FCBEB8D602EA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=D45762219109E903&eid=1918ADDC93A85779&referenced_num=0&reference_num=15]]></guid><cfi:id>7</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[结合深度学习和支持向量机的海马子区图像分割]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A4C74281C11391979&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=8C044EC256B1039D&eid=CEFF71AEB051114C&referenced_num=0&reference_num=19]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 由于海马子区体积很小且结构复杂，传统的分割方法无法达到理想的分割效果，为此提出一种基于卷积神经网络和支持向量机的海马子区分割方法。<b>方法</b> 该方法构建一种新模型，将卷积神经网络和支持向量机结合起来，使用支持向量机分类器替换卷积神经网络的输出层，通过训练深层网络自动提取图像块特征，利用所提取的图像特征训练支持向量机实现图像的像素级分类。<b>结果</b> 实验选取美国旧金山CIND中心的32位实验者的脑部磁共振图像（MRI）进行海马子区分割测试，在定性和定量方面分别对比了本文方法与支持向量机（SVM）、卷积神经网络（CNN）和基于稀疏表示与字典学习方法的分割结果。所提方法对海马子区CA1、CA2、DG、CA3、Head、Tail、SUB、ERC和PHG的分割准确率分别为0.969、0.733、0.967、0.837、0.981、0.920、0.972、0.968和0.976。本文方法优于现有的基于稀疏表示与字典学习、支持向量机和卷积神经网络的方法，各海马子区分割准确率均有较大提升，对较大子区如Head，准确率较现有最优方法提升10.2%，对较小子区如CA2、CA3，准确率分别有36.2%和52.7%的大幅提升。<b>结论</b> 本文方法有效提升了海马子区的分割准确率，可用于大脑核磁共振图像中海马及其子区的准确分割，为诸多神经退行性疾病的临床诊断与治疗提供依据。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[时永刚,程坤,刘志文]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>时永刚,程坤,刘志文</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A4C74281C11391979&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=8C044EC256B1039D&eid=CEFF71AEB051114C&referenced_num=0&reference_num=19]]></guid><cfi:id>6</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[多核多示例学习的糖尿病视网膜病变诊断]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ABAE3D52134549309&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=385E3C2062167B88&eid=8DBE05486163BAB2&referenced_num=0&reference_num=27]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 在传统糖尿病视网膜病变（糖网）诊断系统中，微动脉瘤和出血斑病灶检测的精确性决定了最终诊断性能。目前的检测诊断方法为了保证高敏感性而产生了大量假阳性样本，由于数据集没有标注病灶区域导致无法有效地建立监督性分类模型以去除假阳性。为了解决监督性学习在糖网诊断中的问题，提出一种基于多核多示例学习的糖网病变诊断方法。<b>方法</b> 首先，检测疑似的微动脉瘤和出血斑病灶区域，并将其视为多示例学习模型中的示例，而将整幅图像视为示例包，从而将糖网诊断转化为多示例学习问题；其次，提取病灶区域的特征对示例进行描述，并通过极限学习机（ELM）分类算法过滤不相关示例以提升后续多示例学习的分类性能；最后，构建多核图的多示例学习模型对健康图像和糖网病变图像进行分类，以实现糖网病变的诊断。<b>结果</b> 通过对国际公共数据集MESSIDOR进行糖网病变诊断评估实验，获得的准确率为90.1%，敏感性为92.4%，特异性为91.4%，ROC（receiver operating characteristic）曲线下面积为0.932，相比其他算法具有较大性能优势。<b>结论</b> 基于多核多示例学习方法在无需提供病灶标注的情况下，能够高效自动地对糖网病变进行诊断，从而既能避免医学图像中标注病灶的费时费力，又可以免除分类算法中假阳性去除的问题，获得较好的效果。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[任福龙,曹鹏,杨金柱,万超,赵大哲]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>任福龙,曹鹏,杨金柱,万超,赵大哲</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ABAE3D52134549309&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=385E3C2062167B88&eid=8DBE05486163BAB2&referenced_num=0&reference_num=27]]></guid><cfi:id>5</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[结合插值细分和径向基函数的3维扫描数据孔洞修补]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF368C63345F66F57&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=2497388423811B81&eid=F16C0F639D87527E&referenced_num=0&reference_num=15]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 逆向工程中3维扫描数据通常产生孔洞影响逆向造型精度.针对已有算法补洞会导致的边界突变问题，提出基于插值细分和基于径向基函数的孔洞修复算法。<b>方法</b> 首先，对有噪声孔洞边界进行拉普拉斯平滑预处理；其次，通过快速重心插值细分孔洞；然后，结合孔洞周围曲率信息，利用边界和法线约束点进行隐式曲面求解；最后，利用求得的隐式曲面方程，利用梯度下降法调整孔洞插值点，获得平滑修补孔洞结果。<b>结果</b> 对3维经典造型以及实际机械工件等两类不同的数据进行扫描并进行孔洞修补实验。由于算法针对有噪声孔洞结合了孔洞周围曲率信息并通过插值细分进行约束求解，保证了补洞效果的平滑性。实验结果表明，本文算法使得基于径向基函数隐式曲面对有噪声孔洞的适应性更强，其修补结果更加平滑，符合周围曲率变化，改进了已有孔洞修补的边缘突变和修补痕迹明显问题。<b>结论</b> 本文算法针对基于径向基函数的隐式曲面求解对噪声敏感的局限性，进行平滑预处理，结合孔洞周围曲率，提高了孔洞修补效果。由于基于径向基函数的隐式曲面对光顺的流形曲面模拟较好，所以算法对特征孔洞的修补存在一定的不足，快速重心插值法针对不规则孔洞也有一定的局限性。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[潘翔,焦吾振,郑河荣,张三元]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>潘翔,焦吾振,郑河荣,张三元</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21AF368C63345F66F57&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=2497388423811B81&eid=F16C0F639D87527E&referenced_num=0&reference_num=15]]></guid><cfi:id>4</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[图像超分辨率重建中的细节互补卷积模型]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ACA60910D48D58A49&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=6A9657F54F754BF6&eid=90773C2285A2F0BB&referenced_num=0&reference_num=38]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 现有的超分辨卷积神经网络为了获得良好的高分辨率图像重建效果需要越来越深的网络层次和更多的训练，因此存在了对于样本数量依懒性大，参数众多致使训练困难以及训练所需迭代次数大，硬件需求大等问题。针对存在的这些问题，本文提出一种改进的超分辨率重建网络模型。<b>方法</b> 本文区别于传统的单输入模型，采取了一种双输入细节互补的网络模型，在原有的SRCNN单输入模型特征提取映射网络外，添加了一个新的输入。本文结合图像局部相似性，构建了一个细节补充网络来补充图像特征，并使用一层卷积层将细节补充网络得到的特征与特征提取网络提取的特征融合，恢复重建高分辨率图像。<b>结果</b> 本文分别从主观和客观的角度，对比了本文方法与其他主流方法之间的数据对比和效果对比情况，在与SRCNN在相似网络深度的情况下，本文方法在放大3倍时的PSNR数值在Set5以及Set14数据下分别比SRCNN高出0.17 dB和0.08 dB。在主观的恢复图像效果上，本文方法能够很好的恢复图像边缘以及图像纹理细节。<b>结论</b> 实验证明，本文所提出的细节互补网络模型能够在较少的训练以及比较浅的网络下获得有效的重建图像并且保留更多的图像细节。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[李浪宇,苏卓,石晓红,黄恩博,罗笑南]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>李浪宇,苏卓,石晓红,黄恩博,罗笑南</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21ACA60910D48D58A49&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=6A9657F54F754BF6&eid=90773C2285A2F0BB&referenced_num=0&reference_num=38]]></guid><cfi:id>3</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[融合双特征图信息的图像显著性检测方法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A6B3F8F967A2D4BDB&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=7882A2973AA04DE8&eid=65FC738C50B41E43&referenced_num=0&reference_num=25]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 图像的显著性检测是将图像中最重要的、包含丰富信息的区域标记出来，并应用到图像分割、图像压缩、图像检索、目标识别等重要领域。针对现有研究方法显著性目标检测结果不完整以及单一依靠颜色差异检测方法的局限性，提出一种综合图像底层颜色对比特征图和图像颜色空间分布特征图的显著性检测方法，能够有效而完整地检测出图像中的显著性区域。<b>方法</b> 本文方法结合了SLIC超像素分割和K-means聚类算法进行图像特征的提取。首先，对图像进行SLIC（simple linear iterative clustering）分割，根据像素块之间的颜色差异求取颜色对比特征图；其次，按照颜色特征对图像进行K-means聚类，依据空间分布紧凑性和颜色分布统一性计算每个类的初步颜色空间分布特征。由于聚类结果中不包含空间信息，本文将聚类后的结果映射到超像素分割的像素块上，进一步优化颜色空间分布图；最后，通过融合颜色对比显著图和图像颜色空间分布特征图得到最终的显著图。<b>结果</b> 针对公开的图像测试数据库MSRA-1000，本文方法与当前几种流行的显著性检测算法进行了对比实验，实验结果表明，本文方法得到的显著性区域更准确、更完整。<b>结论</b> 本文提出了一种简单有效的显著性检测方法，结合颜色对比特征图和图像颜色空间分布特征图可以准确的检测出显著性区域。该结果可用于目标检测等实际问题，但该方法存在一定的不足，对于背景色彩过于丰富且与特征区域有近似颜色的图像，该方法得到的结果有待改进。今后对此算法的优化更加侧重于通用性。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[崔玲玲,许金兰,徐岗,吴卿]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>崔玲玲,许金兰,徐岗,吴卿</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A6B3F8F967A2D4BDB&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=7882A2973AA04DE8&eid=65FC738C50B41E43&referenced_num=0&reference_num=25]]></guid><cfi:id>2</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[沿整体C-B&#233;zier曲线的运动]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A791358E66C9A3628&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=240CB58995465C01&eid=1A0C7C60D40EFD74&referenced_num=0&reference_num=25]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 整体曲线包括传统有限闭区间（比如[0，<i>α</i>]）上的内部段和该区间外的延拓段。在计算机辅助设计（CAD）中，构造整体曲线常用分段表示，存在冗余数据——为了减少冗余，需知道各分段间的关系，并判断它们是否在同一整体曲线上。由此，本文研究当整体C-B&#233;zier曲线原参数域[0，<i>α</i>]在（-∞，+∞）上缩放变动时，曲线的控制顶点的变化情况。<b>方法</b> 通过基函数的递推比较，寻找运动前后控制顶点之间的关系。首先考虑特殊细分情下线性插值。因插值后生成的NUAT-B样条基分段且具有支撑区间，它无法适应整体情况。因此用其与t轴间的区域面积取代它；接着进一步讨论了一般情况下沿整体C-B&#233;zier运动的线性插值。由于C-B&#233;zier参数区间长度要小于π，特殊细分情况下线性插值不能直接推广。不过虽然参数区间在变化，整体曲线上每点位置却不变。针对这点，使用两次递归，寻求得到以线性插值形式沿整体C-B&#233;zier曲线运动的结果。<b>结果</b> 只要保持参数区间的长度在（0，π）上，运动的曲线都可以写成传统的C-B&#233;zier内部段的形式，且控制顶点可以表示为原始控制顶点直接的线性组合，或者逐步地线性插值（包括内插和外插）的形式。<b>结论</b> 考虑整体曲线及沿整体曲线的运动，可以改变C-B&#233;zier曲线的造型区间，减少造型过程中的冗余数据。不过，C-B&#233;zier基由递归积分定义，其运动过程较慢。所以今后可以考虑加速运动的方法，也可以考虑其他类型的拟-B&#233;zier曲线。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[沈莞蔷,李玲玉,汪国昭]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>沈莞蔷,李玲玉,汪国昭</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A791358E66C9A3628&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=240CB58995465C01&eid=1A0C7C60D40EFD74&referenced_num=0&reference_num=25]]></guid><cfi:id>1</cfi:id><cfi:read>true</cfi:read></item>
<item>
<title xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[基于雾天图像降质模型的优化去雾方法]]></title>
<link><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A68FD0FDAF503CBAA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=10A39635766FF5D0&eid=984BD2F4D19B9D1C&referenced_num=0&reference_num=22]]></link>
<description xmlns:cf="http://www.microsoft.com/schemas/rss/core/2005" cf:type="html"><![CDATA[<b>目的</b> 图像去雾是计算机视觉的重要研究方向，既获得高质量的去雾图像，又保证较低的时间复杂度一直是图像去雾面临的挑战，为此提出了一种基于雾天图像降质模型的优化去雾方法。<b>方法</b> 根据雾天图像降质模型，暗原色作为先验知识，对模型的两个物理量大气光值和透射率进行优化。传统优化算法中通常都是固定其一，优化另一个物理量，与传统方法不同，考虑到大气光和透射率的相关性，采用多元优化策略，将这两个物理量作为互相影响的整体，利用迭代算法进行优化。为保持去雾图像颜色真实、自然，基于对无雾图像的统计特性，多阈值融合的约束条件作为迭代停止的条件，控制优化去雾程度，复原高质量去雾图像。<b>结果</b> 本文方法与其他去雾方法相比，在视觉效果上，图像结构更加清晰，细节更加丰富，色彩更加真实。在客观数据方面，本文方法获得图像的彩色直方图与有雾图像的彩色直方图在形状上更相似，同时在Cones、Herzeliya、House、Dolls对比图像中，本文方法结果图像的信息熵值都比较高，分别为13.801 270、15.490 912、15.395 014、16.276 838，且时间复杂度较He方法（使用软抠图算法优化透射率）降低了3~5倍。<b>结论</b> 本文去雾方法利用迭代算法对大气光和透射率进行多元优化，同时采用多阈值融合约束条件控制优化去雾程度。本文方法在色彩保真度、细节恢复等方面都优于经典算法，同时获得了较好的客观评价数据。实验结果表明，本文方法能够达到主客观都满意的效果。]]></description>
<pubDate>2019/11/13 9:44:14</pubDate>
<category><![CDATA[目次]]></category>
<author><![CDATA[王平,张云峰,包芳勋,杜宏伟,张彩明]]></author>
<atom:author xmlns:atom="http://www.w3.org/2005/Atom">
<atom:name>王平,张云峰,包芳勋,杜宏伟,张彩明</atom:name>
</atom:author>
<guid><![CDATA[/simple_view_abstract.aspx?pcid=5B3AB970F71A803DEACDC0559115BFCF0A068CD97DD29835&cid=8240383F08CE46C8B05036380D75B607&jid=D06194629680C940ACE75262F54B9D85&aid=6523A4D2E124A21A68FD0FDAF503CBAA&yid=EA357AD73C8E13BC&vid=EA389574707BDED3&iid=E158A972A605785F&sid=10A39635766FF5D0&eid=984BD2F4D19B9D1C&referenced_num=0&reference_num=22]]></guid><cfi:id>0</cfi:id><cfi:read>true</cfi:read></item>
</channel>
</rss>