一、图像/视频字符区域定位算法的实现(论文文献综述)
郑重港[1](2021)在《基于机器视觉的线束插装引导及缺陷检测技术研究》文中指出随着现代科学技术的加速发展,工业自动化与智能化是推动企业发展和加速转型的必要过程。虽然现有许多工业产品都能实现全自动化生产,但考虑到自动化引入成本高以及产品自身制造工艺复杂等问题,仍然有部分装配及质量检测工作需要人工完成,而人工操作极易造成产品装配质量的不稳定。因此在手工装配过程中,进行各装配工序的在线引导和实时检测,将会给产品质量的稳定带来较大的提升。鉴于此,本文利用机器视觉技术,以某型电气控制柜内预装模块的线束插装为研究对象,开发一套基于机器视觉的线束插装引导及缺陷检测系统。主要内容如下:(1)首先根据控制柜内部线束插装的行业检测标准和企业实际生产需求,明确了本系统的检测内容及要求;然后模块化搭建系统框架,并详细介绍了其工作流程;最后基于实际生产情况,构建了视觉成像方案,包括对相机、镜头和光源等硬件的选型以及照明方案的设计。(2)设计了端子排插装引导基准点定位算法。针对特定的简单应用场景,提出一种基于标记的插装点辅助定位算法;针对自由度更高的应用场景,提出一种基于无标记的插装点自动定位算法;通过实验验证了两种算法的准确率和时效性,实验结果表明,两种算法的定位准确率均能达到98%以上,且单张图片耗时约为60ms,最后根据实际应用需求,选择合适的算法作为系统的定位方案。(3)设计了插装后的缺陷检测算法。首先基于检测需求,提取检测区域作为后续插装质量检测的ROI;然后设计粗、细两级特征提取算法,定位线束号码管上的字符并将其作为基准进一步设计各类缺陷检测算法,包括:基于SVM的号码管内容检测算法、基于改进色差法的线束颜色识别算法、基于区域判断的线束漏插检测算法和基于长度特征的线束插装深浅检测算法;最后通过离线测试,表明各算法的准确率均能达到98%以上,验证了所提算法的有效性与准确性,可满足企业的实际生产需求。(4)开发了线束插装引导与缺陷检测软件系统。首先对系统的可视化装配引导方式进行规划,提出一种基于XML的装配工艺信息封装与管理方法;然后在搭建的框架基础上,通过C++与C#联合编程在.Net平台完成软件系统开发;最后通过在线应用测试,验证了本系统具有操作简单、稳定可靠的特性,能够满足系统的设计要求。
张慧宇[2](2020)在《广电视频文字检测与识别的研究》文中提出随着计算机技术、通信和多媒体技术的飞速发展,在大数据时代的今天,视频资源越来越多样化,从海量的丰富的视频中提取有效的信息变得越来越重要,并且成为了研究热点。无论是广播电视的监管、还是网络视频的监控,或者视频检索领域,都需要利用计算机来对视频所表达的内容进行理解。而视频中的字幕具有较强的语义信息,是对视频内容的一种辅助表达,对于理解视频有着重要的作用。因此,视频字幕的检测与识别变得非常有意义。近年来,深度学习技术在各种不同的领域都得到了应用并取得了成功,尤其是在图像处理、语音识别等方面的表现更加突出。在这样的背景下,本文主要研究了基于深度学习的视频图像字幕定位与识别。在充分调研相关技术的基础上,设计了一套字幕检测与识别系统。在字幕定位任务中,考虑到视频字幕复杂多变的背景,选取了CTPN框架来进行检测。首先,本文提出了一种基于随机位置的文本生成方案;其次制作了大量的视频字幕数据集;然后利用CTPN框架在其他数据集上的模型作为初始结果进行训练,以减少训练时间,并且得到了精度和召回率较高的字幕定位模型。获取定位到的文本之后,对文本区域进行截取,然后利用灰度变换和增强对比度的方法,使图像中文字的信息更加突出。在文本识别任务中,选取CRNN网络模型来对不定长文本进行识别,通过测试发现预处理之后的文本图像能够有效地在基于CRNN的OCR模型中识别。通过整体的搭建,从视频读取到字幕定位,再到字幕区域截取和文字的识别,实现了端到端的视频文本识别。通过测试表明,本文所设计的系统可以准确地定位出视频中的文本区域,使用OCR能有效地识别出文本行的文字内容,因此具有一定的应用价值。
艾鑫[3](2020)在《面向视频和图像的列车车号定位与识别方法研究》文中认为货检作业自动化的关键环节包括列车车号的定位与识别,即能够自动记录车号信息,节省人力物力。近年来,将计算机视觉技术应用于列车车号识别,既能节省成本,又能实现对列车的自动监测,为铁路车号识别带来了便利。但是,识别图像或者视频中的车号也存在许多难题:首先车号区域在车厢全景图像中占的面积比例极小(小于0.41%),并且存在许多非车号的文本干扰;其次列车车号具有位置多变和字符间隔不定的特点;再次车号识别极易受到光照,车体结构复杂,背景多变,车厢污损和透视变形的干扰。现有的自然场景文本识别方法不能直接用于本文任务,难以取得理想效果。一方面容易漏检小车号目标。另一方面单词级别的文本定位方法,容易将数字间隔大的车号定位成两个部分。同时存在透视变形的车号识别准确率低。针对上述难点,本文分别提出了面向视频和面向图像的列车车号定位与识别方法,实现鲁棒的货运列车车号的定位与识别。本文主要工作内容如下:(1)针对静态图像,在货运列车车号的定位阶段,创建货运列车车号检测数据集,提出一种面向图像的列车车号定位方法。首先采用一种基于深度学习的基础模型定位列车车号,效果不佳。因此本文在此模型的基础上提出三点改进,得到车号定位模型。针对小目标易漏检的问题,融合不同尺度特征图,用于生成文本候选区域,解决定位中的多分辨率问题。针对不能精确定位完整车号的问题,不仅增加了水平方向回归层,还提出了边界敏感的细粒度文本框精确定位策略(bordersensitive fine-grained text box,BSF)和困难样本挖掘策略(hard example mining,HEM)。经过改进之后,列车车号检测F1-Measure为0.94。实验测试数据由本文自行标注的2109幅列车车厢全景图组成,包括黑夜、白天、不同车型、车号尺度多变等图像。每幅图像的检测速度为0.19s。(2)针对静态图像,在货运列车车号的识别阶段,实现了基于注意力机制的列车车号识别方法,即面向图像的列车车号识别方法,并与其他先进的车号序列识别方法做了对比。此方法由卷积层,编码层和基于注意力机制的解码层三部分组成。经过测试,最终实现列车车号整体识别F1-Measure为0.81。车号字符识别F1-Measure为0.94。每幅图像的识别速度是0.04s。(3)针对视频数据,为实现货运列车车号的定位与识别,构造了视频车号检测与识别数据集,提出了一种面向视频的形变车号识别方法。由于视频中的列车车号存在由监控摄像头的视角带来的透视形变,因此不宜采用静态文本识别方法。本文提出的方法为多阶段的车号识别方法,首先针对视频车号存在时间冗余、字符清晰度差的问题,设计了基于跟踪的视频车号定位方法,降低误检,并减少漏检。其次针对形变车号,使用内置矫正网络的端对端的车号识别方法。最后提出基于视频的车号序列推荐策略,进一步利用轨迹优化识别结果。实验数据为包含7086帧的视频段,经过实验,最终实现列车车号整体识别F1-Measure为0.91。车号字符识别F1-Measure为0.99。每幅车号图像的识别速度是0.23s。
祝启瑞[4](2020)在《基于深度学习的船舶超吃水判别和船牌识别系统研究》文中研究表明水路航运是人类综合交通运输网必不可少的组成部分,随着船舶使用量的不断增加,船舶超载工作等违法行为发生频率也越来越高,带来了巨大的安全隐患。因此,对船舶进行超吃水判别,并对超载船舶的身份进行准确识别具有重要的研究价值。基于深度学习的车牌识别技术目前已取得了许多重要进展,然而由于船舶铭牌并没有统一的字体与安装位置要求,相关技术在水路航运领域的应用仍然很缺乏。本文对基于深度学习的船舶超吃水判别和船牌识别系统进行了一定的研究,主要的工作总结如下:本文首先搭建基于YOLO v3的目标检测算法网络,通过识别图像上是否存在船舶载重线标识的方式来对船舶的超吃水状态做出判别。同时提出超载船舶再识别算法,计算图像上船舶侧板超出水面的像素高度实现再次判别,提高了超吃水状态判别的精度。之后,提出了基于YOLO v3算法的简易目标跟踪方式,实现了对判定为超载的船舶在视频监控上的实时跟踪。为了对超载船舶进行告警与纠正,需要对船舶身份进行识别,包括船牌的定位提取、倾斜矫正、字符分割与识别。本文提出了基于YOLO v3算法的铭牌定位提取方式,并将船体图像按宽度大小三等分再输入网络进行检测,有效解决了船牌在图像上占比较小的问题。针对提取船牌存在字符倾斜的问题,对字符进行了水平方向上的倾斜矫正。通过阴影分割算法分割下船牌上的单个字符,并训练YOLO v3网络模型对字符进行识别。最后,建立船名有限中文库按照关键词检索的方式对漏识别、误识别的船名进行匹配更正,最终达到了较高的识别准确率。实验结果表明,设计优化的船舶超吃水判别系统在测试集上达到了 91.525%的多类别平均精度,船牌识别系统的正确率达到了 91.37%,且检测速度达到了每秒33次,满足了系统的准确性与实时性需求。本文相关的研究与技术实现,已经在苏州鹤溪大桥航段的海事监控系统中得到了具体应用,实现了良好的检测功能。
曾诚[5](2020)在《视频流环境下车牌识别系统研究与实现》文中提出近年来,随着全国机动车保有量的日益剧增,车牌识别技术在智能交通领域的应用需求也随之增加。传统车牌识别采用软硬件协助的方式,通过预先在识别路段铺设车辆传感器等硬件检测车辆经过,在其经过时拍照获取车辆图像并对图像进行识别。由于光照、前车遮挡后车等问题,通过拍照获取的车辆信息存在不完整性和失真性,且需预设硬件感应车辆成本较高。因此,本文针对这一原因设计一套基于视频流环境下车牌识别系统。本系统实时的检测识别道路监控视频中车辆车牌信息,相较传统的拍照识别系统,用户可高效获知目标车辆车牌信息,直观获取目标车辆行驶轨迹,系统具有良好的用户友好度。本文的主要研究工作如下:(1)本论文分析了传统感应拍照车牌识别与视频流坏境下车牌识别的优劣势,介绍了我国车牌所包含的字符,分析了我国车牌的特征,并介绍了车牌识别的流程。结合我国车牌特征以及车牌识别流程介绍了本文设计的视频流环境下车牌识别系统中所使用到的相关技术。(2)权衡视频流处理中计算量与识别率,本文通过对基于SIFT特征的关键帧提取算法的改进来提取包含车辆车牌完整信息的关键帧。该算法汲取了背景差分与SIFT特征匹配的思想,并将视频帧划分为突变帧与未突变帧两类,分别对其处理判别是否为关键帧,最终根据哈希算法判别其相似度去除冗余帧。将改进的SIFT特征的关键帧提取算法与传统的背景差分法和SIFT运动特征算法对比实验进行分析,实验结果表明,改进的SIFT特征的关键帧提取算法在关键帧提取方面具有更低的漏帧率,实时性较好。(3)在传统感应拍照车牌识别的基础上,结合视频流处理的特点以及对本课题的需求,提出了该课题的总体系统体系结构和功能模块划分。将视频流坏境下车牌识别系统按照功能要求分为单路段车牌识别、多路段车牌识别与车辆信息统计三大部分,并且分别对每部分内容进行详细地介绍,对本文系统核心功能单路段车牌识别进行了需求详细地分析以及概要设计。(4)将改进的算法应用于视频流车牌识别中,实现单路段车牌识别功能,并用监控视频对其测试,最终完成系统核心识别功能,并验证系统可行性。
王滢[6](2020)在《复杂背景下文本信息的识别与提取技术研究》文中研究说明自然场景图像上的文字信息中包含了非常丰富而准确的高层语义信息,是我们对于场景内容元素理解的关键。随着生活的智能化,图像和视频应用的快速增长,在图像检测中,自然场景的文本检测识别技术也得到了国内外学者的广泛关注。但是,因为自然场景的复杂性和不确定因素的影响,为文本检测识别技术的发展带来了很大的困难。因此,对于自然场景的文本检测识别还存在着许多技术上的困难。本文针对自然场景下的文本检测与识别进行研究,主要借鉴了图像处理、目标检测和机器学习等领域的最新进展,并从以下几个方面具体展开工作。(1)由于自然场景中图像受光照不均匀、字符形式多样、遮挡、图像噪声和边缘检测算子的选择以及其他因素的影响,传统的SWT算法和MSER算法的性能受到很大限制,导致了文本检测结果中出现部分字符缺失,甚至是漏检、错检。针对上述算法的不足,提出了一种结合SWT和多通道光照均衡化MSER的文本检测算法。首先,对输入的图像做去噪和校正操作;随后,利用光照均衡化分别处理R、G、B三通道下的文本图像,将处理之后的结果再用MSER算法初步筛选文本区域;最后基于SWT算法,利用SVM分类器过滤掉伪字符区域得到最终的文本区域。实验结果表明,该算法能够有效的解决文本检测过程中的漏检问题。(2)传统的Faster R-CNN算法适用于如行人等比较常规的目标检测,对于文本检测时会忽略文字的特殊性,只关注字符的深度特征,忽略了文本字符中字符之间存在的上下文关系,造成文本检测效果不佳。针对该问题,本文在深入研究Faster RCNN算法的基础上,引入双向LSTM网络来提取字符的上下文信息。为使模型能够预测文本的几何坐标和文本倾斜角度,添加了文本角度信息用于在候选区域判断和位置回归。同时使用蒙特卡洛非极大值抑制方法,筛去多余的文本检测结果。最后通过实验验证了该方法对自然场景中任意方向文本检测的有效性。(3)不同于一般算法,将检测与识别分为两个部分独立处理,本文设计了一种基于CNN+BLSTM+CTC的端到端文本识别系统,将文本检测与文本识别结合在一起,同时输出检测结果和识别结果。本算法使用CNN和BLSTM作为编码器,连接CTC作为解码器来进行文本识别。实验表明,与传统的检测识别分开的方法相比,本文所提出识别方法在识别率和识别时间上均更具优势。
张俊[7](2020)在《运煤敞车编号的多角度视觉识别方法研究与应用》文中提出煤炭作为我国发展的重要资源,其运输方式主要还是铁路运输,为了方便运煤车厢的管理,每节运煤敞车都有自己特定的编号。传统的煤矿装车站车号登记的方式是人工巡查并记录,由于装车站每天运煤量比较大,人工巡查的方式不仅耗时长而且可能错误的登记车号。本文使用无人机采集装车站的运煤车厢图像,利用数字图像处理技术和轻量级卷积神经网络,完成了以下工作:(1)运煤敞车车厢编号区域的定位针对无人机获取的图像包含复杂背景,本文首先利用颜色信息从原图中定位出车厢所在的位置,根据车号区域和车厢的相对位置信息将车号区域的图像从车厢图像中分离出来。提取车号图像的最大值稳定极值区域和边缘,对边缘图像进行增强后计算其笔画图像,利用编号字符笔画宽度相似的特性将编号字符聚合为连通域,将非编号字符的连通域进行剔除,使用启发式规则使车号字符形成文本行,对文本行进行筛选完成车号区域的定位。实验结果表明,该方法对无人机多角度获取的图像都可以较准确的定位编号区域。(2)运煤敞车车厢编号字符的分割与识别针对运煤车厢上车号字符存在断裂的问题,本文根据垂直投影的结果与实际车号位数进行对比计算断裂字符的数量,根据字符的宽度信息对投影结果进行修复,可以正确分割存在断裂的车号字符。针对传统视觉识别方法需要人工设计特征,准确率不高等问题,本文使用轻量级卷积神经网络技术搭建编号字符识别模型。轻量级卷积神经网络不仅模型参数少,且有高的准确率。本文制作了编号字符数据集,在MobileNetV3-Small网络的基础上搭建了本文的编号字符识别模型,还对比了MobileNets轻量级网络系列在编号字符数据集的分类性能,包括参数量、准确率、乘法计算量。实验表明,本文的方法能够准确的分割与识别编号字符。(3)无人机铁路沿线巡检数据处理系统的开发针对煤矿铁路巡检方式落后、装车站存在的单次运煤车厢数量较多、工作量大而且效率低、数据管理方式落后等问题,开发了无人机铁路沿线巡检数据处理系统。系统由硬件和软件两部分构成,硬件部分包含工业级无人机和用来控制飞行的地面站,地面站可以选择手动和自动控制无人机飞行的轨迹同时控制云台相机的动作完成数据采集。软件部分可以完成采集的原始数据录入、铁路沿线巡检异常情况的标记与查询、装车站内运煤车厢的识别与登记、历史数据的查询统计等功能。实验表明,系统人机交互的方式不仅降低了现场工作人员的劳动强度,也能满足企业实时性要求。本文研究了基于机载视觉的运煤车厢编号多角度识别方法与应用。通过最大稳定极值区域算法和笔画宽度变换算法完成编号区域的定位;改进的垂直投影法分割存在断裂的编号字符;搭建并训练识别车厢编号字符的轻量级模型;开发了无人机铁路沿线巡检数据处理系统,极大提高了煤矿装车站运煤车厢的登记效率。论文有图66幅,表11个,参考文献82篇。
罗尧[8](2020)在《基于ARM的指针式仪表自动读数系统设计与实现》文中提出随着现代工业的快速发展,工业仪表的应用越来越广泛,指针式仪表具有成本低、结构简单、抗干扰能力强等优点,因此在工业领域中被大量的使用,目前主要还是依靠人工对仪表进行读数与监测,人工读数存在效率低、出错率高等缺点,然而工业生产正朝着自动化、智能化的方向发展,仅仅依靠人工读数已经不能满足工业快速发展的需求。因此如何运用便捷化设备和相关的处理技术对指针式仪表进行自动读数成为了工业生产中迫切需要解决的难题。本系统结合嵌入式技术与图像处理技术实现指针式仪表的自动读数,选取符合系统性能需求的嵌入式ARM硬件平台,并在嵌入式平台上移植Linux操作系统,深入研究了指针式仪表图像预处理算法和示数判断算法,将仪表读数算法程序移植到嵌入式平台运行。本文主要对系统总体设计方案、指针式仪表自动读数算法、嵌入式读数终端和服务器端进行了研究,具体内容如下:1、分析工业领域中指针式仪表的实际使用环境,将系统分为嵌入式读数终端和服务器端。嵌入式读数终端采集现场仪表图像,利用图像处理算法对仪表图像进行处理,以实现指针式仪表的自动读数,并将仪表读数结果和现场视频图像传输至服务器端,服务器端实现视频监控、仪表异常读数报警、数据存储和命令控制等功能。2、首先将采集到的仪表图像进行增强降噪等预处理操作,使用自适应阈值法对仪表图像进行二值化处理,提取仪表图像前景像素区域,结合Hough圆变换和刻度线质心点拟合圆两种方式计算仪表特征区域圆心和半径,该算法具有更强的鲁棒性,其次利用二值图像轮廓法提取主刻度单个字符,并通过K最近邻(k NN,k-Nearest Neighbor)分类算法识别字符,获取字符的数值,根据字符的位置关系确定主刻度示数值和主刻度字符区域中心点坐标,完成最小值刻度线和最大值刻度线的数值匹配,使用累计概率霍夫变换定位仪表指针,最后通过角度法计算指针式仪表示数。3、嵌入式系统平台搭建,首先需要搭建嵌入式系统开发所需的交叉编译环境,移植引导程序u-boot,配置Linux内核主要的设备驱动,交叉编译Linux内核源码,制作根文件系统。为增强该读数系统的实用性,在系统中增加视频监控的功能,当嵌入式终端读数错误或仪表出现故障时能够实现远程监控,移植嵌入式系统下所需的Open CV视觉算法库和视频传输jrtplib库,生成在ARM平台所需的动态链接库,为读数终端应用程序提供运行环境,视频数据压缩采用硬件编码方式,需加载MFC硬件编码API函数源文件。4、服务器端是基于Qt界面程序设计,在Ubuntu16.04系统中编译jrtplib和FFmpeg源码库,搭建接收解码H.264视频流的开发环境,jrtplib库用于接收并解析RTP协议荷载的H.264视频流,通过FFmpeg解码H.264码流,在Qt界面显示解码之后的视频图像,服务器端使用TCP协议收发读数结果和配置命令等重要数据,同时也实现数据存储和仪表读数异常报警功能。通过本系统设计,可以实现指针式工业仪表远程自动读数、视频监控和数据存储等功能,在工业生产领域中意义重大。
刘翦[9](2020)在《开放环境下目标检测与识别算法研究 ——以极端光照环境下车牌识别为例》文中研究说明车牌识别技术对于各地的交通管理系统而言重要性不言而喻,吸引了大量研究者的目光,近年来备受关注。然而,在光线不足甚至是黑暗环境下,大多数现有的普通图像采集设备采集到的图像存在质量较低,清晰度不够、照度不足或不均匀以及有效信息非常有限等问题。另一方面,夜间的道路行车监控和低照度环境下的车牌识别问题在当今社会下愈发重要。为了解决上述在低照度环境下车牌识别研究仍然存在的问题,在经过参考大量文献,进行多次实验对比之后,本文提出了一种结合图像复原和神经网络方法的行之有效的车牌检测与自动识别解决方案。利用低照度视频反转后与朦胧光照环境下例如有雾环境下所采集的视频具有高度相似性,类比反转的低照度图像,将输入的原始低照度图像先进行取反操作,随后运用大气光模型,利用去雾方法结合滤波运算还原出高质量图像,并最终成功输出符合预期的高质量图像。由于采用均值滤波的方法避免了估算大气光时的复杂运算,算法的计算速度进一步提升,为后续的一系列处理提供了质量较高的样本图像。为解决低照度环境下边缘检测效果不理想的问题,本文通过HSI中三个分量描述样本图像的颜色信息并进行同色判断,进一步提高目标区域的定位成功率。对于预处理得到的图像先进行高斯滤波处理,消除了噪点的干扰后再进行边缘检测并结合颜色特征,利用目标区域的纹理结构特征初步确定出候选区域,并通过先验知识以及SVM模型排除其他非目标区域,进一步准确定位出车牌。取得了目标区域后,针对我国汉字特殊构造(笔画和相对位置),采取根据先验信息事先构造出相应筛选规则的方式对字符进行分割,得到一种更加适合我国汉字特殊构造的字符分割方法。在最后的字符识别中,由于经典Le Net-5网络模型的辨认对象是手写数字,无法满足牌照中的中文及英文字符的识别任务,故而需要把传统Le Net-5模型做出相应的调整,并在三个数据集中各种环境下采集到的样本图像上进行了性能测试,最终识别准确率达到了98.46%,结果表明本文的车牌检测与自动识别解决方案在开放环境下尤其是极端光照条件下可以达到较高的识别准确率,鲁棒性较好。
陈金旭[10](2020)在《基于视频处理的布匹印刷偏差检测技术研究》文中认为自动印花工艺中的印刷偏差检测是布匹印花性能的重要技术保障,它是伺服控制系统印花位置调整的重要参考。通过人工分辨印刷偏差的检测方法无法适应控制和调整的速度及质量要求,基于视频处理的布匹印刷偏差检测技术可以很好的解决这一问题。在实际布匹印花工艺中,通常在印花区域前设置十字线标记来定位印花区域的开始,每道工序的偏差通过其后的多个圆形标记及其中的数字偏移给出。本文在此背景下利用大视场相机对十字线定位,小视场相机对印花区域进行图像采集,并根据印花特征分别利用圆形中心定位与数字中心定位对印刷偏差量进行检测。主要工作如下:首先,本文通过基于大视场十字中心定位的方法对生产线布匹印刷图像进行有效采集,并利用裁剪、滤波、边缘检测、倾斜矫正等手段进行预处理。其次,提出了基于检测印刷圆形图案中心的检测偏差方法,通过边缘检测凸显图像圆形特征,通过霍夫圆检测和最小二乘法圆拟合求得印刷图案的偏差值。接着,提出了另一种基于印刷圆内数字中心位置检测的印刷偏差检测方法,通过卷积神经网络将采集印刷图像的数字标记出来,标记框内获得数字最小外接矩形并计算出中心位置。此外通过简单的投影区分向量对圆内工序数字进行识别。最后,通过分析两种方法测量值与实际值的对比,得出基于圆内数字中心的布匹印刷偏差检测结果在检测误差上小,且检测稳定性上更优,设计了基于印刷圆内数字中心的嵌入式布匹印刷偏差检测系统。
二、图像/视频字符区域定位算法的实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、图像/视频字符区域定位算法的实现(论文提纲范文)
(1)基于机器视觉的线束插装引导及缺陷检测技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题来源及研究意义 |
1.2 国内外研究现状 |
1.3 研究内容及论文结构 |
1.3.1 研究内容 |
1.3.2 论文结构 |
1.4 技术路线 |
1.5 创新点 |
第二章 系统整体分析与设计 |
2.1 系统需求分析 |
2.2 系统框架设计 |
2.3 系统工作流程 |
2.4 硬件方案设计 |
2.4.1 硬件平台搭建 |
2.4.2 相机的选型 |
2.4.3 镜头的选型 |
2.4.4 照明方案设计 |
2.5 软件框架设计 |
2.6 关键技术分析 |
2.7 本章小结 |
第三章 插装引导基准点定位算法设计 |
3.1 插装基准点选取原则 |
3.2 图像预处理 |
3.2.1 图像灰度化 |
3.2.2 图像滤波 |
3.2.3 图像增强 |
3.3 基于标记的辅助定位 |
3.3.1 Marker标记的选取 |
3.3.2 Marker标记的检测定位 |
3.3.3 插装点的定位 |
3.4 基于无标记的自动定位 |
3.4.1 端子排矫正与定位 |
3.4.2 插装点定位 |
3.5 算法测试与结果分析 |
3.6 本章小结 |
第四章 线束插装后缺陷检测算法设计 |
4.1 线束插装缺陷类别 |
4.1.1 缺陷类别说明 |
4.1.2 算法流程 |
4.2 感兴趣区域与线束定位基准提取 |
4.2.1 感兴趣区域提取 |
4.2.2 定位基准选取原则 |
4.2.3 定位基准提取算法 |
4.2.4 定位基准提取算法准确率分析 |
4.3 线束号码管内容检测 |
4.3.1 基于SVM的号码管内容识别 |
4.3.2 号码管内容检测示例 |
4.3.3 号码管内容检测实验与分析 |
4.4 线束色序检测 |
4.4.1 基于改进色差法的颜色识别 |
4.4.2 线束颜色检测示例 |
4.4.3 线束颜色检测实验与分析 |
4.5 线束漏插检测 |
4.5.1 基于区域判断的漏插检测 |
4.5.2 线束漏插检测示例 |
4.5.3 线束漏插检测实验与分析 |
4.6 线束插装不规范检测 |
4.6.1 基于长度特征的插装深浅检测 |
4.6.2 线束插装深浅检测示例 |
4.6.3 线束插装深浅检测实验与分析 |
4.7 本章小结 |
第五章 系统软件开发与测试 |
5.1 装配工艺信息管理模块封装 |
5.1.1 可视化装配引导方案规划 |
5.1.2 基于XML的数据封装与管理 |
5.2 视觉检测算法封装 |
5.3 软件开发与实现 |
5.3.1 系统开发环境 |
5.3.2 功能模块设计 |
5.4 系统测试 |
5.5 系统性能验证 |
5.6 本章小结 |
总结和展望 |
工作总结 |
研究展望 |
参考文献 |
致谢 |
在学期间主要研究成果 |
(2)广电视频文字检测与识别的研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 题目背景和意义 |
1.2 国内外研究现状 |
1.2.1 整体系统研究现状 |
1.2.2 文字区域检测 |
1.2.3 文字的识别 |
1.3 本文研究内容和结构 |
2 视频字幕检测与识别系统的设计 |
2.1 电视视频文字的特点 |
2.2 视频文字检测与识别的难点 |
2.3 系统原理及设计 |
2.3.1 系统设计 |
2.3.2 实验环境 |
3 相关理论知识介绍 |
3.1 人工神经网络 |
3.2 卷积神经网络 |
3.2.1 卷积神经网络的原理 |
3.2.2 典型卷积神经网络模型 |
3.3 循环神经网络 |
3.4 损失函数的概念 |
4 基于CTPN框架的文字定位 |
4.1 CTPN原理介绍 |
4.1.1 CTPN网络结构 |
4.1.2 双向LSTM |
4.1.3 RPN网络 |
4.2 框架训练 |
4.2.1 数据集制作 |
4.2.2 损失函数 |
4.2.3 模型的训练 |
4.3 文本定位结果及分析 |
4.4 本章小结 |
5 基于CRNN网络的OCR识别 |
5.1 文本行的预处理 |
5.1.1 图像灰度变换 |
5.1.2 增强对比度 |
5.1.3 小结 |
5.2 基于OCR的文本行识别 |
5.2.1 CRNN网络的原理 |
5.2.2 数据集的构建 |
5.2.3 CRNN网络的训练 |
5.2.4 OCR文字识别 |
5.3 本章小结 |
6 总结和展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
个人简历、在学期间发表的学术论文与参与项目 |
致谢 |
(3)面向视频和图像的列车车号定位与识别方法研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 铁路货运场景车号定位与识别研究现状 |
1.2.2 自然场景文本定位与识别研究现状 |
1.2.3 视频场景文本定位与识别研究现状 |
1.3 论文主要研究工作 |
1.4 论文整体结构 |
2 相关工作论述 |
2.1 场景文本定位相关技术 |
2.1.1 自然场景文本特点介绍 |
2.1.2 自底向上的文本定位方法 |
2.1.3 基于深度学习的文本定位方法 |
2.2 场景文本识别相关技术 |
2.2.1 基于分割的文本识别方法 |
2.2.2 基于深度学习的序列化文本识别方法 |
2.3 本章小结 |
3 面向图像的列车车号定位方法 |
3.1 静态车号数据集分析 |
3.1.1 数据分析 |
3.1.2 数据标注 |
3.2 车号定位问题分析与解决思路 |
3.3 列车车号定位方法整体框架 |
3.3.1 网络结构 |
3.3.2 损失函数 |
3.4 多级特征融合 |
3.5 水平回归层 |
3.6 文本框精确定位策略 |
3.7 实验 |
3.7.1 数据集与实验配置 |
3.7.2 评估方法 |
3.7.3 与先进方法的对比实验 |
3.7.4 各模块的性能分析 |
3.8 本章小结 |
4 面向图像的列车车号识别方法 |
4.1 列车车号识别方法整体框架 |
4.1.1 编码层 |
4.1.2 基于注意力机制的解码层 |
4.2 实验 |
4.2.1 实验配置与评价指标 |
4.2.2 与其他方法对比实验 |
4.2.3 识别结果详细分析 |
4.3 本章小结 |
5 面向视频的形变车号识别方法 |
5.1 形变车号识别方法整体框架 |
5.1.1 视频数据集分析 |
5.1.2 基于跟踪的车号定位 |
5.1.3 车号矫正与识别 |
5.1.4 车号序列推荐策略 |
5.2 实验 |
5.2.1 视频识别数据集构建 |
5.2.2 实验配置与评价指标 |
5.2.3 车号定位实验结果 |
5.2.4 矫正方法对比实验 |
5.2.5 车号识别实验结果 |
5.3 本章小结 |
6 总结与展望 |
6.1 本文内容总结 |
6.2 未来工作展望 |
参考文献 |
作者简历及攻读硕士学位期间取得的研究成果 |
学位论文数据集 |
(4)基于深度学习的船舶超吃水判别和船牌识别系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 船舶自动识别系统研究现状 |
1.2.2 船舶超吃水检测方法研究现状 |
1.2.3 基于牌照的身份识别技术研究现状 |
1.3 本文主要工作及章节安排 |
第2章 船舶与船牌图像处理及深度学习相关理论 |
2.1 图像处理相关理论 |
2.1.1 数字图像表示的方式 |
2.1.2 像素的连通性 |
2.1.3 RGB图像的灰度化与二值化 |
2.1.4 图像直方图 |
2.1.5 区域特征提取 |
2.2 人工神经网络 |
2.2.1 神经元 |
2.2.2 神经网络模型 |
2.2.3 神经网络的训练 |
2.3 卷积神经网络 |
2.3.1 卷积神经网络理论 |
2.3.2 经典CNN模型—LeNet-5 |
2.3.3 现代CNN模型—AlexNet |
2.4 本章小结 |
第3章 船舶超吃水判别及跟踪系统研究 |
3.1 超吃水判别系统设计流程 |
3.2 超吃水判别系统模型搭建 |
3.2.1 基于Region Proposal的深度学习目标检测算法 |
3.2.2 基于回归方法的深度学习目标检测算法 |
3.3 船舶超吃水判别数据准备和网络模型训练 |
3.3.1 实验数据集制作 |
3.3.2 实验环境搭建和模型训练 |
3.4 船舶超吃水判别结果与分析 |
3.5 超载船舶目标跟踪算法设计 |
3.6 本章小结 |
第4章 船舶非标铭牌识别系统研究 |
4.1 船舶非标铭牌定位方法研究 |
4.1.1 基于灰度图像的定位方法 |
4.1.2 基于彩色图像的定位方法 |
4.1.3 基于深度学习的定位方法 |
4.2 船舶非标铭牌的倾斜矫正与字符分割研究 |
4.2.1 船舶非标铭牌水平倾斜矫正 |
4.2.2 船舶非标铭牌的字符分割 |
4.3 基于深度学习的船舶非标铭牌字符识别及其改进算法 |
4.3.1 船舶非标铭牌字符识别实现及实验分析 |
4.3.2 船舶非标铭牌字符识别改进算法 |
4.4 船舶非标铭牌识别系统性能分析 |
4.5 本章小结 |
第5章 总结与展望 |
5.1 本文总结 |
5.2 未来展望 |
参考文献 |
缩略语对照表 |
攻读学位期间的研究成果 |
致谢 |
(5)视频流环境下车牌识别系统研究与实现(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景与研究意义 |
1.2 国内外研究现状与发展趋势 |
1.2.1 视频关键帧提取的研究现状与发展趋势 |
1.2.2 车牌识别的研究现状与发展趋势 |
1.3 本文的研究内容 |
1.4 论文的组织结构 |
2 车牌识别相关理论与基础概述 |
2.1 车牌特征与车牌识别流程 |
2.1.1 车牌特征 |
2.1.2 车牌所含字符 |
2.1.3 传统车牌识别流程 |
2.2 Celery |
2.2.1 Celery的应用场景 |
2.2.2 Celery的优点 |
2.3 OpenCV库 |
2.3.1 应用场景 |
2.3.2 OpenCV的优点 |
2.4 TensorFlow |
2.4.1 TensorFlow关键词 |
2.4.2 TensorFlow中神经网络实现过程 |
2.5 CUDA和 cuDNN |
2.6 本章小结 |
3 KSIFT车辆目标关键帧提取算法 |
3.1 运动目标SIFT概述 |
3.1.1 SIFT特征 |
3.1.2 混合高斯建模 |
3.1.3 感知哈希 |
3.1.4 汉明距离 |
3.2 传统关键帧提取算法 |
3.2.1 算法原理 |
3.2.2 优缺点分析 |
3.3 改进的KSIFT算法 |
3.3.1 视频流数据下采样 |
3.3.2 计算帧熵值 |
3.3.3 混合高斯处理熵值未突变帧 |
3.3.4 计算帧间特征点距离 |
3.3.5 计算车辆目标占比 |
3.3.6 感知哈希与汉明距离去除冗余 |
3.4 实验验证对比分析 |
3.4.1 评价标准 |
3.4.2 实验结果 |
3.5 本章小结 |
4 基于视频流的车牌识别系统设计 |
4.1 系统的需求分析 |
4.2 系统总体架构 |
4.2.1 系统架构设计 |
4.2.2 系统功能模块划分 |
4.3 系统功能 |
4.3.1 单路段车牌识别 |
4.3.2 多路段车牌识别 |
4.3.3 车辆信息统计 |
4.4 系统功能模块设计 |
4.4.1 系统业务流程设计 |
4.4.2 系统数据存储设计 |
4.4.3 系统主要技术架构 |
4.5 单路段车牌识别设计 |
4.5.1 视频流中车辆关键帧提取 |
4.5.2 车牌定位 |
4.5.3 车牌字符分割 |
4.5.4 车牌字符识别 |
4.6 本章小结 |
5 KSIFT算法在车牌识别系统中的应用 |
5.1 车牌识别系统中关键帧提取的意义 |
5.2 KSIFT算法在车牌识别中的应用 |
5.3 基于视频流KSIFT算法的车牌识别的实现与测试 |
5.3.1 实现环境 |
5.3.2 系统功能测试 |
5.4 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
(6)复杂背景下文本信息的识别与提取技术研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 文本检测研究现状 |
1.2.2 文本识别研究现状 |
1.2.3 端到端文本识别研究现状 |
1.3 研究目的与主要工作 |
1.4 论文章节安排 |
第二章 基础原理知识 |
2.1 SWT算法原理 |
2.2 MSER算法原理 |
2.3 深度学习神经网络 |
2.3.1 卷积神经网络 |
2.3.2 循环神经网络 |
2.3.3 全卷积网络 |
2.4 数据集 |
2.4.1 ICDAR2013数据集 |
2.4.2 MSRA-TD500 数据集 |
2.5 评估方法 |
2.5.1 ICDAR2013数据集评估方法 |
2.5.2 MSRA-TD500 数据集评估 |
2.6 本章小结 |
第三章 基于SWT与多通道MSER相结合的文本检测算法 |
3.1 引言 |
3.2 SWMER算法 |
3.2.1 图像预处理 |
3.2.2 多通道光照均衡化MSER检测 |
3.2.3 SWT检测 |
3.2.4 SVM分类器 |
3.3 文本生产和判断 |
3.4 实验结果与分析 |
3.4.1 实验环境 |
3.4.2 实验数据对比 |
3.5 本章小结 |
第四章 基于改进的Faster R-CNN文本检测算法 |
4.1 引言 |
4.2 Faster R-CNN |
4.3 改进的Faster R-CNN算法 |
4.3.1 基于CNN的序列特征提取 |
4.3.2 基于LSTM的上下文特征提取 |
4.3.3 基于RPN的候选区域提取 |
4.3.4 调整候选区域位置 |
4.3.5 蒙特卡洛非极大值抑制 |
4.4 实验结果与分析 |
4.4.1 实验环境配置 |
4.4.2 实验数据对比分析 |
4.5 本章小结 |
第五章 文本识别算法及端到端系统 |
5.1 引言 |
5.2 基于传统方法的文本识别 |
5.2.1 HOG特征提取 |
5.2.2 随机森林分类 |
5.3 基于CNN的文本识别 |
5.4 基于RNN的文本识别 |
5.5 基于CNN+BLSTM+CTC的文本识别端到端系统 |
5.5.1 基于CTC的转录机制 |
5.6 实验结果与分析 |
5.6.1 实验环境 |
5.6.2 文本识别度量准则 |
5.6.3 文本识别算法对比 |
5.7 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简介 |
(7)运煤敞车编号的多角度视觉识别方法研究与应用(论文提纲范文)
致谢 |
摘要 |
abstract |
变量注释表 |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 研究内容 |
1.4 论文组织结构 |
1.5 实验数据获取及处理环境 |
2 运煤敞车编号定位与识别的关键理论 |
2.1 笔画宽度变换 |
2.2 最大稳定极值区域 |
2.3 深度卷积神经网络 |
2.4 MobilenetV3 网络 |
2.5 本章小结 |
3 基于MSER与 SWT算法的编号区域定位 |
3.1 图像预处理 |
3.2 最大稳定极值区域提取 |
3.3 边缘检测与增强 |
3.4 编号候选区域定位与增强 |
3.5 实验结果与分析 |
3.6 本章小结 |
4 车厢编号的分割与识别 |
4.1 基于投影法的字符分割 |
4.2 基于深度卷积神经网络的字符识别 |
4.3 实验结果与分析 |
4.4 本章小结 |
5 无人机铁路巡检数据处理系统 |
5.1 数据采集系统 |
5.2 数据管理系统 |
5.3 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历 |
学位论文数据集 |
(8)基于ARM的指针式仪表自动读数系统设计与实现(论文提纲范文)
摘要 |
Abstract |
第1章 引言 |
1.1 研究背景和意义 |
1.2 国内外发展现状 |
1.2.1 国外发展现状 |
1.2.2 国内发展现状 |
1.3 研究内容 |
1.4 论文组织结构 |
1.5 本章小结 |
第2章 系统总体设计方案 |
2.1 系统需求分析 |
2.1.1 系统功能需求 |
2.1.2 系统性能需求 |
2.2 系统总体设计 |
2.2.1 系统架构设计 |
2.2.2 系统功能框架设计 |
2.3 系统硬件选型 |
2.3.1 嵌入式硬件开发平台介绍 |
2.3.2 图像采集模块介绍 |
2.4 本章小结 |
第3章 指针式仪表读数算法处理流程 |
3.1 指针式仪表图像预处理 |
3.1.1 图像尺寸调整 |
3.1.2 彩色图像灰度化 |
3.1.3 分段线性变换 |
3.1.4 图像滤波 |
3.1.5 边缘检测 |
3.1.6 阈值分割 |
3.2 指针式仪表表盘圆拟合 |
3.2.1 Hough变换圆检测 |
3.2.2 二值图像连通域 |
3.2.3 仪表刻度线质心提取 |
3.2.4 刻度线质心点拟合圆 |
3.3 主刻度线示数识别 |
3.3.1 主刻度单个字符提取与识别 |
3.3.2 计算主刻度示数 |
3.4 指针提取 |
3.4.1 图像细化 |
3.4.2 累计概率霍夫变换检测直线 |
3.5 仪表示数的判定 |
3.6 本章小结 |
第4章 嵌入式系统平台搭建 |
4.1 嵌入式系统硬件设计 |
4.1.1 电源模块 |
4.1.2 调试串口 |
4.1.3 OTG接口 |
4.1.4 USB接口 |
4.1.5 以太网卡 |
4.1.6 触摸屏 |
4.2 嵌入式开发环境的建立 |
4.2.1 搭建交叉编译环境 |
4.2.2 安装TFTP服务器 |
4.3 嵌入式Linux系统移植 |
4.3.1 u-boot移植 |
4.3.2 Linux内核配置及移植 |
4.3.3 嵌入式文件系统移植 |
4.4 QtE应用程序的开发环境 |
4.5 OpenCV移植 |
4.6 本章小结 |
第5章 系统软件设计 |
5.1 读数终端软件设计 |
5.1.1 多线程程序设计 |
5.1.2 视频采集 |
5.1.3 H.264压缩编码 |
5.1.4 数据传输 |
5.2 服务器端软件设计 |
5.2.1 数据收发 |
5.2.2 FFmpeg解码 |
5.2.3 服务器界面设计 |
5.3 本章小结 |
第6章 系统测试与分析 |
6.1 读数终端测试 |
6.1.1 图像处理算法测试 |
6.1.2 读数结果测试 |
6.2 服务器端测试 |
6.3 测试结果分析 |
6.4 本章小结 |
结论 |
致谢 |
参考文献 |
(9)开放环境下目标检测与识别算法研究 ——以极端光照环境下车牌识别为例(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 图像去雾方法的国内外现状 |
1.3 车牌识别技术的国内外研究现状 |
1.4 车牌识别技术的研究难点 |
1.5 本文主要工作和组织结构 |
1.5.1 论文主要研究内容 |
1.5.2 论文结构安排 |
第二章 相关理论基础 |
2.1 我国车牌特点 |
2.2 常见车牌识别算法流程 |
2.2.1 车牌定位 |
2.2.2 字符分割 |
2.2.3 字符识别 |
2.3 相关机器学习算法简介 |
2.3.1 支持向量机 |
2.3.2 卷积神经网咯 |
第三章 车牌定位算法 |
3.1 车牌定位算法引言 |
3.2 预处理过程 |
3.2.1 图像去雾方法介绍 |
3.2.2 图像复原方法介绍 |
3.2.3 基于图像复原的照度还原方法 |
3.2.4 照度还原方法的实验结果与分析 |
3.2.5 高斯模糊与灰度化 |
3.3 基于颜色和边缘信息定位车牌 |
3.3.1 HSI色彩空间 |
3.3.2 边缘检测 |
3.3.3 形态学操作 |
3.3.4 自定义区域连接 |
3.3.5 车牌区域连通域的提取 |
3.3.6 基于支持向量机(SVM)的车牌筛选 |
3.4 实验结果与分析 |
第四章 字符分割算法 |
4.1 字符分割算法引言 |
4.2 本文所用字符分割算法 |
4.2.1 车牌区域连通域的二值化 |
4.2.2 利用先验信息提取字符连通域 |
4.3 实验结果与分析 |
第五章 字符识别算法 |
5.1 字符识别算法引言 |
5.2 本文字符识别算法 |
5.2.1 LeNet-5网络结构 |
5.2.2 基于LeNet-5的改造网络结构 |
5.2.3 本文所用数据集 |
5.3 算法测试及性能分析 |
第六章 总结与展望 |
6.1 本文工作总结 |
6.2 后续展望 |
参考文献 |
在学期间取得的科研成果和科研情况说明 |
致谢 |
(10)基于视频处理的布匹印刷偏差检测技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题研究背景及意义 |
1.2 传统的布匹检测法概述 |
1.3 图像处理在工业检测领域国内外研究概况 |
1.3.1 国外研究概况 |
1.3.2 国内研究概况 |
1.4 本文主要研究内容和结构 |
2 印刷布匹图像采集与预处理 |
2.1 基于十字线中心定位的高速图像采集 |
2.1.1 视频颜色空间转换 |
2.1.2 十字图像预处理 |
2.1.3 边缘检测 |
2.1.4 轮廓直线拟合 |
2.1.5 拟合直线交点坐标 |
2.2 有效印刷区域裁剪 |
2.2.1 图像倾斜矫正 |
2.2.2 投影分割 |
2.4 本章小结 |
3 基于圆形中心定位的印刷图像偏差检测 |
3.1 灰度重心法 |
3.2 霍夫变换圆检测 |
3.3 最小二乘法圆拟合 |
3.4 单位像素标定 |
3.5 实验数据分析 |
3.6 本章小结 |
4 基于数字中心定位的布匹印刷偏差检测与识别 |
4.1 卷积神经网络概述 |
4.1.1 卷积神经网络简介 |
4.1.2 卷积神经网络结构 |
4.2 基于Faster-RCNN的数字区域定位 |
4.2.1 RCNN网络及其衍生网络 |
4.2.2 基于Faster-RCNN的数字字符区域定位 |
4.2.3 最小外接矩形 |
4.2.4 实验数据分析 |
4.3 基于投影区分向量的特征识别法 |
4.3.1 数字字符投影 |
4.3.2 定义区分向量 |
4.3.3 区分向量数字识别结果 |
4.4 本章小结 |
5 嵌入式布匹印刷偏差检测系统 |
5.1 系统总体设计概述 |
5.2 系统的嵌入式平台部署 |
5.2.1 嵌入式操作系统选取 |
5.2.2 配置神经网络训练环境 |
5.3 软件系统设计 |
5.3.1 嵌入式图像采集系统 |
5.3.2 嵌入式数字中心定位与识别系统 |
5.3.3 系统界面展示 |
5.4 本章小结 |
6 总结和展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
附录 攻读硕士学位期间发表的论文和出版着作情况 |
四、图像/视频字符区域定位算法的实现(论文参考文献)
- [1]基于机器视觉的线束插装引导及缺陷检测技术研究[D]. 郑重港. 厦门理工学院, 2021(08)
- [2]广电视频文字检测与识别的研究[D]. 张慧宇. 郑州大学, 2020(03)
- [3]面向视频和图像的列车车号定位与识别方法研究[D]. 艾鑫. 北京交通大学, 2020(03)
- [4]基于深度学习的船舶超吃水判别和船牌识别系统研究[D]. 祝启瑞. 苏州大学, 2020(02)
- [5]视频流环境下车牌识别系统研究与实现[D]. 曾诚. 西安工业大学, 2020(04)
- [6]复杂背景下文本信息的识别与提取技术研究[D]. 王滢. 西安电子科技大学, 2020(05)
- [7]运煤敞车编号的多角度视觉识别方法研究与应用[D]. 张俊. 中国矿业大学, 2020(01)
- [8]基于ARM的指针式仪表自动读数系统设计与实现[D]. 罗尧. 成都理工大学, 2020(04)
- [9]开放环境下目标检测与识别算法研究 ——以极端光照环境下车牌识别为例[D]. 刘翦. 天津理工大学, 2020(05)
- [10]基于视频处理的布匹印刷偏差检测技术研究[D]. 陈金旭. 南京理工大学, 2020(01)