C语言嵌入式数据压缩器C-DC的设计

C语言嵌入式数据压缩器C-DC的设计

一、C语言嵌入式数据压缩器C-DC的设计(论文文献综述)

周钰致[1](2020)在《边缘计算环境中低时延高可信显示芯片的研究与设计》文中进行了进一步梳理随着5G网络技术的发展,接入网络的设备数量以及网络边缘设备中产生的数据量迅速增加,这给移动网络基础设施带来了不小的负担。在这种发展趋势下,基于云计算的服务模式很难稳定地保持对网络边缘设备请求处理的实时性。一种新提出的边缘计算模型采取了将部分计算处理的过程迁移至终端设备或者网络链路中的方法,通过这种方法降低了终端设备的数据处理响应的延迟。人机交互系统的性能对用户体验的影响尤为重要,而显示设备又是人机交互的重要桥梁。因此低时延高可靠的显示系统对于边缘计算来说非常重要。本文重点针对边缘计算设备中人机交互显示系统的实时性、低功耗、可靠性三个方面的关键技术展开研究,通过算法、架构、系统、芯片四个层次协同优化的设计方法,最终实现了低时延、低功耗、高可靠的边缘计算显示芯片。本文主要的研究工作和创新点如下:(1)针对实时性需求,提出了一种适用于边缘计算的异构图形运算系统的架构,通过均衡流水线不同阶段的运算负载及顶点片元异构加速器架构设计实现了高能效的图形处理。通过自研的芯片开发板在常温室内条件下对芯片中的图形处理核进行了测试,测试过程中关闭了其他运算单元模块,图形处理核最高频率能达到200MHz。通过选取典型的边缘计算的界面进行测试,最高处理速率为152MPixels/s,性能功耗比相比于面向低成本显示系统的ARM架构微处理器芯片 STM32L476 提升了 5.8 倍。(2)针对功耗及内存带宽的限制,提出了一种基于块的实时帧缓存压缩算法,设计了压缩器的架构。通过在帧像素点产生的过程中同步进行压缩的方法,在不影响系统性能的前提下降低了运算单元的带宽需求。在基于Kintex-7 FPGA的测试平台上移植了图形处理系统和帧缓存压缩器并运行典型界面进行测试,压缩后系统功耗节省的效果相比于采用JPEG格式的帧缓存压缩方法提升了 2.3倍。(3)针对可靠性需求,提出了一种多周期累加冗余信息的脉动阵列容错算法,设计了容错脉动阵列架构。通过软件仿真注入错误验证错误恢复率,实验结果表明错误恢复率能达到99%,错误恢复情况优于时间空间冗余算法,能满足面向深度学习应用的脉动阵列的需求。采用Synopsys公司的综合工具进行综合并对比面积,在乘法器精度为32bit的情况下,冗余面积为61.5%,对比双模冗余架构节省了 38.5%的冗余面积,相比于错误迁移方法可以实现软错误的错误检测及错误恢复。(4)设计并流片了一款基于RISC-V扩展指令集的高能效显示芯片。在常温常压条件下,对芯片进行了测试。测试结果表明芯片系统的运行功耗为65mW,相比于学术界中统一着色器架构的图形处理器芯片的研究成果功耗降低了 3倍。通过面向边缘计算的典型场景进行测试,性能功耗比相比于主流基于ARM的微处理器芯片STM32L476提升了 1.49倍。通过算法、架构、系统多个层面进行了软硬件协同优化设计,并在芯片设计层面上采用了低功耗的设计方法,本文最终实现了面向边缘计算的高能效、高可靠显示芯片。

罗浩鑫[2](2020)在《基于硬件压缩的大数据文件系统性能优化》文中研究说明随着大数据、人工智能的高速发展,大数据系统平台数据量的规模呈爆炸式增长,庞大的数据量对数据存储和网络传输提出了不小的挑战,为了应对这一系列挑战,必须保证大数据平台数据存储中心的高效率存储和网络传输的高吞吐量,对平台上待存储的数据先进行压缩后再处理是应对这一挑战的有效手段,Gzip压缩算法因其压缩率高、压缩速度快被广泛应用于数据压缩领域。传统的Gzip软件压缩虽然可以实现数据压缩,但会占用通用处理器大量的时间以及消耗大量的内存资源,压缩效率也无法满足大数据系统实时处理的要求,而使用硬件压缩异构加速方案则可以避开软件压缩的这些问题。本研究从这一角度入手,基于FPGA实现了支持HDFS文件系统压缩操作的Gzip硬件压缩加速器,并应用于龙芯大数据平台上实现系统的性能优化。本研究先对Gzip压缩算法原理进行剖析,提出了一种支持高位宽CRC校验的基于FPGA的流水并行结构的硬件静态Gzip压缩方法,以流水式结构进行字符匹配,极大提高了匹配字符串的效率,并利用压缩核调度器调度多路压缩核并行压缩,实现高度并行结构。之后使用verilog语言将该Gzip硬件压缩算法在Alpha Data ADM-PCIE-KU3 FPGA硬件加速平台上实现并测试。测试表明,Gzip硬件压缩加速器端到端的压缩速率可以达到1 GB/s以上,使用Calgary测试集实现了2.1的压缩比,使用Silesia测试集实现了2.2的压缩比,相比软件压缩提升了69倍的加速比。最后,以自研为背景,自主设计FPGA硬件加速卡并在加速卡上运行Gzip硬件压缩算法逻辑,实现高度自研的硬件压缩加速器,将该硬件压缩加速器与龙芯大数据平台相结合,对龙芯大数据系统的数据存储的压缩操作进行硬件加速,提高了龙芯大数据平台的整体性能。本研究弥补了国产大数据平台硬件压缩加速的空白,对于优化国产大数据平台性能有着重要的研究意义。

金绍勋[3](2020)在《Zynq平台微型高光谱仪数据采集与压缩处理》文中提出高光谱仪作为物质结构与成份分析的测量仪器,既能获得被测物的外部特征,又能获取被测物的成份光谱信息,在遥感成像、工业检测、农作物分类等方面有着广泛的应用。随着微电子技术的发展,高光谱仪逐渐实现小型化、便携化。针对当前微型高光谱仪存在的嵌入式本地数据处理能力弱、难以实现大容量高光谱数据实时无线传输等问题,本文采用新兴的快照马赛克面阵高光谱传感器,基于Zynq嵌入式可扩展处理平台,实现了一套可嵌入式本地高光谱数据压缩的微型高光谱仪系统,并完成了高光谱图像数据的FPGA压缩处理。主要研究工作如下:1、设计基于Zynq平台的高光谱数据采集系统,包括系统总体结构设计、硬件设计和软件设计等。在微型高光谱仪中搭建嵌入式Linux系统,为微型高光谱仪高速采集与处理奠定了基础。2、搭建Socket网络服务器,并完成移动终端Android APP开发,使微型高光谱仪通过Socket网络服务器与移动终端进行交互,实现了稳定的高光谱数据采集与无线传输。3、研究针对快照马赛克面阵高光谱图像的无损预测压缩算法,并进行FPGA仿真,压缩比在1.7-2间,为WIFI下快照马赛克面阵高光谱图像数据的无线传输创造了条件。将压缩后的高光谱图像数据进行解码,可无损的恢复原始高光谱图像。本文设计完成的微型高光谱仪结构小巧,可快速采集高光谱数据并进行本地处理,并针对快照马赛克面阵高光谱图像进行了FPGA无损压缩。所实现的微型高光谱仪可应用于旋翼无人机载高光谱成像、物质工业检测分类等领域,具有重要的应用价值。

李浩[4](2020)在《基于Linux的LXI功率分析模块软件设计与实现》文中进行了进一步梳理在现代的功率测量中,测量环境越来越复杂,仪器分布越来越离散。能够对功率分析设备进行远程控制越来越重要。传统的远程控制方式通常基于C/S软件架构,一般具有良好的数据安全性和可靠性,但是连接不够灵活,多设备集成难度较大。而利用LXI标准来实现远程控制功率分析模块,则有助于缩短建立、配置和调试测试系统所需要的时间。同时利用当今分步广泛的以太网,可以大大降低测试系统的成本。本课题研究的功率分析模块是一种基于Linux平台符合LXI规范的功率分析模块。借助Linux平台对搭建服务器的良好支持,搭建了能够提供LXI C级标准功能的LXI应用服务器,使功率分析模块摆脱了距离的限制。前端利用Bootstrap等开源框架进行开发,对移动设备以及多种操作系统平台都有良好的兼容性,对不同尺寸的显示屏也具有良好的自适应性。并且,根据实际情况实现LXI应用服务器与底层功率分析软件的交互设计。同时,设计了支持传统C/S模式的软件模块,使功率分析模块在一些特殊情况下仍能提供远程操控功能。本课题的研究内容主要包括:1.实现了LXI功率分析仪的混合软件架构设计。本文利用C/S架构与B/S架构各自的优缺点,将两种架构合理的设计在一起,组成优势互补的混合架构。既满足LXI规范的要求,又兼具传统远程测量模式的优点;2.利用RPC技术实现了C/S架构软件模块。完成搭建RPC服务器和与之配套的PC客户端,并完成相关的ARM端移植工作,客户端具有LXI规范中提出的C类功能。并设计了SCPI程控功能及指令管理功能;3.完成基于WebSocket应用协议的LXI功能的软件设计与实现。利用RPC服务器完成LXI应用服务程序的设计,并设计了LXI C级标准的网页及功率分析模块的远程测量页面。同时,应用LZW压缩技术优化数据的传输效率;4.完成了功率运算和谐波参数的软件实现。给出了关键参数的算法和实现流程,并根据实际情况完成了LXI应用服务器与底层软件的交互。本课题最终做出了样机,将所设计的LXI功率分析模块在实际平台上进行了测试。各项设计的功能均能正常工作,远程控制能够实现10Hz的波形刷新率。同时功率参数及谐波参数的测量结果均满足指标要求。

杨振文[5](2020)在《二值神经网络硬件加速器设计与实现》文中进行了进一步梳理如今,卷积神经网络(Convolutional Neural Networks,CNN)广泛应用于计算机视觉、语音识别和机器人技术等的人工智能(Artificial Intelligence,AI)应用中。尽管在大多数AI任务上CNN可以保证极高的准确性,但这往往是以高计算复杂性为代价的。因此,在保证一定准确性或不增加硬件成本的情况下,对CNN进行有效处理以提高能源效率和吞吐量的技术对于CNN在AI中的广泛部署至关重要。为此,在算法领域中,二值神经网络(Binary Nerual Network,BNN)由于极大降低数据量和计算成本,成为CNN算法领域新的研究方向;而在硬件领域中,现场可编程门阵列(Field-Programmable Gate Array,FPGA)凭借其高能源效率和可定制的特点,具有极大的潜力。但是,BNN专用硬件加速器研究还不够深入,在输入卷积层、复合层和边缘“0”数据计算方面还存在大量优化空间。针对这上述方面,本文提出一种基于FPGA的高能效低成本BNN硬件加速器方案,主要工作包括:(一)提出一种基于量化和阈值优化的完全二值化预处理方法。针对BNN第一层输入卷积层计算特殊性问题,本文在BNN推理前,将待识别图像进行预处理,将输入图像数据的位宽量化为1bit。同时,为了降低量化对BNN识别精度的影响,在训练时进行阈值优化,选择最优阈值作为推理过程中使用的阈值。该方案将输入图像二值化,使第一层输入卷积层与其他卷积层的计算形式一致,降低传统方案的功耗和硬件成本。(二)提出一种基于复合偏置和6:2压缩的组合计算方案。通过分析BNN中卷积层、批量标准化层和激活函数层计算的连续性,对3个层的计算公式进行组合及变化,结合FPGA硬件资源的特点,提出一套高效低成本的BNN硬件计算方案。本文设计基于6:2压缩的乘累加计算单元,同等计算量情况下,减少60%的LUT硬件资源消耗;同时对卷积层、批量标准化层和激活函数层进行组合和优化,设计复合偏置计算单元,相较于传统方案,所提方法最多可减少80%数据存储量、500%计算周期和600%的硬件资源消耗。(三)提出一种精度无损的低功耗边缘跳过方法。针对BNN硬件无法识别算法中边缘“0”数据的而导致的额外计算代价等问题,本文提出一种使用跳过边缘“0”数据计算的方式,无需存储和计算边缘数据,同时可以达到与算法中包含边缘“0”数据计算相同的结果,且实现硬件与算法识别准确度一致。实验表明,该方案可降低20%的数据存储量和30%的计算量,同时相较于算法精度损失为0。

夏军[6](2020)在《基于申威架构实现RISC-V浮点指令》文中研究表明本文在对RISC-V浮点指令集的指令格式和指令功能深入分析地基础上,基于申威核心架构针对RISC-V中的浮点指令进行功能设计实现该架构下相应的浮点指令功能。所实现的RISC-V浮点指令采用指令多发射技术,相对单发射其多发射指令可在同一阶段实现多条指令的并行执行有效提高了功能部件的利用率;其中根据乱序处理策略,实现了一种满足同一周期可发射多条RISC-V浮点指令的发射模块,该发射模块主要有等待队列、记分牌和发射队列3部分组成,各部分采用相应的仲裁机制、唤醒机制以及相应的条目更新机制,完成了指令发射模块到指令执行部件的多发射控制。本文深入研究浮点部件结构及其实现方法。根据RISC-V中的RV32F和RV32D浮点指令集实现了一款支持单/双精度浮点运算的浮点运算单元(FPU)。对于浮点乘加类运算以及浮点加/减/乘运算在浮点乘加融合(FMA)部件中实现,该FMA单元采用6级流水的方式实现。且FMA部件的主加法器采用循环进位(EAC)加法器,并对加法器进行优化设计,通过减小EAC的逻辑宽度,来减少加法器的面积和功耗,其中面积减少约27.0%,功耗减少约24.7%。该加法器可避免对负数的求补操作,减小延时提高执行效率。此外对浮点比较指令执行进行优化,由浮点比较指令执行结果由原先的6拍延时优化变为2拍,运算延时减少4拍。同时本文根据RISC-V浮点算术指令特点可通过静态舍入模式位来直接更改一条指令的舍入模式,有效提高性能。最后,搭建了浮点指令测试平台,采用大量的测试激励完成了本文实现的多发射执行指令的验证。对实现RISC-V浮点指令进行了时序仿真,仿真结果表明其设计实现的RISC-V浮点指令符合设计要求。

周祥敏[7](2019)在《视觉感知智能图像处理算法及其应用技术研究》文中研究说明由于科技的日新月异,计算机视觉被广泛的应用在各个领域中,其中,关于节省储存空间、视频识别、滤除干扰及其整合应用为当前重要的课题。本文提出架构于视觉错觉理论的全向式视频摄取整合处理应用,在视觉错觉理论的基础上引入数据压缩编码技术等数学模型研究分析图像压缩编码、模糊量化识别等技术原理及机制模型,希望能够在图像处理、计算机视觉等相关领域得到应用。本文首先介绍视觉视频感知技术原理及相关的智能优化与图像处理算法;针对视觉视频预处理过程,利用模糊优化方法实现视频特征量化,设计了优化模糊向量压缩器,来实现图像预处理优化,达到视频特征提取与数据压缩目的;其次,设计马尔可夫模糊模型做为实现视频入侵检测的应用;并通过感测组件技术仿真并演练机器人的自主导航。最后提出视觉错觉的数学模型,并提出基于全向式视频视觉感知控制的智能算法整合于机器人的自主导航。论文的创新点主要体现在:(1)通过观赏距离提出了智能优化算法的模糊向量压缩器,并应用在视频压缩,设计较佳的算法以实践更好的压缩比,来实现与保持更好的提取视频质量。(2)通过观赏概率提出了基于图像处理及马尔可夫模型的监控系统,用于视频的入侵检测,对于非入侵情况以及摄像机特征提取效果不佳等监控系统问题均能有效解决。(3)通过观赏路线提出了具有无线感测定位功能的平台,不仅保证机器人自动避障功能,而且具备行动轨迹自动优化功能,可以短时间内计算出合理的避障路径。此外,通过观赏角度提出基于视觉错觉的数学模型,未来模型可应用于被动式机器人视觉,根据上述创新成果,还建立架构于视觉错觉理论的全向式视频摄取机器人控制模型,可实现机器人的自动避障功能,避免了非线性和不规则行进环境中的复杂障碍。

杨铁轶[8](2019)在《NB-IoT协议栈数据报文头压缩算法设计与优化》文中指出无线通信中最宝贵和珍稀的资源就是无线信道的带宽。为了获得更高的传输效率,通信数据报头压缩是一个重要的研究领域。数据报头压缩技术通过减小互联网传输协议封装引入的额外开销,减少传输同一应用所需的信道资源,提高了信道利用率,减少了交互应用中的来回响应时间。当下新兴的物联网通信技术NB-IoT具有低功耗、小数据的特性,对于报头压缩有着强烈的技术需求。当前版本的NB-IoT协议中使用的鲁棒性头压缩算法(Robust Header Compression ROHC)进行报头压缩,在面对NB-IoT应用中的低速率高延迟高误码环境时其效果还不是最优。本文针对NB-IoT系统应用的环境特性,设计了一种基于马尔可夫预测模型的头压缩算法ROHC-M,可以进一步提高报头压缩率。其核心思想在于通过分析压缩过程中状态转换方式建立马尔可夫预测模型,再引入信道信息实现对压缩状态转换的预测,从而提高解压缩的成功率。在此基础上积累预测数据,对预测结果实现长期优化,进一步提高了解压缩的成功率。最终实现了对报头压缩率的提高。本文通过仿真验证了该算法对压缩优化的有效性。并进一步设计软硬件实现了该算法,实测表明该算法对数据报文头压缩结果良好,相较于ROHC头压缩算法,平均压缩头部长度减少了0.71字节,吞吐率提高了10%。能够降低压缩过程中冗余字节的传输,提高传输效率,达到了本文的预期指标。

高潇[9](2019)在《地震波正演波场高效压缩方法》文中指出地震勘探规模和数值模拟规模的不断扩大产生了海量的地震数据,并且这些数据需要被存储以供后期处理解释。虽然目前可以通过使用大容量存储设备保存的方式来解决这个问题,但之后的处理步骤又会面临当前计算机固有的I/O瓶颈问题,从而大大降低了处理效率。为此,许多地震数据压缩算法被提出以期解决这个问题,例如无损压缩算法中哈夫曼编码,算术编码,字典编码等,以及有损压缩算法中的离散余弦变换(DCT)压缩,Dreamlet变换压缩,小波变换压缩等。在这些算法中,由于无损算法的压缩率较低,因此以如上所述的有损压缩算法使用较为广泛,但是它们都不能在压缩前就对重构误差进行控制,同时具体实现也相对较为复杂。本文在对以上传统无损压缩算法和有损压缩算法充分调研的基础上,引入了一种新的数据压缩算法——Squeeze算法,这是一种误差约束压缩算法,同时实现简单,使用方便。之前的研究中还没有Squeeze算法在地震数据压缩中的相关工作,因此本文是首次将其引入并实现了与地震波正演流程的结合。依托Squeeze算法本身优秀的压缩实现:多维和多层预测,自适应误差约束量化和熵编码操作,使其在实际压缩测试中获得了不错的压缩效果。但在实际波场压缩应用过程中,Squeeze算法在压缩设置为相对误差约束且误差限相对较大的情况下会产生所谓的“零漂”问题,即某些接近于零值的数据点不再为零,而是一个绝对值异常大值。本文将Squeeze算法应用到了3个测试数据中:1,二维地震记录数据;2,单剖面单分量波场数据;3,四维应力张量波场数据。其中前两个测试以DCT和Dreamelt的压缩结果作为参照,对比表明在这3种算法中,Squeeze算法的压缩效果是最好的,DCT次之。第3个数据测试主要是为了探讨Squeeze算法在不同压缩设置下的压缩性能差异,并对其重构误差以及时间开销进行分析。同时针对算法的“零漂”问题,本文给出了梯度校正策略和带通滤波校正策略进行改善。通过校正后数据得到的地震记录、波场快照以及敏感核误差的变化说明了校正策略的有效性。本文还提出了一种混合参数误差约束方式——HL压缩模式用于降低“零漂”问题对敏感核计算造成的影响。通过在波场模拟初始阶段使用高精度压缩设置来尽可能地避免数据产生“零漂”,而在后续阶段使用低精度压缩设置来保证压缩率,这种方式可以在丢失部分压缩率的情况下获得不错的压缩结果。

陈龙江[10](2019)在《基于边界扫描的高密度电路板测试控制器软件设计与实现》文中指出电子元器件产品的更新迭代和集成电路的集成规模不断升级,体现在芯片封装的不可测点持续增多,集成电路器件微型化复杂化,电子测试变得越发复杂。边界扫描技术与其它测试技术相结合可以有效进行电子系统的可靠可行性测试,国内理论研究和实践测试都处于探索发展阶段。该技术是电子测试技术的一个重要方向,在复杂电子产品的全周期维护中具有不可替代性。研究边界扫描测试技术,开发测试控制器系统具有积极的现实意义。本文设计开发中,硬件基于Xilinx ISE平台采用Verilog语言开发,软件基于Visual Stadio平台采用MFC框架使用C++语言开发。数据交互设计中,硬件电路测试时我们采用的串口作为与上位机通讯的接口,软件设计中采用的是USB2.0接口与上位机进行通讯,主控板与被测板之间通过JTAG接口连接。通过阅读IEEE 1149.1标准文档与边界扫描测试技术书籍和文件等,学习探究了其测试原理及其发展应用。边界扫描测试技术中通过TAP控制器控制TDI信号流向对被测芯片中的串行指令寄存器进行选取,经过译码后将指令传输到并行数据寄存器模块中的对应寄存器,然后在TDO得到反馈数据。Modelsim逻辑仿真中利用其生成的Testbench文件,通过对时钟和相应时间节点的设置,实现了仿真逻辑测试。硬件测试分析中基于一次具体的BSDL中的IDcode测试和TAP状态机的状态转换原理来对整个硬件实现逻辑进行基本阐述。硬件测试分析中通过对IDcode进行测试,可以验证电路的完备性和芯片的完好性,通过对芯片实时管脚模拟可以诊断出被测芯片的状态。为此,实验中对单片到多片芯片进行联合测试,对某一芯片进行多种测试。软件开发设计中,利用MFC便利的UI设计可以快速有效的完成软件界面框架的设计,采用大量的类和模块来实现测试软件的对应功能。边界扫描文件包含了边界扫描测试的基本信息,通过对其结构分析,在软件开发中我们设立了BSDL处理模块,对芯片信息进行读取与保存。网表文件详细的描述了电路板上各元器件管脚之间的连接关系,通过对其结构分析,在软件开发中我们设立了NetList处理模块进行描述。通过对边界扫描文件和网表文件的结构分析与软件语言描述并结合一定的算法,实现了对被测电路的完备性测试和芯片各引脚的模拟等边界扫描功能。

二、C语言嵌入式数据压缩器C-DC的设计(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、C语言嵌入式数据压缩器C-DC的设计(论文提纲范文)

(1)边缘计算环境中低时延高可信显示芯片的研究与设计(论文提纲范文)

摘要
abstract
符号说明
第1章 绪论
    1.1 研究背景及意义
        1.1.1 边缘计算的发展概述
        1.1.2 边缘计算的研究价值
        1.1.3 边缘计算中的人机交互系统面临的挑战
        1.1.4 论文的研究方法
    1.2 关键技术及研究现状
        1.2.1 图形运算加速技术
        1.2.2 缓存压缩技术
        1.2.3 容错技术
    1.3 本文研究成果及文章结构
第2章 面向边缘计算的图形处理技术研究
    2.1 相关技术概述
        2.1.1 基于嵌入式CPU的图形绘制技术
        2.1.2 移动GPU的图形绘制流水线概述
        2.1.3 IMR与TBR渲染模式
        2.1.4 降低图形运算功耗的研究
    2.2 面向边缘计算的图形处理算法研究
        2.2.1 边缘计算图形化界面需求分析
        2.2.2 面向边缘计算的图形处理流水线设计
        2.2.3 模型描述
        2.2.4 顶点处理流程
        2.2.5 像素着色流程
    2.3 面向边缘计算的图形处理IP核设计
        2.3.1 流水线瓶颈分析
        2.3.2 基于TBR的GPU整体架构设计
        2.3.3 顶点处理器架构设计
        2.3.4 像素着色引擎架构设计
    2.4 实验结果与分析
        2.4.1 软件模型与流水线测试
        2.4.2 IP综合与分析
    2.5 本章小结
第3章 帧缓存压缩技术研究
    3.1 相关技术概述
        3.1.1 无损帧缓存压缩技术
        3.1.2 GPU系统中帧缓存压缩需求
        3.1.3 基于块的纹理压缩技术
        3.1.4 基于频域的压缩技术
    3.2 实时帧缓存压缩算法研究
        3.2.1 场景分析
        3.2.2 算法设计
    3.3 帧缓存压缩IP核设计
        3.3.1 帧缓存压缩器整体设计
        3.3.2 子模块设计
    3.4 实验结果与分析
        3.4.1 压缩算法评估
        3.4.2 带宽压缩及性能提升
        3.4.3 功耗评估
        3.4.4 IP综合及评估
    3.5 本章小结
第4章 脉动阵列容错技术研究
    4.1 面向脉动阵列的容错技术研究现状
        4.1.1 面向硬错误的容错架构
        4.1.2 面向软错误的容错架构
    4.2 脉动阵列容错架构设计
        4.2.1 背景描述
        4.2.2 容错算法
        4.2.3 容错架构设计
        4.2.4 系统分块冗余架构设计
    4.3 实验结果与分析
        4.3.1 实验方法
        4.3.2 错误恢复率
        4.3.3 额外面积消耗
    4.4 本章小结
第5章 面向边缘计算的高能效显示芯片系统的研究与设计
    5.1 显示芯片中微处理器指令集研究
        5.1.1 微处理器指令集概述
        5.1.2 指令集选择的研究
        5.1.3 指令集扩展的研究
        5.1.4 RISC-V处理器IP核设计
    5.2 显示芯片存储系统架构研究
        5.2.1 边缘计算中数据处理瓶颈分析
        5.2.2 分层存储系统架构设计
    5.3 显示芯片总线系统架构研究
        5.3.1 片上总线概述
        5.3.2 设备互联与仲裁研究
        5.3.3 系统互联架构设计
    5.4 显示芯片整体系统架构设计
    5.5 本章小结
第6章 面向边缘计算的高能效显示芯片的实现与验证
    6.1 显示芯片低功耗设计
        6.1.1 功耗来源分析
        6.1.2 门控时钟
        6.1.3 多电压设计
    6.2 显示芯片综合与实现
        6.2.1 逻辑综合
        6.2.2 后端设计及流片
    6.3 显示芯片的测试与验证
        6.3.1 综合及版图设计
        6.3.2 测试平台介绍
        6.3.3 边缘计算场景测试
        6.3.4 显示芯片性能测试
        6.3.5 性能对比
    6.4 本章小结
第7章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果

(2)基于硬件压缩的大数据文件系统性能优化(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 硬件压缩算法研究现状
        1.2.2 面向大数据应用的硬件加速研究现状
    1.3 本文主要研究内容与创新点
    1.4 本文结构安排
第2章 大数据系统与硬件压缩相关知识
    2.1 软硬件协同优化简述
        2.1.1 硬件加速技术
        2.1.2 数据传输总线技术
    2.2 Hadoop平台简述
        2.2.1 文件系统HDFS简述
        2.2.2 Map Reduce简介
    2.3 Gzip无损压缩算法简述
        2.3.1 LZ77算法原理分析
        2.3.2 Huffman算法原理分析
        2.3.3 Gzip压缩算法机制
    2.4 本章小结
第3章 基于FPGA的 Gzip硬件压缩算法设计与实现
    3.1 整体方案
    3.2 主机端程序设计
    3.3 FPGA端压缩算法设计
        3.3.1 数据交换框架RIFFA简述
        3.3.2 基于流水式的硬件压缩核
        3.3.3 基于并行的硬件压缩框架
    3.4 实验测试方法
    3.5 实验数据分析
        3.5.1 传输带宽分析
        3.5.2 Calgary测试分析
        3.5.3 Silesia测试分析
    3.6 本章小结
第4章 基于硬件压缩的Hadoop性能优化
    4.1 需求分析
    4.2 整体方案
    4.3 实现zlib库对硬件压缩的支持
    4.4 龙芯大数据平台应用
        4.4.1 龙芯大数据平台简介
        4.4.2 FPGA硬件加速卡设计
    4.5 实验测试方法
    4.6 实验数据分析
    4.7 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
指导教师对研究生学位论文的学术评语
学位论文答辩委员会决议书
致谢
攻读硕士学位期间的研究成果

(3)Zynq平台微型高光谱仪数据采集与压缩处理(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题的研究背景与意义
    1.2 国内外研究现状
    1.3 本课题的主要研究内容
第二章 微型高光谱仪系统设计
    2.1 总体结构设计
    2.2 硬件设计
        2.2.1 硬件选型
        2.2.2 硬件电路设计
        2.2.3 外型结构设计
    2.3 软件设计
        2.3.1 搭建嵌入式Linux系统平台
        2.3.2 Socket网络服务器
        2.3.3 Android平台APP设计
    2.4 本章小结
第三章 针对快照马赛克面阵高光谱图像的无损预测压缩
    3.1 高光谱图像压缩的可行性
    3.2 常用高光谱图像压缩技术
        3.2.1 基于变换的压缩编码技术
        3.2.2 基于矢量量化的压缩编码技术
        3.2.3 基于预测的压缩编码技术
    3.3 基于快照马赛克面阵高光谱图像的无损预测压缩
        3.3.1 预测器
        3.3.2 编码器
        3.3.3 仿真验证
    3.4 本章小结
第四章 高光谱图像压缩FPGA实现与解码
    4.1 高光谱图像压缩FPGA实现方案
        4.1.1 预测器FPGA实现
        4.1.2 编码器FPGA实现
    4.2 高光谱数据解码
    4.3 本章小结
第五章 测试与分析
    5.1 测试平台搭建
    5.2 测试结果与分析
        5.2.1 视频实时预览与高光谱图像采集
        5.2.2 高光谱图像压缩与解码
    5.3 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
指导教师对研究生学位论文的学术评语
答辩委员会决议书
致谢
攻读硕士学位期间的研究成果

(4)基于Linux的LXI功率分析模块软件设计与实现(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题研究背景及意义
    1.2 国内外研究现状及发展趋势
    1.3 本文的主要工作与功能指标
    1.4 论文的结构和安排
第二章 LXI功率分析模块方案设计
    2.1 总体方案设计
    2.2 底层软件设计方案
    2.3 LXI软件方案
        2.3.1 LXI软件的C/S模式设计方案
        2.3.2 LXI软件的B/S模式设计方案
        2.3.3 多服务程序交互
    2.4 本章小结
第三章 C/S架构软件设计
    3.1 概述
    3.2 RPC服务程序
        3.2.1 Portmap端口映射服务程序的移植
        3.2.2 线程函数设计
        3.2.3 服务器读写API设计
    3.3 PC客户端设计
        3.3.1 客户端框架
        3.3.2 IP搜索
        3.3.3 界面布局设计
        3.3.4 驱动程序设计
    3.4 配置及程控界面设计
        3.4.1 登录界面
        3.4.2 欢迎界面
        3.4.3 LAN配置界面
        3.4.4 SCPI指令收发界面
        3.4.5 SCPI指令集
    3.5 仪器显示界面设计
        3.5.1 功率分析界面
        3.5.2 谐波分析界面
        3.5.3 波形显示界面
    3.6 程控指令设计
    3.7 本章小结
第四章 B/S架构软件设计
    4.1 概述
    4.2 LXI应用服务器的实现
        4.2.1 端口监听
        4.2.2 应用服务程序
    4.3 Web服务器的实现
    4.4 Web架构选型
        4.4.1 常用前端架构简介
        4.4.2 ECharts简介
        4.4.3 本节小结
    4.5 Web页面设计
        4.5.1 Web页面加载设计
        4.5.2 界面刷新设计
    4.6 数据传输优化设计
    4.7 本章小结
第五章 功率分析与运算
    5.1 简介
    5.2 运算方案设计
        5.2.1 参数运算设计
        5.2.2 参数运算的流程设计
    5.3 功率及谐波参数的运算
        5.3.1 功率参数的运算
        5.3.2 谐波参数的运算
    5.4 数据运算的软件实现与数据交互
        5.4.1 数据运算的软件实现
        5.4.2 数据交互
    5.5 本章小结
第六章 软件功能测试
    6.1 测试平台搭建
    6.2 软件通讯测试
        6.2.1 软件连通性测试
        6.2.2 吞吐量测试
        6.2.3 跨局域网测试
    6.3 界面功能测试
        6.2.1 程控功能测试
        6.2.2 仪器功能测试
    6.4 LXI网页性能测试
        6.4.1 LXI网页加载测试
        6.4.2 LXI网页多平台登录测试
    6.5 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
致谢
参考文献

(5)二值神经网络硬件加速器设计与实现(论文提纲范文)

致谢
摘要
abstract
第一章 绪论
    1.1 研究背景
    1.2 研究现状
    1.3 研究意义
    1.4 论文结构安排
第二章 神经网络基础
    2.1 CNN基础
        2.1.1 CNN原理
        2.1.2 CNN模型
    2.2 BNN基础
        2.2.1 BNN原理
        2.2.2 BNN硬件化
    2.3 本章小结
第三章 BNN硬件加速器设计
    3.1 引言
    3.2 BNN硬件加速器
        3.2.1 开发环境
        3.2.2 总体结构
        3.2.3 系统运行
    3.3 基于量化和阈值优化的完全二值化预处理方法
        3.3.1 需求分析
        3.3.2 设计思想
        3.3.3 实现方式
    3.4 基于复合偏置和6:2 压缩的组合计算单元
        3.4.1 创新分析
        3.4.2 设计思想
        3.4.3 硬件实现
    3.5 精度无损的边缘“0”数据跳过方法
        3.5.1 需求分析
        3.5.2 设计思想
        3.5.3 硬件实现
    3.6 本章小结
第四章 BNN硬件加速器验证
    4.1 引言
    4.2 车牌识别系统实验与分析
        4.2.1 数据集制作
        4.2.2 硬件平台
        4.2.3 操作流程
        4.2.4 识别结果
    4.3 网络精度实验与分析
        4.3.1 BNN与 CNN精度对比分析
        4.3.2 BN对网络精度影响
    4.4 完全二值化预处理方法分析
    4.5 组合计算单元实验与分析
        4.5.1 计算资源对比
        4.5.2 存储资源对比
    4.6 边缘“0”跳过方法实验与分析
        4.6.1 数据量分析
        4.6.2 计算量分析
    4.7 BNN硬件加速器性能分析
    4.8 本章小结
第五章 总结与展望
    5.1 总结
    5.2 展望
第六章 参考文献
第七章 攻读硕士学位期间的学术活动及成果情况

(6)基于申威架构实现RISC-V浮点指令(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
    1.3 本文主要研究内容和组织结构
第二章 浮点基本原理
    2.1 浮点数基本原理
        2.1.1 浮点数据格式
        2.1.2 规格数和特殊值的规定
        2.1.3 浮点舍入及异常
    2.2 RISC-V浮点指令格式
        2.2.1 浮点指令的操作码
        2.2.2 浮点指令的功能码
    2.3 申威浮点指令格式
    2.4 本章小结
第三章 申威架构下RISC-V浮点指令的整体设计
    3.1 RISC-V浮点指令功能分析
        3.1.1 浮点一般算术指令
        3.1.2 浮点复合指令
        3.1.3 浮点杂项指令
        3.1.4 浮点访存指令
    3.2 申威架构下的RISC-V浮点指令整体规划
        3.2.1 指令处理核心结构
        3.2.2 浮点指令规划
    3.3 本章小结
第四章 申威架构下RISC-V浮点指令的模块化实现
    4.1 指令译码模块的设计
    4.2 浮点发射模块的实现
        4.2.1 指令等待队列的实现
        4.2.2 记分牌的设计
        4.2.3 浮点发射队列的实现
    4.3 FPU部件中指令的实现
        4.3.1 浮点运算流程
        4.3.2 FMA部件中的指令实现
        4.3.3 浮点比较指令的实现
        4.3.4 浮点转换指令的实现
        4.3.5 浮点分类指令的实现
    4.4 本章小结
第五章 申威架构下RISC-V浮点指令的验证
    5.1 验证方法概述
    5.2 验证平台结构
    5.3 验证结果分析
        5.3.1 浮点译码模块的功能仿真
        5.3.2 浮点发射模块的功能仿真
        5.3.3 浮点指令的功能仿真
    5.4 本章小结
结论
参考文献
附录
致谢

(7)视觉感知智能图像处理算法及其应用技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 引言
    1.2 图像处理视觉技术现状
    1.3 关键技术及其研究进展
        1.3.1 视觉视频特征编码技术
        1.3.2 视觉视频入侵监控技术
        1.3.3 行动轨迹智能优化技术
    1.4 主要研究问题
    1.5 本文的章节安排
第二章 相关基础知识
    2.1 引言
    2.2 视觉视频感知技术
        2.2.1 视觉感知技术
        2.2.2 视觉错觉及其类型
    2.3 相关智能优化算法
        2.3.1 仿真退火算法
        2.3.2 粒子群优化算法
    2.4 相关图像处理算法
        2.4.1 视频滤波算法
        2.4.2 马尔可夫随机场
    2.5 本章小结
第三章 视觉视频特征提取与压缩编码技术
    3.1 引言
    3.2 模糊特征量化与压缩编码原理
        3.2.1 图像滤波原理模型
        3.2.2 模糊向量压缩技术
    3.3 优化模糊向量压缩器设计
    3.4 仿真结果与分析
    3.5 本章小结
第四章 视觉视频特征识别与入侵检测技术
    4.1 引言
    4.2 视频入侵检测原理与感知技术
    4.3 算法设计
        4.3.1 马尔可夫模糊模型设计
        4.3.2 特征识别估测算法
        4.3.3 入侵检测解码算法
        4.3.4 学习感知自动技术
    4.4 仿真结果与分析
    4.5 本章小结
第五章 移动感测机器人系统设计与实现
    5.1 引言
    5.2 基于传感器的机器人建模和控制结构
    5.3 通过PSO学习算法的TSP路由模糊系统设计
    5.4 仿真结果和分析
    5.5 本章小结
第六章 机器人视觉模型与算法及移动应用设计
    6.1 引言
    6.2 视觉错觉理论及计算模型
        6.2.1 平面三维视觉错觉
        6.2.2 视觉错觉移动的理论及计算
    6.3 移动机器人视觉模型和应用方案设计
        6.3.1 TSP路径路由方案
        6.3.2 自主RBFNs方案实现
    6.4 系统仿真与结果分析
    6.5 本章小结
第七章 工作总结和今后的研究方向
    7.1 工作总结与创新点
    7.2 今后的研究方向
参考文献
博士期间发表的论文
致谢

(8)NB-IoT协议栈数据报文头压缩算法设计与优化(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 选题的背景和意义
    1.2 国内外研究现状
        1.2.1 现有方案介绍
        1.2.2 优缺点比较
    1.3 主要研究内容与设计指标
        1.3.1 主要内容
        1.3.2 设计要求和指标
    1.4 论文组织结构
第二章 NB-IOT系统及数据报文头压缩协议概述
    2.1 NB-IOT系统的网络架构
    2.2 NB-IOT系统的协议栈体系
        2.2.1 控制平面协议
        2.2.2 用户平面协议
    2.3 PDCP子层协议概述
    2.4 数据报文头压缩协议
        2.4.1 ROHC压缩原理
        2.4.2 ROHC工作状态
        2.4.3 ROHC-U算法
    2.5 头压缩协议问题分析
    2.6 本章小结
第三章 头压缩算法模型分析
    3.1 算法整体思路
    3.2 建立模型
        3.2.1 信道模型
        3.2.2 压缩端和解压端模型
    3.3 转移概率获取
    3.4 长期优化
    3.5 模型仿真
        3.5.1 场景分析
        3.5.2 采样模块设计
        3.5.3 样本获取
        3.5.4 参数验证
    3.6 本章小结
第四章 NB-IOT头压缩算法设计
    4.1 系统整体框架
    4.2 压缩模块功能设计
        4.2.1 CID管理和获取
        4.2.2 压缩流程设计
    4.3 解压缩模块功能设计
        4.3.1 解压缩流程设计
        4.3.2 包类型处理机制
    4.4 校验模块功能设计
    4.5 预测模块功能设计
    4.6 本章小结
第五章 头压缩功能测试与性能分析
    5.1 整体测试方案
    5.2 硬件测试平台
        5.2.1 终端节点
        5.2.2 通信连接
    5.3 软件开发平台
    5.4 算法性能比较
        5.4.1 头压缩算法测试
        5.4.2 平均报头长度测试
        5.4.3 吞吐率测试
        5.4.4 测试结果
    5.5 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
攻读硕士学位期间发表的论文

(9)地震波正演波场高效压缩方法(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景和意义
    1.2 地震数据压缩发展现状
        1.2.1 国外发展现状
        1.2.2 国内发展现状
    1.3 本文研究工作
第2章 地震数据压缩技术
    2.1 数据压缩技术
    2.2 无损压缩技术
        2.2.1 香农-范诺编码
        2.2.2 哈夫曼编码
        2.2.3 游程编码
        2.2.4 算术编码
        2.2.5 字典编码
        2.2.6 Steim算法
        2.2.7 整数小波变换
    2.3 有损压缩技术
        2.3.1 离散余弦变换
        2.3.2 Dreamlet变换
        2.3.3 小波变换
    2.4 地震数据评价指标
        2.4.1 压缩能力
        2.4.2 信号质量
第3章 基于Squeeze算法的地震压缩技术
    3.1 Squeeze算法简介
    3.2 Squeeze压缩原理
        3.2.1 多维和多层预测模型
        3.2.2 自适应误差约束量化
        3.2.3 熵编码
        3.2.4 二进制表示分析压缩算法
    3.3 Squeeze算法实现流程
    3.4 Squeeze算法在地震波模拟中的实现
第4章 Squeeze压缩数值测试
    4.1 二维地震记录压缩测试
    4.2 单剖面单分量波场数据压缩测试
    4.3 四维应力张量波场数据压缩测试
        4.3.1 压缩率分析
        4.3.2 波场快照误差
        4.3.3 敏感核误差
        4.3.4 时间开销分析
第5章 算法改进策略
    5.1 “零漂”问题及校正策略
    5.2 HL压缩模式
第6章 结论
参考文献
致谢
在读期间发表的学术论文与取得的研究成果

(10)基于边界扫描的高密度电路板测试控制器软件设计与实现(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究及应用现状
    1.3 本文研究的主要工作及内容
    1.4 论文组织结构
第二章 基于边界扫描的板级测试原理与方法
    2.1 边界扫描测试结构
    2.2 TAP控制器
        2.2.1 TAP端口
        2.2.2 指令寄存器与测试指令集
        2.2.3 数据寄存器
        2.2.4 TAP控制器
    2.3 边界扫描测试文件解析
    2.4 网表文件解析
    2.5 电路板测试
        2.5.1 板级测试简述
        2.5.2 BST链的完备性测试方法
        2.5.3 电路板故障及测试算法
    2.6 本章小结
第三章 系统总体方案设计与研究
    3.1 系统总体设计方案介绍
    3.2 测试控制器硬件模块设计
    3.3 测试控制器软件模块设计
    3.4 数据传输处理及模块设计
    3.5 系统总体开发流程与主要应用软件和芯片介绍
        3.5.1 系统开发流程介绍
        3.5.2 开发中主要应用平台和芯片介绍
    3.6 本章小结
第四章 硬件仿真与测试
    4.1 逻辑仿真
    4.2 控制器逻辑分析
    4.3 硬件测试
        4.3.1 IDcode测试
        4.3.2 单芯片多组测试
    4.4 本章小结
第五章 软件功能测试
    5.1 软件测试解析
        5.1.1 BSDL处理模块
        5.1.2 NetList处理模块
        5.1.3 测试模块
    5.2 软件测试
        5.2.1 系统总体电路图
        5.2.2 软件界面
        5.2.3 IDcode指令测试
        5.2.4 芯片模拟显示
    5.3 本章小结
第六章 全文总结与展望
致谢
参考文献

四、C语言嵌入式数据压缩器C-DC的设计(论文参考文献)

  • [1]边缘计算环境中低时延高可信显示芯片的研究与设计[D]. 周钰致. 中国科学技术大学, 2020(01)
  • [2]基于硬件压缩的大数据文件系统性能优化[D]. 罗浩鑫. 深圳大学, 2020(10)
  • [3]Zynq平台微型高光谱仪数据采集与压缩处理[D]. 金绍勋. 深圳大学, 2020(10)
  • [4]基于Linux的LXI功率分析模块软件设计与实现[D]. 李浩. 电子科技大学, 2020(07)
  • [5]二值神经网络硬件加速器设计与实现[D]. 杨振文. 合肥工业大学, 2020
  • [6]基于申威架构实现RISC-V浮点指令[D]. 夏军. 安徽大学, 2020(07)
  • [7]视觉感知智能图像处理算法及其应用技术研究[D]. 周祥敏. 厦门大学, 2019
  • [8]NB-IoT协议栈数据报文头压缩算法设计与优化[D]. 杨铁轶. 东南大学, 2019(01)
  • [9]地震波正演波场高效压缩方法[D]. 高潇. 中国科学技术大学, 2019(09)
  • [10]基于边界扫描的高密度电路板测试控制器软件设计与实现[D]. 陈龙江. 电子科技大学, 2019(01)

标签:;  ;  ;  ;  ;  

C语言嵌入式数据压缩器C-DC的设计
下载Doc文档

猜你喜欢