一、ZKQ/A—一个通用型的汉字情报自动处理系统(论文文献综述)
杭璐[1](2021)在《元认知视角下儿童搜索引擎界面设计策略研究》文中研究说明
王俊彦,卢金星,吴强,陈清华[2](2021)在《人工智能技术在食品安全可追溯系统的可信度保障中的应用》文中进行了进一步梳理食品安全一直以来都是关系民生的大事,国家在食品安全追溯体系建设上持续推进,已取得显着成效,但由于我国食品供应链参与主体具有多、小、散的独特性,数据采集缺乏有效的约束机制,加之中心化的信息管理模式,导致生产者、消费者、监管者之间严重信息不对称,直接影响了追溯信息的可信度。论文针对食品安全追溯信息缺乏可信度的问题,探讨了人工智能技术在食品溯源可信度保障上的应用。
贾丙静[3](2021)在《基于表示学习的实体识别和链接关键技术研究》文中提出大数据时代,每天都会产生大量的非结构化文本数据,实体识别和链接可以从文本中识别出实体,并对应到现实世界中客观存在的事物,帮助计算机正确的理解语义。文本内容的表达粒度不同,有细粒度的词、短语和句子,有粗粒度的段落文本,表示学习可以将不同粒度的语义特征抽取出来,提高实体识别和链接的效果。由于文本数据的来源多样,规模大,表达不规范等特点,实体识别和链接仍然面临以下几方面的挑战:(1)如何提高实体识别过程中的字表示;(2)如何解决实体链接时同一文档中指称上下文冲突;(3)如何融合多粒度信息表示指称和候选实体;(4)如何充分利用候选实体之间的关系提高链接效果。针对上述挑战,本文从基于增强字表示的实体识别、基于交互式句子表示的实体链接、基于文档层次语义表示的实体链接和基于图表示的实体链接四个方面提出了相应的解决方法。本文主要贡献如下:(1)基于增强字表示的中文实体识别。针对现有的中文实体识别方法只关注现代文,受分词和词典的影响比较大,基于字表示的识别方法包含的语义信息不全面的问题,提出基于增强字表示的中文实体识别算法(ECEM),该算法将汉字结构中蕴含的形态特征与上下文语义信息相结合,考虑到汉字既能表形又能表意的特点,探索如何提高汉字向量的表示。其中,上下文语义弥补了笔画向量中缺失的有用的序列信息。在古文和现代简历数据上的实验表明,增强字表示可以提高实体识别的效果。(2)基于交互式句子表示的实体链接。针对知识图谱数据不完备和同一指称在一篇文档中出现多次带来的上下文冲突问题,提出了一种新的基于交互式句子表示的实体链接算法(ELSR)。利用孪生网络来减少句子对输入和表示过程中的差异,获取句子的表层语义。通过软注意力来对齐句子,筛选对链接有用的关键语义特征,将句子对之间的差异性和相似性融入到句子交互表示模型中,得到的句子表示具有更深层次的语义特征。实验结果表明,基于交互式句子表示的实体链接算法在较少特征的情况下能获得比基准算法更好的链接结果。(3)基于文档层次语义表示的实体链接。针对现有实体链接方法不能从多粒度信息中抽取关键语义特征来表示指称和候选实体问题,提出了基于文档层次语义表示的实体链接算法(HSSMGF)。通过多层次注意力网络对多源多层次的信息筛选、融合和联合推理,缩减不同特征之间的语义鸿沟。提出的基于监督学习削减候选实体集大小的方法能有效过滤噪音候选,在保证候选实体召回率的情况下提高模型整体执行效率。构建了依赖无歧义候选实体实现的全局语义特征,并联合局部特征预测候选实体最后的得分。通过实验验证,该方法从多角度多层次捕获的语义特征有效提高了链接效果。(4)基于图表示的实体链接。针对基于图结构的实体链接方法在图不连通孤立节点比较多时,对候选实体排序结果不唯一的问题,提出了基于LeaderRank的实体链接算法(LEPC),通过在原有图中添加全局节点来调解节点之间的概率分布,构建全局语义关联度来修正排序结果。针对不能充分利用图中邻居节点信息和噪音过多问题,提出了基于图卷积和上下文语义关联的实体链接算法(GBEL),通过不断的迭代、聚集邻居节点信息来获得候选实体的语义向量,设计的上下文关联度模型实现了指称和候选实体之间深层次语义度量。实验结果表明,与对比方法相比本文提出的算法可以充分挖掘图结构的拓扑信息提高实体链接的效果。本文在表示学习的基础上,对实体识别和链接中的关键技术问题开展研究,经过实验验证,所提出的方法和模型都取得了比较好的效果,提高了实体识别和链接的准确性。
吴雅威[4](2021)在《面向智库需求的智慧数据服务模式及服务能力评价研究》文中提出近年来,作为决策咨询机构的智库,一直受到政府机构和决策者的高度重视,一系列相关政策法规的出台与实施,更为智库的建设与发展指明了道路和方向。然而,由于缺少多源数据、智慧化技术手段和专业人才支持在一定程度上制约了智库的快速发展,迫切需要图书情报机构(以下简称图情机构)提供智慧数据服务以满足智库复杂需求。目前,大数据时代持续推动着图情机构服务模式发生重大变化,正在促使其由传统信息服务向智慧数据服务转型。因此,当前智库到底存在哪些智慧数据服务需求,图情机构面向智库需求应该采取何种智慧数据服务模式,以及如何提升智慧数据服务水平和服务能力已经成为目前图情机构亟需研究的重要问题。本文以数据管理理论、用户场景理论和质性研究理论等为基础,探讨了面向智库需求的智慧数据服务要素、服务模式、模式实现及服务能力评价体系问题。首先,分析并构建了智库的智慧数据服务需求及其模型,结合实际案例对面向智库需求的智慧数据服务要素及其特征进行分析,进而提出了面向智库需求的两类智慧数据服务模式,详细阐述了智慧数据服务模式的实现路径,并构建了面向智库需求的智慧数据服务能力评价体系,最终针对智慧数据服务模式与服务能力评价体系给予相应对策及建议。本文的主要研究内容包括以下6个方面:(1)我国智库的智慧数据服务需求分析。主要通过混合式研究方法分析了智库的数据资源管理现状与问题、智慧数据服务需求以及需求驱动因素。明确了智库的两个主要需求:多源数据服务需求(包括多源数据采集与处理等)、创新发展环境服务需求(包括图情机构职能与服务及技术工具与人才等)。智库的数据需求、场景环境和应用过程的变化,对图情机构的智慧数据服务提出了更高期望与要求。本章为后文分析并提出针对性的面向智库需求的智慧数据服务要素、服务模式、模式实现以及服务能力评价体系奠定了需求基础和研究框架。(2)面向智库需求的智慧数据服务要素及其特征。基于智库需求,通过文献调研、案例分析以及借鉴智慧数据服务相关实践经验,分析了面向智库需求的智慧数据服务关键要素及其特征,阐述各要素在智慧数据服务中的定位和作用。明确了以图情机构、智慧数据、智能化技术方法、智慧化平台、服务环境为5大关键要素,以及服务场景化、技术智能化和数据多源化3大特征。引用生态系统及其相关发展理论构建模型来剖析服务主体、客体、环境间的能量流动及关系,最终以南京师范大学图书馆为例,通过分析其面向智库需求的智慧数据服务过程及其服务要素与特征,验证前文所明确的关键要素,为后文研究奠定要素基础。(3)面向智库需求的智慧数据服务模式。基于智库需求,结合模式构建法提出了面向智库需求的两类智慧数据服务模式:其一,个性化推荐模式,主要探讨图情机构通过感知智库需求,融合多源数据、专家智慧、智能技术及用户需求精准识别等资源与服务,通过智慧数据服务平台与新媒体技术,最终实现场景化、精准化与个性化推送;其二,嵌入式服务模式,主要探讨以图情机构为主体,通过分散、兼职和旋转门等途径嵌入智库内部及其活动过程,将智慧数据服务与智库的数据采集、综合处理、成果传播推广等环节相融合,精准定位智库需求,提供多源数据采集、融合处理、人才支持和影响力塑造等针对性服务。(4)面向智库需求的智慧数据服务模式实现。根据智库需求和图情机构智慧数据服务模式的具体内容与流程,面向智库需求的智慧数据服务模式实现主要包括以下6个方面:智库的特征识别与需求确定;基于Data Commons的智慧数据服务平台构建;多源数据融合;智能化技术与工具融合与协同治理;基于专家系统的多源数据分析与应用;基于向量空间模型的场景化服务推荐,以此来实现面向智库需求的智慧数据服务模式,体现了智慧数据服务的新路径与新思想。(5)面向智库需求的智慧数据服务能力评价体系。以智库需求、智慧数据服务过程和智慧数据服务内容为评价依据,初步构建了包括多源数据、智能化技术与工具、智慧数据服务人员三个维度的智慧数据服务能力评价体系。再利用专家调查法、灰色系统理论和层次分析法完成指标优化和赋权,以验证指标的合理性、有效性和可行性,最终确定智慧数据服务能力评价体系。最终以天津社科院图书馆为案例进行实证研究,论证服务能力评价体系中各指标的有效性、科学性和应用性,以此为图情机构提升智慧数据服务能力与质量提供适当参考。(6)面向智库需求的智慧数据服务保障策略。以智慧数据服务要素、服务模式及服务能力评价为依据,考量涵盖智慧数据服务关键要素、优化智慧数据服务流程、改善智慧数据服务能力评价体系等方面制定保障策略。智慧数据服务保障策略具有明显的层次化特征,涵盖政策保障、数据保障、技术保障与人才保障等层次。其中,政策保障涵盖建立健全相关法律法规等;数据保障涵盖完善多源数据建设、融合、安全与开放保障机制等;技术保障涵盖完备智能化数据管理技术、方法与工具集体系构建等;人才保障涵盖智慧数据服务人才队伍建设等。通过构建面向智库需求的智慧数据服务模式,可以优化智库活动流程,提升智库的课题研究能力、决策支持服务质量和可持续发展动力,还可保障面向智库需求的智慧数据服务质量和水平,也为大数据时代下图情机构智慧数据服务研究体系提供理论启发与借鉴,拓展智慧数据服务的理论与应用范畴,推动智慧数据服务可持续性发展。此外,通过建立面向智库需求的智慧数据服务能力评价体系,可以评价图情机构的智慧数据服务能力,帮助其更清楚的认识优势与缺陷,根据评价体系优化服务流程,更好的服务智库。同时,为图情机构系统认知大数据时代下面向智库需求的智慧数据服务实现路径提供参考,继而有效引导图情机构从智库需求感知到服务模式构建再到服务能力评价的流程化视角来看待面向智库需求的智慧数据服务工作。
马浩,崔运鹏[5](2021)在《基于混合深度学习模型的科技文献自动综述模型构建研究》文中认为[目的/意义]在大数据时代,如何高效地进行科技文献知识组织与服务已成为图情领域的研究热点。因此,开展科技文献综述自动生成模型研究具有重要意义。[方法/过程]文章中,综述的自动构建分为两步:首先基于语步理论对输入文本的句子按语步类别进行识别与抽取,然后以各类语步的句子集为输入通过生成模型进行综述生成。研究分别基于SciBERT深度学习模型和Transformer网络构建了语步识别模型和综述文本生成模型。[结果/结论]语步抽取模型整体识别效果评价F1值达到87.12%,生成模型的生成效果与TextRank模型和BiLSTM模型相比在ROUGE-1、ROUGE-2和ROUGE-L三项评价指标上分别提高了4.5%、2.9%和3.3%。研究完成了科研文献综述自动生成任务的整体模型构建与实现。
黄水清,王东波[6](2021)在《国内语料库研究综述》文中研究指明随着大数据和人工智能技术的深入发展,语料库研究得到越来越多的关注和重视。从最开始的面向语言学研究的言语材料集合到如今支撑知识挖掘和发现的深度标注知识资源,语料库及相关研究在深度和广度两方面都得到了充分的探索。本文以国内期刊文献为对象,首先从定量角度分析了我国语料库研究的发文趋势、作者合作态势以及各时代研究热点,然后从定性角度详细梳理并探讨了国内语料库的构建和标注的方法、流程和策略,并阐述了语料库在语言教学、信息检索等领域的应用现状,最后全面梳理了国内具有代表性的各类语料库,并对其建设和发展特点进行了总结和概括。
邓三鸿,胡昊天,王昊,王东波[7](2021)在《古文自动处理研究现状与新时代发展趋势展望》文中进行了进一步梳理[目的/意义]随着数字化古籍文献的普及,利用自然语言处理与大数据分析技术,在古代典籍上开展文本挖掘与知识发现,逐渐成为数字人文在古文信息处理领域的重要研究方向,也是体现文化自信的重要途径。[方法/过程]文章定义了古文自动处理的概念,从古文自动处理的领域划分与模型算法、语料资源与现有工具、知识库与平台系统3个方面,梳理古文自动处理领域的内涵和外延,整体把握该领域研究现状与发展趋势。[结果/结论]较全面地归纳总结了当前古文自动处理研究现状,分析了存在的问题与不足。
陈继智[8](2020)在《教育本体自动构建关键技术研究》文中研究说明教育信息化和智慧教育是未来教育的发展趋势。教育信息化的一个重要特点是教育智能,即借助于互联网提供优质的个性化智慧学习环境,满足学习者、教学者和管理者的个性化需求,实现学习资源的有效分享和重用,提高教育效益。简单地说,学习过程是一个知识获取过程,因此,智慧教育涉及一个知识传播和知识获取环境问题。可以说,智慧教育基础设施是一个知识平台,从而,知识和学习成分的识别、形式化、组织和可持续使用问题就变得十分重要。某种程度上,智慧教育一个主要问题就成了知识管理和共享问题。因此,如何有效地将教学资料、教学方案和教学过程等教育要素知识化构成了新的挑战。具体说,智慧教育的迫切需求是如何在教学资料、教学方案和教学过程的知识化中引入语义智能。本体作为一种明确的概念化体系规范,可以很好满足上述教育信息化和智能化的要求。并且本体最重要的一个特点就是知识共享和重用,并使之能够机器处理。因此本文对面向教育应用的本体(教育本体)展开了深入研究。教育本体是实现教育信息化和智慧教育的一种重要工具和手段,但是如何构建教育本体呢?在传统的本体学习中,本体构建基本上是靠手工完成的,它不仅费时且容易出错,构建过程也很乏味枯燥且不易扩展。随着数据数量的大量增加,涉及面的延展,手工构建已经无法满足需求,因此自动地去构建领域本体成为了迫切需求。本学位论文旨在研究如何结合本体和智慧教育的特点来自动构建教育本体,提出了一个本体自动构建框架来实现本体的自动构建。与此同时,针对构建过程中的相关技术难点(包括教育知识的自动获取,教育知识之间隐藏关系的挖掘等等),本文研究了所需的若干关键技术(如知识抽取、共指消解、本体自动扩展等),提出了相应的解决方法,为推动自动化构建技术提供基础支撑。本文的主要研究内容如下:·针对教育本体自动构建和扩展方法的缺失,设计了一个教育本体并提出了一个教育本体自动构建和扩展框架。首先,我们提出了一个包含三个子类(教程教材、辅导资料、个人知识)的教育领域基础本体。然后针对此本体,我们又提出一个逐步扩展的本体自动构建框架,主要思路是,借助自然语言处理领域中若干技术自动从文本数据中抽取知识形成了一个原始本体。最后考虑到本体的生态扩展,在原始本体的基础上,进一步提出了本体的自动扩展框架。以上的方法在中学物理教材的知识数字化上进行了实现,有效成功地构建了一个面向中学物理学科的物理教育本体。·针对教育本体构建中已有方法无法解决的多头问题(Multi head Problem),一个教育本体构建中广泛遇到的问题,提出了一种有效的知识联合抽取方法。该方法解决了现有端对端联合抽取模型中无法解决的多头问题。该方法首先引入了一种新颖的双重标注方案,然后根据该标注方案,提出了一种实体信息传播的模型,用于将抽取任务转化为双重标签序列预测问题。在公共数据集和物理教育本体数据集上的实验结果表明,该方法能有效地处理多头问题。·针对教育本体构建中已有方法无法解决的多关系问题(Multi relation Problem),提出了一种基于形式化概念分析的知识联合抽取方法。该方法主要采用形式化概念分析(FCA)对具有语义关联的关系进行聚类,该聚类类似于本体中概念,负责将实体之间多关系(1-N-1)情况归纳为一对一的情况。这样就可以利用端对端的联合抽取模型进行知识的抽取。同样地,在公共数据集和物理教育本体数据集上的实验结果显示,该方法能有效处理多关系问题,而且可以发掘实体之间潜在的关系。·针对教育本体构建中已有共指消解方法的低效和全局不一致性问题,提出了一个基于图神经网络的共指消解模型。该方法是一种实体提及对共指消解图模型,主要是为了解决当今需要考虑整个文档所有文本跨度来实现共指消解的低效问题。由于现有的很多方法需要考虑整个文档的所有文本跨度,导致模型的时间复杂度很高为(O(T4)),因此作者将共指消解映射为一种关系图,借助图卷积神经网络的方法,对实体提及对进行分类来判断是否存在共指关系。实验结果证明,该方法在共指消解上的高效性和有效性。这些模型和方法均在面向中学物理学科的物理教育本体自动构建中进行了实用化验证。
郭凯杰[9](2020)在《基于深度学习的自动文本摘要生成技术研究》文中研究表明自动文本摘要技术是人们从互联网的海量数据上快速获取文本信息的有效途径之一。本文通过对自动摘要任务的研究背景调研,发现该任务在实际生产和生活中都有许多的应用场景。就目前国内外的自动文本摘要任务的现状来看,主要分为抽取式文本摘要和生成式文本摘要。相较于前者,生成式文本摘要可以生成更符合人们阅读的摘要文本,无论从摘要的语法上还是从摘要的质量上都有一定的优势。因此,本文主要研究了基于序列到序列的生成式文本摘要模型。本文主要研究内容包括:首先,本文通过深入调研了自动文本摘要的研究背景,了解了任务对于科研和日常生活的意义。此外,本文对该任务国内外研究现状进行了详尽的分析,发现了目前遇到的一些瓶颈和挑战。介绍了自然语言处理任务中基础的的词向量表示方法和语言模型。分析了循环神经网络和卷积神经网络的基本原理和优势。此外,本文回顾了近年来自然语言处理领域中的预训练处理模型。其次,本文介绍了基于复制机制的文本摘要模型。在经典的序列到序列框架的基础上,加入了自注意力机制和复制机制,有效缓解了自动文本摘要任务中常见的OOV和未登录词等问题。未解决神经网络对长文本序列记忆的难题,在第四章介绍了基于BERT的文本摘要模型,在编码侧获取源文本信息中丰富语义。通过迁移学习的方式得到源文本的词嵌入表示,并针对自动文本摘要任务进行微调。同时也通过门控单元对编码信息进行过滤,生成可读性更强、质量更高的文本摘要。最后,本文在大型中文短文本数据集LCSTS和英文数据集CNN/Daily Mail上进行了测试。详细验证了文中所提模型的有效性,并通过具体的摘要实例分析了模型生成摘要的过程。实验结果表明,本文提出的模型相较于基线模型有了一定的提升,并生成了质量较高的文本摘要,有效改善了自动文本摘要任务中常见的一些问题。
孟文霞[10](2020)在《基于政府数据中心的数据治理与可视化应用》文中指出随着我国信息技术水平的不断发展和提高,以及国家对信息化工作的不断重视和推进,移动互联网、大数据、云计算、人工智能等技术在近几年来得到迅猛发展,各行各业在信息服务建设上都在不断创新。在新的环境和挑战下,各行各业都在由信息技术向数据处理技术上进化,数字化、智能化、线上化、智慧化等需求几乎无处不在,而当前处在后疫情时代更是激增了很多类似的需求。对于政府机构而言,目前已有很多政府机构已实现了不同层次的政务信息化水平的建设,走在“智慧政府”建设的路上,但随着政务信息化建设的规模增大,信息化在给各方带来便利的同时,也带来了一些新的问题和挑战。伴随着“智慧政府”的建设,很多政务部门都建设了业务信息管理系统,形成了较为完整的政务信息化体系,同时随着业务的发展相应产生了大量的业务信息数据。如何以数据中心为基础进行数据的集中存储和利用,如何进行数据治理、数据管理和数据分析来增强各类业务系统数据的可利用性,如何通过提高信息利用效率来精细化政务管理和政务服务,从而促进“智慧政府”建设的发展,这些都成为当前政务信息化建设发展极需要解决的问题。数据治理作为一个新的领域有着非常大的发展潜力,而数据实践是终级目标,本文即是通过某区政府基于数据中心的数据治理和应用实例,进行相关的数据治理之路的探索。在研究思路上,本文首先以某区政府数据中心为基础背景来确定了数据治理的体系和目标,然后通过数据管理、数据共享等方面的剖析和实践构建和实现了数据治理的框架体系,最后以可视化应用的数据应用实例来验证了数据治理的成效。本文数据治理的架构体系既能从数据源头开始明晰数据流向和规划好权责,也能使各业务系统之间均通过数据中心来进行交互,既能实现业务数据的互通又能保持业务系统之间的相互独立,从而使各机构之间能进行共同的协同工作。
二、ZKQ/A—一个通用型的汉字情报自动处理系统(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、ZKQ/A—一个通用型的汉字情报自动处理系统(论文提纲范文)
(2)人工智能技术在食品安全可追溯系统的可信度保障中的应用(论文提纲范文)
一、前言 |
二、食品可追溯系统的追溯可信度 |
三、人工智能技术在食品追溯系统可信度保障上的应用 |
(一)基于人工智能的食品生产与加工信息自动录入 |
(二)基于人工智能的食品流通环境卫生信息自动录入 |
(三)基于人工智能的智能溯源信息监管系统 |
四、人工智能技术在食品追溯系统可信度保障上的应用的关键技术及瓶颈 |
(一)基于人工智能的文档、票据、证件自动识别技术 |
(二)基于自然语言处理的语义信息提取与对比技术 |
五、结语 |
(3)基于表示学习的实体识别和链接关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景 |
1.2 研究意义 |
1.3 研究内容和主要贡献 |
1.4 论文结构 |
第二章 国内外相关研究综述 |
2.1 实体识别研究 |
2.1.1 基于规则和词典的方法 |
2.1.2 基于统计的方法 |
2.1.3 基于深度学习的方法 |
2.2 实体链接研究 |
2.2.1 单实体链接 |
2.2.2 集成实体链接 |
2.3 表示学习研究 |
2.3.1 词表示 |
2.3.2 句子表示 |
2.3.3 文档表示 |
2.3.4 图表示 |
2.4 本章小结 |
第三章 基于增强字表示的中文实体识别 |
3.1 引言 |
3.2 基于增强字表示的中文实体识别算法(ECEM) |
3.2.1 ECEM算法描述 |
3.2.2 实体标注 |
3.2.3 中文字表示 |
3.2.4 类别预测 |
3.2.5 ECEM算法的实现步骤 |
3.3 ECEM算法实验结果与分析 |
3.3.1 数据集的构建 |
3.3.2 基准模型 |
3.3.3 评价标准 |
3.3.4 实验参数 |
3.3.5 时间对比 |
3.3.6 结果分析 |
3.4 本章小结 |
第四章 基于交互式句子表示的实体链接 |
4.1 引言 |
4.2 基于交互式句子表示的实体链接算法(ELSR) |
4.2.1 ELSR算法描述 |
4.2.2 句子表示 |
4.2.3 句子交互 |
4.2.4 联合学习 |
4.2.5 ELSR算法的实现步骤 |
4.3 ELSR算法实验结果与分析 |
4.3.1 数据和评价 |
4.3.2 参数设置 |
4.3.3 实验结果 |
4.3.4 结果分析 |
4.4 本章小节 |
第五章 基于文档层次语义表示的实体链接 |
5.1 引言 |
5.2 基于文档层次语义表示的实体链接算法(HSSMGF) |
5.2.1 HSSMGF算法描述 |
5.2.2 候选实体集生成 |
5.2.3 基于多粒度特征的层次语义表示模型(HSSM) |
5.2.4 全局语义一致性特征 |
5.2.5 HSSMGF算法的实现步骤 |
5.3 HSSMGF算法实验结果与分析 |
5.3.1 实验设置 |
5.3.2 数据集 |
5.3.3 实验结果 |
5.4 本章小结 |
第六章 基于图表示的实体链接 |
6.1 引言 |
6.2 实体关联图 |
6.2.1 基于谷歌距离的实体关联图 |
6.2.2 基于链接关系的实体关联图 |
6.2.3 基于动态词嵌入的实体关联图 |
6.3 基于LeaderRank的实体链接算法(LEPC) |
6.3.1 LEPC算法描述 |
6.3.2 LEPC算法实验结果与分析 |
6.4 基于图卷积和上下文语义关联的实体链接算法(GBEL) |
6.4.1 上下文语义关联度 |
6.4.2 候选实体表示 |
6.4.3 候选实体选择 |
6.4.4 GBEL算法的实现步骤 |
6.4.5 GBEL算法实验结果与分析 |
6.5 本章小结 |
第七章 总结与展望 |
7.1 工作总结 |
7.2 未来展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文目录 |
攻读博士学位期间参与的科研项目 |
(4)面向智库需求的智慧数据服务模式及服务能力评价研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景与目的意义 |
1.1.1 研究背景 |
1.1.2 研究目的 |
1.1.3 研究意义 |
1.2 国内外相关研究综述 |
1.2.1 图情机构智慧化资源管理与服务转型 |
1.2.2 图情机构智慧数据服务模式与服务体系 |
1.2.3 智慧数据服务能力及其评价 |
1.2.4 评述与分析 |
1.3 研究内容 |
1.4 研究方法和技术路线 |
1.4.1 研究方法 |
1.4.2 技术路线 |
1.5 创新点 |
第2章 相关概念与理论基础 |
2.1 相关概念 |
2.1.1 智库 |
2.1.2 智慧服务 |
2.1.3 智慧数据服务 |
2.1.4 面向智库需求的智慧数据服务 |
2.2 理论基础 |
2.2.1 数据管理理论 |
2.2.2 扎根理论 |
2.2.3 用户场景理论 |
2.2.4 灰色系统理论 |
第3章 我国智库的智慧数据服务需求分析 |
3.1 基于问卷调查的智库数据资源管理分析 |
3.1.1 调查问卷设计 |
3.1.2 调查对象与数据收集 |
3.1.3 结果分析 |
3.2 基于扎根理论的智库服务需求分析 |
3.2.1 研究对象与数据收集 |
3.2.2 范畴编码与检验 |
3.2.3 模型构建及分析 |
3.3 本章小结 |
第4章 面向智库需求的智慧数据服务要素与特征 |
4.1 面向智库需求的智慧数据服务过程 |
4.1.1 智库活动过程分析 |
4.1.2 面向智库需求的智慧数据服务过程分析 |
4.2 面向智库需求的智慧数据服务要素 |
4.2.1 图情机构主体 |
4.2.2 智慧数据 |
4.2.3 智慧化技术工具与方法 |
4.2.4 智慧数据服务平台 |
4.2.5 智慧数据服务环境 |
4.2.6 智慧数据服务要素之间关系 |
4.3 面向智库需求的智慧数据服务特征 |
4.3.1 数据多源性 |
4.3.2 技术智能性 |
4.3.3 服务场景化 |
4.4 案例分析 |
4.4.1 南京师范大学图书馆发展现状 |
4.4.2 南师大图书馆智慧数据服务分析 |
4.5 本章小结 |
第5章 面向智库需求的智慧数据服务模式 |
5.1 面向智库需求的智慧数据服务模式概念和类型 |
5.1.1 面向智库需求的智慧数据服务模式的概念 |
5.1.2 面向智库需求的智慧数据服务模式的类型 |
5.2 面向智库需求的个性化推荐智慧数据服务模式 |
5.2.1 智库活动过程分析 |
5.2.2 智库需求感知 |
5.2.3 资源融合及服务集成 |
5.2.4 智能化推荐 |
5.2.5 案例分析 |
5.3 面向智库需求的嵌入式智慧数据服务模式 |
5.3.1 智库活动层 |
5.3.2 嵌入层 |
5.3.3 融合层 |
5.3.4 服务层 |
5.3.5 案例分析 |
5.4 本章小结 |
第6章 面向智库需求的智慧数据服务模式实现 |
6.1 智库特征识别与需求确定 |
6.1.1 智库特征识别 |
6.1.2 智库需求确定 |
6.2 基于Data Commons的智慧数据服务平台构建 |
6.2.1 Data Commons平台的概念和特点 |
6.2.2 Data Commons平台的目标与功能 |
6.2.3 Data Commons平台的架构设计 |
6.3 多源数据融合 |
6.3.1 多源数据融合架构 |
6.3.2 多源数据融合方法 |
6.4 智能化技术融合与协同治理 |
6.4.1 智能化技术融合与协同治理模式 |
6.4.2 基于协同治理的智能化技术融合过程 |
6.5 基于专家系统的智能情报分析 |
6.5.1 专家数据管理模块 |
6.5.2 专家在线咨询模块 |
6.5.3 专家智能推荐流程 |
6.6 基于向量空间模型的场景化服务推荐模型 |
6.6.1 场景化服务 |
6.6.2 场景化服务接受效用 |
6.6.3 场景化服务推荐模型 |
6.6.4 场景化服务推荐实验 |
6.7 本章小结 |
第7章 面向智库需求的智慧数据服务能力评价体系 |
7.1 智慧数据服务能力评价体系问题的提出 |
7.2 智慧数据服务能力评价体系的构建依据 |
7.3 智慧数据服务能力评价指标的选取与修正 |
7.4 智慧数据服务能力评价指标的阐释 |
7.5 智慧数据服务能力评价指标的优化与赋权 |
7.5.1 样本选择及问卷描述 |
7.5.2 评价指标的重要性和易获得性计算 |
7.5.3 评价指标优化 |
7.5.4 评价指标赋权 |
7.6 实证研究 |
7.6.1 研究方法 |
7.6.2 数据分析 |
7.6.3 结果分析 |
7.7 本章小结 |
第8章 面向智库需求的智慧数据服务保障策略 |
8.1 政府政策保障方面 |
8.2 图书情报机构服务主体保障方面 |
8.2.1 强化服务意识并挖掘智库需求 |
8.2.2 优化图情机构的智慧数据服务架构 |
8.2.3 建立并完善智慧数据服务能力评价体系 |
8.3 多源数据保障方面 |
8.3.1 加强智慧数据体系建设 |
8.3.2 建立一体化多源数据联动与反馈机制 |
8.4 智能化技术方法与工具保障方面 |
8.4.1 加强现代化数据技术的融合和应用 |
8.4.2 完善智慧数据服务平台功能和服务 |
8.5 智慧数据服务人才保障方面 |
8.5.1 完善我国图情机构学科馆员制度 |
8.5.2 提升智慧数据服务人员的创新服务能力 |
8.6 本章小结 |
第9章 研究结论与展望 |
9.1 研究结论 |
9.2 研究局限与展望 |
9.2.1 研究局限 |
9.2.2 研究展望 |
参考文献 |
附录 |
研究成果 |
致谢 |
(5)基于混合深度学习模型的科技文献自动综述模型构建研究(论文提纲范文)
1 相关研究 |
1.1 文献综述生成研究 |
1.2 科研文献中的语步识别研究 |
2 方法 |
2.1 语步识别与抽取模块 |
2.2 综述文本生成模块 |
3 实验 |
3.1 数据集 |
3.2 训练参数设置与评价指标 |
3.3 基线对比模型 |
3.4 结果与讨论 |
4 结束语 |
(6)国内语料库研究综述(论文提纲范文)
1 国内语料库研究的定量分析 |
1.1 发文量和发文时间 |
1.2 语料库研究学者合作分布 |
1.3 语料库研究主题演变 |
2 语料库的研究内容 |
2.1 语料库的构建 |
2.1.1 规范语料库的构建流程 |
2.1.2 语料库构建中的数据标注问题研究 |
(1)语料库数据标注粒度 |
(2)语料库数据标注策略 |
2.2 语料库的应用研究 |
(1)语料库在语言教学中的应用 |
(2)语料库在建立领域词表和词典中的应用 |
(3)语料库在信息检索和信息抽取中的应用 |
(4)语料库在语言对比和翻译研究中的应用 |
(5)语料库在其他领域中的应用 |
3 国内代表性的语料库介绍 |
3.1 通用单语语料库 |
(1)国家语委现代汉语通用平衡语料库 |
(2)北京语言大学语料库中心BCC语料库 |
(3)清华TH语料库 |
(4)北京大学CCL语料库 |
(5)人民日报标注语料库 |
(6)清华汉语树库(Tshinghua Chinese Treebank, TCT) |
3.2 汉英双语平行语料库 |
(1)中国科学院汉英平行语料库 |
(2)南京大学双语词典研究中心英汉双语平行语料库(NJU_BDRCBC) |
(3)清华大学中英平行语料库 |
3.3 其他汉外平行语料库 |
(1)北京大学计算语言研究所双语平行语料库 |
(2)北京外国语大学双语平行语料库 |
(3)南京农业大学典籍平行语料库 |
3.4 其他特色语料库 |
(1)汉语中介语语料库 |
(2)HSK动态作文语料库 |
(3)中国传媒大学有声媒体文本语料库 |
(4)名着汉英平行语料库 |
(5)少数民族语言语料库 |
4 结论与展望 |
(7)古文自动处理研究现状与新时代发展趋势展望(论文提纲范文)
1 引言 |
2 古文自动处理领域划分与模型算法 |
2.1 词汇自动处理研究现状 |
2.1.1 自动分词 |
2.1.2 词性标注 |
2.1.3 命名实体识别 |
2.2 句子自动处理研究现状 |
2.2.1 自动断句标点 |
2.2.2 句子对齐 |
2.2.3 句法和语义标注 |
2.3 篇章自动处理研究现状 |
2.3.1 自动校勘 |
2.3.2 自动生成 |
2.3.3 自动分类 |
3 古文自动处理语料资源与现有工具 |
3.1 规模古籍语料库 |
3.2 其他各类型语料 |
3.3 自动处理工具 |
4 古文自动处理知识库与平台系统 |
4.1 词典库与知识库 |
4.2 古文自动处理平台系统 |
5 讨论与展望 |
5.1 领域划分 |
5.2 语料资源 |
5.3 方法工具 |
5.4 知识成果 |
6 结语 |
(8)教育本体自动构建关键技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景和意义 |
1.1.1 教育信息化 |
1.1.2 智慧教育 |
1.1.3 本体 |
1.1.4 教育本体 |
1.2 国内外研究现状 |
1.3 教育本体的机遇和挑战 |
1.4 本文的研究内容 |
1.5 本文的组织结构 |
第二章 预备知识和相关工作 |
2.1 学习对象 |
2.2 本体工程 |
2.2.1 本体结构 |
2.2.2 本体分类 |
2.2.3 本体与知识图谱 |
2.3 知识抽取 |
2.3.1 命名实体识别 |
2.3.2 关系抽取 |
2.3.3 信息的联合抽取 |
2.4 共指消解 |
2.4.1 有监督的共指消解 |
2.4.2 无监督的共指消解 |
2.5 神经网络模型 |
2.5.1 LSTM |
2.5.2 CNN |
2.5.3 GCN |
2.6 本章小结 |
第三章 教育本体的自动构建和扩展框架 |
3.1 引言 |
3.2 相关工作 |
3.2.1 知识图谱和本体 |
3.2.2 教育知识 |
3.2.3 远程监督和半监督 |
3.3 本体自动构建方法 |
3.4 本体扩展方法 |
3.4.1 产生概念三元组 |
3.4.2 关系推理模型 |
3.4.3 关系确定 |
3.5 物理教育本体构建实践 |
3.5.1 数据 |
3.5.2 算法:Preparation |
3.5.3 算法:T2KG |
3.5.4 算法:KG2Onto |
3.5.5 构建的 TM_Physics 本体 |
3.6 物理教育本体扩展实践 |
3.6.1 数据准备 |
3.6.2 推理模型参数设置 |
3.6.3 评测指标 |
3.6.4 推理模型结果分析 |
3.6.5 本体评估 |
3.7 本章小结 |
第四章 教育本体构建中解决多头问题的知识联合抽取 |
4.1 引言 |
4.2 相关工作 |
4.2.1 流水线方式 |
4.2.2 联合方式 |
4.2.3 端到端模型和多头问题 |
4.3 基于实体传播的端到端联合抽取模型 |
4.3.1 双重标注方案 |
4.3.2 从标签序列生成三元组 |
4.3.3 基于新的标注方案的实体传播联合抽取模型 |
4.3.4 消除错误传播 |
4.3.5 字符级嵌入 |
4.3.6 自注意力机制 |
4.4 实验和结果分析 |
4.4.1 数据 |
4.4.2 词嵌入 |
4.4.3 对比方法 |
4.4.4 实验设置 |
4.4.5 实验结果和分析 |
4.4.6 消融实验 |
4.4.7 教育案例实验 |
4.4.8 讨论 |
4.5 本章小结 |
第五章 教育本体构建中解决多关系问题的知识联合抽取 |
5.1 引言 |
5.2 相关工作 |
5.3 基于形式化概念分析的联合抽取方法 |
5.3.1 端到端模型 |
5.3.2 多关系问题的解决方法 |
5.3.3 多头问题的解决方法 |
5.4 实验和结果分析 |
5.4.1 实验设置 |
5.4.2 结果分析 |
5.4.3 消融实验 |
5.5 错误和案例分析 |
5.5.1 错误分析 |
5.5.2 教育中案例分析 |
5.6 本章小结 |
第六章 教育本体构建中知识的共指消解 |
6.1 引言 |
6.2 相关工作 |
6.3 构建基于实体提及的图结构 |
6.4 基于图卷积的共指消解方法 |
6.4.1 上下文学习模块 |
6.4.2 图节点表示抽取模块 |
6.4.3 实体提及连接模块 |
6.5 实验设置 |
6.6 实验和结果分析 |
6.6.1 分析和讨论 |
6.6.2 教育中共指消解案例实验 |
6.7 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 后续工作展望 |
参考文献 |
致谢 |
攻读博士学位期间发表论文和科研情况 |
(9)基于深度学习的自动文本摘要生成技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究的背景及意义 |
1.2 国内外发展现状 |
1.2.1 抽取式摘要研究现状 |
1.2.2 生成式摘要研究现状 |
1.3 本文的主要研究内容 |
1.4 本文组织架构 |
第二章 本文相关理论与技术 |
2.1 词向量和语言模型 |
2.1.1 词向量表示 |
2.1.2 语言模型 |
2.2 神经网络 |
2.2.1 循环神经网络 |
2.2.2 卷积神经网络 |
2.3 预训练模型 |
2.3.1 ELMo模型 |
2.3.2 ULMfit模型 |
2.3.3 GPT模型 |
2.4 本章小结 |
第三章 基于复制机制的文本摘要模型 |
3.1 双向LSTM编码器设计 |
3.2 注意力机制 |
3.3 基于复制机制的解码器 |
3.4 本章小结 |
第四章 基于BERT的文本摘要模型 |
4.1 词嵌入表示 |
4.2 基于BERT的编码器 |
4.3 门控机制与解码器 |
4.4 本章小结 |
第五章 实验与分析 |
5.1 数据集 |
5.2 评测方法 |
5.3 基线模型 |
5.4 实验环境及参数设置 |
5.4.1 实验环境 |
5.4.2 实验参数设置 |
5.5 实验结果分析 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 工作展望 |
参考文献 |
发表论文和参加科研情况 |
致谢 |
(10)基于政府数据中心的数据治理与可视化应用(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 选题的背景和意义 |
1.2 国内外研究现状 |
1.3 主要内容和目标 |
1.4 论文的组织结构 |
第二章 相关理论与技术 |
2.1 数据治理 |
2.2 数据仓库 |
2.2.1 数据仓库基本概念 |
2.2.2 数据仓库生命周期模型 |
2.3 数据清洗 |
2.3.1 数据清洗概念 |
2.3.2 ETL技术 |
2.4 数据可视化 |
2.4.1 数据可视化概念 |
2.4.2 数据可视化的基本步骤 |
2.5 数据挖掘 |
2.6 本章小结 |
第三章 数据治理需求分析和框架设计 |
3.1 需求分析 |
3.1.1 数据管理需求分析 |
3.1.2 数据共享需求分析 |
3.1.3 数据应用需求分析 |
3.1.4 数据安全需求分析 |
3.2 框架设计 |
3.2.1 数据治理目标 |
3.2.2 框架设计 |
3.3 本章小结 |
第四章 数据治理的设计与实现 |
4.1 数据标准化 |
4.1.1 数据标准化概述 |
4.1.2 数据标准体系 |
4.1.3 编码规范与代码类型 |
4.2 数据交换 |
4.3 数据同步 |
4.4 数据集成 |
4.4.1 业务数据库 |
4.4.2 基础数据库 |
4.5 数据管理 |
4.5.1 数据源管理 |
4.5.2 信息类管理 |
4.5.3 数据元管理 |
4.5.4 代码集管理 |
4.6 数据共享 |
4.7 相关系统的部署 |
4.8 本章小结 |
第五章 数据治理的实践应用与验证 |
5.1 实际应用背景 |
5.2 数据可视化应用展现 |
5.2.1 经济信息统计分析 |
5.2.2 人口信息统计分析 |
5.2.3 综合报告查看 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 局限及展望 |
参考文献 |
攻读硕士学位期间取得的研究成果 |
致谢 |
附件 |
四、ZKQ/A—一个通用型的汉字情报自动处理系统(论文参考文献)
- [1]元认知视角下儿童搜索引擎界面设计策略研究[D]. 杭璐. 江南大学, 2021
- [2]人工智能技术在食品安全可追溯系统的可信度保障中的应用[J]. 王俊彦,卢金星,吴强,陈清华. 信息系统工程, 2021(06)
- [3]基于表示学习的实体识别和链接关键技术研究[D]. 贾丙静. 北京邮电大学, 2021(01)
- [4]面向智库需求的智慧数据服务模式及服务能力评价研究[D]. 吴雅威. 吉林大学, 2021(01)
- [5]基于混合深度学习模型的科技文献自动综述模型构建研究[J]. 马浩,崔运鹏. 情报理论与实践, 2021(09)
- [6]国内语料库研究综述[J]. 黄水清,王东波. 信息资源管理学报, 2021(03)
- [7]古文自动处理研究现状与新时代发展趋势展望[J]. 邓三鸿,胡昊天,王昊,王东波. 科技情报研究, 2021(01)
- [8]教育本体自动构建关键技术研究[D]. 陈继智. 华东师范大学, 2020(05)
- [9]基于深度学习的自动文本摘要生成技术研究[D]. 郭凯杰. 天津工业大学, 2020(01)
- [10]基于政府数据中心的数据治理与可视化应用[D]. 孟文霞. 华南理工大学, 2020(05)