| 设计 任务书 文档 开题 答辩 说明书 格式 模板 外文 翻译 范文 资料 作品 文献 课程 实习 指导 调研 下载 网络教育 计算机 网站 网页 小程序 商城 购物 订餐 电影 安卓 Android Html Html5 SSM SSH Python 爬虫 大数据 管理系统 图书 校园网 考试 选题 网络安全 推荐系统 机械 模具 夹具 自动化 数控 车床 汽车 故障 诊断 电机 建模 机械手 去壳机 千斤顶 变速器 减速器 图纸 电气 变电站 电子 Stm32 单片机 物联网 监控 密码锁 Plc 组态 控制 智能 Matlab 土木 建筑 结构 框架 教学楼 住宅楼 造价 施工 办公楼 给水 排水 桥梁 刚构桥 水利 重力坝 水库 采矿 环境 化工 固废 工厂 视觉传达 室内设计 产品设计 电子商务 物流 盈利 案例 分析 评估 报告 营销 报销 会计 | |||||
|
|||||
|
|||||
|
|||||
基于分词朴素贝叶斯分类器的构造与应用
【摘要】 众多国际国内外学者和研究人员在近几年来的努力下,现以形成了多种中文分词算法,目前主要的算法有基于词典、基于理解和基于统计的三类,实际运用时经常相互结合使用。目前的系统都主要以这三类算法为主。而众所周知汉语有着相当的复杂性,新词也随时代变迁也在不断涌出,目前这三类算法并不能更好地满足我们实际生活的需要。
因此本文在这些算法的基础上,提出基于贝叶斯网络构建分词模型,在模型框架下一并完成交叉、组合歧义等等。经过运算和处理以后,能够让新的算法可以整合现有的常用算法的长处,规避他们的缺陷,有效提高分词的效率。
在测试条件下的检测结果表明,新算法进行分词的效果要较好,能够很好的对歧义进行处理,进行未登录词的处理,可以很好的满足对各种中文相关信息的处理需求。
【关键词】 中文分词,贝叶斯分类器,建立词库
Construction and Application of Naive Bayesian Classifier Based on Word Segmentation
【Abstract】 With the efforts of many scholars and researchers at home and abroad in recent years,many Chinese word segmentation algorithms have been formed. At present,the main algorithms are dictionary-based,comprehension-based and statistics-based. They are often used together in practice. Current systems are mainly based on these three kinds of algorithms. As we all know,Chinese has considerable complexity, and new words are constantly emerging with the changes of the times. At present, these three kinds of algorithms can not better meet the needs of our real life.
Therefore,on the basis of these algorithms, this paper proposes a word segmentation model based on Bayesian network components,and completes crossover, combination ambiguity and so on under the model framework. After these processing, the algorithm can fully absorb the advantages of various common algorithms,avoid their limitations, and effectively improve the efficiency of word segmentation.
The test results show that the new algorithm performs better in word segmentation. It can process ambiguity and unlisted words well. It can satisfy the processing requirements of various Chinese related information.
【Key Words】 Chinese word segmentation,Chinese word segmentation,Building Thesaurus
目 录
1 绪 论
1.1研究背景与意义
1.2中文分词现状
1.3 论文主要内容
2相关技术分析
2.1常见的分词算法
2.1.1基于词库的分词算法
2.1.2基于理解的分词算法
2.1.3基于统计的分词算法
2.2中文分词的技术难点
2.2.1歧义处理
2.2.2新词识别
3分词词库
3.1词库组成
3.2 词库的构建
3.3 词库的更新
4 改进的贝叶斯定理分词算法
4.1 算法概述
4.2 歧义处理
4.3 算法步骤
5 算法实现
5.1 开发环境
5.2 实验数据
5.3 实验方法过程
5.4 实验结果展示
5.5结果分析
结 论
参考文献
附 录
附录 A
附录 B
致 谢
图目录
图2.1 正向最大匹配法步骤示意图
图2.2基于理解的中文分词系统框架图
图2.3基于统计的中文分词算法步骤示意图
图2.4歧义处理示意图
图2.5 新词内容示意图
图3.1 词库联系示意图
图3.2词库构建步骤示意图
图3.3词库更新步骤示意图
图4.1基于词库与贝叶斯原理的算法示意图
图4.2系统功能结构组织图
图4.3分词词库更新步骤示意图
图4.4算法执行步骤示意图
图5.1数据类别分布条形图
表目录
表5.1测试实例中时间、年龄等量词的切分效果
表5.2测试实例中人名、地名等词的切分效果
毕业66资料站 biye66.com ©2015-2026 版权所有 | 微信:15573586651 QQ:3903700237
本站毕业设计和毕业论文资料均属原创者所有,仅供学习交流之用,请勿转载并做其他非法用途.如有侵犯您的版权有损您的利益,请联系我们会立即改正或删除有关内容!