|
|
|
基于深度学习的智能问答系统研究 |
|
论文目录 |
|
摘要 | 第5-7页 | abstract | 第7-8页 | 第一章 绪论 | 第12-23页 | 1.1 自然语言处理简介 | 第12-21页 | 1.1.1 独热编码 | 第12页 | 1.1.2 词嵌入简介 | 第12-13页 | 1.1.3 Word2vec简介 | 第13-14页 | 1.1.4 语言模型 | 第14-15页 | 1.1.5 循环神经网络 | 第15-16页 | 1.1.6 长短期记忆LSTM | 第16-18页 | 1.1.7 门控循环单元GRU | 第18-19页 | 1.1.8 Seq2seq | 第19-20页 | 1.1.9 注意力 | 第20-21页 | 1.2 Question-Answering智能问答系统简介 | 第21-22页 | 1.2.1 智能问答系统概述 | 第21页 | 1.2.2 智能问答系统分类 | 第21-22页 | 1.2.3 智能问答系统方法 | 第22页 | 1.3 本论文的创新点及主要工作内容 | 第22-23页 | 第二章 自然语言处理及预训练语言模型的理论研究 | 第23-40页 | 2.1 预训练模型ELMo | 第23-24页 | 2.1.1 ELMo简介 | 第23页 | 2.1.2 ELMo结构 | 第23-24页 | 2.2 Transformer | 第24-28页 | 2.2.1 Transformer结构 | 第24-28页 | 2.3 预训练模型GPT | 第28-30页 | 2.3.1 GPT模型结构 | 第28-29页 | 2.3.2 GPT模型实现 | 第29页 | 2.3.3 GPT模型缺点 | 第29-30页 | 2.4 预训练模型BERT | 第30-33页 | 2.4.1 BERT模型结构 | 第30-32页 | 2.4.2 BERT与下游任务 | 第32页 | 2.4.3 BERT的优缺点 | 第32-33页 | 2.5 XLNet | 第33-36页 | 2.5.1 排列语言模型 | 第33-34页 | 2.5.2 Attention Mask | 第34-36页 | 2.6 ALBERT | 第36-38页 | 2.6.1 减少参数的方法 | 第36-38页 | 2.6.2 句子顺序预测 | 第38页 | 2.7 本章小结 | 第38-40页 | 第三章 基本模型BiDAF在 SQuAD数据集的研究 | 第40-55页 | 3.1 SQuAD数据集 | 第40-42页 | 3.1.1 SQuAD2.0样例 | 第40-41页 | 3.1.2 SQuAD2.0训练集 | 第41页 | 3.1.3 SQuAD2.0验证集 | 第41-42页 | 3.1.4 SQuAD2.0测试集 | 第42页 | 3.2 BiDAF基本模型 | 第42-46页 | 3.2.1 嵌入层 | 第43页 | 3.2.2 编码层 | 第43-44页 | 3.2.3 注意力层 | 第44-45页 | 3.2.4 建模层 | 第45页 | 3.2.5 输出层 | 第45-46页 | 3.3 损失函数与模型评估 | 第46-47页 | 3.4 推理与评估 | 第47页 | 3.5 训练流程 | 第47-52页 | 3.5.1 数据预处理 | 第47-50页 | 3.5.2 训练 | 第50-52页 | 3.6 训练结果 | 第52-54页 | 3.7 本章小结 | 第54-55页 | 第四章 ALBERT在 SQuAD数据集的研究 | 第55-67页 | 4.1 ALBERT预训练模型概括 | 第55-60页 | 4.1.1 整体架构 | 第56-57页 | 4.1.2 训练流程 | 第57-60页 | 4.2 模型结果 | 第60-66页 | 4.3 本章小结 | 第66-67页 | 第五章 总结与展望 | 第67-68页 | 致谢 | 第68-69页 | 参考文献 | 第69-72页 | 攻读硕士学位期间取得的成果 | 第72页 |
|
|
|
|
论文编号BS2609832,这篇论文共72页 会员购买按0.35元/页下载,共需支付25.2元。 直接购买按0.5元/页下载,共需要支付36元 。 |
|
|
我还不是会员,注册会员!
会员下载更优惠!充值送钱! |
我只需要这篇,无需注册!
直接网上支付,方便快捷! |
|
|
|
版权申明:本目录由www.jylw.com网站制作,本站并未收录原文,如果您是作者,需要删除本篇论文目录请通过QQ或其它联系方式告知我们,我们承诺24小时内删除。 |
|
|