NLP自然语言处理集训营2[2019]-免费资源网

NLP自然语言处理集训营2[2019]

【课程介绍】

整个训练营历时4个月的学习时间,包括多为一线技术专家亲自授课,均毕业于美国顶尖高校。课程覆盖了10多个自然语言实际项目。从传统NLP技术到基于深度学习的NLP技术,帮助学员理解技术深层次的本质关系。学员有机会选择并完成自己感兴趣的课题,无论应用性的还是学术性的课题,导师助教团队都可以很好地指导你。或许这样的一个项目可以让你实现拥有顶会论文的目标。

最专业、最体系化的课程课程收获

掌握处理非结构化文本数据,完成知识抽取、NLU、多轮对话决策、逻辑推理等NLP核心技术;

深入理解分词、语义分析、语义表示、文本匹配、文本分类、主题识别等NLP主流领域;

掌握词向量如word2vec等以及NLP相关的深度学习(RNN、LSTM、Bert等)相关知识;

掌握NLP传统、机器学习及深度学习算法,完成QA系统、机器翻译、知识图谱、聊天机器人等实战项目。实战项目介绍

问答系统

从零开始搭建一个完整的问答系统。给定一个语料库(问题和答案对),对于用户的输入需要返回最适合的答案。涉及到的模块:1. 对于用户的输入需要做拼写纠错,这部分会用到语言模型 2. 之后对输入做文本的预处理,过滤等操作。 3. 把文本转换成向量形式,这里需要用到tf-idf, word2vec等相关的技术。 4. 针对于语料库,为了提升效率需要创建倒排表。 5. 基于相似度的计算来获得最优的答案。

情感分析系统

基于给定数据,来搭建一个完整的情感分析系统。项目涉及到的模块: 1. 数据的预处理 2. 特征工程,这部分是本项目的核心。 3. 监督学习模型的选择与调参。调参的过程需要尝试不同的优化策略。

知识图谱系统

利用非结构化数据来搭建知识图谱。项目涉及到的模块:1. 从非结构化数据中抽取实体,以及词典库的构建 2. 关系的抽取(指定的关系) 3. 实体统一以及实体消歧。 4. 知识图谱的构建以及查询

对话系统中的NLU

基于给定的对话数据来构建NLU识别部分,并结果用于聊天机器人中。 项目涉及到的模块: 1. 文本特征的提取 2. 搭建CRF模型来识别关键词 3. 搭建LSTM-CRF模型来识别关键词。

机器翻译系统

搭建一个完整的机器翻译系统。这里使用的方法论是端到端的方法。项目需要使用两种不同的方法: 1. 基于多层LSTM+Attention的方法。2. 基于多层Transformer, Bert的方法。

任务导向型聊天机器人

搭建一个完整的聊天机器人,用来服务搜索餐厅。项目涉及到的模块:1. 文本预处理 2. 意图识别和关键信息抽取 3. 对于每一个意图设计对话管理状态机 4. 设计上下文处理的方法 5. 对话生成模块 6. 处理一些常见的boundary case。

开放型Capstone项目(付费项目)

这是一个开放性的项目,学员根据自己的兴趣可以选择方向以及题目,导师以及助教团队会全程指导你完成。选择的项目可以围绕自己所熟悉的任何NLP场景,也可以是纯学术性的,当然针对学术性的项目,如果有一定创新性,导师团队也可以协助你发表顶会论文。项目的中期和最后,会有简短的学员项目展示环节,导师和助教团队会提供建设性的意见。


课程目录

001.自然语言处理训练营

002.训练营介绍课程体系介绍

003.NLP定义以及歧义性

004.案例.机器翻译01

005.案例.机器翻译02

006.NLP的应用场景

007.NLP的关键技术

008.算法复杂度介绍

009.课后答疑

010.简单的复杂度的回顾

011.归并排序

012.MasterTheorem

013.斐波那契数的时间复杂度

014.斐波那契数的空间复杂度

015.斐波那契数的循环实现

016.PvsNPvsNPHardvsNPComplete

017.问答系统介绍

018.Review一只狗和两只猫的故事——心理学与DL,RL-01

019.Review一只狗和两只猫的故事——心理学与DL,RL-02

020.文本处理的流程

021.分词-前向最大匹配

022.分词-后向最大匹配

023.分词-考虑语言模型

024.分词-维特比算法

025.拼写错误纠正

026.拼写纠错(2)

027.拼写纠错(3)

028.停用词过滤,Stemming操作

029.文本的表示

030.文本的相似度

031.tf-idf文本表示

032.词向量介绍

033.学习词向量

034.倒排表

035.NoisyChannelModel

036.语言模型介绍

037.ChainRule和MarkovAssumption

038.Unigram,Bigram,N-gram

039.估计语言模型的概率

040.评估语言模型.Perplexity

041.Add-oneSmoothing

042.Add-KSmoothing

043.Interpolation

044.2019.2.17Review基于几个例子,书写动态规划-01

045.2019.2.17Review基于几个例子,书写动态规划-02

046.2019.2.17Review基于几个例子,书写动态规划-03

047.Lesson6直播

048.在训练数据里没有见过的怎么处理?

049.Good-TurningSmoothing

050.利用语言模型生成句子

051.专家系统与基于概率统计学习

052.专家系统介绍

053.逻辑推理

054.CaseStudy风控

055.一些难题

056.机器学习介绍01

057.机器学习介绍02

058.朴素贝叶斯介绍

059.CaseStudy垃圾邮件过滤

060.lambda表达式

061.map函数的应用

062.filter过滤器

063.reduce函数

064.python三大推导式

065.闭包

066.装饰器一

067.装饰器二

068.初识numpy

069.numpy数组的创建

070.numpy的矢量化运算

071.numpy的花式索引

072.numpy数组转置和轴对换

073.条件逻辑转数组

074.数学运算与排序

075.numpy文件处理

076.线性代数函数和随机漫步例子

077.词性标注-实战(1)

078.词性标注–实战(2)

079.词性标注-实战(3)

080.词性标注-实战(4)

081.词性标注-实战(5)

082.初识series类型

083.初识dataframe

084.重新索引、数学运算和数据对齐

085.dataframe和series之间的运算和排序

086.层次化索引

087.dataframe的层次化索引的访问和汇总运算

088.pandas读写csv文件

089.pandas读取excel文件并画图

090.matplotlib可视化及学习方法建议

091.虚拟环境的搭建

092.创建第一个爬虫项目

093.调试运行爬虫程序

094.13-scrapyshell调试方法进行元素定位

095.访问首页列表中的url

096.获取帖子标题和内容

097.处理帖子内容中的特殊标签

098.获取帖子发送时间及位于的楼数

099.爬虫的bug调试与修复

100.数据持久化代码开发

101.数据入库

102.importancesamplenegtivesamplence-01

103.importancesamplenegtivesamplence-02

104.importancesamplenegtivesamplence-03

105.精确率和召回率

106.逻辑回归介绍

107.逻辑回归是线性分类器

108.逻辑回归的目标函数

109.梯度下降法

110.逻辑回归的梯度下降法

111.当线性可分的时候

112.关于面试的话题-01

113.关于面试的话题-02

114.关于面试的话题-03

115.直播(优化算法)-01

116.直播-02

117.直播-03

118.直播-04

119.直播-05

120.直播-06

121.直播-07

122.直播-08

123.直播-09

124.直播-10

125.直播-11

126.当数据线性可分割的时候

127.限制参数变得太大

128.模型复杂度与过拟合

129.怎么避免过拟合

130.正则介绍

131.L1VSL2

132.review数据结构串讲-01

133.review数据结构串讲-02

134.AffectiveComputing&情绪识别实战

135.交叉验证(1)

136.交叉验证(2)

137.正则的作用

138.MLEVSMAP介绍

139.正则的使用

140.交叉验证

141.参数搜索策略

142.高级.正则的灵活应用

143.总结

144.MLE与MAP

145.LassoRegression介绍

146.特征选择技术

147.LASSO介绍

148.CoordinateDescent

149.CoordinateDescentforLASSO

150.其他LASSOSolver

151.变分推断指数族家族lda

152.Optimization

153.OptimizationisEverywhere

154.Optimization-Categories

155.ConvexOptimization-GlobalvsLocalOptimal

156.判断一个函数是凸函数

157.解决一个具体问题1

158.解决一个具体问题2

159.回顾凸函数

160.介绍SetCoverProblem

161.Approach1-ExhaustiveSearch

162.Approach2-贪心算法

163.Approach3-Optimization

164.总结

165.回顾-逻辑回归的梯度下降法

166.梯度下降法的复杂度

167.梯度下降法的收敛分析

168.凸函数性质以及L-Lipschitz条件

169.收敛性推导

170.LinearClassifier

171.Margin的计算

172.SVM的目标函数.Hardconstraint

173.SVM的目标函数.Softconstraint

174.HingeLoss

175.Primal-Dual介绍

176.attentiontransformerbert-01

177.attentiontransformerbert-02

178.Capstone项目介绍

179.LinearSVM的缺点

180.数据映射到高维

181.拉格朗日-等号条件处理

182.拉格朗日-不等号条件处理

183.KKT条件

184.SVM的KKT条件

185.Primal-Dual介绍

186.SVM的Dual推导

187.KernelTrick

188.信息抽取介绍直播

189.命名实体识别介绍

190.简历分析场景

191.搭建NER分类器

192.方法介绍

193.基于规则的方法

194.投票决策方法

195.特征工程与特征表示01

196.特征工程与特征表示02

197.问答

198.信息抽取介绍

199.OntologicalRelation

200.关系抽取方法介绍

201.基于规则的方法

202.基于监督学习的方法

203.cnnrnntransformer对比-01

204.cnnrnntransformer对比-02

205.关系抽取

206.bootstrap算法的缺点

207.SnowBall算法

208.生成模板

209.生成tuple与模板评估

210.评估记录+过滤

211.SnowBall总结

212.EntityDisambiguation(实体消歧)介绍

213.实体消歧算法

214.EntityResolution(实体统一)

215.实体统一算法

216.Co-referenceResolution(指代消解)介绍

217.什么是句法分析

218.句法分析的应用

219.语法

220.PCFG

221.评估语法树

222.寻找最好的树

223.CNFForm

224.CKY算法

225.时序模型

226.HMM的介绍

227.HMM的应用例子

228.HMM的参数

229.HMM中的Inference问题

230.HMM中的FB算法1

231.HMM中的FB算法2

232.HMM中的FB算法3

233.DataRepresentation

234.LatentVariableModels

235.CompletevsIncompleteCase

236.MLEforCompleteandIncompleteCase

237.EMDerivation

238.RemarksonEM

239.K-means

240.K-meansCostFunction

241.MLEforGMM

242.模拟面试(vep)-01

243.模拟面试(vep)-02

244.HMM中的参数

245.CompletevsIncompleteCase

246.CompleteCase

247.IncompleteCase

248.EM算法回顾

249.FB算法回顾

250.估计PI

251.估计B

252.估计A

253.公司实际项目串讲-01

254.公司实际项目串讲-02

255.公司实际项目串讲-03

256.有向图与无向图模型

257.生成模型与判别模型

258.Log-LinearModel

259.Log-LinearModel与多元逻辑回归

260.CRF介绍

261.Inference问题

262.参数估计

263.wordvector词向量

264.GlobalGenerationofDistributedRepresentation

265.HowtoLearnWord2Vec-Intuition

266.Skip-GramModel

267.语料库

268.Word2Vec代码

269.训练SkipGram问题

270.SkipGram另一种目标函数构建

271.SkipGram的negativesampling

272.评估词向量

273.词向量在推荐系统中的应用

274.梯度提升树

275.答疑

276.Word2vec

277.LearningwithSubword

278.Whensubwordisneeded

279.LearnEmbeddingfromLanguageModel

280.Whatarepotentialsolutions

281.ElmoatGlance

282.CategoryofWordRepresentation

283.神经网络介绍

284.激活函数

285.MLP

286.多层神经网络

287.UniversalApproximationTheorem

288.BiologicalInspiration

289.回顾神经网络

290.神经网络的损失函数

291.BP算法的核心流程

292.对输出层的梯度计算

293.对隐含层的梯度计算

294.对参数的梯度计算

295.对BP算法的总结

296.gradientchecking

297.深度学习与非凸函数

298.深度学习中的Plateau

299.SGD的收敛条件

300.EarlyStopping

301.为什么需要递归神经网络?

302.递归神经网络介绍

303.语言模型

304.RNN的深度

305.梯度爆炸和梯度消失

306.GradientClipping

307.LSTM的介绍

308.LSTM的应用

309.Bi-DirectionalLSTM

310.GatedRecurrentUnit

311.问答系统讲解01

312.问答系统讲解02

313.RepresentationLearning

314.Whatmakesgoodrepresentation-01

315.Whatmakesgoodrepresentation-02

316.Whatmakesgoodrepresentation-03

317.WhyDeep

318.WhyDeepLearningHardtoTrain

319.WaystoSolveTraining

320.Dropout介绍

321.为什么Dropout防止过拟合现象

322.机器翻译

323.MultimodalLearning

324.Seq2Seq模型

325.Seq2Seq训练介绍

326.InferenceDecoding

327.ExhausticSearch

328.BeamSearch

329.回顾MultimodalLearning

330.Attention注意力机制介绍

331.看图说话介绍

332.图像识别的注意力机制

333.基于GAN及强化学习的文本生成-01

334.基于GAN及强化学习的文本生成-02

335.回顾Seq2Seq模型

336.Seq2Seq的Attention

337.Self-Attention1

338.Self-Attention2

339.深度文本匹配-01

340.深度文本匹配-02

341.回顾Attention

342.RNNLSTM-basedmodels

343.Transformer的结构

344.EachEncoderBlock

345.Self-Attention

346.AddNormalize

347.BERT概念

348.回顾Languagemodel

349.maskedLanguagemodel

350.maskedLanguagemodel存在的问题

351.LSTM

352.BERT训练过程

353.PGM领域

354.主题模型

355.回顾不同模型的范畴ModelEstimation

356.预测的过程

357.GD,SGD,Adagrad算法

358.回顾LDA

359.举例说明生成的过程

360.从官方的角度讲解生成的过程

361.α到θi的生成

362.举例说明生成文章

363.gibbssampler

364.collapsedgibbssampling-01

365.collapsedgibbssampling-02

366.collapsedgibbssampling-03

367.collapsedgibbssampling-04

368.collapsedgibbssampling-05

369.推导过程01

370.推导过程02

371.推导过程03

372.Gibbs采样01

373.Gibbs采样02

374.Web-ScaleInformationExtractioninKnowItAll-01

375.Web-ScaleInformationExtractioninKnowItAll-02

376.核函数

377.直播-01

378.直播-02

379.直播-03

380.直播-04

381.直播-05

382.直播-06

383.直播-07

384.直播-01

385.直播-02

386.直播-03

387.直播-04

388.直播-05

389.直播-06

390.利用CRF模型做命名实体识别-01

391.利用CRF模型做命名实体识别-02

392.基于语料库训练Glove词向量模型-01

393.基于语料库训练Glove词向量模型-02

394.GMM-01

395.GMM-02

396.GMM-03

397.XLNet-BertAutoregressiveLM

398.改进思路

399.Bert的目标函数

400.permutation

401.pytorch实现skip-gram

402.Airbnb(KDD2018bestPaper)-01

403.Airbnb(KDD2018bestPaper)-02

404.直播-01

405.直播-02

406.直播-03

407.直播-04

NLP自然语言处理集训营2[2019]

本站所有课程资源均为用户上传,如有侵权,请联系邮箱提供相应材料,我们会尽快删除
免费资源网 » NLP自然语言处理集训营2[2019]