当前目录
全盘
查全部
文件夹
文件
主页
/
套餐22:D到F登H沌大学等热门平台
/
13 极客时间
/
02-视频课
/
100-
/
120-NLP实战高手课
/
51-99
/
51丨健康检查:与Liveness、Readiness、Startup探测集成实现高可用.mp4
52丨神经网络的构建:NetworkinNetwork.mp4
53丨神经网络的构建:GatingMechanism和Attention.mp4
54丨神经网络的构建:Memory.mp4
55丨神经网络的构建:ActivationFunction.mp4
56丨神经网络的构建:Normalization.mp4
57丨神经网络的训练:初始化.mp4
58丨神经网络的训练:学习率和Warm-up.mp4
59丨神经网络的训练:新的PyTorch训练框架.mp4
60丨Transformer:如何通过Transformer榨取重要变量?.mp4
61丨Transformer代码实现剖析.mp4
62丨xDeepFM:如何用神经网络处理高维的特征?.mp4
63丨xDeepFM的代码解析.mp4
64丨时序建模:如何用神经网络解决时间序列的预测问题?.mp4
65丨图嵌入:如何将图关系纳入模型?.mp4
66丨图网络简介:如何在图结构的基础上建立神经网络?.mp4
67丨模型融合基础:如何让你所学到的模型方法一起发挥作用?.mp4
68丨高级模型融合技巧:Metades是什么?.mp4
69丨挖掘自然语言中的人工特征:如何用传统的特征解决问题?.mp4
70丨重新审视Word Embedding:Negative Sampling和Contextual Embedding71丨深度迁移学习模型:从ELMo到BERT.mp4
72丨深度迁移学习模型:RoBERTa、XLNet、ERNIE和T5.mp4
73丨深度迁移学习模型:ALBERT和ELECTRA.mp4
74丨深度迁移学习模型的微调:如何使用TensorFlow在TPU对模型进行微调.mp4
75丨深度迁移学习模型的微调:TensorFlowBERT代码简析.mp4
76丨深度迁移学习的微调:如何利用PyTorch实现深度迁移学习模型的微调及代码简析.mp4
77丨优化器:Adam和AdamW.mp4
78丨优化器:Lookahead,Radam和Lamb.mp4
79丨多重loss的方式:如何使用多重loss来提高模型准确率?.mp4
80丨数据扩充的基本方法:如何从少部分数据中扩充更多的数据并避免过拟合?.mp4
81丨UDA:一种系统的数据扩充框架.mp4
82丨LabelSmoothing和LogitSqueezing.mp4
83丨底层模型拼接:如何让不同的语言模型融合在一起从而达到更好的效果?.mp4
84丨上层模型拼接:如何在语言模型基础上拼接更多的模型?.mp4
85丨长文本分类:截取、关键词拼接和预测平均.mp4
86丨VirtualAdverserialTraining:如何减少一般对抗训练难收敛的问题并提高结果的鲁棒性?.mp4
87丨其他Embedding的训练:还有哪些Embedding方法?.mp4
88丨训练预语言模型.mp4
89丨多任务训练:如何利用多任务训练来提升效果?.mp4
90丨DomainAdaptation:如何利用其它有标注语料来提升效果?.mp4
91丨Few-shotLearning:是否有更好的利用不同任务的方法?.mp4
92丨半监督学习:如何让没有标注的数据也派上用场?.mp4
93丨依存分析和SemanticParsing概述.mp4
94丨依存分析和UniversalDepdencyRelattions.mp4
95丨Stanza使用.mp4
96丨ShiftReduce算法.mp4
97丨基于神经网络的依存分析算法.mp4
98丨树神经网络:如何采用TreeLSTM和其它拓展方法?.mp4
99丨SemanticParsing基础:SemanticParsing的任务是什么?.mp4
Copyright © All rights reserved.
信息加载中,请等待...