-
-
51丨健康检查:与Liveness、Readiness、Startup探测集成实现高可用.mp4
-
52丨神经网络的构建:NetworkinNetwork.mp4
-
53丨神经网络的构建:GatingMechanism和Attention.mp4
-
54丨神经网络的构建:Memory.mp4
-
55丨神经网络的构建:ActivationFunction.mp4
-
56丨神经网络的构建:Normalization.mp4
-
57丨神经网络的训练:初始化.mp4
-
58丨神经网络的训练:学习率和Warm-up.mp4
-
59丨神经网络的训练:新的PyTorch训练框架.mp4
-
60丨Transformer:如何通过Transformer榨取重要变量?.mp4
-
61丨Transformer代码实现剖析.mp4
-
62丨xDeepFM:如何用神经网络处理高维的特征?.mp4
-
63丨xDeepFM的代码解析.mp4
-
64丨时序建模:如何用神经网络解决时间序列的预测问题?.mp4
-
65丨图嵌入:如何将图关系纳入模型?.mp4
-
66丨图网络简介:如何在图结构的基础上建立神经网络?.mp4
-
67丨模型融合基础:如何让你所学到的模型方法一起发挥作用?.mp4
-
68丨高级模型融合技巧:Metades是什么?.mp4
-
69丨挖掘自然语言中的人工特征:如何用传统的特征解决问题?.mp4
-
70丨重新审视Word Embedding:Negative Sampling和Contextual Embedding71丨深度迁移学习模型:从ELMo到BERT.mp4
-
72丨深度迁移学习模型:RoBERTa、XLNet、ERNIE和T5.mp4
-
73丨深度迁移学习模型:ALBERT和ELECTRA.mp4
-
74丨深度迁移学习模型的微调:如何使用TensorFlow在TPU对模型进行微调.mp4
-
75丨深度迁移学习模型的微调:TensorFlowBERT代码简析.mp4
-
76丨深度迁移学习的微调:如何利用PyTorch实现深度迁移学习模型的微调及代码简析.mp4
-
77丨优化器:Adam和AdamW.mp4
-
78丨优化器:Lookahead,Radam和Lamb.mp4
-
79丨多重loss的方式:如何使用多重loss来提高模型准确率?.mp4
-
80丨数据扩充的基本方法:如何从少部分数据中扩充更多的数据并避免过拟合?.mp4
-
81丨UDA:一种系统的数据扩充框架.mp4
-
82丨LabelSmoothing和LogitSqueezing.mp4
-
83丨底层模型拼接:如何让不同的语言模型融合在一起从而达到更好的效果?.mp4
-
84丨上层模型拼接:如何在语言模型基础上拼接更多的模型?.mp4
-
85丨长文本分类:截取、关键词拼接和预测平均.mp4
-
86丨VirtualAdverserialTraining:如何减少一般对抗训练难收敛的问题并提高结果的鲁棒性?.mp4
-
87丨其他Embedding的训练:还有哪些Embedding方法?.mp4
-
88丨训练预语言模型.mp4
-
89丨多任务训练:如何利用多任务训练来提升效果?.mp4
-
90丨DomainAdaptation:如何利用其它有标注语料来提升效果?.mp4
-
91丨Few-shotLearning:是否有更好的利用不同任务的方法?.mp4
-
92丨半监督学习:如何让没有标注的数据也派上用场?.mp4
-
93丨依存分析和SemanticParsing概述.mp4
-
94丨依存分析和UniversalDepdencyRelattions.mp4
-
95丨Stanza使用.mp4
-
96丨ShiftReduce算法.mp4
-
97丨基于神经网络的依存分析算法.mp4
-
98丨树神经网络:如何采用TreeLSTM和其它拓展方法?.mp4
-
99丨SemanticParsing基础:SemanticParsing的任务是什么?.mp4
-