①【希望学会包含学而思】 ②【知识大课堂VIP永久会员399】联系更多好课微信ku6954

信息加载中,请等待...

  • 51丨健康检查:与Liveness、Readiness、Startup探测集成实现高可用.mp4
  • 52丨神经网络的构建:NetworkinNetwork.mp4
  • 53丨神经网络的构建:GatingMechanism和Attention.mp4
  • 54丨神经网络的构建:Memory.mp4
  • 55丨神经网络的构建:ActivationFunction.mp4
  • 56丨神经网络的构建:Normalization.mp4
  • 57丨神经网络的训练:初始化.mp4
  • 58丨神经网络的训练:学习率和Warm-up.mp4
  • 59丨神经网络的训练:新的PyTorch训练框架.mp4
  • 60丨Transformer:如何通过Transformer榨取重要变量?.mp4
  • 61丨Transformer代码实现剖析.mp4
  • 62丨xDeepFM:如何用神经网络处理高维的特征?.mp4
  • 63丨xDeepFM的代码解析.mp4
  • 64丨时序建模:如何用神经网络解决时间序列的预测问题?.mp4
  • 65丨图嵌入:如何将图关系纳入模型?.mp4
  • 66丨图网络简介:如何在图结构的基础上建立神经网络?.mp4
  • 67丨模型融合基础:如何让你所学到的模型方法一起发挥作用?.mp4
  • 68丨高级模型融合技巧:Metades是什么?.mp4
  • 69丨挖掘自然语言中的人工特征:如何用传统的特征解决问题?.mp4
  • 70丨重新审视Word Embedding:Negative Sampling和Contextual Embedding71丨深度迁移学习模型:从ELMo到BERT.mp4
  • 72丨深度迁移学习模型:RoBERTa、XLNet、ERNIE和T5.mp4
  • 73丨深度迁移学习模型:ALBERT和ELECTRA.mp4
  • 74丨深度迁移学习模型的微调:如何使用TensorFlow在TPU对模型进行微调.mp4
  • 75丨深度迁移学习模型的微调:TensorFlowBERT代码简析.mp4
  • 76丨深度迁移学习的微调:如何利用PyTorch实现深度迁移学习模型的微调及代码简析.mp4
  • 77丨优化器:Adam和AdamW.mp4
  • 78丨优化器:Lookahead,Radam和Lamb.mp4
  • 79丨多重loss的方式:如何使用多重loss来提高模型准确率?.mp4
  • 80丨数据扩充的基本方法:如何从少部分数据中扩充更多的数据并避免过拟合?.mp4
  • 81丨UDA:一种系统的数据扩充框架.mp4
  • 82丨LabelSmoothing和LogitSqueezing.mp4
  • 83丨底层模型拼接:如何让不同的语言模型融合在一起从而达到更好的效果?.mp4
  • 84丨上层模型拼接:如何在语言模型基础上拼接更多的模型?.mp4
  • 85丨长文本分类:截取、关键词拼接和预测平均.mp4
  • 86丨VirtualAdverserialTraining:如何减少一般对抗训练难收敛的问题并提高结果的鲁棒性?.mp4
  • 87丨其他Embedding的训练:还有哪些Embedding方法?.mp4
  • 88丨训练预语言模型.mp4
  • 89丨多任务训练:如何利用多任务训练来提升效果?.mp4
  • 90丨DomainAdaptation:如何利用其它有标注语料来提升效果?.mp4
  • 91丨Few-shotLearning:是否有更好的利用不同任务的方法?.mp4
  • 92丨半监督学习:如何让没有标注的数据也派上用场?.mp4
  • 93丨依存分析和SemanticParsing概述.mp4
  • 94丨依存分析和UniversalDepdencyRelattions.mp4
  • 95丨Stanza使用.mp4
  • 96丨ShiftReduce算法.mp4
  • 97丨基于神经网络的依存分析算法.mp4
  • 98丨树神经网络:如何采用TreeLSTM和其它拓展方法?.mp4
  • 99丨SemanticParsing基础:SemanticParsing的任务是什么?.mp4
1.本站不存储真实文件,仅展示文件信息。
2.用户自主配置内容,包括但不限于文件夹、链接、关联网盘等,不代表本站立场。
3.本站以文本、图片展示内容,无法及时审核其合法性。发现侵权内容,请提供资质及链接给客服,将立即移除。
官网:pan.tpym.cn QQ:851232718