信息加载中,请等待...

  • 点击获取更多资源.html
  • 任务301: 为什么需要递归神经网络?.mp4
  • 任务302: 递归神经网络介绍.mp4
  • 任务303: 语言模型.mp4
  • 任务304: RNN的深度.mp4
  • 任务305: 梯度爆炸和梯度消失.mp4
  • 任务306: Gradient Clipping.mp4
  • 任务307: LSTM的介绍.mp4
  • 任务308: LSTM的应用.mp4
  • 任务309: Bi-Directional LSTM.mp4
  • 任务310: Gated Recurrent Unit.mp4
  • 任务311: 问答系统讲解01.mp4
  • 任务312: 问答系统讲解02.mp4
  • 任务313: Representation Learning.mp4
  • 任务314: What makes good representation-01.mp4
  • 任务315: What makes good representation-02.mp4
  • 任务316: What makes good representation-03.mp4
  • 任务317: Why Deep.mp4
  • 任务318: Why Deep Learning Hard to Train.mp4
  • 任务319: Ways to Solve Training.mp4
  • 任务320: Dropout 介绍.mp4
  • 任务321: 为什么Dropout防止过拟合现象.mp4
  • 任务322: 机器翻译.mp4
  • 任务323: Multimodal Learning.mp4
  • 任务324: Seq2Seq模型.mp4
  • 任务325: Seq2Seq训练介绍.mp4
  • 任务326: Inference Decoding.mp4
  • 任务327: Exhaustic Search.mp4
  • 任务328: Beam Search.mp4
  • 任务329: 回顾Multimodal Learning.mp4
  • 任务330: Attention注意力机制介绍.mp4
  • 任务331: 看图说话介绍.mp4
  • 任务332: 图像识别的注意力机制.mp4
  • 任务333: 基于GAN及强化学习的文本生成-01.mp4
  • 任务334: 基于GAN及强化学习的文本生成-02.mp4
  • 任务335: 回顾Seq2Seq模型.mp4
  • 任务336: Seq2Seq的Attention.mp4
  • 任务337: Self-Attention1.mp4
  • 任务338: Self-Attention2.mp4
  • 任务339: 深度文本匹配-01.mp4
  • 任务340: 深度文本匹配-02.mp4
  • 任务341: 回顾Attention.mp4
  • 任务342: RNN LSTM-based models.mp4
  • 任务343: Transformer的结构.mp4
  • 任务344: Each Encoder Block.mp4
  • 任务345: Self-Attention.mp4
  • 任务346: Add Normalize.mp4
  • 任务347: BERT概念.mp4
  • 任务348: 回顾Language model.mp4
  • 任务349: masked Language model.mp4
  • 任务350: masked Language model存在的问题.mp4
  • 资料说明.txt
1.本站不存储真实文件,仅展示文件信息。
2.用户自主配置内容,包括但不限于文件夹、链接、关联网盘等,不代表本站立场。
3.本站以文本、图片展示内容,无法及时审核其合法性。发现侵权内容,请提供资质及链接给客服,将立即移除。
官网:pan.tpym.cn 微信:fffin77