❤️网盘万T资源库,连续7年运营,全站囊括21大品类,资源天花板就在这里,一次投入永久更新
❤️由于资源容量太大,本站仅支持部分资源搜索,部分精选区和书库仅供展示,请点到具体分类中再进行搜索
❤️VIP会员搭载专属目录,可实现全网搜索,无需登陆网盘,专享资源在线下载权益。
2025灵动四区
2025灵动三区
2025灵动二区
2025灵动一区
2025启航二区
2025启航一区
2025领袖商学院
2024领袖商学院
2024更新十区
2024更新九区
2024更新八区
2024更新七区
2024更新六区
2024更新五区
2024更新四区
2024更新三区
2024更新二区
2024更新一区
精选七区
精选六区
精选五区
精选四区
精选三区
精选二区
精选一区
书库四区
书库三区
书库二区
书库一区
稀缺二区
稀缺一区
精选素材
知识学院二区
知识学院一区
当前目录
全盘
查全部
文件夹
文件
主页
/
【云课堂专区】
/
【万门大学合集】
/
【万门大学】人工智能超强基础打造
/
深度学习实战【超清】
/
视频
/
1.1浅层网络的问题 .mp4
1.2涌现现象与深度网络为何高效 .mp4
1.3计算图.mp4
1.4导数的反向传播 .mp4
10.1图像标记 .mp4
10.2目标检测 .mp4
10.3图像切割 .mp4
10.4图像变换 .mp4
10.5图像降噪和恢复 【更多课程 微信:wmvip94 5】.mp4
10.6图像聚类与生成 【更多课程 微信:wmvip94 5】.mp4
11.10神经风格迁移(二) .mp4
11.11神经风格迁移(三) .mp4
11.12神经风格迁移(四).mp4
11.1迁移学习的用途.mp4
11.2迁移学习的种类 .mp4
11.3猫狗大战实例之数据读取和预处理 【更多课程 微信:wmvip94 5】.mp4
11.4对比展示迁移学习的效果 .mp4
11.5如何导入之前的模型.mp4
11.6连接特征网络和分类网络 【更多课程 微信:wmvip94 5】.mp4
11.7如何逐层训练 .mp4
11.8使用detach分开训练网络.mp4
11.9神经风格迁移(一) .mp4
12.1生成式模型.mp4
12.2自编码器 【更多课程 微信:wmvip94 5】.mp4
12.3对抗学习引入 .mp4
12.4对抗学习的损失函数 【更多课程 微信:wmvip94 5】.mp4
12.5卷积对抗网络 【更多课程 微信:wmvip94 5】.mp4
12.6对抗训练的难点及应用(一) 【更多课程 微信:wmvip94 5】.mp4
12.7对抗训练的难点及应用(二).mp4
13.10使用LSTM进行时间序列预测 .mp4
13.1时间序列是什么 【更多课程 微信:wmvip94 5】.mp4
13.2时间序列的预处理 .mp4
13.3时间序列的预测方法 .mp4
13.4一阶平滑法 【更多课程 微信:wmvip94 5】.mp4
13.5二次指数平滑法 .mp4
13.6Python代码展示 【更多课程 微信:wmvip94 5】.mp4
13.7数据导入和平稳性检测 【更多课程 微信:wmvip94 5】.mp4
13.8平稳性处理于模型构建.mp4
13.9模型的其他构建法 【更多课程 微信:wmvip94 5】.mp4
14.10RNN损失函数 【更多课程 微信:wmvip94 5】.mp4
14.11RNN中的求导推理 .mp4
14.12RNN的求导公式推导 .mp4
14.13随时间产生的梯度消失问题.mp4
14.14梯度消失的反面—梯度爆炸 .mp4
14.1时间序列数据的特点和历史(一).mp4
14.2时间序列数据的特点和历史(二) .mp4
14.3RNN的网络结构(一).mp4
14.4RNN的网络结构(二) .mp4
14.5RNN中的时间不变性 【更多课程 微信:wmvip94 5】.mp4
14.6RNN的代码实现 .mp4
14.7RNN下的语言模型(一) .mp4
14.8RNN下的语言模型(二) 【更多课程 微信:wmvip94 5】.mp4
14.9RNN的前向传播 .mp4
15.1自然语言的编码.mp4
15.2RNN代码展示—前向传递.mp4
15.3RNN代码展示—反向传播 .mp4
15.4RNN中的梯度更新.mp4
15.5模型的训练 .mp4
15.6PyTorch下的RNN之前向传播.mp4
15.7模型的构建代码.mp4
15.8模型的训练代码 .mp4
15.9将模型改为生成模型 .mp4
16.1数据准备和导入.mp4
16.2使用线性模型进行预测 .mp4
16.3使用神经网络进行预测.mp4
16.4预测结果展示与分析 .mp4
16.5从前馈网络到RNN .mp4
16.6应对梯度爆炸 【更多课程 微信:wmvip94 5】.mp4
16.7加速模型的训练方法(一) .mp4
16.8加速模型的训练方法(二).mp4
17.10GRU的优势 .mp4
17.11Attention机制 【更多课程 微信:wmvip94 5】.mp4
17.1RNN和动力学系统 .mp4
17.2高维动力系统 .mp4
17.3RNN的图灵完备性 .mp4
17.4RNN与脑科学的联系 【更多课程 微信:wmvip94 5】.mp4
17.5如何解决梯度消失的问题 .mp4
17.6LSTM的原理.mp4
17.7LSTM的优势.mp4
17.8LSTM的方程 【更多课程 微信:wmvip94 5】.mp4
17.9GRU原理 .mp4
18.1机器学习的问题 .mp4
18.2机器学习的核心概念 .mp4
18.3机器学习常见模型.mp4
18.4CNN常见技巧 .mp4
18.5RNN和迁移学习.mp4
2.1梯度下降的直观例子(一).mp4
2.2梯度下降的直观例子(二).mp4
2.3梯度下降的代码实现 .mp4
2.4梯度实现的数学证明 .mp4
2.5从优化的层次到机器学习 【更多课程 微信:wmvip94 5】.mp4
2.6梯度下降的变体—动量梯度下降法及代码实现 .mp4
3.1反向传播算法的数学推导 【更多课程 微信:wmvip94 5】.mp4
3.2反向传播算法的代码实现 【更多课程 微信:wmvip94 5】.mp4
3.3链式法则 .mp4
3.4反向传播算法在神经网络中的应用代码展示(一) .mp4
3.5反向传播算法在神经网络中的应用代码展示(二) 【更多课程 微信:wmvip94 5】.mp4
4.1卷积神经网络的历史.mp4
4.2图像识别中的滤镜与卷积 【更多课程 微信:wmvip94 5】.mp4
4.3卷积操作的代码展示 .mp4
4.4图像识别的传统方法及其问题(一) .mp4
4.5图像识别的传统方法及其问题(二) .mp4
4.6卷积是如何提取特征的、卷积网络的生物学机理.mp4
4.7引入激活函数以提取非线性特征 .mp4
4.8池化操作与层层抽象.mp4
4.9卷积神经网络的训练方法 .mp4
5.1PyTorch中的基本概念—变量.mp4
5.2PyTorch中的反向求导.mp4
5.3网络视角下的线性模型、PyTorch对神经网络的支持包.mp4
5.4PyTorch中的优化器和损失函数.mp4
5.5逻辑回归的问题介绍.mp4
5.6用类的方法实现逻辑斯蒂回归 .mp4
5.7多层网络的模型构建流程、神经网络的参数初始化 .mp4
5.8Drop out在神经网络中的应用和实现.mp4
6.10构建卷积网络的代码讲解 .mp4
6.11卷积网络中的全连接层 .mp4
6.12神经网络的训练与测试及训练的效果展示 .mp4
6.1梯度下降法在PyTorch中的实现 .mp4
6.2动量化梯度下降的原理和实现 .mp4
6.3两个参数问题下的优化面临的问题.mp4
6.4自适应的梯度下降及流平均改进法.mp4
6.5Adam算法 【更多课程 微信:wmvip94 5】.mp4
6.6PyTorch中的优化器选择.mp4
6.7PyTorch里的图像预处理与可视化.mp4
6.8CNN要调节的主要参数(一) .mp4
6.9CNN要调节的主要参数(二).mp4
7.1AlexNet的技术细节.mp4
7.2VGG19 【更多课程 微信:wmvip94 5】.mp4
7.3深度网络中的梯度消失问题 .mp4
7.4残差网络的定义 .mp4
7.5残差网络的数学原理 .mp4
8.1批量标准化怎么做 .mp4
8.2为什么批量标准化比标准化好 .mp4
8.3阈值变换如何应对过拟合 .mp4
8.4批量标准化的操作是怎么进行的 【更多课程 微信:wmvip94 5】.mp4
9.1如何提取中间变量 .mp4
9.2在pytorch中引入批量正则化.mp4
9.3批标准化的效果展示 .mp4
9.41-1卷积的含义和效果(一) .mp4
9.51-1卷积的含义和效果(二).mp4
9.6构建残差网络的每个子模块 .mp4
9.7在网络中引入残差层.mp4
9.8残差网络的维度变换.mp4
9.9如何实例化深度残差网络 .mp4
Copyright © All rights reserved.
信息加载中,请等待...