响木SVIP目录
响木最新
响木众筹
响木众筹
当前目录
全盘
查全部
文件夹
文件
主页
/
我的资源
/
01 响木最新众筹课
/
早期众筹课
/
001-999
/
0043.Pytorch深度学习实战【训练营4期】
/
1.LESSON 0.1 GPU购买与GPU白嫖指南.mp4
10.LESSON 7.1 神经网络的诞生与发展.mp4
100.LESSON 18.3.1 数据探索(上):数据结构与病理图像可视化.mp4
103.LESSON-18.3.2-数据探索(下):标签探索与恶性率可视化.mp4
104.LESSON-18.4.1-自定义数据集导入类与数据集分割.mp4
105.LESSON-18.4.2-医疗数据的数据增强-(1)-10项色彩增强手段.mp4
106.LESSON-18.4.2-医疗数据的数据增强-(2)-生成对抗网络与染色标准化.mp4
107.LESSON-18.4.3实现色彩增强-(1)-认识imgaug与skimage.mp4
108.LESSON-18.4.3-实现色彩增强-(2)-imgaug中的仿射变换与随机增强.mp4
109.LESSON-18.4.3-实现色彩增强-(3)-imgaug中的线性变换与色彩加乘.mp4
11.LESSON 7.2 机器学习中的基本概念.mp4
110.LESSON-18.4.3-实现色彩增强-(4)-基于苏木素H与伊红E的色彩空间转换.mp4
111.LESSON-18.4.3-数据增强方案-(5):imgaug与skimage.mp4
112.LESSON-18.4.3-数据增强方案-(6):基于HED通道的单通道操作.mp4
113.LESSON-18.4.4.1-生成对抗网络的基本原理与损失函数.mp4
114.LESSON-18.4.4.2-(1)-从0实现GAN的反向传播与训练.mp4
115.LESSON-18.4.4.2-(2)-判别器的反向传播.mp4
116.LESSON-18.4.4.2-(3)-生成器的反向传播.mp4
117.LESSON-18.4.4.3-转置卷积层与DCGAN(1):基本原理与实现.mp4
118.LESSON-18.4.4.3-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(上.mp4
119.LESSON-18.4.4.3-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(下.mp4
12.LESSON 7.3 深入理解PyTorch框架.mp4
120.LESSON-18.4.4.3-转置卷积层与DCGAN(3):DCGAN架构复现-(上).mp4
121.LESSON-18.4.4.3-转置卷积层与DCGAN(3):DCGAN架构复现-(下).mp4
122.LESSON-18.4.4.3-转置卷积层与DCGAN(4)-声明:从DCGAN到pix2.mp4
123.LESSON-18.4.4.4-cGAN与InfoGAN(1)-基本运行原理.mp4
124.LESSON-18.4.4.4-cGAN与InfoGAN(2)-标签输入与Embed.mp4
125.LESSON--18.4.4.4-cGAN与infoGAN-(3)-从0复现cGAN架构.mp4
126.Lesson-18.4.5.1-自动编码器家族(1):认识自动编码器_batch.mp4
127.Lesson-18.4.5.1-自动编码器家族(2):三大类自动编码器_batch.mp4
128.Lesson-18.4.5.1-自动编码器家族(3):自动编码器的应用场景_batch.mp4
129.Lesson-18.4.5.2【加餐】变分自动编码器(1):数据流与细节梳理_batch.mp4
13.LESSON 8.1单层回归神经网络 & Tensor新手避坑指南.mp4
130.Lesson-18.4.5.2【加餐】变分自动编码器(2):损失函数详解_batch.mp4
131.Lesson-18.4.5.2【加餐】变分自动编码器(3):重参数化技巧_batch.mp4
14.LESSON 8.2 torch.nn.Linear实现单层回归网络的正向传播.mp4
15.LESSON 8.3 二分类神经网络的原理与实现.mp4
16.LESSON 8.4 torch.nn.functional实现单层二分类网络的正向传播.mp4
17.LESSON 8.5 多分类神经网络.mp4
18.LESSON 9.1 从异或门问题认识多层神经网络.mp4
19.LESSON 9.2 黑箱:深度神经网络的不可解释性.mp4
2.LESSON 0.2 PyTorch安装与部署(CPU版本).mp4
20.LESSON 9.3 & 9.4 层与激活函数.mp4
21.LESSON 9.5 从0实现深度神经网络的正向传播.mp4
22.LESSON 10.1 SSE与二分类交叉熵损失.mp4
23.LESSON 10.2 二分类交叉熵的原理与实现.mp4
24.LEESON 10.3 多分类交叉熵的原理与实现.mp4
25.LEESON 11.1 梯度下降中的两个关键问题.mp4
26.LESSON 11.2(1) 反向传播的原理.mp4
27.LESSON 11.2(2) 反向传播的实现.mp4
28.LESSON 11.3 走出第一步:动量法Momentum.mp4
29.LESSON 11.4 开始迭代:batch与epochs.mp4
3.LESSON 0.3 PyTorch安装与配置(GPU版本).mp4
30.LESSON 11.5 在Fashion-MNIST数据集上实现完整的神经网络(上).mp4
31.LESSON 11.5 在Fashion-MNIST数据集上实现完整的神经网络(下).mp4
32.LESSON 12.0 深度学习基础网络手动搭建与快速实现.mp4
33.LESSON 12.1 深度学习建模实验中数据集生成函数的创建与使用.mp4
34.LESSON 12.2 可视化工具TensorBoard的安装与使用.mp4
35.LESSON 12.3 线性回归建模实验.mp4
36.LESSON 12.4 逻辑回归建模实验.mp4
37.LESSON 12.5 softmax回归建模实验.mp4
38.LESSON 13.1 深度学习建模目标与性能评估理论.mp4
39.LESSON 13.2 模型拟合度概念介绍与欠拟合模型的结构调整策略.mp4
4.LESSON 1 张量的创建与常用方法.mp4
40.LESSON 13 【加餐】损失函数的随机创建现象详解.mp4
41.LESSON 13.3 梯度不平稳性与Glorot条件(1).mp4
42.LESSON 13.3 梯度不平稳性与Glorot条件(2).mp4
43.LESSON 13.3 梯度不平稳性与Glorot条件(3).mp4
44.LESSON 13.4 Dead ReLU Problem与学习率优化.mp4
45.LESSON 13.5 Xavier方法与kaiming方法(HE初始化).mp4
46.LESSON 14.1 数据归一化与Batch Normalization基础理论.mp4
47.LESSON 14.2 Batch Normalization在PyTorch中的实现.mp4
48.LESSON 14.3 Batch Normalization综合调参实战.mp4
49.LESSON 15.1 学习率调度基本概念与手动实现方法.mp4
5.LESSON 2 张量的索引、分片、合并及维度调整.mp4
50.LESSON 15.2 学习率调度在PyTorch中的实现方法.mp4
51.LESSON 16.1 环境配置,深度视觉行业综述.mp4
52.LESSON 16.2 图像的基本操作.mp4
53.LESSON 16.3 卷积操作.mp4
54.LESSON 16.4 卷积遇见深度学习.mp4
55.LESSON 16.5 在Pytorch中实现卷积网络(上):卷积核、输入通道与特征图.mp4
56.LESSON 16.5 在PyTorch中实现卷积网络(中):步长与填充.mp4
57.LESSON 16.5 在PyTorch中实现卷积网络(下):池化层,BN与Dropout.mp4
58.LESSON 16.6 复现经典架构:LeNet5.mp4
59.LESSON 16.6 复现经典架构 (2):AlexNet.mp4
6.LESSON 3 张量的广播和科学运算.mp4
60.LESSON 16.7 如何拓展网络深度:VGG架构.mp4
61.LESSON 16.8 感受野(上):定义与性质.mp4
62.LESSON 16.8 感受野(下):膨胀卷积,计算感受野大小.mp4
63.LESSON 16.9 平移不变性.mp4
64.LESSON 16.10 卷积层的参数量计算,1x1卷积核.mp4
65.LESSON 16.11 分组卷积与深度可分离卷积.mp4
66.LESSON 16.12 全连接层的参数,用nn.Sequential复现VGG16.mp4
67.LESSON 16.13 全局平均池化,NiN网络的复现.mp4
68.LESSON 16.14 GoogLeNet:思想与具体架构.mp4
69.LESSON 16.15 GoogLeNet的复现.mp4
7.LESSON 4 张量的线性代数运算.mp4
70.LESSON 16.16 残差网络:思想与具体架构.mp4
71.LESSON 16.17 ResNet的复现 (1) :架构中的陷阱.mp4
72.LESSON 16.17 ResNet的复现 (2) :卷积块、残差块、瓶颈架构.mp4
73.LESSON 16.17 ResNet的复现 (3):完整的残差网络.mp4
74.LESSON 17.1 计算机视觉中的三种基本任务.mp4
75.LESSON 17.2 经典数据集(1):入门数据集,新手读数据踩坑指南.mp4
76.LESSON 17.2 经典数据集(2):竞赛数据与其他常用数据.mp4
77.LESSON 17.3(上)使用自己的图像创造数据集.mp4
78.LESSON 17.3 (下)将二维表及其他结构转化为四维tensor.mp4
79.LESSON 17.4 图像数据的数据预处理.mp4
8.LESSON 5 基本优化方法与最小二乘法.mp4
80.LESSON 17.5 数据增强.mp4
81.LESSON 17.6 更强大的优化算法 (1) AdaGrad.mp4
82.LESSON 17.6 更强大的优化算法(2) RMSprop与Adam.mp4
83.LESSON 17.7 调用经典架构.mp4
84.LESSON 17.8 (1) 基于ResNet与VGG16自建架构.mp4
85.LESSON 17.8 (2) 基于普通卷积层和池化层自建架构.mp4
86.LESSON 17.9 有监督算法的预训练.迁移学习.mp4
87.LESSON 17.10 深度学习中的模型选择.mp4
88.LESSON 17.11(1) 案例1:项目背景.完整流程概述.mp4
89.LESSON 17.11(2) 案例1:数据与架构.mp4
9.LESSON 6 动态计算图与梯度下降入门.mp4
90.LESSON 17.11(3) 案例1:提前停止.mp4
91.LESSON 17.11(4) 案例1:一个完整的训练函数.mp4
92.LESSON 17.11(5) 准备训练函数所需的全部参数.mp4
93.LESSON 17.11(6) GPU内存管理机制、训练函数的GPU版本.mp4
94.LESSON 17.11(7) 初步训练:模型选择.mp4
95.LESSON 17.11(8) 模型调优(1):增加迭代次数,让迭代更稳定.mp4
96.LESSON 17.11(9) 模型调优(2):对抗过拟合,其他可探索的方向.mp4
97.LESSON 18.1 案例背景与benchmark建立.mp4
98.LESSON 18.2.1 使用OpenCV批量分片高像素图像(上).mp4
99.LESSON 18.2.2 使用OpenCV批量分片高像素图像(下).mp4
Copyright © All rights reserved.
信息加载中,请等待...