响木SVIP目录
响木最新
响木众筹
响木众筹
当前目录
全盘
查全部
文件夹
文件
主页
/
我的资源
/
00 离线版加密(金盾)
/
001-999
/
100-199(离线版)
/
164.Pytorch深度学习实战【训练营4期】
/
1.LESSON 0.1 GPU购买与GPU白嫖指南.vip
10.LESSON 7.1 神经网络的诞生与发展.vip
100.LESSON 18.3.1 数据探索(上):数据结构与病理图像可视化.vip
103.LESSON-18.3.2-数据探索(下):标签探索与恶性率可视化.vip
104.LESSON-18.4.1-自定义数据集导入类与数据集分割.vip
105.LESSON-18.4.2-医疗数据的数据增强-(1)-10项色彩增强手段.vip
106.LESSON-18.4.2-医疗数据的数据增强-(2)-生成对抗网络与染色标准化.vip
107.LESSON-18.4.3实现色彩增强-(1)-认识imgaug与skimage.vip
108.LESSON-18.4.3-实现色彩增强-(2)-imgaug中的仿射变换与随机增强.vip
109.LESSON-18.4.3-实现色彩增强-(3)-imgaug中的线性变换与色彩加乘.vip
11.LESSON 7.2 机器学习中的基本概念.vip
110.LESSON-18.4.3-实现色彩增强-(4)-基于苏木素H与伊红E的色彩空间转换.vip
111.LESSON-18.4.3-数据增强方案-(5):imgaug与skimage.vip
112.LESSON-18.4.3-数据增强方案-(6):基于HED通道的单通道操作.vip
113.LESSON-18.4.4.1-生成对抗网络的基本原理与损失函数.vip
114.LESSON-18.4.4.2-(1)-从0实现GAN的反向传播与训练.vip
115.LESSON-18.4.4.2-(2)-判别器的反向传播.vip
116.LESSON-18.4.4.2-(3)-生成器的反向传播.vip
117.LESSON-18.4.4.3-转置卷积层与DCGAN(1):基本原理与实现.vip
118.LESSON-18.4.4.3-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(上.vip
119.LESSON-18.4.4.3-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(下.vip
12.LESSON 7.3 深入理解PyTorch框架.vip
120.LESSON-18.4.4.3-转置卷积层与DCGAN(3):DCGAN架构复现-(上).vip
121.LESSON-18.4.4.3-转置卷积层与DCGAN(3):DCGAN架构复现-(下).vip
122.LESSON-18.4.4.3-转置卷积层与DCGAN(4)-声明:从DCGAN到pix2.vip
123.LESSON-18.4.4.4-cGAN与InfoGAN(1)-基本运行原理.vip
124.LESSON-18.4.4.4-cGAN与InfoGAN(2)-标签输入与Embed.vip
125.LESSON--18.4.4.4-cGAN与infoGAN-(3)-从0复现cGAN架构.vip
126.Lesson-18.4.5.1-自动编码器家族(1):认识自动编码器_batch.vip
127.Lesson-18.4.5.1-自动编码器家族(2):三大类自动编码器_batch.vip
128.Lesson-18.4.5.1-自动编码器家族(3):自动编码器的应用场景_batch.vip
129.Lesson-18.4.5.2【加餐】变分自动编码器(1):数据流与细节梳理_batch.vip
13.LESSON 8.1单层回归神经网络 & Tensor新手避坑指南.vip
130.Lesson-18.4.5.2【加餐】变分自动编码器(2):损失函数详解_batch.vip
131.Lesson-18.4.5.2【加餐】变分自动编码器(3):重参数化技巧_batch.vip
14.LESSON 8.2 torch.nn.Linear实现单层回归网络的正向传播.vip
15.LESSON 8.3 二分类神经网络的原理与实现.vip
16.LESSON 8.4 torch.nn.functional实现单层二分类网络的正向传播.vip
17.LESSON 8.5 多分类神经网络.vip
18.LESSON 9.1 从异或门问题认识多层神经网络.vip
19.LESSON 9.2 黑箱:深度神经网络的不可解释性.vip
2.LESSON 0.2 PyTorch安装与部署(CPU版本).vip
20.LESSON 9.3 & 9.4 层与激活函数.vip
21.LESSON 9.5 从0实现深度神经网络的正向传播.vip
22.LESSON 10.1 SSE与二分类交叉熵损失.vip
23.LESSON 10.2 二分类交叉熵的原理与实现.vip
24.LEESON 10.3 多分类交叉熵的原理与实现.vip
25.LEESON 11.1 梯度下降中的两个关键问题.vip
26.LESSON 11.2(1) 反向传播的原理.vip
27.LESSON 11.2(2) 反向传播的实现.vip
28.LESSON 11.3 走出第一步:动量法Momentum.vip
29.LESSON 11.4 开始迭代:batch与epochs.vip
3.LESSON 0.3 PyTorch安装与配置(GPU版本).vip
30.LESSON 11.5 在Fashion-MNIST数据集上实现完整的神经网络(上).vip
31.LESSON 11.5 在Fashion-MNIST数据集上实现完整的神经网络(下).vip
32.LESSON 12.0 深度学习基础网络手动搭建与快速实现.vip
33.LESSON 12.1 深度学习建模实验中数据集生成函数的创建与使用.vip
34.LESSON 12.2 可视化工具TensorBoard的安装与使用.vip
35.LESSON 12.3 线性回归建模实验.vip
36.LESSON 12.4 逻辑回归建模实验.vip
37.LESSON 12.5 softmax回归建模实验.vip
38.LESSON 13.1 深度学习建模目标与性能评估理论.vip
39.LESSON 13.2 模型拟合度概念介绍与欠拟合模型的结构调整策略.vip
4.LESSON 1 张量的创建与常用方法.vip
40.LESSON 13 【加餐】损失函数的随机创建现象详解.vip
41.LESSON 13.3 梯度不平稳性与Glorot条件(1).vip
42.LESSON 13.3 梯度不平稳性与Glorot条件(2).vip
43.LESSON 13.3 梯度不平稳性与Glorot条件(3).vip
44.LESSON 13.4 Dead ReLU Problem与学习率优化.vip
45.LESSON 13.5 Xavier方法与kaiming方法(HE初始化).vip
46.LESSON 14.1 数据归一化与Batch Normalization基础理论.vip
47.LESSON 14.2 Batch Normalization在PyTorch中的实现.vip
48.LESSON 14.3 Batch Normalization综合调参实战.vip
49.LESSON 15.1 学习率调度基本概念与手动实现方法.vip
5.LESSON 2 张量的索引、分片、合并及维度调整.vip
50.LESSON 15.2 学习率调度在PyTorch中的实现方法.vip
51.LESSON 16.1 环境配置,深度视觉行业综述.vip
52.LESSON 16.2 图像的基本操作.vip
53.LESSON 16.3 卷积操作.vip
54.LESSON 16.4 卷积遇见深度学习.vip
55.LESSON 16.5 在Pytorch中实现卷积网络(上):卷积核、输入通道与特征图.vip
56.LESSON 16.5 在PyTorch中实现卷积网络(中):步长与填充.vip
57.LESSON 16.5 在PyTorch中实现卷积网络(下):池化层,BN与Dropout.vip
58.LESSON 16.6 复现经典架构:LeNet5.vip
59.LESSON 16.6 复现经典架构 (2):AlexNet.vip
6.LESSON 3 张量的广播和科学运算.vip
60.LESSON 16.7 如何拓展网络深度:VGG架构.vip
61.LESSON 16.8 感受野(上):定义与性质.vip
62.LESSON 16.8 感受野(下):膨胀卷积,计算感受野大小.vip
63.LESSON 16.9 平移不变性.vip
64.LESSON 16.10 卷积层的参数量计算,1x1卷积核.vip
65.LESSON 16.11 分组卷积与深度可分离卷积.vip
66.LESSON 16.12 全连接层的参数,用nn.Sequential复现VGG16.vip
67.LESSON 16.13 全局平均池化,NiN网络的复现.vip
68.LESSON 16.14 GoogLeNet:思想与具体架构.vip
69.LESSON 16.15 GoogLeNet的复现.vip
7.LESSON 4 张量的线性代数运算.vip
70.LESSON 16.16 残差网络:思想与具体架构.vip
71.LESSON 16.17 ResNet的复现 (1) :架构中的陷阱.vip
72.LESSON 16.17 ResNet的复现 (2) :卷积块、残差块、瓶颈架构.vip
73.LESSON 16.17 ResNet的复现 (3):完整的残差网络.vip
74.LESSON 17.1 计算机视觉中的三种基本任务.vip
75.LESSON 17.2 经典数据集(1):入门数据集,新手读数据踩坑指南.vip
76.LESSON 17.2 经典数据集(2):竞赛数据与其他常用数据.vip
77.LESSON 17.3(上)使用自己的图像创造数据集.vip
78.LESSON 17.3 (下)将二维表及其他结构转化为四维tensor.vip
79.LESSON 17.4 图像数据的数据预处理.vip
8.LESSON 5 基本优化方法与最小二乘法.vip
80.LESSON 17.5 数据增强.vip
81.LESSON 17.6 更强大的优化算法 (1) AdaGrad.vip
82.LESSON 17.6 更强大的优化算法(2) RMSprop与Adam.vip
83.LESSON 17.7 调用经典架构.vip
84.LESSON 17.8 (1) 基于ResNet与VGG16自建架构.vip
85.LESSON 17.8 (2) 基于普通卷积层和池化层自建架构.vip
86.LESSON 17.9 有监督算法的预训练.迁移学习.vip
87.LESSON 17.10 深度学习中的模型选择.vip
88.LESSON 17.11(1) 案例1:项目背景.完整流程概述.vip
89.LESSON 17.11(2) 案例1:数据与架构.vip
9.LESSON 6 动态计算图与梯度下降入门.vip
90.LESSON 17.11(3) 案例1:提前停止.vip
91.LESSON 17.11(4) 案例1:一个完整的训练函数.vip
92.LESSON 17.11(5) 准备训练函数所需的全部参数.vip
93.LESSON 17.11(6) GPU内存管理机制、训练函数的GPU版本.vip
94.LESSON 17.11(7) 初步训练:模型选择.vip
95.LESSON 17.11(8) 模型调优(1):增加迭代次数,让迭代更稳定.vip
96.LESSON 17.11(9) 模型调优(2):对抗过拟合,其他可探索的方向.vip
97.LESSON 18.1 案例背景与benchmark建立.vip
98.LESSON 18.2.1 使用OpenCV批量分片高像素图像(上).vip
99.LESSON 18.2.2 使用OpenCV批量分片高像素图像(下).vip
Copyright © All rights reserved.
信息加载中,请等待...