-
-
001.1-1 课程内容和理念[防断更微657112023].mp4
-
002.1-2 初识深度学习[防断更微657112023].mp4
-
003.1-3 课程使用的技术栈[防断更微657112023].mp4
-
004.2-1 线性代数[防断更微657112023].mp4
-
005.2-2 微积分[防断更微657112023].mp4
-
006.2-3 概率[防断更微657112023].mp4
-
007.3-1 CUDA+Anaconda深度学习环境搭建[防断更微657112023].mp4
-
008.3-2 conda实用命令[防断更微657112023].mp4
-
009.3-3 Jupyter Notebook快速上手[防断更微657112023].mp4
-
010.3-4 深度学习库PyTorch安装[防断更微657112023].mp4
-
011.4-1 神经网络原理[防断更微657112023].mp4
-
012.4-2 多层感知机[防断更微657112023].mp4
-
013.4-3 前向传播和反向传播[防断更微657112023].mp4
-
014.4-4 多层感知机代码实现[防断更微657112023].mp4
-
015.4-5 回归问题[防断更微657112023].mp4
-
016.4-6 线性回归代码实现[防断更微657112023].mp4
-
017.4-7 分类问题[防断更微657112023].mp4
-
018.4-8 多分类问题代码实现[防断更微657112023].mp4
-
019.5-1 训练的常见问题[防断更微657112023].mp4
-
020.5-2 过拟合欠拟合应对策略[防断更微657112023].mp4
-
021.5-3 过拟合和欠拟合示例[防断更微657112023].mp4
-
022.5-4 正则化[防断更微657112023].mp4
-
023.5-5 Dropout[防断更微657112023].mp4
-
024.5-6 Dropout代码实现[防断更微657112023].mp4
-
025.5-7 梯度消失和梯度爆炸[防断更微657112023].mp4
-
026.5-8 模型文件的读写[防断更微657112023].mp4
-
027.6-1 最优化与深度学习[防断更微657112023].mp4
-
028.6-2 损失函数[防断更微657112023].mp4
-
029.6-3 损失函数性质[防断更微657112023].mp4
-
030.6-4 梯度下降[防断更微657112023].mp4
-
031.6-5 随机梯度下降法[防断更微657112023].mp4
-
032.6-6 小批量梯度下降法[防断更微657112023].mp4
-
033.6-7 动量法[防断更微657112023].mp4
-
034.6-8 AdaGrad算法[防断更微657112023].mp4
-
035.6-9 RMSProp_Adadelta算法[防断更微657112023].mp4
-
036.6-10 Adam算法[防断更微657112023].mp4
-
037.6-11 梯度下降代码实现[防断更微657112023].mp4
-
038.6-12 学习率调节器[防断更微657112023].mp4
-
039.7-1 全连接层问题[防断更微657112023].mp4
-
040.7-2 图像卷积[防断更微657112023].mp4
-
041.7-3 卷积层[防断更微657112023].mp4
-
042.7-4 卷积层常见操作[防断更微657112023].mp4
-
043.7-5 池化层Pooling[防断更微657112023].mp4
-
044.7-6 卷积神经网络代码实现(LeNet)[防断更微657112023].mp4
-
045.8-1 AlexNet[防断更微657112023].mp4
-
046.8-2 VGGNet[防断更微657112023].mp4
-
047.8-3 批量规范化[防断更微657112023].mp4
-
048.8-4 GoogLeNet[防断更微657112023].mp4
-
049.8-5 ResNet[防断更微657112023].mp4
-
050.8-6 DenseNet[防断更微657112023].mp4
-
051.9-1 序列建模[防断更微657112023].mp4
-
052.9-2 文本数据预处理[防断更微657112023].mp4
-
053.9-3 循环神经网络[防断更微657112023].mp4
-
054.9-4 随时间反向传播算法[防断更微657112023].mp4
-
055.9-5 循环神经网络代码实现[防断更微657112023].mp4
-
056.9-6 RNN的长期依赖问题[防断更微657112023].mp4
-
057.10-1 深度循环神经网络[防断更微657112023].mp4
-
058.10-2 双向循环神经网络[防断更微657112023].mp4
-
059.10-3 门控循环单元[防断更微657112023].mp4
-
060.10-4 长短期记忆网络[防断更微657112023].mp4
-
061.10-5 复杂循环神经网络代码实现[防断更微657112023].mp4
-
062.10-6 编码器-解码器网络[防断更微657112023].mp4
-
063.10-7 序列到序列模型代码实现[防断更微657112023].mp4
-
064.10-8 束搜索算法[防断更微657112023].mp4
-
065.10-9 机器翻译简单代码实现[防断更微657112023].mp4
-
066.11-1 什么是注意力机制[防断更微657112023].mp4
-
067.11-2 注意力的计算[防断更微657112023].mp4
-
068.11-3 键值对注意力和多头注意力[防断更微657112023].mp4
-
069.11-4 自注意力机制[防断更微657112023].mp4
-
070.11-5 注意力池化及代码实现[防断更微657112023].mp4
-
071.11-6 Transformer模型[防断更微657112023].mp4
-
072.11-7 Transformer代码实现[防断更微657112023].mp4
-
073.12-1BERT模型[防断更微657112023].mp4
-
074.12-2 GPT系列模型[防断更微657112023].mp4
-
075.12-3 T5模型[防断更微657112023].mp4
-
076.12-4 ViT模型[防断更微657112023].mp4
-
077.12-5 Swin Transformer模型[防断更微657112023].mp4
-
078.12-6 GPT模型代码实现[防断更微657112023].mp4
-
079.13-1 蒙特卡洛方法[防断更微657112023].mp4
-
080.13-2 变分推断[防断更微657112023].mp4
-
081.13-3 变分自编码器[防断更微657112023].mp4
-
082.13-4 生成对抗网络[防断更微657112023].mp4
-
083.13-5 Diffusion扩散模型[防断更微657112023].mp4
-
084.13-6 图像生成[防断更微657112023].mp4
-
085.14-1 自定义数据加载[防断更微657112023].mp4
-
086.14-2 图像数据增强[防断更微657112023].mp4
-
087.14-3 迁移学习[防断更微657112023].mp4
-
088.14-4 经典视觉数据集[防断更微657112023].mp4
-
089.14-5 项目实战:猫狗大战[防断更微657112023].mp4
-
090.15-1 词嵌入和word2vec[防断更微657112023].mp4
-
091.15-2 词义搜索和句意表示[防断更微657112023].mp4
-
092.15-3 预训练模型[防断更微657112023].mp4
-
093.15-4 Hugging Face库介绍[防断更微657112023].mp4
-
094.15-5 经典NLP数据集[防断更微657112023].mp4
-
095.15-6 项目实战:电影评论情感分析[防断更微657112023].mp4
-
096.16-1 InstructGPT模型[防断更微657112023].mp4
-
097.16-2 CLIP模型[防断更微657112023].mp4
-
098.16-3 DALL-E模型[防断更微657112023].mp4
-
099.16-4 深度学习最新发展趋势分析[防断更微657112023].mp4
-
100.16-5 下一步学习的建议[防断更微657112023].mp4
-