-
-
-
-
100丨WikiSQL任务简介.mp4
-
101丨ASDL和AST.mp4
-
102丨Tranx简介.mp4
-
103丨LambdaCaculus概述.mp4
-
104丨Lambda-DCS概述.mp4
-
105丨InductiveLogicProgramming:基本设定.mp4
-
106丨InductiveLogicProgramming:一个可微的实现.mp4
-
107丨增强学习的基本设定:增强学习与传统的预测性建模有什么区别?.mp4
-
108丨最短路问题和DijkstraAlgorithm.mp4
-
109丨Q-learning:如何进行Q-learning算法的推导?.mp4
-
110丨Rainbow:如何改进Q-learning算法?.mp4
-
111丨PolicyGradient:如何进行PolicyGradient的基本推导?.mp4
-
112丨A2C和A3C:如何提升基本的PolicyGradient算法.mp4
-
113丨Gumbel-trick:如何将离散的优化改变为连续的优化问题?.mp4
-
114丨MCTS简介:如何将“推理”引入到强化学习框架中.mp4
-
115丨DirectPolictyGradient:基本设定及Gumbel-trick的使用116丨DirectPolictyGradient:轨迹生成方法.mp4
-
117丨AutoML及NeuralArchitectureSearch简介.mp4
-
118丨AutoML网络架构举例.mp4
-
119丨RENAS:如何使用遗传算法和增强学习探索网络架构.mp4
-
120丨DifferentiableSearch:如何将NAS变为可微的问题.mp4
-
121丨层次搜索法:如何在模块之间进行搜索?.mp4
-
122丨LeNAS:如何搜索搜索space.mp4
-
123丨超参数搜索:如何寻找算法的超参数.mp4
-
124丨Learning to optimize:是否可以让机器学到一个新的优化器.mp4
-
125丨遗传算法和增强学习的结合.mp4
-
126丨使用增强学习改进组合优化的算法.mp4
-
127丨多代理增强学习概述:什么是多代理增强学习?.mp4
-
128丨AlphaStar介绍:AlphaStar中采取了哪些技术?.mp4
-
129丨IMPALA:多Agent的Actor-Critic算法.mp4
-
130丨COMAAgent之间的交流.mp4
-
131丨多模态表示学习简介.mp4
-
132丨知识蒸馏:如何加速神经网络推理.mp4
-
133丨DeepGBM:如何用神经网络捕捉集成树模型的知识.mp4
-
134丨文本推荐系统和增强学习.mp4
-
135丨RL训练方法集锦:简介.mp4
-
136丨RL训练方法RL实验的注意事项.mp4
-
137丨PPO算法.mp4
-
138丨Reward设计的一般原则.mp4
-
139丨解决SparseReward的一些方法.mp4
-
140丨ImitationLearning和Self-imitationLearning.mp4
-
141丨增强学习中的探索问题.mp4
-
142丨Model-basedReinforcementLearning.mp4
-
143丨TransferReinforcementLearning和Few-shotReinforcementLearning.mp4
-
144丨Quora问题等价性案例学习:预处理和人工特征.mp4
-
145丨Quora问题等价性案例学习:深度学习模型.mp4
-
146丨文本校对案例学习.mp4
-
147丨微服务和Kubernetes简介.mp4
-
148丨Docker简介.mp4
-
149丨Docker部署实践.mp4
-
150丨Kubernetes基本概念.mp4
-
151丨Kubernetes部署实践.mp4
-
152丨Kubernetes自动扩容.mp4
-
153丨Kubernetes服务发现.mp4
-
154丨Kubernetes Ingress.mp4
-
155丨Kubernetes健康检查.mp4
-
156丨Kubernetes灰度上线.mp4
-
157丨Kubernetes Stateful Sets.mp4
-
158丨Istio简介:Istio包含哪些功能?.mp4
-
159丨Istio实例和Circuit Breaker.mp4
-
160丨结束语.mp4
-