PyTorch Recipes
译者:片刻小哥哥
项目地址:https://pytorch.apachecn.org/2.0/tutorials/recipes/recipes_index
原始地址:https://pytorch.org/tutorials/recipes/recipes_index.html
Recipes 是关于如何使用特定 PyTorch 功能的简短、可操作的示例,与我们的完整教程不同。
Basics
在 PyTorch 中加载数据
了解如何使用 PyTorch 包为您的模型准备和加载通用数据集
定义神经网络
了解如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络
PyTorch 中的 state_dict 是什么
了解如何使用 state_dict 对象和 Python 字典从 PyTorch 保存或加载模型
在 PyTorch 中保存和加载模型以进行推理
了解在 PyTorch 中保存和加载模型进行推理的两种方法 - 通过 state_dict 和通过整个模型
在 PyTorch 中保存和加载常规检查点
保存和加载用于推理或恢复训练的通用检查点模型有助于从上次停下的地方继续。在本节中,探索如何保存和加载多个检查点
使用 PyTorch 在一个文件中保存和加载多个模型
在本节中,了解保存和加载多个模型如何有助于重用您之前训练过的模型
使用 PyTorch 中不同模型的参数热启动模型
了解通过部分加载模型或加载部分模型来热启动训练过程如何帮助您的模型比从头开始训练更快地收敛
在 PyTorch 中跨设备保存和加载模型
了解如何使用 PyTorch 相对简单地跨设备(CPU 和 GPU)保存和加载模型
在 PyTorch 中将梯度归零
PyTorch 基准测试
了解如何使用 PyTorch 的基准测试模块来测量和比较代码的性能
PyTorch 基准测试(快速入门)
PyTorch Profiler
了解如何使用 PyTorch 的分析器来测量操作员的时间和内存消耗
PyTorch Profiler 具有仪器和跟踪技术 API (ITT API) 支持
了解如何将 PyTorch 的分析器与仪器和跟踪技术 API (ITT API) 结合使用,以可视化英特尔® VTune™ Profiler GUI 中的操作员标签
Torch 编译 IPEX 后端
在 PyTorch 中推理形状
从检查点加载 nn.Module 的提示
Captum
使用 Captum 进行模型解释
了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果
Distributed Training
使用 ZeroRedundancyOptimizer 的分片优化器状态
如何使用 ZeroRedundancyOptimizer 来减少内存消耗
使用 TensorPipe RPC 进行直接设备间通信
Interpretability
使用 Captum 进行模型解释
了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果
Mobile
PyTorch Mobile 性能秘诀
在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化方法列表
制作使用 PyTorch Android 预构建库的 Android 本机应用程序
了解如何从头开始制作使用 LibTorch C++ API 并使用 TorchScript 模型和自定义 C++ 运算符的 Android 应用程序
Fuse Modules Recipe
了解如何将 PyTorch 模块列表融合为单个模块,以在量化之前减小模型大小
Mobile Recipes 的量化
了解如何减小模型大小并使其运行速度更快,同时又不会损失太多准确性
针对移动设备编写脚本并进行优化
了解如何将模型转换为 TorchScipt 并(可选)针对移动应用程序对其进行优化
iOS Recipes 的模型准备
了解如何在 iOS 项目中添加模型并使用适用于 iOS 的 PyTorch pod
Android Recipes 的模型准备
了解如何在 Android 项目中添加模型并使用适用于 Android 的 PyTorch 库
Android 和 iOS 中的 Mobile Interpreter 工作流程
了解如何在 iOS 和 Andriod 设备上使用 Mobile Interpreter
Model Optimization
动态量化
PyTorch Mobile 性能秘诀
在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化方法列表
自动混合精度
使用 torch.cuda.amp 缩短运行时间并节省 NVIDIA GPU 上的内存
性能调优指南
利用英特尔® 高级矩阵扩展
适用于 PyTorch* 的英特尔® 扩展
适用于 PyTorch 的英特尔® 神经压缩器
使用英特尔® 神经压缩器对 PyTorch 进行易于使用的量化
Production
使用 Flask 进行部署
了解如何使用 Flask(一种轻量级 Web 服务器)从经过训练的 PyTorch 模型快速设置 Web API
分析基于 PyTorch RPC 的工作负载
如何使用 PyTorch 分析器分析基于 RPC 的工作负载
Quantization
动态量化
Mobile Recipes 的量化
了解如何减小模型大小并使其运行速度更快,同时又不会损失太多准确性
适用于 PyTorch 的英特尔® 神经压缩器
使用英特尔® 神经压缩器对 PyTorch 进行易于使用的量化
TensorBoard
如何将 TensorBoard 与 PyTorch 结合使用
了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据
Text
动态量化
TorchScript
用于部署的 TorchScript
了解如何以 TorchScript 格式导出经过训练的模型以及如何以 C++ 加载 TorchScript 模型并进行推理
使用 Flask 进行部署
了解如何使用 Flask(一种轻量级 Web 服务器)从经过训练的 PyTorch 模型快速设置 Web API
Visualization
如何将 TensorBoard 与 PyTorch 结合使用
了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据