Skip to content

PyTorch Recipes

译者:片刻小哥哥

项目地址:https://pytorch.apachecn.org/2.0/tutorials/recipes/recipes_index

原始地址:https://pytorch.org/tutorials/recipes/recipes_index.html

Recipes 是关于如何使用特定 PyTorch 功能的简短、可操作的示例,与我们的完整教程不同。

Basics

在 PyTorch 中加载数据

了解如何使用 PyTorch 包为您的模型准备和加载通用数据集

定义神经网络

了解如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络

PyTorch 中的 state_dict 是什么

了解如何使用 state_dict 对象和 Python 字典从 PyTorch 保存或加载模型

在 PyTorch 中保存和加载模型以进行推理

了解在 PyTorch 中保存和加载模型进行推理的两种方法 - 通过 state_dict 和通过整个模型

在 PyTorch 中保存和加载常规检查点

保存和加载用于推理或恢复训练的通用检查点模型有助于从上次停下的地方继续。在本节中,探索如何保存和加载多个检查点

使用 PyTorch 在一个文件中保存和加载多个模型

在本节中,了解保存和加载多个模型如何有助于重用您之前训练过的模型

使用 PyTorch 中不同模型的参数热启动模型

了解通过部分加载模型或加载部分模型来热启动训练过程如何帮助您的模型比从头开始训练更快地收敛

在 PyTorch 中跨设备保存和加载模型

了解如何使用 PyTorch 相对简单地跨设备(CPU 和 GPU)保存和加载模型

在 PyTorch 中将梯度归零

了解何时应该将梯度归零以及这样做如何有助于提高模型的准确性

PyTorch 基准测试

了解如何使用 PyTorch 的基准测试模块来测量和比较代码的性能

PyTorch 基准测试(快速入门)

了解如何测量代码片段运行时间并收集指令

PyTorch Profiler

了解如何使用 PyTorch 的分析器来测量操作员的时间和内存消耗

PyTorch Profiler 具有仪器和跟踪技术 API (ITT API) 支持

了解如何将 PyTorch 的分析器与仪器和跟踪技术 API (ITT API) 结合使用,以可视化英特尔® VTune™ Profiler GUI 中的操作员标签

Torch 编译 IPEX 后端

了解如何使用 torch.compile IPEX 后端

在 PyTorch 中推理形状

了解如何使用元设备来推理模型中的形状

从检查点加载 nn.Module 的提示

了解从检查点加载 nn.Module 的技巧

Captum

使用 Captum 进行模型解释

了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果

Distributed Training

使用 ZeroRedundancyOptimizer 的分片优化器状态

如何使用 ZeroRedundancyOptimizer 来减少内存消耗

使用 TensorPipe RPC 进行直接设备间通信

如何使用 RPC 进行 GPU 到 GPU 的直接通信

Interpretability

使用 Captum 进行模型解释

了解如何使用 Captum 将图像分类器的预测归因于其相应的图像特征,并可视化归因结果

Mobile

PyTorch Mobile 性能秘诀

在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化方法列表

制作使用 PyTorch Android 预构建库的 Android 本机应用程序

了解如何从头开始制作使用 LibTorch C++ API 并使用 TorchScript 模型和自定义 C++ 运算符的 Android 应用程序

Fuse Modules Recipe

了解如何将 PyTorch 模块列表融合为单个模块,以在量化之前减小模型大小

Mobile Recipes 的量化

了解如何减小模型大小并使其运行速度更快,同时又不会损失太多准确性

针对移动设备编写脚本并进行优化

了解如何将模型转换为 TorchScipt 并(可选)针对移动应用程序对其进行优化

iOS Recipes 的模型准备

了解如何在 iOS 项目中添加模型并使用适用于 iOS 的 PyTorch pod

Android Recipes 的模型准备

了解如何在 Android 项目中添加模型并使用适用于 Android 的 PyTorch 库

Android 和 iOS 中的 Mobile Interpreter 工作流程

了解如何在 iOS 和 Andriod 设备上使用 Mobile Interpreter

Model Optimization

动态量化

将动态量化应用于简单的 LSTM 模型

PyTorch Mobile 性能秘诀

在移动设备(Android 和 iOS)上使用 PyTorch 的性能优化方法列表

自动混合精度

使用 torch.cuda.amp 缩短运行时间并节省 NVIDIA GPU 上的内存

性能调优指南

实现最佳性能的技巧

利用英特尔® 高级矩阵扩展

了解如何利用英特尔® 高级矩阵扩展

适用于 PyTorch* 的英特尔® 扩展

推出适用于 PyTorch* 的英特尔® 扩展

适用于 PyTorch 的英特尔® 神经压缩器

使用英特尔® 神经压缩器对 PyTorch 进行易于使用的量化

Production

使用 Flask 进行部署

了解如何使用 Flask(一种轻量级 Web 服务器)从经过训练的 PyTorch 模型快速设置 Web API

分析基于 PyTorch RPC 的工作负载

如何使用 PyTorch 分析器分析基于 RPC 的工作负载

Quantization

动态量化

将动态量化应用于简单的 LSTM 模型

Mobile Recipes 的量化

了解如何减小模型大小并使其运行速度更快,同时又不会损失太多准确性

适用于 PyTorch 的英特尔® 神经压缩器

使用英特尔® 神经压缩器对 PyTorch 进行易于使用的量化

TensorBoard

如何将 TensorBoard 与 PyTorch 结合使用

了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据

Text

动态量化

将动态量化应用于简单的 LSTM 模型

TorchScript

用于部署的 TorchScript

了解如何以 TorchScript 格式导出经过训练的模型以及如何以 C++ 加载 TorchScript 模型并进行推理

使用 Flask 进行部署

了解如何使用 Flask(一种轻量级 Web 服务器)从经过训练的 PyTorch 模型快速设置 Web API

Visualization

如何将 TensorBoard 与 PyTorch 结合使用

了解 TensorBoard 与 PyTorch 的基本用法,以及如何在 TensorBoard UI 中可视化数据


我们一直在努力

apachecn/AiLearning

【布客】中文翻译组