Toggle navigation sidebar
Toggle in-page Table of Contents
TVM 文档
TVM 文档
快速上手
安装 TVM
从源码安装
NNPACK Contrib Installation
Docker 镜像
NNPACK Contrib Installation
贡献者指南
TVM 社区指南
提交 Pull Request
Code Reviews
Committer Guide
Documentation
Code Guide and Tips
Git Usage Tips
Using TVM’s CI
Release Process
Error Handling Guide
用户手册
用户指南
TVM 和模型优化的概述
用 TVMC 编译和优化模型
开始使用 TVMC Python:TVM 的高级 API
用 Python 接口编译和优化模型(AutoTVM)
使用张量表达式处理算子
用调度模板和 AutoTVM 优化算子
使用自动调度优化运算
TensorIR 的突击课程
交叉编译和RPC
编译深度学习模型的快速入门教程
TOPI 简介
通过 UMA 使您的硬件加速器 TVM-ready
How To 指南
编译深度学习模型
编译 PyTorch 模型
Compile Tensorflow Models
编译 MXNet 模型
Compile ONNX Models
Compile Keras Models
Compile TFLite Models
Compile CoreML Models
Compile YOLO-V2 and YOLO-V3 in DarkNet Models
Compile Caffe2 Models
Compile OneFlow Models
Compile PaddlePaddle Models
部署模型并集成到 TVM
使用 C++ API 部署 TVM Module
Deploy to Android
集成 TVM 到你的项目
HLS Backend Example
集成 Relay Arm
®
计算库
Relay TensorRT Integration
Vitis AI Integration
Relay BNNS Integration
部署深度学习模型
Deploy the Pretrained Model on Android
Deploy the Pretrained Model on Raspberry Pi
编译 PyTorch 目标检测模型
使用 TVM 部署框架预量化模型
Deploy a Framework-prequantized Model with TVM - Part 3 (TFLite)
在 CUDA 上部署已量化模型
Deploy a Hugging Face Pruned Model on CPU
部署 Single Shot Multibox Detector(SSD) 模型
Deploy the Pretrained Model on Jetson Nano
使用 Relay
构建图卷积网络
在 Relay 中使用外部库
在 Relay 中使用管道执行器
使用 Relay Visualizer 可视化 Relay
使用 Tensor Expression 和 Schedules
TVM 中的调度原语
Reduction
Intrinsics and Math Functions
Scan and Recurrent Kernel
外部张量函数
Use Tensorize to Leverage Hardware Intrinsics
Compute and Reduce with Tuple Inputs
使用 TEDD 进行可视化
优化张量算子
How to optimize GEMM on CPU
How to optimize convolution on GPU
How to optimize convolution using TensorCores
Auto-Tune with Templates and AutoTVM
Tuning High Performance Convolution on NVIDIA GPUs
Auto-tuning a Convolutional Network for NVIDIA GPU
Auto-tuning a Convolutional Network for x86 CPU
Auto-tuning a Convolutional Network for ARM CPU
Auto-tuning a Convolutional Network for Mobile GPU
使用自动调度器进行无模板调度
Auto-scheduling a Convolution Layer for GPU
Auto-scheduling a Neural Network for x86 CPU
Auto-scheduling a Neural Network for NVIDIA GPU
Auto-scheduling a Neural Network for ARM CPU
Auto-scheduling a Neural Network for mali GPU
Auto-scheduling Sparse Matrix Multiplication on CPU with Custom Sketch Rule
使用 microTVM
microTVM Host-Driven AoT
使用 microTVM Autotuning
在 bare metal Arm® Cortex®-M55 CPU 和 Ethos™-U55 NPU 上运行 TVM
microTVM 参考虚拟机
microTVM with TFLite Models
Training Vision Models for microTVM on Arduino
Executing a Tiny Model with TVMC Micro
拓展 TVM
编写定制 Pass
如何使用 TVM Pass Infra
如何使用 TVM Pass Instrument
自定义 TVM 数据类型
模型剖析
PAPI 快速上手
处理 TVM 的错误
常见问题
开发手册
开发者教程
TVM 代码库的实例演练
开发者指南
Debugging TVM
添加算子到 Relay
Adding a Compiler Pass to Relay
带你自己的 Codegen 到 TVM
Python 目标参数化
设计与架构
TVM 运行时系统
调试器
将 VM 放入 TVM:Relay Virtual Machine
模块序列化简介
Pass Infrastructure
Device/Target Interactions
InferBound Pass
Hybrid 前端开发指南
Relay IR 简介
Relay 算子策略
Convert Layout Pass
基准性能日志格式
TensorFlow Frontend
安全指南
microTVM Design Document
microTVM Project API
Model 库格式
主题指南
microTVM:裸机上的 TVM
VTA:通用张量加速器
VTA 安装指南
VTA 设计和开发指南
VTA 配置
VTA 硬件指南
VTA 教程
简单的矩阵乘法
编译深度学习模型
优化 Tensor 算子
自动调优
参考指南
语言参考
Relay 表达式
Relay 类型系统
Algebraic Data Types in Relay
Relay 核心张量算子
Relay 中的模式匹配
Hybrid 前端语言参考
Python API
tvm.runtime
tvm.runtime.ndarray
tvm.error
tvm.ir.module
tvm.ir
tvm.target
tvm.tir
tvm.te
tvm.driver
tvm.relay
tvm.relay.frontend
tvm.relay.nn
tvm.relay.vision
tvm.relay.image
tvm.relay.transform
tvm.relay.analysis
tvm.relay.backend
tvm.relay.dataflow_pattern
tvm.relay.testing
tvm.autotvm
tvm.auto_scheduler
tvm.rpc
tvm.micro
tvm.contrib
tvm.contrib.graph_executor
tvm.topi
vta
其他 API
出版物
参考
_ffi
_ffi.base
_ffi.libinfo
_ffi._ctypes.object
_ffi.registry
_ffi.runtime_ctypes
.rst
.pdf
模型剖析
模型剖析
#
PAPI 快速上手