logo

TVM 文档

  • TVM 文档
  • 快速上手
    • 安装 TVM
      • 从源码安装
        • NNPACK Contrib Installation
      • Docker 镜像
      • NNPACK Contrib Installation
    • 贡献者指南
      • TVM 社区指南
      • 提交 Pull Request
      • Code Reviews
      • Committer Guide
      • Documentation
      • Code Guide and Tips
      • Git Usage Tips
      • Using TVM’s CI
      • Release Process
      • Error Handling Guide
  • 用户手册
    • 用户指南
      • TVM 和模型优化的概述
      • 用 TVMC 编译和优化模型
      • 开始使用 TVMC Python:TVM 的高级 API
      • 用 Python 接口编译和优化模型(AutoTVM)
      • 使用张量表达式处理算子
      • 用调度模板和 AutoTVM 优化算子
      • 使用自动调度优化运算
      • TensorIR 的突击课程
      • 交叉编译和RPC
      • 编译深度学习模型的快速入门教程
      • TOPI 简介
      • 通过 UMA 使您的硬件加速器 TVM-ready
    • How To 指南
      • 编译深度学习模型
        • 编译 PyTorch 模型
        • Compile Tensorflow Models
        • 编译 MXNet 模型
        • Compile ONNX Models
        • Compile Keras Models
        • Compile TFLite Models
        • Compile CoreML Models
        • Compile YOLO-V2 and YOLO-V3 in DarkNet Models
        • Compile Caffe2 Models
        • Compile OneFlow Models
        • Compile PaddlePaddle Models
      • 部署模型并集成到 TVM
        • 使用 C++ API 部署 TVM Module
        • Deploy to Android
        • 集成 TVM 到你的项目
        • HLS Backend Example
        • 集成 Relay Arm ® 计算库
        • Relay TensorRT Integration
        • Vitis AI Integration
        • Relay BNNS Integration
      • 部署深度学习模型
        • Deploy the Pretrained Model on Android
        • Deploy the Pretrained Model on Raspberry Pi
        • 编译 PyTorch 目标检测模型
        • 使用 TVM 部署框架预量化模型
        • Deploy a Framework-prequantized Model with TVM - Part 3 (TFLite)
        • 在 CUDA 上部署已量化模型
        • Deploy a Hugging Face Pruned Model on CPU
        • 部署 Single Shot Multibox Detector(SSD) 模型
        • Deploy the Pretrained Model on Jetson Nano
      • 使用 Relay
        • 构建图卷积网络
        • 在 Relay 中使用外部库
        • 在 Relay 中使用管道执行器
        • 使用 Relay Visualizer 可视化 Relay
      • 使用 Tensor Expression 和 Schedules
        • TVM 中的调度原语
        • Reduction
        • Intrinsics and Math Functions
        • Scan and Recurrent Kernel
        • 外部张量函数
        • Use Tensorize to Leverage Hardware Intrinsics
        • Compute and Reduce with Tuple Inputs
        • 使用 TEDD 进行可视化
      • 优化张量算子
        • How to optimize GEMM on CPU
        • How to optimize convolution on GPU
        • How to optimize convolution using TensorCores
      • Auto-Tune with Templates and AutoTVM
        • Tuning High Performance Convolution on NVIDIA GPUs
        • Auto-tuning a Convolutional Network for NVIDIA GPU
        • Auto-tuning a Convolutional Network for x86 CPU
        • Auto-tuning a Convolutional Network for ARM CPU
        • Auto-tuning a Convolutional Network for Mobile GPU
      • 使用自动调度器进行无模板调度
        • Auto-scheduling a Convolution Layer for GPU
        • Auto-scheduling a Neural Network for x86 CPU
        • Auto-scheduling a Neural Network for NVIDIA GPU
        • Auto-scheduling a Neural Network for ARM CPU
        • Auto-scheduling a Neural Network for mali GPU
        • Auto-scheduling Sparse Matrix Multiplication on CPU with Custom Sketch Rule
      • 使用 microTVM
        • microTVM Host-Driven AoT
        • 使用 microTVM Autotuning
        • 在 bare metal Arm® Cortex®-M55 CPU 和 Ethos™-U55 NPU 上运行 TVM
        • microTVM 参考虚拟机
        • microTVM with TFLite Models
        • Training Vision Models for microTVM on Arduino
        • Executing a Tiny Model with TVMC Micro
      • 拓展 TVM
        • 编写定制 Pass
        • 如何使用 TVM Pass Infra
        • 如何使用 TVM Pass Instrument
        • 自定义 TVM 数据类型
      • 模型剖析
        • PAPI 快速上手
      • 处理 TVM 的错误
      • 常见问题
  • 开发手册
    • 开发者教程
      • TVM 代码库的实例演练
    • 开发者指南
      • Debugging TVM
      • 添加算子到 Relay
      • Adding a Compiler Pass to Relay
      • 带你自己的 Codegen 到 TVM
      • Python 目标参数化
  • 设计与架构
    • TVM 运行时系统
    • 调试器
    • 将 VM 放入 TVM:Relay Virtual Machine
    • 模块序列化简介
    • Pass Infrastructure
    • Device/Target Interactions
    • InferBound Pass
    • Hybrid 前端开发指南
    • Relay IR 简介
    • Relay 算子策略
    • Convert Layout Pass
    • 基准性能日志格式
    • TensorFlow Frontend
    • 安全指南
    • microTVM Design Document
    • microTVM Project API
    • Model 库格式
  • 主题指南
    • microTVM:裸机上的 TVM
    • VTA:通用张量加速器
      • VTA 安装指南
      • VTA 设计和开发指南
        • VTA 配置
        • VTA 硬件指南
      • VTA 教程
        • 简单的矩阵乘法
        • 编译深度学习模型
        • 优化 Tensor 算子
        • 自动调优
  • 参考指南
    • 语言参考
      • Relay 表达式
      • Relay 类型系统
      • Algebraic Data Types in Relay
      • Relay 核心张量算子
      • Relay 中的模式匹配
      • Hybrid 前端语言参考
    • Python API
      • tvm.runtime
      • tvm.runtime.ndarray
      • tvm.error
      • tvm.ir.module
      • tvm.ir
      • tvm.target
      • tvm.tir
      • tvm.te
      • tvm.driver
      • tvm.relay
      • tvm.relay.frontend
      • tvm.relay.nn
      • tvm.relay.vision
      • tvm.relay.image
      • tvm.relay.transform
      • tvm.relay.analysis
      • tvm.relay.backend
      • tvm.relay.dataflow_pattern
      • tvm.relay.testing
      • tvm.autotvm
      • tvm.auto_scheduler
      • tvm.rpc
      • tvm.micro
      • tvm.contrib
      • tvm.contrib.graph_executor
      • tvm.topi
      • vta
    • 其他 API
    • 出版物
  • 参考
    • _ffi
      • _ffi.base
      • _ffi.libinfo
      • _ffi._ctypes.object
      • _ffi.registry
      • _ffi.runtime_ctypes
Theme by the Executable Book Project
  • .rst

开发手册

开发手册#

  • 开发者教程
  • 开发者指南

上一页

常见问题

下一页

开发者教程

By xinetzone
© Copyright 2022, xinetzone.
Last updated on 2022-11-17, 06:26:12.