Skip to content

Latest commit

 

History

History
71 lines (51 loc) · 3.4 KB

File metadata and controls

71 lines (51 loc) · 3.4 KB
layout title description
default
Mini Inference Engine — 文档入口
CUDA GEMM 渐进式优化学习项目的文档首页:项目定位、阅读路径与核心页面导航

Mini Inference Engine

GitHub Pages CI License: MIT CUDA C++

Mini Inference Engine 面向“从基础 GEMM kernel 学到工程化 CUDA 推理组件”的学习场景,围绕 7 级 GEMM 优化、轻量级推理引擎、性能分析与配套文档组织内容。

项目定位

这是一个把渐进式 CUDA GEMM 优化、推理运行时组件与性能实验串起来的学习型仓库。README 现在只承担仓库入口,这个页面负责提供文档导读、阅读顺序和关键页面导航。

适合谁

  • 想按阶段学习 GEMM 优化从 Naive 到 Tensor Core 演进路线的开发者
  • 想快速定位架构、性能调优与 API 文档的工程师
  • 需要从基准测试、推理 Demo 和文档中继续维护项目的贡献者

从哪里开始

  1. 先看 README,完成最小构建与基准运行。
  2. 再看 快速开始架构设计,理解运行方式和模块边界。
  3. 想深入实现时,继续阅读 GEMM 优化详解性能调优API 参考

推荐阅读路径

我只想先编译并跑基准

我想先理解系统怎么组织

我准备继续开发或调优

核心文档

类别 页面 说明
概览 README 仓库定位、最小构建命令与文档链接
快速开始 快速开始 环境准备、构建步骤与首个运行流程
架构设计 架构设计 系统分层、核心组件与数据流
使用指南 GEMM 优化详解 7 级优化技术路线与实现思路
参考 API 参考 公共接口与核心数据结构
开发指南 CONTRIBUTING.md / docs/CONTRIBUTING.md 协作流程、代码规范与详细贡献说明
归档 CHANGELOG / changelog/ 版本记录与 Pages / 工作流调整记录

相关入口

  • GitHub 仓库:https://github.com/LessUp/mini-inference-engine
  • 在线文档:https://lessup.github.io/mini-inference-engine/
  • CI 状态:https://github.com/LessUp/mini-inference-engine/actions