NVIDIA Jetson Orin#
前提条件#
在开始之前,请确保以下各项
NVIDIA Jetson AGX Orin 开发套件 已安装 JetPack 6.1 或更高版本。
已安装 CUDA Toolkit 和 cuDNN。
确认 Jetson AGX Orin 处于 高性能模式 (high-performance mode)
sudo nvpmodel -m 0
使用 Jetson Containers 安装和运行 SGLang#
克隆 jetson-containers GitHub 仓库
git clone https://github.com/dusty-nv/jetson-containers.git
运行安装脚本
bash jetson-containers/install.sh
构建容器镜像
jetson-containers build sglang
运行容器
jetson-containers run $(autotag sglang)
或者您也可以使用此命令手动运行容器
docker run --runtime nvidia -it --rm --network=host IMAGE_NAME
运行推理#
启动服务器
python -m sglang.launch_server \
--model-path deepseek-ai/DeepSeek-R1-Distill-Llama-8B \
--device cuda \
--dtype half \
--attention-backend flashinfer \
--mem-fraction-static 0.8 \
--context-length 8192
采用量化和受限的上下文长度 (--dtype half --context-length 8192) 是由于 Nvidia Jetson 套件 的计算资源有限。详细说明请参阅 服务器参数。
启动引擎后,请参考 Chat completions 测试可用性。
使用 TorchAO 运行量化#
推荐在 NVIDIA Jetson Orin 上使用 TorchAO。
python -m sglang.launch_server \
--model-path meta-llama/Meta-Llama-3.1-8B-Instruct \
--device cuda \
--dtype bfloat16 \
--attention-backend flashinfer \
--mem-fraction-static 0.8 \
--context-length 8192 \
--torchao-config int4wo-128
这会启用 TorchAO 的 int4 weight-only 量化(组大小为 128)。使用 --torchao-config int4wo-128 也是为了提高内存效率。
使用 XGrammar 获得结构化输出#
请参考 SGLang 结构化输出文档。
感谢 Nurgaliyev Shakhizat、Dustin Franklin 和 Johnny Núñez Cano 的支持。