NVIDIA Jetson Orin#

前提条件#

在开始之前,请确保以下各项

  • NVIDIA Jetson AGX Orin 开发套件 已安装 JetPack 6.1 或更高版本。

  • 已安装 CUDA ToolkitcuDNN

  • 确认 Jetson AGX Orin 处于 高性能模式 (high-performance mode)

sudo nvpmodel -m 0

使用 Jetson Containers 安装和运行 SGLang#

克隆 jetson-containers GitHub 仓库

git clone https://github.com/dusty-nv/jetson-containers.git

运行安装脚本

bash jetson-containers/install.sh

构建容器镜像

jetson-containers build sglang

运行容器

jetson-containers run $(autotag sglang)

或者您也可以使用此命令手动运行容器

docker run --runtime nvidia -it --rm --network=host IMAGE_NAME

运行推理#

启动服务器

python -m sglang.launch_server \
  --model-path deepseek-ai/DeepSeek-R1-Distill-Llama-8B \
  --device cuda \
  --dtype half \
  --attention-backend flashinfer \
  --mem-fraction-static 0.8 \
  --context-length 8192

采用量化和受限的上下文长度 (--dtype half --context-length 8192) 是由于 Nvidia Jetson 套件 的计算资源有限。详细说明请参阅 服务器参数

启动引擎后,请参考 Chat completions 测试可用性。


使用 TorchAO 运行量化#

推荐在 NVIDIA Jetson Orin 上使用 TorchAO。

python -m sglang.launch_server \
    --model-path meta-llama/Meta-Llama-3.1-8B-Instruct \
    --device cuda \
    --dtype bfloat16 \
    --attention-backend flashinfer \
    --mem-fraction-static 0.8 \
    --context-length 8192 \
    --torchao-config int4wo-128

这会启用 TorchAO 的 int4 weight-only 量化(组大小为 128)。使用 --torchao-config int4wo-128 也是为了提高内存效率。


使用 XGrammar 获得结构化输出#

请参考 SGLang 结构化输出文档


感谢 Nurgaliyev ShakhizatDustin FranklinJohnny Núñez Cano 的支持。

参考资料#