本文介绍了如何使用 ONNX 模型加密功能。
边缘智能提供一个 ONNX 模型文件加密工具。该模型加密工具是一个 Python 脚本,它基于 AES 算法对本地的 .onnx
模型文件进行加密。您可以将加密的模型文件上传到边缘智能平台,而将加密密钥保管在边缘节点(无需上传到边缘智能平台)。
准备好您的 ONNX 模型文件(.onnx)。
key.json
:用于保存加密密钥。main.py
:加密的主脚本。README.md
:加密工具的使用说明。README.md
的说明安装所需依赖。key.json
中 model_key
参数的值,设置一个密钥。main.py
。encrypted_<原名称>.onnx
。1
)的文件夹下,并将模型文件重命名为 model.onnx
。要在边缘节点上部署加密的 ONNX 模型文件,您必须先将加密模型文件时使用的密钥(key.json
)存放到边缘节点的指定路径。否则,边缘节点将无法识别您部署的模型文件,导致模型服务无法正常运行。
远程登录您计划部署 ONNX 加密模型的边缘节点。相关操作,请参见远程登录节点。
在 /etc
目录创建一个文件夹(ver_infer
),用来存放密钥文件。
mkdir -p /etc/vei_infer
前往 /etc/vei_infer
目录,然后使用上传文件功能,将 key.json
文件上传到该目录。
登录边缘智能控制台。
在左侧导航栏顶部的 我的项目 区域,选择您的项目。
在左侧导航栏,选择 边缘推理 > 模型管理。
在 自定义模型 页签下,单击 新建模型。
在 创建模型 页面,完成模型参数配置,然后单击 确定。
具体配置项的说明,请参见创建自定义模型。
请注意以下配置项:
onnx-encrypted-model
。完成以上操作后,您可以在 模型服务 列表查看已经部署的模型服务。当模型服务的状态变为 运行中,表示模型服务已经部署成功。