NNEngine – Neural Network Engine v1.5 (4.27, 5.0) 使用ONNX运行时本地库从BP和C++进行简单、加速的ML推理。通过简单地调用几个蓝图节点,可以加载运行前沿AI。
该插件支持ONNX(开放神经网络交换),这是一种广泛使用的开源机器学习模型格式。性能是我们首先要考虑的。

该插件支持运行时的模型优化和各种硬件上的GPU加速,以及该插件本身的优化。

特点:

在运行时加载ONNX模型。加载时自动优化模型。
运行ONNX模型。
(在Windows上)支持在支持DirectX 12的GPU上通过DirectML进行硬件加速。
(在Windows和Ubuntu上)支持在支持的NVIDIA GPUs上通过CUDA和TensorRT进行硬件加速。
(在Windows上)获取系统上可用的GPU名称列表。
处理(调整大小,裁剪,旋转)UTexture并将其转换为int8数组。

代码模块:

OnnxRuntime(运行时)
纹理处理(运行时)
CustomizedOpenCV(运行时)
DirectXUtility(运行时)
蓝图数量:3

C++类的数量:7个以上

网络复制:否

支持的开发平台:Windows 10 64位、Ubuntu 18.04.6桌面64位

支持的目标构建平台:Windows 10 64位、Ubuntu 18.04.6桌面64位

重要/附加说明:

演示项目1是作为C++项目分发的。需要安装Visual Studio才能编译。

发表回复

后才能评论