当前位置: X-MOL 学术IEEE Softw. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Benchmarking DNN Inference Performance on Serverless Environments With MLPerf
IEEE Software ( IF 3.3 ) Pub Date : 2021-01-01 , DOI: 10.1109/ms.2020.3030199
Unai Elordi 1 , Luis Unzueta 1 , Jon Goenetxea 1 , Sergio Sanchez-Carballido 1 , Ignacio Arganda-Carreras 2 , Oihana Otaegui 1
Affiliation  

We provide a novel decomposition methodology from the current MLPerf benchmark to the serverless function execution model. We have tested our approach in Amazon Lambda to benchmark the processing capabilities of OpenCV and OpenVINO inference engines.

中文翻译:

使用 MLPerf 对无服务器环境中的 DNN 推理性能进行基准测试

我们提供了一种从当前 MLPerf 基准测试到无服务器函数执行模型的新颖分解方法。我们已经在 Amazon Lambda 中测试了我们的方法,以对 OpenCV 和 OpenVINO 推理引擎的处理能力进行基准测试。
更新日期:2021-01-01
down
wechat
bug