申请试用
HOT
登录
注册
 

基于Intel OpenVINO Model Server的推理部署及案例分享

白玉兰开源
/
发布于
/
766
人观看

作为AI能力输出的关键环节,AI模型的部署和推理效率会对方案的整体性能表现产生直接影响,面对多样化的应用场景和基础设施架构的差异,英特尔给出了相应解决方案(OpenVINO Model Server),来为AI模型的快速部署和推理效率的提升提供助力。

  • OpenVINO Model Server介绍
  • 如何使用OpenVINO Model Server部署模型
  • OpenVINO Model Server在实际案例中的应用

赵朝卿,英特尔AI解决方案架构师,要负责提供在 IA 架构上的 AI 解决方案技术咨询和支持服务,对 Intel 的 AI 相关产品及 IA 架构的优化有丰富经验。在加入 Intel 之前,任职多家AI公司,在AI Labs做计算机视觉和语音识别架构设计工作。

0点赞
0收藏
6下载
确认
3秒后跳转登录页面
去登陆