Datawhale
专题分享:百度AI推理部署系列
部署环境不对!
模型上的内存占用过高无法上线!
推理计算耗时太高,可能造成服务不可用!
今天,是项目推迟上线的第N天,也是开发者们崩溃的第N+1天。
从接到项目时踌躇满志,再到披荆斩棘地完成了网络搭建、模型训练,“过五关斩六将”本以为“一路顺风”,结果却在最后的部署环节一次次被“击溃”,开发者们真的太难了。
不同场景下的模型部署
面对一众开发者们的“苦楚”,针对不同的部署环境,国内深度学习开源框架飞桨提供了多种方案:
- 本地服务器端部署场景:飞桨深度学习框架原生的高性能推理库Paddle Inference,可应用于本地服务器端部署场景,做到即训即用。
- 服务化部署场景:云端部署必不可少的方案是Paddle Serving,当用户使用Paddle训练了一个深度神经网络,就同时拥有了该模型的预测服务,从而可以直接使用训练出的模型部署在线推理服务。
- 端侧硬件部署场景:围绕Paddle Lite框架解析及移动端的部署实践、介绍其满足移动端、嵌入式芯片等端侧硬件部署的场景下高性能、轻量化部署需求的特点优势。
- 网页端部署场景:还有硬件部署方向的内容以及用于网页端部署、全新发布的国内首个开源JavaScript深度学习前端推理引擎Paddle.js。
针对上述场景下的部署问题,百度AI快车道还给出了部署系列专题课程供大家学习。详情如下:
部署系列专题分享
百度AI快车道——企业深度学习实战营将奉上部署系列专题课程。6月4日至6月23日课程当天的19:00,每周不同技术主题将在B站,为开发者提供部署方案,带领大家“脱离苦海”。
来自百度的多位工程师们将聚焦飞桨工业级部署方案,为大家带来飞桨在多场景、多平台硬件下的推理部署方案,通过一系列的课程get减少框架耗时,提高推理速度等部署技能。百度高工的言传身教,丰富的应用课程,帮助大家轻松告别“部署难,难于上青天”的情况。