想跳槽的,机会来了!2022年薪百万赛道!
共 4275字,需浏览 9分钟
·
2022-03-03 01:46
随着大数据的发展,计算机芯片算力的提升,人工智能近两年迎来了新一轮的爆发。而人工智能实现超级算力的核心就是AI芯片。AI芯片也被称为人工智能加速器,即专门用于处理人工智能应用中的大量计算任务的模块。
2020年我国人工智能芯片市场规模约为184亿元。未来5G商用的普及将继续催生人工智能芯片的应用需求,中国人工智能芯片行业将快速发展,预计2023年市场规模将突破千亿元。
那么,如何借助AI芯片来实现特定的任务,将是所有AI芯片产业人员必备的技能。
为此,贪心学院重磅推出《高性能神经网络与AI芯片应用研修课程》,为想进入AI芯片行业的同学们提供一个可以大幅提升自身就业竞争力的选择。
本课程会讲解AI芯片相关知识、高性能网络设计、通用芯片及专用芯片计算加速方法等专业技能,并结合优秀编译器的架构和实现细节的讲解,为学生构建高性能AI算法的软硬件视角,能够解决应用落地时神经网络的优化和部署相关问题。
01
内容亮点
全面技术讲解:课程涵盖了轻量化神经网络设计、神经网络部署前的优化方法、神经网络编译器的设计模式和具体实现、神经网络部署到芯片上的计算加速等全面的AI嵌入式芯片设计和应用相关人员就业必备的知识。 软硬件相结合:本课程除了全面讲解高性能神经网络相关的知识技术外,还会指导学员在硬件上进行实操。 专家导师授课:课程导师为AI芯片行业专家,相关项目经验十分丰富。
02
你将收获
掌握神经网络高性能实现的算法及工具 掌握通用芯片及专用AI芯片架构及网络加速技术 掌握通用芯片及专用AI芯片神经网络部署应用的实际案例 短期内对一个领域有全面的认识,大大节省学习时间 认识一群拥有同样兴趣的人、相互交流、相互学习
03
项目介绍
04
详细内容介绍
第一周:轻量化网络结构设计
本节课将讲解网络参数量、浮点运算数等模型评价指标、工具,以及分类网络, 检测网络,分割网络的轻量化设计。
课程提纲:
轻量化网络设计背景介绍 网络的计算量和内存分析工具 主干网络的轻量化 检测网络的轻量化 分割网络的轻量化 典型网络的设计思路
第二周:知识蒸馏优化、低秩分解优化
本节课将讲解神经网络知识蒸馏优化、神经网络计算低秩分解加速计算方法。
课程提纲:
知识蒸馏方法介绍
知识蒸馏原理和步骤介绍
知识蒸馏训练方法缩减网络的实际分类网络演示
低秩分解原理
低秩分解加速计算在神经网络推理中的应用
第三周:网络剪枝
网络剪枝的原理 常用的剪枝策略 神经网络框架中的剪枝功能介绍 剪枝的实际使用
第四周:网络量化
网络量化的技术发展 不同离线量化算法的实现原理 神经网络框架中在线感知量化算法的原理及实现 实际案例
第五周:神经网络编译器简介
本节课将讲解tvm、ncnn、tnn、mnn的简要对比,tvm relay和网络转换,网络的编译优化和推理加速。
课程提纲:
tvm、ncnn、tnn、mnn的简要对比 tvm relay和网络转换 网络的编译优化和推理加速 tvm的实际案例
本节课将讲解ncnn的系统架构图,数据结构,支持的框架,网络的表示,网络优化,量化,以及各平台的优化策略。
课程提纲:
ncnn的系统架构图 ncnn的数据结构及支持框架 ncnn的网络表示 ncnn网络优化,量化,及各平台的优化策略
tnn的系统架构图 tnn的数据结构及支持框架 tnn的网络表示 tnn网络优化,量化,及各平台的优化策略
第八周:mnn
本节课将讲解mnn的系统架构图,数据结构,支持的框架,网络的表示,网络优化,量化,以及各平台的优化策略。
课程提纲:
mnn的系统架构图 mnn的数据结构及支持框架 mnn的网络表示 mnn网络优化,量化,及各平台的优化策略
第九周:cpu中的指令集优化
本节课将讲解cpu中的指令集优化,simd、avx、sse方法,及tvm中对于cpu上神经网络加速的位置。
课程提纲:
cpu中的指令集优化:simd,avx,sse方法 tvm中对于cpu上神经网络加速的位置
第十周:arm中的神经网络加速
arm中的neon优化 ncnn,tnn和mnn实现的讲解 具体加速效果的实际案例
openblas库的优化
nnpack/qnnpack的优化
lowpgemm
第十三周:gpu上神经网络的运行和加速
本节课将讲解gpu与cpu计算加速的区别,英伟达gpu的原生cuda加速方法,及推理侧tensorrt的使用。
课程提纲:
gpu与cpu计算加速的区别 英伟达gpu的原生cuda加速方法 推理侧tensorrt的使用
第十四周:gpu加速通用加速库
本节课将讲解通用加速库cublas,vulkan,opencl的使用。
课程提纲:
通用加速库cublas的使用 Vulkan的使用 opencl的使用
第十五周:dsp,fpga,npu专用加速计算
本节课将讲解dsp,fpga,npu的专用加速计算。
课程提纲:
dsp计算加速 fpga计算加速 npu专用加速计算
嘉楠科技k210芯片介绍 nncase人脸检测案例
05
授课方式
基础知识讲解
前沿论文解读
论文代码复现
该知识内容的实际应用
该知识的项目实战
该方向的知识延伸及未来趋势讲解
06
适合人群
编程及深度学习基础良好,为了想进入AI芯片行业发展
想进入AI芯片行业的算法或IT工程师 想通过掌握硬件技术,拓宽未来职业路径的AI算法工程师
掌握python、C++开发,及深度学习的基础知识。
07
课程研发及导师团队
08
历届学员去向