芯片资讯
- 发布日期:2024-10-26 06:33 点击次数:152
伴随着深度学习(MachineLearning)行业愈来愈多地应用当场程序控制器门阵列(FPGA)来开展逻辑推理(inference)加快,而传统式FPGA只支持指定运算的短板愈发突显。Achronix以便处理这一大窘境,自主创新地设计方案了深度学习CPU(MLP)单元,不但支持浮点的乘加运算,还能够支持对多种多样定浮点数格式开展分拆。
MLP全名MachineLearningProcessing单元,是由一组最多32个乘法器的列阵,及其一个加法树、累加器、也有四舍五入rounding/饱和状态saturation/归一化normalize功能块。另外还包含两个缓存文件,分别是一个BRAM72k和LRAM2k,用以单独或融合乘法器应用。MLP支持指定方式和浮点方式。
充分考虑运算耗能和精确度的折中,现阶段深度学习模块中最经常应用的运算格式是FP16和INT8,而TensorFlow支持的BF16则是根据减少精密度,来得到更大标值室内空间。
并且这好像也变成将来的一种发展趋势。现阶段早已有许多研究表明,更小位宽的浮点或整形能够在确保准确率的另外, 电子元器件采购网 还能够降低很多的测算量。因而,以便切合这一时尚潮流,MLP还支持将大位宽加法单元拆分为好几个小位宽加法,包含整数金额和浮点数。
特别注意的是,这儿的bfloat16即BrainFloat格式,而blockfloat为块浮点优化算法,即当运用BlockFloat16及更底位宽块浮点格式时,指数值位宽不会改变,小数位缩减到了16bit之内,因而浮点加法位宽缩小,而且不用应用浮点加法单元,只是整数金额加法和加法树就可以,MLP的构架能够使这种格式下的算力增长。
- 运算放大器 OPA2365AID详细参数2024-11-29
- 运算放大器可以替代比较器吗?2024-11-09
- 您真的能通过运算放大器实现ppm精度吗?2024-10-29
- NVIDIA针对异质超级运算推出最新版编译器2024-10-24
- 剖析FPGA的电源管理2024-10-23
- 高云半导体发布 μSoC 射频 FPGA,替换国际主流芯片仍在前行2024-07-19