Junning Wu
Junning Wu
**2018-1-3** **论文学习** **NVDLAonFPGA** **NVDLA 代码学习**  学习SDP代码,对SDP的整体架构,以及主要功能进行学习,三个主要的计算单元,SDP_CORE_X和SDP_CORE_Y,SDP_CORE_C还在学习过程中。模块代码中包括更多的预处理,需要理解其含义。 而对于SDP的配置寄存器,也通过配置寄存器部分的代码进行了学习,对SDP整体功能的理解也大有裨益。 具体学习记录,可参考issue #11 **NVDLA模拟器VP** 模拟器和SW的工作,没有进展。 **NVDLA软件SW Stack** **Caffe**
**2018-1-10** **论文学习** 《ScaleDeep: A Scalable Compute Architecture for Learning and Evaluating Deep Networks》,ISCA2017. 论文针对深度神经网络的训练部分进行针对性优化,提出了一个可扩展服务器架构,且深入分析了深度神经网络中卷积层,采样层,全连接层等在计算密集度和访存密集度方面的不同,设计了两种处理器core架构,计算密集型的任务放在了comHeavy核中,包含大量的2D乘法器和累加器部件,而对于访存密集型任务则放在了memHeavy核中,包含大量SPM存储器和tracker同步单元,既可以作为存储单元使用,又可以进行计算操作,包括ReLU,tanh等。而一个SCALEDEEP Chip则可以有不同配置下的两类处理器核组成。然后再组成计算簇。论文中所用的处理平台包括7032个处理器tile。论文作者针对深度神经网络设计了编译器,完成网络映射和代码生成,同时设计了设计空间探索的模拟器平台,可以进行性能和功耗的评估,性能则得益于时钟精确级的模拟器,功耗评估则从DC中提取模块的网表级的参数模型。   
乘法电路和加法电路以及各个寄存器的位宽,与具体的数据类型有关,比如Int8和Int16,以及Float等。