新闻动态

【暑期课程】第七课:清微智能架构总监唐士斌“面向ChatGPT大语言模型的可重构智能处理器”讲座顺利举办

7月11日下午13时,由北京大学集成电路学院、集成电路高精尖创新中心、北京大学国家集成电路产教融合创新平台、集成电路科学与未来技术北京实验室、后摩尔时代微纳电子学科创新引智基地联合主办的暑期课程《集成电路设计技术与产业应用发展》在线下成功举办。本期邀请到北京清微智能科技有限公司架构总监唐士斌为大家带来主题为“面向ChatGPT大语言模型的可重构智能处理器”的报告。北京大学叶乐老师主持讲座。

唐博士从AI算法的现状、AI算法新范式下算力的机遇与挑战、面向大模型的可重构智能处理器这三个部分展开。在AI算法的现状部分,唐博士谈到了目前深度学习的新范式是LLM+Prompt,其具有复杂的推理能力。同时,人工智能进入FoundationModel时代,其模型具有通用性的特点。同时,FoundationModel也具有算力需求大的特点,而目前算力成本较高,其限制了人工智能的继续发展。

在AI算法新范式下算力的机遇与挑战部分,唐博士重点指出了三个机遇与挑战。第一,大模型将推动新的计算平台发展。第二,AI计算平台需要面对不同应用场景下的算力、容量、带宽需求。第三,通用人工智能需要普惠的算力。

最后,在面向大模型的可重构智能处理器部分,唐博士首先介绍了CGRA(可重构计算架构)的原理,包括基本结构、配置基础机制、程序基础映射机制、相比FPGA架构的核心原理优势等。接着,唐博士介绍了面向大模型的数据流可重构智能处理器设计、算法映射方式及配套软件栈等内容。

在提问环节,唐博士就数据流编译范式、清微智能CGRA与竞品的异同、可重构计算阵列微架构等方面与大家进行了深入的讨论和交流。

【个人介绍】

唐士斌于2014年博士毕业于中科院计算技术研究所,博士期间从事龙芯系列芯片的研发。在清华大学微电子所从事博士后研究期间,参与面向深度学习的thinker系列芯片(Thinker-I, Thinker-II)的架构定义与设计实现。在国际会议与期刊VLSI、JSSC、TCAD、TPDS等发表多篇智能加速器相关的研究成果。曾先后任职于海思、清微智能,负责云端与终端的AI加速器架构与设计类的工作。

【企业介绍】

北京清微智能科技有限公司是可重构计算芯片领导企业,提供以端侧为基础,并向云侧延伸的芯片产品及解决方案。核心技术团队来自清华大学微电子所,从事芯片研发13年,兼具芯片、软件、算法和系统研发能力,是前沿芯片架构可重构技术的提出者和实践者,曾获国家技术发明奖和中国专利金奖等多个奖项。