【倒计时3天!免费报名!】6月6日,现场交锋:共同聆听大模型技术进展与挑战
CCF⼤模型论坛将于6⽉6⽇在北京举办线下专题会议活动,本次会议主题为“⼤模型技术进展与挑战”,将围绕⼤模型技术的前沿动态、发展趋势及技术挑战等议题展开深⼊探讨。
随着大模型技术的迅猛发展,其在各行业领域的应用日益广泛,为我们的生活带来巨大变革。为了推动大模型技术的持续发展,中国计算机学会大模型论坛(CCF FoLM)将于6月6日在北京举办主题会议。
本次会议主题为“大模型技术进展与挑战”,届时将邀请车万翔(哈工大)、顾晓韬(智谱AI)、黄民烈(清华大学)、刘群(华为)、邱锡鹏(复旦大学)、 Quentin Malartic(Falcon@TII)、汪玉(清华大学)、翟季冬(清华大学)、朱军(清华大学)等大模型领域专家学者出席并做主题报告。(以上嘉宾按姓名拼音首字母排序)
在本次会议中,各位专家将围绕大模型技术的前沿动态、发展趋势及技术挑战等议题展开深入探讨,旨在为广大从业者、研究者提供一场丰富的学术盛宴。此外,会议当天将宣布大模型安全挑战赛的正式启动,以激发学术界和产业界的创新热情,共同推动大模型技术的安全发展。
值得一提的是,本次会议还将举办两场别开生面的「Debates」!届时颜深根(无问芯穹)、曾国洋(面壁智能)、俞涛(零一万物)、何家傲(清华大学博士研究生)等来自不同领域的专家学者,就「超级对齐的本质是什么」、「Maas 是个伪命题吗」等问题,展开现场交锋,以期为广大参会者呈现一场精彩的思想碰撞!
此次活动,将为您提供一个与业内顶尖专家面对面交流的平台,助您洞察大模型技术的发展趋势,拓展视野,激发创新灵感。我们诚挚邀请各位从业者、研究者及相关领域爱好者踊跃报名参加,也欢迎大家持续关注CCF 大模型论坛后续活动,共同探讨大模型技术的未来发展之路。
让我们携手共进,共创人工智能领域的新篇章!期待在活动现场与您相见!
主办单位:中国计算机学会 (CCF)
承办单位:CCF大模型论坛(CCF FoLM)
时间:2024年6月6日 9:00-17:00
地点:北京市海淀区清华科技园科技大厦C座二层多功能厅
报名方式
会议议程
时间 | 环节 | 讲者 |
9:00-9:10 | 开场 | CCF FoLM 论坛主席 |
9:10-9:40 | The Falcon Series of Open Language Models | Quentin Malartic (Falcon@TII) |
9:40-10:10 | 大模型对齐与超级对齐 及CCF大模型安全挑战赛发布 | 黄民烈(清华大学) |
10:10-10:40 | 面向AI 2.0的高能效电路与系统设计 | 汪玉(清华大学) |
10:40-10:50 | 茶歇 | |
10:50-11:20 | ChatGLM: 面向Agent模型的优化与探索 | 顾晓韬(智谱AI) |
11:20-11:50 | 华为盘古大模型的核心技术与挑战 | 刘群(华为) |
11:50-12:30 | 「Debates」:超级对齐的本质?他是实现AGI的核心还是实现安全的必要? | 刘群(华为) 顾晓韬(智谱AI) 黄民烈(清华大学) 俞涛(零一万物) |
12:30-13:40 | 午饭 & 中午休息 | |
13:40-14:10 | 多模态AIGC创新实践 | 朱军(清华大学) |
14:10-14:40 | 大模型中的思维链技术机理及应用 | 车万翔(哈工大) |
14:40-15:10 | 八卦炉:面向国产智能算力核心基础软件 | 翟季冬(清华大学) |
15:10-15:30 | 茶歇 | |
15:30-16:00 | 大语言模型MOSS 2研发进展介绍 | 邱锡鹏(复旦大学) |
16:00-16:40 | 「Debates」:MaaS是个伪命题吗?降价之思考 | 颜深根(无问芯穹) 何家傲(清华大学博士研究生) 曾国洋(面壁智能) |
16:40-16:50 | 结束致辞 | CCF FoLM论坛主席 |
17:00 | CCF大模型论坛FoLM常务委员会扩大会议 | 闭门 |
讲者简介
Quentin Malartic
Quentin Malartic is a researcher at the Technology Innovation Institute in Abu Dhabi. He obtained his master's degree in civil engineering from the Ecole Normale Supérieure Paris-Saclay in 2018, followed by a master's degree in climate sciences from Paris-Saclay University in 2019. Quentin then pursued a PhD in atmospheric physics and applied mathematics at the Ecole des Ponts ParisTech, which he completed in 2022.
During his PhD, Quentin's research focused on the intersection of machine learning and data assimilation to jointly estimate state and dynamics from sparse and noisy observations, particularly within the context of atmospheric dynamics.
Since 2022, Quentin has been focusing on natural language processing, specifically in data curation, as well as pre-training, fine-tuning, and evaluating large language models. He contributed to both RefinedWeb, an open-source curated corpus of web data, and the Falcon series of open-source language models released in 2023 and 2024.
黄民烈 教授
黄民烈,清华大学长聘教授,国家杰青。长期从事大模型和自然语言处理研究。在国际顶级会议和期刊发表论文150多篇,谷歌引用近20000次,8次获得国际顶级会议最佳论文或提名奖(ACL、IJCAI、SIGDIAL等)。连续多年入选Elsevier中国高被引学者,AI 2000全球最有影响力AI学者榜单。曾获得中国人工智能学会吴文俊人工智能科技进步奖一等奖,电子学会科技进步奖一等奖,中文信息学会汉王青年创新奖等。研发多个对话大模型,包括EVA、心理大模型Emohaa、CharacterGLM等。
汪玉 教授
清华大学电子工程系长聘教授、系主任,IEEE Fellow,国家自然科学基金杰出青年基金获得者,清华大学信息科学技术学院副院长,清华大学天津电子信息研究院院长。汪玉教授长期从事智能芯片、高能效电路与系统研究,发表IEEE/ACM期刊论文60余篇、会议论文270余篇,谷歌学术引用20,000余次,核心技术推动智能芯片在全球范围的产业化和国家重点领域的部署落地。主持国家级以及企业联合项目多项,获CCF科学技术奖技术发明一等奖、国际设计自动化会议40岁以下创新者奖、CCF青竹奖等荣誉。曾获得4次国际学术会议最佳论文奖及12次最佳论文提名。
顾晓韬 博士
智谱AI GLM技术团队研究员,UIUC计算机科学系博士。曾任华为云技术专家,主导华为云盘古大模型研发,博士期间在Google参与知识图谱、新闻摘要、大语言模型训练加速等自然语言处理研究项目与系统开发。
刘群 教授
刘群,华为语音语义首席科学家,教授,ACL Fellow。从2018年起,他领导了华为诺亚方舟实验室的语音语义团队,该团队开发了包括机器翻译、对话系统、语音识别与合成、预训练大语言模型等一系列技术,为华为公司的产品和服务提供了有力支持。加入华为之前,从2012年起,他是爱尔兰都柏林城市大学教授、爱尔兰ADAPT中心自然语言处理主题负责人。在此之前,他在中国科学院计算技术研究所工作了20年并担任研究员职位,创建了自然语言处理研究组并担任负责人。他分别在中国科学技术大学、中科院计算所、北京大学获得计算机学士、硕士和博士学位。他的主要研究方向是自然语言处理,研究成果包括汉语词语切分和词性标注系统、统计和神经机器翻译、预训练语言模型、问答和对话系统等。他在专业会议和期刊上发表300多篇论文被引用18000多次,培养国内外博士硕士毕业生50多人。他获得过Google Research Award、ACL Best Long Paper、钱伟长中文信息处理科学技术奖一等奖、国家科技进步二等奖、IAMT Honor Award等众多奖项。
邱锡鹏 教授
复旦大学计算机学院教授,担任中国中文信息学会理事、上海市计算机学会自然语言处理专委会主任等,主要研究方向为自然语言处理基础模型和算法,发表CCF A/B类论文100余篇,被引用1.8万余次,连续多年入选爱思唯尔中国高被引学者、2023全球前2%顶尖科学家榜单。获得ACL 2017杰出论文奖(CCF A类)、CCL 2019/2023最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选ACL/EMNLP等会议的最有影响力论文,主持研发的MOSS已经成为国内影响力最大的开源大型语言模型之一。曾获中国科协青年人才托举工程、国家优青等项目,2020年获第四届上海高校青年教师教学竞赛优等奖,两次获得上海市计算机学会教学成果奖一等奖,2022年获钱伟长中文信息处理科学技术奖一等奖,2023年入选中国教师发展基金会“高校计算机专业优秀教师奖励计划”。培养学生多人次获得国家一级学会优博。
俞涛 零一万物联合创始人
大模型训练 Post-training / Alignment / RLHF 及 API 负责人。浙江大学竺可桢学院计算机本科,卡内基梅隆大学计算机硕士,完成了斯坦福大学人工智能研究生项目。曾任 Google 硅谷总部资深技术leader,Google Bard(现 Gemini)早期核心成员,从0-1主导或参与了从 Bert、LaMDA 到大模型在个人助理、AI Agent 等多个方向的研究和工程落地。曾任美团 AI 平台的高级技术总监,技术委员会通道主席,美团大模型平台负责人,从 0-1 建设了美团的大模型平台。2021 福布斯中国 30 岁以下科技精英。
朱军 教授
清华大学计算机系博世AI教授、清华大学人工智能研究院副院长、IEEE/AAAI Fellow。2001到2009年获清华大学计算机学士和博士学位,之后在CMU做博士后和项目科学家,2011年回清华任教,2015到2018年任卡内基梅隆大学兼职教授。主要从事机器学习基础理论、高效算法及应用研究,在国际重要期刊与会议发表论文百余篇。担任顶级期刊IEEE TPAMI的副主编和编委、AI编委,担任ICML、NeurIPS、ICLR、IJCAI、AAAI等国际会议的资深领域主席、地区联合主席、评奖委员会委员、研讨会主席等20余次。获求是杰出青年奖、科学探索奖、吴文俊人工智能自然科学一等奖、CCF自然科学一等奖、ICLR杰出论文奖、ICME/IEEE CoG最佳论文奖等,入选国家高层次人才计划、MIT TR35中国先锋者以及IEEE Intelligent Systems评选的“AI’s 10 to Watch”。研制Vidu视频大模型,以及开源的“珠算”深度概率编程库和“天授”强化学习库。
车万翔 教授
哈尔滨工业大学计算学部长聘教授/博士生导师,人工智能研究院副院长,国家级青年学者,龙江学者“青年学者”,斯坦福大学访问学者。现任中国中文信息学会理事、计算语言学专业委员会副主任兼秘书长;国际计算语言学学会亚太分会(AACL)执委兼秘书长。目前承担国家自然科学基金重点项目、2030“新一代人工智能”重大项目课题等多项科研项目。著有《自然语言处理:基于预训练模型的方法》一书。曾获AAAI 2013最佳论文提名奖。负责研发的语言技术平台(LTP)已授权给百度、腾讯、华为等公司付费使用。2016年获黑龙江省科技进步一等奖(排名第2),2020年获黑龙江省青年科技奖。
翟季冬 教授
清华大学计算机系长聘教授,博士生导师。国家杰出青年科学基金获得者,国家重点研发计划项目负责人。清华大学计算机系高性能所副所长。CCF高性能计算专委副主任、CCF杰出会员、ACM中国高性能计算专家委员会秘书长。主要研究领域包括并行计算、编程模型与编译优化。在并行计算与系统领域顶级会议和期刊发表论文100余篇,出版专著1部。研究成果获IEEE TPDS 2021最佳论文奖、IEEE CLUSTER 2021最佳论文奖、ACM ICS 2021最佳学生论文奖等。担任NPC 2018程序委员会主席、IEEE CLUSTER 2021领域主席,IEEE Transactions on Computers等多个国际学术期刊编委。担任清华大学学生超算团队教练,指导的团队十三次获得世界冠军。获教育部科技进步一等奖、中国计算机学会自然科学一等奖、CCF-IEEE CS青年科学家奖。
颜深根 副研究员
无问芯穹联合创始人,清华大学电子系 副研究员,上海交通大学兼职博导。国内最早从事AI计算的科研人员之一,北卡州立访问学者,香港中文大学博士后、中科院博士,曾任北京大学副研究员,商汤科技数据与计算平台部执行研究总监。在商汤期间担任上海市战略性新兴产业重大项目“软硬件一体的人工智能超算原型机研制项目”项目负责人。项目总投资6.7亿元人民币,历时3年,研发人员接近200人。在包括PPoPP、SC、HPCA、DAC、TPDS、TACO等领域顶级会议和期刊发表论文30余篇,获得PPoPP、ICDCS等会议最佳论文提名。曾担任多个国际会议、期刊程序委员会委员、审稿人,ACM中国高性能计算执行委员会委员,中国计算机协会大模型论坛执行委员。
曾国洋 面壁智能CTO
曾国洋,面壁智能CTO,高二获全国青少年信息学竞赛金牌(全国50人)、亚太地区信息学竞赛金牌保送清华,高三就加入旷视公司实习。大一获清华大学挑战杯一等奖、首都大学生挑战杯一等奖,大二加入清华大学NLP实验室一直从事大模型相关的研发工作,是悟道·文源中文预训练模型团队骨干成员。在计算机系毕业后,担任智源研究院语言大模型加速技术创新中心副主任,他拥有丰富的人工智能项目开发与管理经验,并于2022年,参与创立了面壁智能,进一步推动大模型的开发和应用。
何家傲 博士
何家傲,清华大学计算机系博士研究生,导师翟季冬老师。研究兴趣包括大模型分布式训练和推理,稀疏模型训练。开发了FastMoE,这是世界首个基于PyTorch的开源分布式MoE训练框架。在ASPLOS、PPoPP等会议上发表了若干篇论文。曾是清华超算团队的队员,多次在国际大学生超算竞赛中夺冠。