返回首页
登录

CCF济南可信人工智能国际学术论坛活动预告

阅读量:251 2022-08-11 收藏本文

会议编号:CCF-22-ChJN-4F

论坛时间:2022年813日(周六)8:40 – 12:30

线下地点:山东大学软件园校区三区513

腾讯会议:176-502-486

CCF济南将于2022年8月13日举办“可信人工智能国际学术论坛”,本次论坛由中国计算机学会(CCF)主办,CCF济南承办,山东大学协办。论坛拟邀请人工智能、网络空间安全等相关领域的专家,针对可信人工智能相关技术进行学术研讨交流,与本领域学者交流最新研究成果,把握人工智能学术发展趋势,推广前沿技术。

执行主席/主持人: 孔兰菊

论坛签到8:40 – 8:50

领导致词8:50 9:00

崔立真 山东大学软件学院院长,CCF济南主席

特邀报告9:00 12:00

报告1. 9:00 9:30

报告专家:童咏昕

报告题目:基于安全多方计算的数据联邦技术浅谈

报告2. 9:30 10:00

报告专家:吴方照

报告题目:面向AI大模型的高效可信联邦学习

报告3. 10:00 – 10:30

报告专家:李搏扬

报告题目:深度学习中网络行为的解释

报告4. 10:30 11:00

报告专家:马兴军

报告题目:对抗机器学习:攻击与防御研究概述

报告5. 11:00 11:30

报告专家:张景锋

报告题目:对抗学习的应用

报告6. 11:30 – 12:00

报告专家:徐庸辉

报告题目:可解释图神经网络技术:以电商平台用户挖掘为例

Panel环节12:00 12:30

专家简介


童咏昕北京航空航天大学计算机学院教授,博士生导师,国家自然科学基金优秀青年基金获得者。2014年于香港科技大学获计算机科学与工程学博士学位,随后留校担任研究助理教授,2015年入选北京航空航天大学“卓越百人计划”。目前主要研究方向包括:联邦学习、隐私计算、数据库系统、时空大数据挖掘分析与群体智能等。近年来,先后主持国家自然基金重点项目、国家重点研发计划课题等科研项目。共发表学术论文百余篇,其中以第一/通讯作者发表CCF-A类论文60余篇。曾获中国电子学会自然科学一等奖(排名一)、首届阿里巴巴达摩院“青橙奖”、数据库领域CCF-A类会议VLDB 2014“杰出演示系统奖”和数据挖掘领域国际顶级竞赛 KDD Cup 2020全球冠军;担任《IEEE TKDE》与《IEEE TBD》等国际期刊的编委和多个CCF-A类会议程序委员会领域主席(PC Area Chair),并长期作为多个国际顶级会议的高级程序委员会委员(Senior PC);也是CCF杰出讲者、CCF会员与分部工委副主任、CCF走进高校工作组组长。

报告题目:基于安全多方计算的数据联邦技术浅谈

摘要:近年来随着社会治理与疫情防控等新需求的出现,跨部门间的数据孤岛给大数据共享计算带来全新挑战,即如何在各部门原始数据不出本地约束下实现多方安全的数据共享与协同分析?为此,基于安全多方计算的数据联邦以其“数据不动计算动、数据可用不可见”的共享理念为破解数据孤岛挑战提供了一种新型思路。本报告首先简介安全多方计算技术与数据库领域的融合发展历程,继而回顾传统的联邦数据库技术,并阐述其与数据联邦的区别联系。随后,我们聚焦于关系型数据与时空数据两种类型,分别阐述数据联邦系统中的查询优化前沿技术。随后介绍本团队所研发的数据联邦系统——“虎符”,其已经适配当前各种主流大数据计算平台,并支持多方数据自治下的安全高效协同查询与分析。最后,报告也将对该领域当前挑战和未来发展进行总结展望。


吴方照,微软亚洲研究院主管研究员,本科和博士均毕业于清华大学电子系。在Nature Communications, ACL, KDD, WWW, SIGIR, EMNLP等期刊和会议发表学术论文百余篇,被引用3200多次,H-index 33。曾获 NLPCC 2019优秀论文奖,WSDM 2019 Outstanding PC 和 AAAI 2021 Best SPC。AAAI 2022 领域主席,中国计算机学会高级会员。目前在微软亚洲研究院从事负责任AI、用户隐私保护、推荐系统、自然语言处理等方面的研究和实践。研究成果在 Microsoft News、Bing Ads 等多个微软产品中得到应用。

报告题目:面向AI大模型的高效可信联邦学习

报告摘要:得益于大数据、大模型和大算力,最近AI的多个领域都取得了巨大的进展。然而近年来世界各国对于数据隐私保护的要求越来越高,相关法律越来越严。在保护数据隐私的前提下实现AI模型的训练,是一个重要且紧迫的研究课题。联邦学习是一种重要的面向隐私保护的机器学习框架,可以在不收集数据的情况下协同进行模型的训练,实现数据的“可用不可见”。然而联邦学习和AI大模型的结合存在诸多严峻挑战,如计算代价、通信开销、隐私泄露、模型安全等。本次报告将分享我们在面向AI大模型的高效可信联邦学习上的研究和思考。


李搏扬(Boyang Albert Li),现任新加坡南洋理工大学南洋副教授。博士毕业于乔治亚理工学院。曾在迪士尼匹兹堡研究院担任研究员并领导独立研究小组,在百度美国研究院担任高级研究员。在2021年获得新加坡国家科学基金委两百五十万新元的青年基金(National Research Foundation Fellow)。于AAAI 2023 担任领域主席(Area Chair)。研究成果曾被包括英国卫报,《新科学家》杂志,美国国家公共电台(National Public Radio),TechCrunch,Engadget 在内的多家国际媒体报道。研究领域主要包括:机器学习,多模态学习,以及计算化的叙事智能。

报告题目:深度学习中网络行为的解释

报告摘要:深度神经网络在诸多应用中取得了卓越的性能,然而它的黑盒特性导致用户在高风险和失败成本较高的问题上难以信任网络的决策。如果我们可以解释网络的行为,将会对神经网络的进一步普及应用做出贡献。在本次讲座中,我将回顾一些深度学习可解释性的进展,并且介绍一种通过训练数据解释网络行为的方法:Hypergradient Data Relevance Analysis (HyDRA)。HyDRA具有严格的数学证明作为基础,可以追踪训练数据在整个网络训练过程中的作用。实验中,HyDRA在数据降噪方面取得较好的效果。


马兴军,复旦大学青年研究员、博士生导师。墨尔本大学博士、墨尔本大学博士后、迪肯大学助理教授。主要研究领域为可信机器学习,重点关注机器学习算法与模型的安全性、鲁棒性、可解释性、隐私性、公平性和版权保护等。在国际知名会议和期刊发表论文30余篇研究成果多次被顶级国际会议ICML和ICLR评为口头报告或亮点论文在个人数据保护方面的工作获得国际知名媒体MIT Technology Review的报道。获得SISAP'21最佳论文和SSDBM'21最佳论文第二名。担任国际会议NeurIPS、ICML、ICLR、CVPR等程序员会委员和国际知名期刊TPAMI、TIP、Nature Communications等审稿人。

报告题目:对抗机器学习:攻击与防御研究概述

报告摘要:虽然机器学习模型尤其是深度学习模型在很多应用场景下都取得了优异的性能,但近年来很多研究发现这些模型存在普遍的对抗脆弱性,模型很容易受微小对抗噪声的干扰而做出错误的决策。这在关键应用场景(如自动驾驶、人脸识别、医疗诊断等)下会给机器学习模型带来一定的安全隐患,引发了国际学者的广泛关注。相关的研究经过近五年的发展逐渐形成了一个新型的研究领域:对抗机器学习。对抗机器学习主要包括攻击和防御两方面的研究,攻防双方在不停的博弈过程中不断的向更多的应用场景扩展。在这个讲座中,我将带领大家了解对抗机器学习的发展背景、不同类型的攻击方法和防御策略、以及当前研究进展和尚存挑战。希望此次讲座可以帮助各位同学较为全面的了解对抗机器学习这一新兴研究领域。


张景锋(Dr. Zhang Jingfeng), 日本理化研究所革新智能综合研究中心(RIKEN AIP)特别研究员。博士毕业于新加坡国立大学,本科毕业于山东大学泰山学堂。日本学术振兴会 (JSPS)和日本国家研究开发与科学技术厅 (JST)项目基金获得者,共同主导理研-九州大学科学技术中心合作研究计划和TrustML 青年科学家研讨会。2021年度日本理研樱舞赏受赏(Ohbu award )。 长期担任知名机器学习(machine learning)国际会议及其期刊的审稿人,并发表多篇文章。主要研究领域为机器学习的对抗鲁棒性。

报告题目:对抗学习的应用

报告摘要:当我们部署通过标准训练得到的模型时,它们在自然数据上运行良好,但是,这些模型无法处理由对“抗性攻击”算法生成的对抗数据。“对抗攻击”是一种对自然数据微小扰动,生成对抗数据的一个算法,以误导模型并让它给出错误的预测。对抗性鲁棒性旨在通过学习对抗数据,来提升模型的鲁棒性,这可以通过“对抗训练”来实现。

什么是“对抗训练“? 对抗训练在学习模型期间模拟了一些对抗性攻击。因此,该模型在学习过程中已经经历过对抗训练数据,进而在部署的时候具备抵抗对抗数据的能力,即对抗鲁棒性。在本次演讲中,我将介绍如何利用对“对抗攻击”来评估由AI 驱动工具的脆弱性,并且用“对抗训练”来增强其鲁棒性。


徐庸辉,山东大学教授,中国计算机学会协同计算专业委员会(CCF TCCC)执行委员,济南市软件和信息技术服务业专家库入库专家,鲁商教育控股有限公司特聘专家,《Mathematics》客座编辑,《众智科学国际期刊》副编辑。曾任新加坡南洋理工大学-加拿大英属哥伦比亚大学联合百合研究中心(LILY)、阿里巴巴-南洋理工大学新加坡联合研究院研究员、中新国际联合研究院兼职研究员。主要研究领域包括可信任AI、知识图谱、推荐系统、协同计算等。在国际顶级学术会议及期刊发表论文40余篇。申请/授权多项核心发明专利,获得多项省部级科技奖励。担任多个国际学术会议联合主席、程序委员及顶级学术期刊/会议TKDE、TNNLS、AAAI、IJCAI、KDD等审稿人。先后承担科技部重点研发计划子课题、国(境)外博士后国际交流计划、中国博士后科学基金面上项目、阿里巴巴创新研究计划、中新国际联合研究项目等多项国家级、省部级纵向科研项目。

报告摘要:可解释图神经网络技术:以电商平台用户挖掘为例

报告简介:进入21世纪以来,人工智能取得了长足发展,已经逐步在电子商务、智慧医疗等领域落地应用。人工智能技术与人类生活的紧密结合,使得智能化的人机协同成为大势所趋。人类在全方位应用人工智能技术的同时,更希望能理解人工智能。因此,发展可解释的人工智能技术显得至关重要。本报告将聚焦电商平台扩大目标用户群体的任务,探索如何在潜在用户已被挖掘后的剩余用户群体中,进一步的挖掘条件潜在用户以扩充电商平台的目标客户群体,并对条件潜在用户转化成潜在用户的转化条件进行解释以指引商家的商业行为。