返回首页
登录

CCF济南|《可信人工智能国际学术论坛》论坛

阅读量:331 2022-08-25 收藏本文

2022813由CCF济南承办的《可信人工智能国际学术论坛》(活动编号:CCF-22-ChJN-4F在山东大学软件学院举行。本次论坛针对可信人工智能的前沿理论与技术,进行学术研讨与交流,帮助学界与企业界了解可信人工智能发展脉络,推广前沿技术,更好地实现产学研结合。

依托于山东大学-南洋理工大学人工智能国际联合研究院国际化平台,论坛邀请了来自于新加坡南洋理工大学、北京航空航天大学、复旦大学、微软亚洲研究院、日本理化研究所、山东大学等单位的国际知名可信人工智能专家,同时设立了山东大学、济南大学以及浪潮集团三个分会场。专家们的报告受到了来自山东大学、济南大学、山东师范大学、山东财经大学等众多高校以及浪潮集团、中创软件等企业界人士的广泛关注,超过300人在线上与线下共同参加本次论坛。本次论坛由CCF济南分部秘书长孔兰菊主持。

  CCF济南分部主席、山东大学软件学院院长崔立真教授对论坛致辞。首先,崔立真教授感谢大家对于学术活动的支持并介绍了本次论坛的背景——如何理智地看待可信人工智能随后崔立真教授向与会嘉宾介绍了山东大学-南洋理工大学人工智能国际联合研究院的发展过程。最后,崔立真教授希望通过这次论坛使得大家都有所收获

国家自然科学基金优秀青年基金获得者北京航空航天大学童咏昕教授以基于安全多方计算的数据联邦技术浅谈为题联邦计算技术进行了系统的讲解咏昕教授从跨平台数据联合疫情追溯的例子出发讲述了联邦学习产生的背景,讲述了关系数据联邦和空间数据联邦研究背景。童咏昕教授介绍了课题组开发的空间数据联邦系统——虎符系统,该系统为学术界和企业界进行联邦计算研究和应用提供了优秀的平台并在金融风控、疫情追溯领域开展了落地实践,实现了产学研结合。童咏昕教授认为国家现在提倡数据要素市场的流动性,但是需要合理合规的使用,联邦计算整体系统性能以及实用性的提升还是有诸多的挑战,包括联邦计算系统构建、统一联邦计算测试基准构建、联邦计算中的激励机制等,未来联邦计算是一个生机勃勃的领域。


微软亚洲研究院吴方照研究员以面向AI大模型的高效可信联邦学习为题讲解了AI大模型的联邦学习前沿技术吴方照研究员认为人工智能取得了巨大的成就其成功来源于大数据大模型以及大计算资源。大模型目前采用的是中心化存储方式,带来了严重的数据隐私泄露问题,但是隐私保护法律越来越严格。联邦学习通过不收集数据的情况下训练人工智能模型,采用数据不动、模型动的方式学习,本质是一种协同的机器学习。联邦学习能够保护隐私来自于两个方面,首先处理的数据包含的隐私少于原始的数据,其次联邦学习只提取本地数据中与任务相关的信息。吴方照研究员认为联邦学习的应用前景十分巨大,例如推荐系统、智慧医疗等领域。目前联邦学习大多数应用于小模型,但是联邦学习与大模型结合具有巨大的挑战主要体现在通信代价大数据异构隐私以及安全等挑战随后,吴方照研究员介绍了课题组在联邦学习上的成果,能够有效地降低联邦学习中的通信代价。最后,联邦学习在诸多人工智能应用场景有着广泛地应用,欢迎大家一起参与到大模型联邦学习中的研究






南洋理工大学李扬教授以深度学习中网络行为的解释为题讲解了可解释机器学习的研究进展深度神经网络需要可解释主要体现在高风险决策需要可解释例如医疗辅助决策用户服务系统等服务部门决策需要可解释;政府的法律法规中对可解释有一定的要求;可解释的决策可以帮助改善人工智能模型李博扬教授认为模型规模大数据输入多样训练过程的随机性导致了深度学习难以解释可解释机器学习有网络可视化特征贡献数据贡献透明的可解释模型生成可解释的语言等方法接下来,李博扬教授介绍了课题组在可解释机器学习方面的研究进展,提出了影响函数的方法度量数据对于预测结果的影响。实验结果表明,通过度量函数可以有效地筛选数据集中错误的数据。通过剔除错误数据,模型在干净的数据集上有了巨大的提升。

复旦大学马兴军教授以对抗机器学习对抗与攻击研究概述为题介绍了对抗机器学习的前沿技术机器学习无处不在广泛地应用于各个领域但是存在了诸多可信问题,例如对抗样本能够攻击现有的智能系统可信机器学习包括鲁棒性安全性可解释隐私性以及公平性等八个方面内容对抗攻击/对抗攻击是可信机器学习领域的重要研究领域体现了人工智能模型的脆弱性。对抗样本能够攻击现有的医疗诊断系统、视频识别系统等,使之出现误判马兴军教授介绍了对抗攻防的历史,经典的攻击方法主要包括单步攻击、多步攻击以及基于优化的攻击等。随着对抗攻击范式的不断增多,对于攻击的防御变得越来越困难。对抗训练是一种防御对抗攻击的方法,是一种数据增广方法,通过增广对抗样本提高模型的鲁棒性,从优化的角度来说,对抗训练是一个最大最小化的优化框架,比较经典的算法有PGDTRADES等。马兴军教授认为,对抗训练还有很长的路要走,需要防御多样化的攻击、大模型的攻击以及不同应用场景的攻击,降低防御代价,寻找抵抗物理攻击的方法以及组合防御策略等,目前在这个领域,挑战要比方法多。


日本理化研究所张景峰研究员张景峰带来了对抗学习的应用》。张景峰研究员介绍了两个对抗学习的方法,利用了简单的例子引出了深度学习对于对抗样本是脆弱的,然后介绍了两个对抗学习的工作。图像降噪是指从有噪声的图片中恢复出干净的图像。近年来,基于深度学习的图像降噪器取得了较大的进展,能够有效地去除图片中的噪声,但是基于深度学习的图像降噪器仍然具有一定的脆弱性,然后提出了新型的对抗训练方法抵御对应的对抗攻击。两样本显著性检验属于基础的统计检验手段,被广泛地应用于生物医学等领域。随着数据不断复杂,需要更强的检测手段验证数据分布的一致性。张景峰研究员提出了一种鲁棒的核函数检测方法,能够有效地抵御针对两样本显著性检验的攻击。最后张景峰研究员描述了传统机器学习以及深度学习的优缺点并提出了机器学习研究的未来发展趋势即开展鲁棒性能好的机器学习算法研究






山东大学徐庸辉教授以解释图神经网络技术以电商平台用户挖掘为例为题讲解了可解释图神经网络的前沿技术。近年来,众多法律法规强调了人工智能系统的可解释性,这使得人工智能可解释性的约束上升到了法律层面。随着知识图谱和图神经网络技术的崛起知识图谱在电子商务智能决策等领域发挥了巨大的作用其中图神经网络在关系型知识图谱数据建模中发挥着巨大的作用可解释图神经网络技术主要可以分为两种类型一种图神经网络的预测过程本身就具有可解释的另外通过后解释的方式解释图神经网络的行为徐庸辉教授用电商平台为例解释了现有电商平台面临的问题通过挖掘高潜在用户意愿用户以及未支付用户来实现精准电商推荐


新一代人工智能正在全球范围内蓬勃兴起,为经济社会发展注入了新动能,正在深刻改变人们的生产生活方式。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防和约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。本次论坛提供了一次难得的学习和交流机会,参与人员对“可信人工智能国际学术论坛”有了更深入的认识。本次活动反响热烈,有助于开拓教师的学术视野,对各自的研究方向起到重要的指导作用,有重大的意义。