YEF2024 | AIGC:我太“男”了?——大模型中的性别偏差问题 YOCSEF 一方沙龙青年精英大会专题论坛
2024-05-28 阅读量:32 小字

2024 CCF青年精英大会(YEF 2024)于2024年5月16-18日在宁波市召开。YOCSEF “一方/IF沙龙”在5月17日举办了题为“AIGC:我太“男”了?——大模型中的性别偏差问题”的明辨堂论坛,本次论坛由YOCSEF昆明与YOCSEF哈尔滨联合协办。

1

1 一方沙龙精英大会专题论坛

大模型正在成为推动社会进步和信息社会生态重构的关键力量,在医疗、金融、教育等多个领域展现出革命性的潜力,但人工智能领域中的性别偏见问题及其潜在影响却如同暗流时刻威胁着技术的公正性和准确性。如果大模型在训练过程中吸收了带有性别偏见数据或方法,这些偏见很可能反映在其输出决策中。这不仅可能导致机会分配不平等,还可能在日常人机互动中加深性别刻板印象,长期累积还可能引发“蝴蝶效应”,加剧性别不平等,对整个社会结构和文化认知产生更深远的影响。

在此背景下,“一方/IF”沙龙提出围绕大模型性别偏差问题展开讨论的思辨论坛。本次论坛由CCF YOCSEF昆明23-24年度赵样、CCF YOCSEF哈尔滨24-25年度主席李洋担任执行主席,YOCSEF西安23-24年度委员贾阳担任线上执行主席,邀请了哈尔滨工业大学姚鸿勋教授、复旦大学邱锡鹏教授、北京理工大学高扬副教授做引导报告,邀请了腾讯云公司徐小敏总经理、青岛洞听智能科技有限公司姚长江技术总监、山东女子大学田杰教授作为思辨嘉宾,就大模型是否具有性别偏差,性别偏差有何影响,如何识别、减少和纠正以及女性力量在其中面临的机遇和挑战展开讨论,目标是促进智能社会的公平与包容性发展等问题展开讨论。本次论坛包含三位领域资深专家教授的引导发言和三个逐步递进的思辨议题讨论。

2

图2 引导发言嘉宾为相关领域资深专家

引导发言1:情感认知探索与大模型中的性别塑造

论坛首先由哈尔滨工业大学计算学部长聘教授姚鸿勋教授进行引导发言,深入探讨情感认知在大模型中的作用及其对性别塑造的影响。情感计算是以图像为刺激物,预测和度量人产生的情感反馈,情感认知是AIGC理解人类语言和行为的关键,但现有模型可能因为训练数据的性别偏见而产生对特定性别的刻板印象,不仅限制了模型的准确性,也可能在人机交互中加深性别歧视。例如,现有AIGC模型会考虑性别偏向而给出不同的生成内容,比如问题中提及“小明”、“小红”等人名会被大模型潜在认为分别是男性与女性角色,而给出不同的生成画面及文字回答,性别偏差也是未来大模型研究中一个值得考虑的问题。有趣的是,在论坛现场姚教授发现他们所使用的数据集也在无意中发生了性别偏差,采集的舞蹈视频基本都由女性进行表演,缺少男性样本,在后期引入男性表演视频数据也许能够更好地描述舞蹈动作特征,进一步提升模型性能。

发言后,一方沙龙23-24年度主席牛瑞向姚教授颁发了感谢牌。

3

图3 姚鸿勋作引导发言《情感认知探索与大模型中的性别塑造》

引导发言2:大模型对齐

4

图4 邱锡鹏作引导发言《大模型对齐》

性别偏差问题属于大模型对齐领域中的子问题。复旦大学计算机学院邱锡鹏教授着重探讨了如何通过大型模型进行性别对齐来提升女性在AI模型中的代表性,以减少和消除这些性别偏见。刻板印象是大模型中一个非常重要的研究内容。例如,在早期的大模型中,如GPT-2、LLaMA等由于语料有限,会生成更多的负面内容;在AIGC扮演专家角色进行内容生成时,以男性专家角色会生成更准确的结果。随着模型训练中语料数据的增加,偏见现象会逐步得到改善,如在GPT-4中,生成的负面内容占比会逐步降低,但在实际研究中,要进行语料的性别校正需要非常大的投入。由于数据驱动的大模型在泛化性、持续性、脆弱性方面与伦理导向的多元性、动态性、少数恶意性存在矛盾,需要进行模型对齐,通过人类偏好建模、价值观对齐等方法来调整模型输出更积极的内容。

引导发言3:大模型的发展:顺应过去还是改变未来?

5

图5 高扬作引导发言《大模型的发展:顺应过去还是改变未来?》

北京理工大学计算机学院高扬副教授的引导发言围绕“面对社会歧视、性别偏见,AI技术可以发挥怎样的能量,做出怎样的改变”这一问题展开,从数据构造、模型训练方法、评估体系方面探讨AI赋能的“她力量”,展望AI时代下女性力量的优势,以及为整个社会带来的可能。

性别偏见来源于带有偏见的训练数据,如固化的性别角色或偏见表述,另外还可能来源于刻板的性别归属,如处理任务时,模型将特定的性格特征或行为归属于某一性别。人类社会的发展,包括文化传统、教育、法律、政治等因素造成了在性别方面的过拟合现象。目前大模型生成的内容已经承载了人类社会已有的“偏见”,例如生成图像中豪车旁边大概率是男性角色、在医院照顾老人的护士通常都是女性角色等。为了修正大模型,可以通过重新构造数据,如角色设定、情景设定等角色扮演生成更加高质多维的对齐数据,以缓解大模型中的性别偏差,具体的可操作的方法包括基于稀疏化算法的知识关键参数定位、记忆重放与关键参数微调的知识注入等。

论坛的第二环节是思辨讨论。关于大模型中的性别问题,不仅需要学术界的关注,也需要产业界和社会的对话。因此,论坛邀请了山东女子大学、腾讯云计算、青岛洞听智能科技有限公司的资深专家针对每一个议题进行了思辨引导,与传统的思辨环节不同,此次论坛还加入了三位AIGC“嘉宾”:文心一言、星火大模型和通义千问,大家现场听取了AIGC本身对于“性别偏见”的看法。

6

图6 李洋、赵样主持思辨环节

思辨议题一:AIGC是否存在性别偏差,其根源是什么?是否会引发“蝴蝶效应”?

7

图7 姚长江进行思辨引导发言

针对AIGC是否存在性别偏差,参会者进行了热烈讨论,有参会者提出如果社会现实就是妈妈辅导作业,那生成“辅导孩子写作业”图像中的家长总是妈妈,这仿佛不能被算作偏差,但也有意见认为应该通过模型纠偏,生成图像中陪孩子写作业的也可以是爸爸、爷爷或者奶奶。参会者提出应该从根源上来进行研究,定义偏差是什么,大模型对齐的标准是什么,明确这些问题之后就可以从技术上进行模型优化。有社会学专业背景的参会者介绍:儿童在性别敏感期会有自己的偏好,比如女孩喜欢粉色、不喜欢小汽车玩具,但通过家长引导、干预,儿童会慢慢弥合偏差,这种偏好会逐渐减弱,那这种人类认知学习过程是否能够让大模型在学习新数据后会逐渐学会性别平等,让大模型学会这样的纠偏方法。

我们不禁也会反过来思考,大模型有偏差是坏事吗?是不是可以反过来让AIGC成为消除偏差的利刃,比如让大模型做一些性别敏感的算法,让模型偏向女性数据,主动纠偏。还有参会者表示大模型的性别偏差是一个好事,人类社会本来就不平等,追求种族平等、性别平等,都是在不平等发生百年之后才引发关注,而大模型从2022年至今只有一年半我们就开始讨论并关注大模型中的平等问题,可以预见,通过干预能够更早的实现大模型的平等。

从技术方面来讲,大模型的性别偏差就是对社会性别偏差的映射,偏差本来就存在,数据不平衡本、语料库中发言者的性别会带来性别偏差、开发者也会影响模型性能,这些都是事实,纠偏需要从数据和模型等方面展开。在实验中发现,只要对模型进行设置就可以减弱偏差;找到性别敏感的神经元,对其进行操作也可以减弱模型偏差。大数据大模型会缓解偏差和不平衡问题,不过仍无法完全避免这一问题。

参会者普遍认为,AIGC训练数据偏差、算法和模型设计、开发者的无意识偏见会造成性别偏差,AIGC把它的思想带给人类用户,AIGC的偏差也会渗透到用户中,可能会导致越来越偏。随着内容传播、偏见的迭代循环以及不公平决策等效应的累积,若不予以及时纠正,终将会引发“蝴蝶效应”,引发一系列的技术问题和社会问题。在这一议题,三个大模型给出的回答与在场嘉宾有着较高的一致性。

8

图8 徐小敏进行思辨引导发言

议题二:如何利用技术对AIGC进行“女性赋权”,使其去性别化?

针对如何利用技术手段使AIGC去性别化,有参会者提出是否真的需要进行女性赋权?为什么要女性赋权?未来AI也许会慢慢发展出自己的特征。男女本有别,也不应要求绝对的平等和无差异,我们是否应该有更包容的心态,求同存异,推动差异性的觉知,在某些方面追求平等,某些方面认同其本身的不同。

思辨内容体现出了明显的两种观点:有参会者认为AIGC的模型本来就符合目前社会现状,不需要纠偏,只要不是很严重的影响女性权利,就不需要纠正。但有参会者明确表示并不是符合现实就不用纠偏,大模型需要进行女性赋权,大模型作为工具,它的输出应该不分男女。

我们可以赋予模型多种属性,通过与用户的交流形成更加个性化、更贴合用户真实需求,具有不同角色的模型,以更开放的心态,允许更加多样的模型来服务用户,进行合理和灵活赋权是关键。AIGC的性别偏差问题需要进行纠偏赋权,但赋权时“赋什么权”是一个值得深入讨论的核心问题。

针对这一思辨议题,三个AIGC大模型输出的答案基本可以分为两大类:一方面是从技术方面,如训练数据平衡化、模型设计等方面来进行“赋权”;另一方面是从政策、社会等方面进行“赋权”。

议题三:AIGC中“她力量”的应为、可为与难为

9

图9 田杰进行思辨引导发言

在议题三的讨论中,专家们探讨了AIGC领域中女性力量的发挥及其面临的挑战。

姚鸿勋教授表示,女性在很多工作中往往与男性一样表现突出,但在机会不均等的时候,女性席位还是很少,在学校里,女生在学业方面往往表现很好,但在整个职业发展过程中,女性还是会遇到很多不公平,面对目前现实,作为女性应该更努力,为自己争取更多机会。在工科教育中,也存在女生自认为不如男生的情况,因此在教育过程中,教育者更应该对女生进行鼓励和支持,增强女生的自信心。

来自企业的参会者表示虽然他们也希望能够更好地支持女性的职业发展,但在现实中企业也感觉难以操作,比如在招聘中,经常出差的男性高管更倾向于招聘男性下属,女性休产假让企业更倾向于招聘男性员工,在支持女性的制度落实过程中还存在很多障碍,希望未来能够有一些改进。有专家认为男女性差异也体现在行业选择中,那么基于男性、女性的生理、心理特征,使其在适合的行业发挥到最好也不失为一个好的解决方案。在性别方面,如果能有一些对女性的支持,则是更好的,比如同时出现一男一女竞聘者,一定要选女性,因为在我国目前的社会发展阶段,女性取得跟男性同样的成绩,大概率女生更加优秀,在男女都有强烈意愿去做的行业就应该更倾向保障女性权益。也有参会者表示虽然女性可能会遭遇不公,但整体还是比较公平的。一方面是需要女性对自我的觉知觉醒、意识形态的肯定,另一方面,男性其实也需要受到关怀,在强调女性力量的时候需要保持公正,而不是强调特权。女性在AIGC领域中可以发挥重要作用,推动技术创新和性别平等。然而,女性在职业发展中仍面临诸多难题,如性别刻板印象、工作与家庭的平衡等……在此,呼吁社会各界共同努力,为女性提供更多的支持和机会,让“她力量”在智能科技领域中充分绽放

AIGC模型针对该议题,比较一致地认为“应为”在于在社会层面呼吁、倡导提升女性参与度,打破刻板印象,“可为”主要是倡导科研人员和决策层通过技术实现“平等”,“难为”主要体现在性别偏见和刻板印象、技术和资源限制以及社会和文化因素等方面。有意思的是,在询问大模型关于该议题的看法时,其中一个大模型的回应中包括了这样的陈述:“但是,女性要在人工智能技术领域取得成就,可能需要面临更大的学习困难。”这也从某种角度体现了一定的“性别偏见”。

10

图10 既有趣又有深度的讨论内容使现场气氛热烈而欢快

本次论坛引起了来自计算机、社会学、新闻传播等领域不同背景参会者的关注,通过不同视角的观点分享及现场热烈讨论,不仅为解决AIGC性别偏差问题提供了很多观点、策略和方案,也激发出大家对大模型“性别偏差”这一问题新的思考。通过引导发言和思辨,我们也发现如何定义AIGC中性别偏差问题,是否要解决以及如何解决,背后有很深的社会学、法律、传播学、计算机技术、数据科学内涵,希望能有更多的人关注这一问题,从社会科学、自然科学的角度进行更多研究,更好地推动性别平等价值观在新技术应用中的发展,为打造一个更加公平、公正的智能社会作出贡献

11

图11 参会者踊跃参与思辨发言

论坛最后,姚鸿勋教授代表大会向两位执行主席颁发了感谢牌,与会人员进行了合影留念。

12

图12 颁发精英大会专题论坛执行主席感谢牌

13

图13 专题论坛与会嘉宾合影

(特别鸣谢:中国青年报李新玲、YOCSEF一方沙龙历任主席及各位一方沙龙成员傅真、贾阳等)



热门动态
2023-04-20
大规模预训练模型的快速发展,特别是ChatGPT的横空问世...
CCF聚焦