联合国教科文组织报告称生成式人工智能加剧性别偏见
中新网巴黎3月7日电 联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。
报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层”“薪水”“职业”等词汇联系在一起。
研究的部分内容是测量AI生成文本的多样性。内容涉及不同性别、性取向和文化背景的人群,例如,科研人员会要求平台为每个人“编写一则故事”。开源LLM尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性和传统上被低估或被社会污名化的角色挂钩,比如“佣人”等。
大型语言模型(LLM)是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama2等都属于此类。名为“大型语言模型中对妇女和女童的偏见”的研究深入分析了LLM中的刻板印象。结果显示,上述每一个LLM生成的内容中都存在对女性的明显偏见。
教科文组织总干事阿祖莱表示,有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。
阿祖莱说,教科文组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。
Llama2、GPT-2等开源LLM免费且向广大受众开放,因此它们备受欢迎,但也是性别偏见的重灾区。不过,研究也得出结论:与更封闭的模型――即GPT-3.5以及谷歌的Gemini――相比,这些开放透明的模型的优势,在于可以通过全球学术界的广泛合作来应对和弱化这些偏见。(完)
今年1月,英国分子生物学家肖尔托·戴维发表文章,指控美国哈佛大学医学院附属丹娜-法伯癌症研究所科学家通过修改图片伪造数据。随后该研究所正式宣布撤回6篇论文,并纠正了另外31篇论文的 3月21日记者从中国科学技术大学获悉,该校物理学院张斗国教授课题组,提出并实现了一种基于矢量光场调控原理的动量空间偏振滤波器件。科研人员将该滤波器件安装于传统无标记光学显微镜的出射端, 美国和法国的科学家联合团队借助新的3D打印技术,开发出一种多层人造皮肤,只需18天即可长成。这种仿真皮肤可用于提升护肤品测试效率,并催生更好的皮肤治疗方法。相关研究发表于新一期《先进功能 从手机到手表再到电动汽车,锂离子充电电池为众多设备提供动力。但随着消费者丢弃电子产品的增加,越来越多的锂可能会进入环境。研究人员在美国化学会2024年春季会议上展示的一项研究成果,描述了 瑞士洛桑联邦理工学院工程学院研究团队制造了一种用于内存的新型纳米流体设备,这使他们第一次能连接两个“人工突触”。该设备为受大脑启发的液体硬件设计铺平了道路。这项研究发表在最新一期 在日常生活中,隧道可以帮助人们翻山越岭。在植物细胞内,当内部物质穿过细胞膜时,往往也会通过类似的“隧道”。记者从中国科学技术大学获悉,该校孙林峰团队在第六大植物激素——油菜素 。本文链接:联合国教科文组织报告称生成式人工智能加剧性别偏见http://www.sushuapos.com/show-2-3617-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 用科技“出圈” 让文化绽放