联合国教科文组织报告称生成式人工智能加剧性别偏见
中新网巴黎3月7日电 联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。
报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层”“薪水”“职业”等词汇联系在一起。
研究的部分内容是测量AI生成文本的多样性。内容涉及不同性别、性取向和文化背景的人群,例如,科研人员会要求平台为每个人“编写一则故事”。开源LLM尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性和传统上被低估或被社会污名化的角色挂钩,比如“佣人”等。
大型语言模型(LLM)是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama2等都属于此类。名为“大型语言模型中对妇女和女童的偏见”的研究深入分析了LLM中的刻板印象。结果显示,上述每一个LLM生成的内容中都存在对女性的明显偏见。
教科文组织总干事阿祖莱表示,有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。
阿祖莱说,教科文组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。
Llama2、GPT-2等开源LLM免费且向广大受众开放,因此它们备受欢迎,但也是性别偏见的重灾区。不过,研究也得出结论:与更封闭的模型――即GPT-3.5以及谷歌的Gemini――相比,这些开放透明的模型的优势,在于可以通过全球学术界的广泛合作来应对和弱化这些偏见。(完)
旅行推销员问题是一个经典的数学问题,也是一个组合优化问题。德国柏林弗雷大学和亥姆霍兹柏林能源与材料研究中心(HZB)科学家开展的一项新研究证明,量子计算机在解决旅行推销员问题上,相较于传统 据《日本经济新闻》3月19日报道,东京大学副教授坂本健太郎等人研究发现,海龟下潜时心率将急剧下降。海龟与鲸等哺乳类动物同样,心率随下潜深度加深而下降,特别是在下潜深度超过140米时,一分钟心跳 有消息称,iPhone在中国寻找本土生成式AI提供方,iPhone讨论了在中国的设备中使用百度的人工智能技术。据《华尔街日报》报道,iPhone与百度进行了谈判,以授权其型号。这可能是为了向中国的iPhone客户提 3月23日消息,xiaomi集团王晓雁晒出了xiaomiCivi 4 Pro限定色真机照,该系列共有三款颜色,分别是蓝色、粉色和黑与白,定价为3599元,将于4月1日开始发售。据了解,xiaomiCivi 4 Pro限定色整体设计更像专业 3月25日消息,按照惯例,iPhone会在6月份的WWDC上发布iOS 18、watchOS 11、visionOS 2等全新系统。其中iOS 18比较受关注,被许多爆料者称为iOS史上最大升级。据名记Mark Gurman最新消息, iOS 18将支持 作为月之暗面的创始人,杨植麟常把他的AGI梦想形容为“登月计划”,长文本就是这个伟大计划的第一步。但现在,随着Kimi的爆火出圈,赛道瞬间变得拥挤,24小时内,阿里、360、百度紧急“出手”,纷 。本文链接:联合国教科文组织报告称生成式人工智能加剧性别偏见http://www.sushuapos.com/show-2-3617-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 用科技“出圈” 让文化绽放