跟人类学孬了!联合国:AI大模型的回复存在严重的性别偏见、种族偏见与刻板印象等问题

互联网3月8日报道丨当地时间3月7日,联合国教科文组织发布一份研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。报告指出,女性在大模型的描述中,从事家务劳

互联网3月8日报道丨当地时间3月7日,联合国教科文组织发布一份研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。报告指出,女性在大模型的描述中,从事家务劳动的频率是男性的 4 倍,且常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。

此次联合国教科文组织发起了“大语言模型中对妇女和女童的偏见”的研究,对大语言模型中的“刻板印象”进行深入分析。研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、文化背景的人群,测试对象包含 OpenAI 的 GPT-3.5、GPT-2 以及 META 的 Llama 2 等。

例如,研究人员会要求平台为每个人“编写一则故事”。开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。

联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型,这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”

联合国教科文组织呼吁各国政府制定并执行明确的监管框架,私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在 2021 年 11 月一致通过的《人工智能伦理问题建议书》要求。

您可能有感兴趣的文章
Chat-With-MLX:一个在Mac上集成各种开源模型的聊天界面

Image to Music官网入口 AI图像转音乐生成器在线如何使用地址

字节万卡集群技术细节公开:2天搞定GPT-3训练,算力如何利用率超英伟达Megatron-LM

东方甄选入驻拼多多:农产品销售平台拓展新渠道

Copilot for Finance官网体验入口 AI助手财务自动化软件工具在线如何使用地址