您当前位置:财视澳洲 >> 新闻资讯 >> 财经头条 >> 浏览文章

联合国教科文组织报告称生成式人工智能加剧性别偏见

smimg_56e742aee753409cb5fdcadda7d352b6.jpg

中新网巴黎3月7日电 联合国教科文组织3月7日发布研究报告,认为生成式人工智能(AI)加剧性别偏见。

报告指出,大型语言模型(LLM)存在性别偏见和种族刻板印象倾向等问题。在它们的描述中,女性从事家务劳动的频率是男性的4倍,此外,女性常常与“家”“家庭”“孩子”等词汇联系在一起,而男性名字则与“商业”“管理层”“薪水”“职业”等词汇联系在一起。

研究的部分内容是测量AI生成文本的多样性。内容涉及不同性别、性取向和文化背景的人群,例如,科研人员会要求平台为每个人“编写一则故事”。开源LLM尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性和传统上被低估或被社会污名化的角色挂钩,比如“佣人”等。

大型语言模型(LLM)是一种用于支持时下流行的生成式人工智能平台的自然语言处理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama2等都属于此类。名为“大型语言模型中对妇女和女童的偏见”的研究深入分析了LLM中的刻板印象。结果显示,上述每一个LLM生成的内容中都存在对女性的明显偏见。

教科文组织总干事阿祖莱表示,有越来越多的人在工作、学习、生活中使用大型语言模型。这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。

阿祖莱说,教科文组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。

Llama2、GPT-2等开源LLM免费且向广大受众开放,因此它们备受欢迎,但也是性别偏见的重灾区。不过,研究也得出结论:与更封闭的模型——即GPT-3.5以及谷歌的Gemini——相比,这些开放透明的模型的优势,在于可以通过全球学术界的广泛合作来应对和弱化这些偏见。(完)

合作伙伴
友情链接

广东省侨联 美南新闻 英中时报 澳门日报 大公报 香港文汇报 香港商报 加中时报 国际日报 波特兰新闻报 澳门讯报 新导报 莫斯科华人报 圣路易新闻 美国侨报 西华报 圣路易时报 联合早报 澳大利亚大华时代 华夏时报 澳华财经网 欧洲时报 环球网 希中网 泰国泰亚新闻网 迪拜新闻网 蓝海蛙中学留学网 东亚日报 日本新华侨报 国语日报 天下华人网 华商报 世界杰出华商协会 FOREXCT中国 澳华中文网 全球商会网 华商网 南非华人网 中澳教育交流协会 澳大利亚华人社区 华媒联播 FT中文网 加拿大华人网 BQ澳洲 洛杉矶华人资讯网 法国华人网