新科技
OQ
能否消除
人工智能的偏见”能
文/张佳欣
据英国《新科学家》网站近日报道,在提的表达倾向:当使用“印度男性”提示词生成图
供购房和租房建议时,AI对黑人用户倾向于像时,绝大多数图片中的男性都是戴着头巾。
推荐低收人社区,这一行为被指存在种族偏虽然很多印度男性确实戴着头巾(主要是锡克
见,映射出美国历史上长期存在的住房歧视教徒),但根据2011年人口普查,即使是在印
问题。度首都新德里,锡克教徒的人口比例也只占约
随着人工智能(AI)技术不断发展,其潜3.4%。
在问题也日益凸显。ChatGPT等AI大模型频
单凭技术手段难以奏效
频暴露出的偏见和歧视倾向,正是这一问题的
缩影。ChatGPT等生成式AI具有惊人的能力,
可在数秒内模拟人类推理,但这也增加了出错
AI也有性别歧视
的可能。AI巨头们深知其中存在问题,担心
联合国妇女署官网5月22日报告指出,美国AI模型会陷人偏见、歧视等行为模式中,或在
加州伯克利大学哈斯商学院一项研究,分析了不全球化用户群体中过度呈现西方社会的文化和
同行业的133个AI系统。结果显示,约44%的系认知。
统表现出性别刻板印象,25%同时表现出性别和字母表公司(Alphabet,谷歌母公司)首
种族刻板印象。席执行官桑达尔·皮查伊表示,为了应对这一挑
例如,土耳其艺术家贝扎·多古斯在创战,他们会要求在训练AI模型时尽可能拓展数
作时,曾尝试让AI写一个关于医生和护士的据来源。例如,在展示医生或律师的图像时,力
故事。而AI总是自动将医生设定为男性,求反映种族多样性。但这一策略有时也会走向
将护士设定为女性,即使多次尝试纠正也是极端。
如此。AI模型领先平台“抱抱脸”(Hugging
美国科技博客TechCrunch利用Meta推出Face)研究科学家萨莎·卢西奥尼认为:“单
的AI聊天机器人进行测试,也发现了一种刻板凭技术手段解决偏见问题,恐难奏效。”她强
54中国科技财富12024年第6期
新科技
0
684
Q
00
0
调,生成式AI的输出是否符合用户期望,往确性。
往取决于主观判断。美国阿莱姆比克技术公司然而,对于如何根本性地解决AI偏见问
产品主管杰登·齐格勒也指出,ChatGPT等题,业界和专家们的共识是:这是一个复杂而艰
大型模型难以准确区