当前位置: 首页 - AI - 正文

AI技术没有考虑到社会经济的影响 存在着明显偏见

来源:懂视网 责编:吉增泰 时间:2022-01-11 10:21:37
导读相关技术人员使用一个因果模型分析表示,能够识别AI生成艺术品的相关方面,以及这些不同方面是如何相互影响的,其中人种偏见问题最为严重。相关技术人员将这些问题归咎于用于训练生成人工智能模型的数据集失衡,指出,这可能受到数据集管理员偏好的影响。

相关技术人员使用一个因果模型分析表示,能够识别AI生成艺术品的相关方面,以及这些不同方面是如何相互影响的。其中偏见比其他问题更有害。GoArt是一个类似DeepArt的平台,它将克莱曼婷·亨特的《黑矩阵女主角》的面部颜色从黑色改为红色,将其转化为表现主义风格。另一个AI生成的艺术工具,“Abacus”将拉斐尔和皮耶罗·迪·科西莫作品中留长发的年轻男性错当成了女性。

相关技术人员将这些问题归咎于用于训练生成人工智能模型的数据集失衡,指出,这可能受到数据集管理员偏好的影响。

例如,研究中提到的一款应用“人工智能肖像”人工智能使用了4.5万幅文艺复兴时期的肖像画,其中大部分是白人。根据研究人员的说法,另一个潜在的偏差来源可能是标记过程中的不一致。不同的注释者有不同的偏好、文化和信念,这些可能反映在它们创建的标签中。

在艺术流派、艺术家、艺术运动等方面可能存在不平衡。另外,描述不同种族、外貌等信息也没有纳入数据集,因此造成了代表性偏见。错误地建模或忽视某些微妙的信息,生成艺术可能会助长对过去社会、文化和政治方面的错误认知,并阻碍了解重要历史事件。

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。TEL:0731-84117792 E-MAIL:11247931@qq.com

标签: AI 偏见
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

Top