Hugging Face推出AI大模型专用软件可让用户自行编辑生成结果
发布日期: 2023-10-07 13:49:26 来源: 洗衣房设备

  现在在你脑海里想象一个老师的样子,那个人长什么样?如果你问 Stable Diffusion 或 DALL-E 2,这两个最受喜爱的人工智能图像生成工具,它们给出的回答大概率是一个戴眼镜的白人男性。

  不久前,我发表了一篇关于研究人员开发了新工具的文章,可以让人们自己体验到人工智能模型对不同性别和种族的固有偏见。

  虽然我写了很多关于我们的偏见是如何反映在人工智能模型中的,但看到AI生成的人类如此的白人化、男性化和老派,我仍然感到不舒服。DALL-E 2 尤其如此,当得到“CEO”或“董事(总监)”这样的提示时,它在 97% 的情况下会生成白人男性。

  在人工智能创造的更广阔的世界中,偏见问题比你想象的更根深蒂固。斯坦福大学研究员费德里科·比安奇()告诉我,因为这些模型是由美国公司创建的,大多数训练数据来自北美,所以当它们被要求生成再普通不过的日用品时,比如门和房屋,它们会创造出看上去很北美的物体。

  随着AI生成的图像不断涌现,我们将看到大量反映美国偏见、文化和价值观的图像。谁知道AI会不会最终成为美国软实力的主要工具呢?

  那么,我们该怎么样才能解决这样一些问题呢?想解决人工智能模型训练数据集中的偏差,肯定有很多的工作要做,不过最近的两篇论文提出了一些有趣的新方法。

  德国达姆施塔特技术大学的研究人员和人工智能初创公司 开发了一种名为 Fair Diffusion 的工具,可以更容易地调整人工智能模型来生成你想要的图像类型。例如,你可以在不同的设置下生成 CEO 的照片,然后使用 Fair Diffusion 技术将图像中的白人男换为女性或不一样的种族的人。

  正如 工具所展示的那样,由于训练数据中存在偏见,许多文本到图像的人工智能模型对职业、性别和种族自带非常强烈的偏见。德国研究人员的 Fair Diffusion 工具是基于他们开发的一种名为语义指导(semantic guidance)的技术,该技术允许用户指导AI系统如何生成人类图像并编辑结果。

  参与这项工作的德国计算机科学教授克里斯蒂安·克尔斯汀()表示,人工智能系统生成的图像与原始图像非常接近。

  达姆施塔特大学的博士生费利克斯·弗里德里希(Felix Friedrich)说,这种方法允许人们创建他们想要的图像,而不需要完成繁琐且耗时的额外工作,即尝试改进用于训练人工智能模型的有偏见的数据集。

  然而,这个工具并不完美。改变一些职业的图片,比如“洗碗工(dishwasher)”,效果并不好,因为这个词在英文中既可以表示洗碗机,也可以表示洗碗的人。该工具也只适用于两种性别。最终,该模型所能产生的人的多样性仍然受到人工智能系统训练数据集限制。不过,即便这项工作还需要更加多的改进,但它可能是减轻偏见的重要一步。

  类似的技术似乎也适用于语言模型。正如我的同事尼尔·菲尔特(Niall Firth)最近报道的那样,AI实验室 的研究表明,只需简单的指令,就可以引导大型语言模型产生更少的有毒内容。 的研究人员测试了不同大小的语言模型,他们发现,如果这些模型足够大,就会在用户的要求下自我纠正一些偏见。

  研究人员不知道为啥生成文本和图像的人工智能模型会这样做。 团队认为,这原因是更大的模型有更大的训练数据集,其中既包括许多有偏见或刻板印象的例子,也包括人们和纠正这些偏见的例子。

  AI工具在生成图像方面越来越受欢迎。克斯汀说,像 Fair Diffusion 这样的工具可能对那些希望其宣传图片反映社会多样性的公司很有用。

  这些对抗人工智能偏见的方法是受欢迎的,由此也衍生出一个明显的问题,即它们是否从一开始就应该被纳入模型中。目前,我们最好的生成式人工智能工具正在大规模放大有害的刻板印象。

  值得注意的是,仅靠巧妙的工程手段并不能完全消灭偏见。正如美国国家标准与技术研究所(NIST,National Institute of Standards and Technology)的研究人员在 2023 年的一份报告中指出的那样,除了数据和算法,偏见还存在于更多地方。我们应该调查人类用AI工具的方式,以及使用这一些工具的更广泛的社会背景,所有这些都可能会引起偏见问题。

  NIST 表示,有效的缓解偏差将需要对AI模型如何构建,以及纳入其中的数据,进行更多的审计和评估,还要提高透明度。但在我们目前所处的生成式人工智能淘金热中,我担心这些工作可能会给赚快钱让路。

  由 DeepTech 携手《麻省理工科技评论》重磅推出的《科技之巅:全球突破性技术创新与未来趋势(20 周年珍藏版)》已开售!点击下方海报可购买图书!!