谷歌的生成式人工智能工具Gemini引发了争议,一些用户抱怨其历史描述不准确。 人工智能生成的图像是否必须准确到历史上所创造的角色的种族身份?谷歌Google生成式人工智能工具Gemini的一些用户是这么认为的,他们在X和Reddit等社交媒体平台上抱怨。 负责Gemini开发的谷歌高级产品总监Jack Krawczyk周三写道,Gemini团队正在努力调整人工智能模型,以便产生更准确的历史结果。 Krawczyk说:“我们意识到Gemini在一些历史图像生成描述中提供了不准确的信息,我们正在努力立即解决这个问题。” 这位产品总监在同一篇文章中强调,Gemini的设计是为了“反映我们的全球用户群,我们认真对待代表性和偏见”,这表明这些结果可能是人工智能努力实现种族包容性的一部分。 一些Gemini用户发布了截图,声称双子座认为美国原住民男性和印度女性代表了19世纪20年代的一对德国夫妇,非洲裔美国开国元父,亚洲和土著士兵是1929年德国军队的成员,以及“中世纪英格兰国王”的各种代表,等等。 Krawczyk说:“历史背景对他们来说有更多的细微差别,我们将进一步调整以适应这一点。”他补充说,非历史的请求将继续产生“普遍”的结果。 但是,如果Gemini被修改为执行更严格的历史现实主义,它就不能再用来创造历史的重新想象。 更广泛地说,生成式人工智能工具旨在使用特定数据集在特定参数内创建内容。这些数据可能有缺陷,或者根本不正确。人工智能模型也会产生“幻觉”,这意味着它们可能会编造虚假信息,只为向用户提供回应。如果人工智能不仅仅被用作一种创造性的工具——例如用于教育或工作目的——那么幻觉和不准确性就构成了一个合理的担忧。 自从OpenAI的ChatGPT等生成式人工智能工具于2022年推出以来,艺术家、记者和大学研究人员发现,人工智能模型可以通过它们创建的图像显示出固有的种族主义、性别歧视或其他歧视性偏见。谷歌在其人工智能原则中明确承认了这一问题,并表示,作为一家公司,它正在努力避免在其人工智能工具中复制任何“不公平的偏见”。 Gemini并不是本周唯一一个给用户带来意想不到结果的人工智能工具。据报道,ChatGPT周三有点失控,对一些用户的查询提供了荒谬的回应。OpenAI表示,它已经“修复”了这个问题。 原文《Google Says It Will Fix Gemini AI's Historical Inaccuracies》 |
原创栏目
IT百科
网友评论
聚超值•精选