11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
人工智能公司Anthropic最近发布了一项方法,旨在通过提示工程减少公司使用的大型语言模型输出中的歧视。该公司在一份文件中详细介绍了一种评估方法,指导公司如何通过优化提示降低模型输出的歧视性。Claude被指示避免“说教,烦人或过度反应”。
据外媒报道,瑞士EPFL技术大学的一名研究人员获得了3500美元的奖金,因为他发现Twitter上的一种关键算法更青睐看起来苗条、年轻、肤色较浅或温暖的面孔。Twitter于周日宣布将该奖项授予Bogdan Kulynych。据悉,Kulynych是一名研究隐私、安全、人工智能和社会的研究生。片的算法中存在的“显著性”问题。Twitter为发现人工智能偏见而提供的赏金是对目前主流漏洞赏金做法的一种新解释。漏洞赏金是企业为寻找安全漏洞而付给外部人员的
Facebook今天开源了一个数据集,旨在体现计算机视觉和音频机器学习模型中的年龄、性别和肤色偏见。该公司声称,这个语料库Casual Conversations,是第一个以付费者为主角的语料库,他们明确提供了自己的年龄和性别,而不是由第三方来标注这些信息或使用模型来估计。Casual Conversations包含3000名参与者的4100多段视频,其中一些来自Deepfake Detection Challenge,旨在通过加入 "明显 "肤色的标签来对抗这种偏见。Facebook表示,
据外媒报道,用谷歌首席执行官桑达尔·皮查伊的话说,对于负责推进“比电或火更具有深刻意义”的人工智能(AI)技术的人来说,杰夫·迪恩(Jeff Dean)是个非常冷静的人。
偏见是人工智能(AI)中一个根深蒂固问题,基于非代表性数据集的模型往往是公正的。这是一个比想象中更难解决的挑战,尤其是在图像分类任务中,种族、社会偏见常常会抬头。在众包尝试解决这一问题时,
在这个人工智能无处不在的时代,这可能会带来持续的系统性歧视。这也是为什么麻省理工电脑科学AI实验室的研究者们创立能减少人工智能偏见但不会降低预测结果准确率的方法的原因。“我们把这看成是一