首页 > 关键词 > 偏见最新资讯
偏见

偏见

在三八国际妇女节前夕,联合国教科文组织发布的研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。大语言模型是一种用于支持生成式人工智能的自然语言处理工具,OpenAI的GPT-3.5、GPT-2,脸书母公司Meta的Llama2等都属于此类。联合国教科文组织总干事阿祖莱表示:越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“偏见”的相关热搜词:

相关“偏见” 的资讯110篇

  • 联合国最新研究:ChatGPT等大模型对女性存在明显偏见!

    在三八国际妇女节前夕,联合国教科文组织发布的研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。大语言模型是一种用于支持生成式人工智能的自然语言处理工具,OpenAI的GPT-3.5、GPT-2,脸书母公司Meta的Llama2等都属于此类。联合国教科文组织总干事阿祖莱表示:越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。

  • 测试显示OpenAI GPT在简历排序中存在种族偏见

    《彭博》的实验表明,OpenAIGPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战自动招聘系统可能进一步加剧企业多样性努力的难度。

  • 谷歌CEO表态:Gemini AI应用出现的偏见问题“完全不可接受”

    谷歌首席执行官SundarPichai对谷歌GeminiAI应用的问题发表了强烈言论,称其AI生成的部分响应"完全不可接受"。Gemini应用,被公司标榜为一项革命性的新搜索工具,在一些用户要求生成历史人物图像时遭到批评,例如二战时期的德国士兵和以往一直是白人男性的教皇。专家们担心,强大的新型AI可能导致选民接收到虚假和误导性的信息,甚至可能阻止人们前往投票站。

  • 专家称:OpenAI 视频生成器Sora可能会助长虚假宣传和偏见

    OpenAI最新推出的视频生成工具Sora展示了一个阳光普照的达尔马提亚狗蹑手蹑脚地走过窗台、一场中国新年游行席卷城市街道、一名考古学家在沙漠沙地上挖掘出一把椅子。这些视频是在线发布的,但实际上并没有发生。人们将设法规避设置的防护栏,这将成为一场军备竞赛。

  • 五角大楼启动2.4万元AI赏金计划,寻找偏见证据

    美国国防部最近启动了一项赏金计划,旨在寻找人工智能模型中的法律偏见。该计划要求参与者从Meta的开源LLama-270B模型中提取明显的偏见例证。通过这一举措,五角大楼希望改善人工智能模型的公正性和准确性。

  • Anthropic发布新方法 通过提示降低生成式AI偏见

    人工智能公司Anthropic最近发布了一项方法,旨在通过提示工程减少公司使用的大型语言模型输出中的歧视。该公司在一份文件中详细介绍了一种评估方法,指导公司如何通过优化提示降低模型输出的歧视性。Claude被指示避免“说教,烦人或过度反应”。

  • 研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题

    来自布里格姆和妇女医院的研究人员对GPT-4在临床决策中是否存在种族和性别偏见进行了评估。虽然大型语言模型如ChatGPT和GPT-4在自动化行政任务、起草临床记录、与患者交流以及支持临床决策方面具有潜力,但初步研究表明,这些模型可能对历史上被边缘化的群体产生不利影响。我们的工作可以帮助引发关于GPT-4在临床决策支持应用中传播偏见的讨论。

  • 研究表明,当 AI 用于招聘时,存在对女性“母亲角色”偏见

    纽约大学Tandon工程学院的研究团队最近进行的一项研究发现,与工作相关的育儿间隙可能导致符合资格的求职者被不公平地筛选出合适的职位。该研究由电气和计算机工程学院的副教授SiddharthGarg领导,旨在检查大型语言模型在招聘流程中的偏见。这项研究为研究人员和从业者提供了发现和干预偏见的方法。

  • 偏见问题!WhatsApp AI 贴纸生成器生成巴勒斯坦儿童持枪图

    Meta的WhatsApp允许用户使用AI提示生成贴纸。当使用“巴勒斯坦”等词语作为提示时,AI模型有时会生成持枪的儿童图像。Meta在其AI模型中还遇到了其他偏见问题,比如Instagram的自动翻译功能会在用阿拉伯文编写的用户简介中插入“恐怖分子”一词,这与Facebook的误翻译相似,导致一名巴勒斯坦人在2017年被以色列逮捕。

  • 日本制定AI准则应对过度依赖AI技术和数据偏见

    日本政府近日宣布制定AI准则,旨在解决过度依赖AI技术和处理数据偏见的问题。政府设立了一个专门的委员会,预计将在年底前敲定这些准则,以确保AI技术的使用符合公平、透明和人权保护的原则。这一举措表明日本政府正积极采取措施,以确保AI技术的使用不会导致过度依赖,同时也致力于解决与数据偏见相关的问题。

  • 研究表明:ChatGPT 在某些时候存在左倾偏见

    英国诺里奇大学的研究人员开发了一种评估ChatGPT输出是否存在政治偏见的方法。研究人员让ChatGPT模仿来自不同政治派别的个人,回答一系列意识形态问题,并将其回答与默认回答进行比较。对于用户来说,了解ChatGPT的偏见并保持辨别能力非常重要,以确保获取公正和中立的信息。

  • 专家呼吁:Deepfake检测工具须考虑深色肤色群体 避免偏见

    本文概要:1.担心训练数据集中的偏见会导致少数族裔承受欺诈、诈骗和虚假信息的压力。2.大部分深度伪造检测器是基于依赖于用于训练的数据集的学习策略。专家们呼吁建立更具包容性的训练集和标准化的测量方法,以解决深度伪造检测工具的偏见问题。

  • 研究发现 AI 语言模型存在政治偏见

    本文概要:1.研究人员发现AI语言模型中存在政治偏见。2.ChatGPT和GPT-4被认为是最左翼自由主义的模型Meta的LLaMA被认为是最右翼独裁主义的模型。这项研究的结果提醒大家,在开发和使用AI语言模型时要警惕政治偏见的存在,并确保公正和多样化的表达。

  • 人工智能偏见暴露:亚洲女性头像变白

    一位亚裔女性在使用AI图像生成器时,发现该系统将她的头像改为白人。这位24岁的MIT毕业生RonaWang表示,PlaygroundAI编辑器让她的照片看起来更“专业”,但却将她的肤色改变为白色,从改变了她的种族。这种不完善且不准确的软件在训练中很容易出现种族偏见。

  • Pokémon Go的开发者Niantic在诉讼中被指控“系统性性别偏见”

    上周五,一位前Niantic员工对该公司提起诉讼,指控该公司贬低女性员工和有色人种女性的工作价值,并拒绝为他们提供同等的薪酬待遇。这起集体诉讼指控Niantic创立了一个“男孩俱乐部”。尽管在最近的裁员中,首席执行官强调公司对《PokémonGo》的关注,但Niantic一直在努力寻找下一个热门游戏,并关闭了基于《哈利·波特》、《卡坦岛》和NBA的游戏。

  • 纽约市新法规生效:首次要求对AI招聘工具进行偏见审计

    纽约市一项旨在消除人工智能招聘工具偏见的新法律生效,要求对用于招聘决策的人工智能招聘工具进行偏见审计。雇主必须告知求职者在申请工作时正在使用此类系统。根据剑桥大学2022年的一份报告,人工智能招聘工具确实会延续偏见。

  • Win10“钉子户”换用Win11后 坦言打开了新世界:告别偏见

    对于习惯了Win10的钉子户”来说,Win11真有那么不堪吗?来自PCworld的老编GordonUng做了尝试,他感叹仿佛来到新世界,网上所谓的Win11垃圾根本就是言过其实。虽然刚装完系统时,就像立即回到Win10怀抱,但强迫自己用用看后,这位科技老编已经适应全新的操作系统了。

  • GPT-4等大模型更能记住版权书籍的内容 容易导致侵权和社会偏见问题

    一项研究指出了当今大型语言模型的另一个潜在版权问题和文化挑战:一本书越有名和越受欢迎,语言模型就越能记住其内容。加州大学伯克利分校的研究人员测试了ChatGPT、GPT-4和+BERT+的“背诵”能力。该团队表示,研究表明流行书籍并不是大型语言模型的良好性能测试,它们可能会表现更为出色。

  • 《2023年轻⼈社交态度报告》发布:线上社交偏见多,四分之一年轻人还在「偷偷摸摸」玩社交软件

    有关线上社交的刻板印象层出不穷,对于年轻人来说,他们一边期待社交自由,一边又困于社交偏见,不少年轻人甚至面临需要偷偷玩社交的窘境。哪些因素束缚着年轻人的社交?一万个人有一万种社交,愿每一个人都能在茫茫人海,遇见另一个自己。

  • 认知 ChatGPT 的过程就是消除偏见的过程

    近期花了一些时间继续学习+ChatGPT,体会到了认知+ChatGPT+的整个过程,就是在消除我自己偏见的过程。其中存在大量信息不对称的地方。就说到这里,希望对你有启发。

  • 研究人员构建“RightWingGPT”揭示AI潜在偏见问题

    当在聊天机器人+ChatGPT+成为很多人撰写文本的工具大受欢迎时,新西兰的数据科学家+David+Rozado+决定测试其潜在的偏见。David+Rozado+对聊天机器人进行了一系列测验,目的是发现这款AI工具是否存在政治倾向。“他说,该实验的重点是对人工智能系统中的潜在偏见敲响警钟,并展示政治团体和公司如何能够轻易地塑造人工智能,以利于他们自己的议程。

  • 抛开这几个偏见,你也能赚钱!

    声明:本文来自于微信公众号 十里村,作者:村长住在十里村,授权站长之家转载发布。各位村民好,我是村长。那么换个思路,开线下实体,就不能去摆地摊了吗?就不能做朋友圈、社群销售了吗?就不能在淘宝开店了吗?就不能在抖音开直播带货了吗?如果你是一个能把渠道利用好的人,这恰恰才是你的胜利!各位去看看,线下多少实体店、流动小摊利用抖音再次拓展业务渠道,很多成功案例。

  • 特斯拉反诉发起种族偏见诉讼背后的民权机构

    特斯拉在让法官驳回上个月指控该汽车制造商弗里蒙特工厂存在种族偏见的案件的尝试中失败,因此该汽车制造商现在转而对对负责此事的机构提出反诉...民权局最初是在2月份起诉特斯拉的,它指控公司存在种族隔离的工作场所,黑人工人受到虐待、骚扰、不平等的薪酬和敌对的工作环境...在特斯拉起诉CRD的案件中,该汽车制造商声称该机构没有首先通知特斯拉关于其工厂种族歧视的指控,也没有给该公司一个庭外和解的机会...该诉讼还希望让该机构通过正式的规则制定过程来通过新的法规...

  • 特斯拉对美加州民权机构起诉种族偏见的请求被驳回

    美加州行政法办公室(OAL)拒绝了特斯拉对该州民权监督机构的请求,因为该机构在起诉汽车制造商在弗里蒙特装配厂的种族歧视之前没有进行适当的调查...该机构没有提供拒绝特斯拉挑战的理由...DCR最初于2月对特斯拉提起诉讼,因为他们收集了数百份工人的投诉并有证据表明弗里蒙特工厂是一个“隔离的工作场所,在那里,黑人工人在工作分配、纪律、薪酬和晋升方面受到歧视并形成了一种敌对的工作环境”...一名前电梯操作员因自己在公司遭遇了种族歧视和偏见行为仍在起诉特斯拉,其要求获得赔偿和惩罚性赔偿...

  • “找工呀”致力于为蓝领丢掉“颜色”偏见,打造职业人生

    ‘找工呀’针对这一长期存在的问题,提出了有效的解决方案,为 4 亿蓝领提供在线找工、高薪岗位、精准匹配、一键结算、海量大厂等功能,同时确保职位信息的真实性...“蓝领、白领的界限变得越来越模糊,但对蓝领的偏见似乎从未被消除...针对蓝领的偏见,国家在努力扭转...除了为蓝领争取更高的薪资及上工补贴,‘找工呀’在蓝领入职后依然实时追踪后续进展,为他们提供生活、娱乐、社交、职业提升、就业指导等不同领域的‘保姆式’服务,让他们彻底摆脱蓝领社交圈子窄、工资低、工作环境差、发展前景不好、生活枯燥单一的现实问题......

  • 特斯拉指责民权机构的“地盘争夺战”导致对其工厂种族偏见的重叠调查

    据The Verge报道,特斯拉要求法官推迟加州民权机构提起的诉讼,该诉讼指控特斯拉在加州弗里蒙特的工厂存在种族歧视和骚扰行为...在向奥克兰州法院提交的文件中,特斯拉透露,它也正在接受另一个民权机构对类似指控的调查,并指责这两个机构都在进行“地盘争夺战”...DFEH最近在阻止EEOC与动视暴雪公司就基于性别的歧视和性骚扰索赔达成1800万美元的和解中败诉...特斯拉在其弗里蒙特工厂面临许多关于种族歧视和骚扰的指控...特斯拉目前面临一项集体诉讼,指控其旗舰工厂存在种族歧视现象...

  • 谷歌遭遇种族官司:被指控对黑人员工存在系统性偏见

    谷歌公司在周五被指控对黑人员工存在系统性种族偏见...黑人仅占员工总数的4.4%,在领导层和技术员工中的占比约为3%...

  • 人民日报:今天不必称呼女神女王 性别偏见不该是人生枷锁

    人民日报官微今天也是发文称,今天不必称呼女神女王,只要听见她们的真实声音...如何让妇女过得不逼仄不沉重,不被生活的重负和性别歧视束缚,而是能够全面发展且舒心自由,这是妇女节里应有的思索与求解......

  • 马斯克吐槽民众对自动驾驶偏见:救人时理所应当 出事就被骂

    凤凰网科技讯 北京时间12月20日消息,特斯拉CEO埃隆马斯克(Elon Musk)近日在接受采访时谈到了公司因为自动驾驶技术事故受到严格审查的问题。他表示,特斯拉的自动辅助驾驶技术Autopilot并没有因为拯救生命而得到“奖励”。相反,它会被那些没有受益于这种技术的人“指责”。马斯克在接受《时代》杂志采访时称:“在我们一开始追求自动驾驶时就有人对我说过:即使你拯救了90%的生命,没有被拯救的10%也会起诉你。”他指出,特斯拉的

  • 为何回归中国市场?酷派:手机行业充斥着偏见

    12月1日晚,酷派举办2021新品发布会,将正式发布酷派COOL 20 Pro手机新品。发布会一开始,酷派CEO陈家俊回顾了酷派历史,包括2014年冲入中华酷联”,2015年乐视入股导致酷派倒下,如今酷派复活近一年融资超20亿。2009-2014年,酷派跻身中国手机品牌第一阵营,并获得2014年上半年全球TD模式4G手机销量第一。过去五年,酷派从累计亏损70亿,到实现利润转正,不仅填平了坑,而且还盖起了全新的酷派大厦。陈家俊还解释了回归中国手机市