首页 > 业界 > 关键词  > OpenAI最新资讯  > 正文

OpenAI 希望 GPT-4 能够帮助解决内容审核的问题

2023-08-16 10:52 · 稿源:站长之家

站长之家(ChinaZ.com)8月16日 消息:OpenAI 正在努力解决大规模内容审核的难题。他们声称,他们的 GPT-4技术可以取代成千上万的人工审核员,并且准确度几乎相同,更加一致。如果这是真的,那么这个科技领域最困难、最费脑力的任务可以被机器所接手。

OpenAI 在一篇博文中宣布,他们正在使用 GPT-4来开发和完善自己的内容政策、标记内容和做出决策。OpenAI 安全系统负责人 Lilian Weng 表示:“我希望看到更多的人以这种方式来维护信任、安全和节制。” 这对于我们如何利用人工智能来解决现实世界问题是一个非常好的进步。与传统的内容审核方法相比,OpenAI 有三个优势。

机器人上班打字

首先,他们声称人们对政策的解释存在差异,而机器的判断是一致的。这些指导方针可能很长,而且经常变化。虽然人类需要大量的培训来学习和适应,但 OpenAI 认为大型语言模型可以立即实施新的策略。其次,据称 GPT-4可以在几小时内帮助制定新的政策。起草、标记、收集反馈和完善的过程通常需要几周甚至几个月的时间。第三,OpenAI 提到了那些接触有害内容的工人的福利,比如虐待儿童或酷刑视频。

在近二十年的社交媒体和在线社区的发展中,内容审核仍然是在线平台面临的最大挑战之一。Meta、Google 和 TikTok 都依赖大量的版主,他们必须浏览可怕且经常造成创伤的内容。其中大多数位于工资较低的发展中国家,为外包公司工作,并且由于只接受最低限度的心理健康护理而面临心理健康问题。

然而,OpenAI本身严重依赖于点击工作者和人工工作。成千上万的人,其中许多人来自肯尼亚等非洲国家,从事内容注释和标记工作。这些文本可能令人不安,工作充满压力,而报酬却很低。

虽然 OpenAI 声称他们的方法是新颖且革命性的,但多年来,人工智能一直被用于内容审核。马克・扎克伯格对完美自动化系统的愿景尚未完全实现,但 Meta 使用算法来控制绝大多数有害和非法内容。YouTube 和 TikTok 等平台依赖类似的系统,因此 OpenAI 的技术可能会吸引那些没有资源开发自己技术的小公司。

每个平台都公开承认大规模完美的内容审核是不可能的。无论是人类还是机器都会犯错误,尽管错误的百分比可能很低,但仍然有数以百万计的有害帖子被漏掉,还有许多无害的内容被隐藏或删除。特别是,对于那些具有误导性、错误性和攻击性的内容(不一定是非法的),自动化系统面临巨大挑战。即使是人类专家也很难给这些帖子贴上标签,而机器也经常出错。这同样适用于记录犯罪或警察暴行的讽刺或图像和视频。

最终,OpenAI 可能有助于解决他们自己技术所引发的问题。像 ChatGPT 这样的生成式人工智能或该公司的图像创建者 DALL-E 使得大规模创建错误信息并在社交媒体上传播变得更加容易。尽管 OpenAI 承诺让 ChatGPT 更加客观,但 GPT-4仍然会制造与新闻相关的虚假信息和错误信息。

举报

  • 相关推荐
  • OpenAI 宣布自 GPT-4 发布以来的最大更新:ChatGPT 现在可以「看、听、说」

    OpenAI宣布,其聊天机器人ChatGPT现在可以「看、听、说」,或者至少能够理解口语,用合成的声音回应并处理图像。这次更新是自引入GPT-4以来OpenAI最大的一次改进。但该公司还指出,在此过程中转录被视为输入,并可能用于改进大型语言模型。

  • 对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4

    对标GPT-4代码解释器,港中大最新研究放了个“大招”:他们开发了一个叫做MathCoder的大模型,数学能力直接在竞赛级“题库”Math上超过GPT-4。做到这一点靠的就是无缝集成代码的能力——在遇到数学问题时,它不仅能用自然语言推理能自动编写和执行代码来建模、推导公式与方程。通讯作者为李鸿升,为港中大电子工程系副教授,同时也就职于上海人工智能研究室。

  • OpenAI科学家最新演讲:GPT-4即将超越拐点,1000倍性能必定涌现!

    【新智元导读】GPT-4参数规模扩大1000倍,如何实现?OpenAI科学家最新演讲,从第一性原理出发,探讨了2023年大模型发展现状。「GPT-4即将超越拐点,并且性能实现显著跳跃」。「不管怎么说,从第一原理出发理解核心思想是唯一可扩展的方法」。

  • GPT-4太烧钱,微软想甩掉OpenAI?曝出Plan B:千块GPU专训「小模型」,开启必应内测

    GPT-4太吃算力,微软被爆内部制定了PlanB,训练更小、成本更低的模型,进摆脱OpenAI。GPT-4太吃算力,连微软也顶不住了!今年,无数场微软AI大会上,CEO纳德拉台前激动地官宣,将GPT-4、DALL·E3整合到微软「全家桶」。毕竟后者对哪些公司可以将其开源LLM进行商业化是有所限制的。

  • 研究人员发现使用少见语言即可绕过GPT-4的限制

    布朗大学的计算机科学研究人员发现了OpenAI的GPT-4存在的安全性问题。通过使用不常见的语言,如祖鲁语和盖尔语,他们成功绕过了GPT-4的限制性设置。尽管他们意识到这一研究可能会给网络犯罪分子提供想法,但他们仍然认为将这一漏洞公之于众是必要的,因为利用现有的翻译API轻松实施这些攻击,因此那些试图绕过安全防护的恶意行为者最终会发现这一漏洞。

  • 哈佛研究: GPT-4 可将工作质量提升超过40%!

    根据来自哈佛商学院的一项新研究,GPT-4语言模型可以显著提高员工的工作质量,提高超过40%。研究也发现,不熟练地使用人工智能可能会导致工作绩效下降高达19个百分点。专业技能需要通过正规教育、在职培训和员工提升来培养。

  • 谷歌让大模型更具“心智”,GPT-4任务准确率大增

    谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人类所面临的问题学会了用推测的结论调整自己的行为。来自谷歌、卡耐基梅隆大学和的芝加哥大学的学者也参与了本项目。

  • 研究发现:BCG咨询师使用GPT-4解决业务问题表现不佳

    一项新研究发现,波士顿咨询集团的咨询师在使用OpenAI的GPT-4解决业务问题时表现不佳,他们的表现比那些没有使用GPT-4的同行差了整整23%。这一发现引发了对于人工智能在业务领域中的实际效用和风险的讨论。这种情况引发了对于知识产权和法律责任的复杂问题。

  • 还在一问一答?一文读懂GPT-4的超级Prompt

    你是否还在与GPT-4进行一问一答回答的互动?如果是,那么你可能还没有体验到GPT-4的全力。我要和你深入探讨“超级Prompt”的神奇功能,这个功能就像是你与GPT-4沟通的瑞士军刀,一切都变得触手可及。你可以尝试创建自己的“超级Prompt”,看看这个功能如何让你的工作和生活更加便捷和高效。

  • Bing Chat创意和精确模式全面采用GPT-4

    微软搜索主管MikhailParakhin在Twitter上正式宣布,BingChat在创意和精确模式下100%采用GPT-4。这一消息为微软在人工智能领域的发展迈出了重要的一步。市场竞争激烈,微软需要继续努力以实现其市场份额的增长目标。