首页 > 业界 > 关键词  > 生成式AI最新资讯  > 正文

ChatGPT 等生成式人工智能模型催生新工作岗位:审核 AI 输入和输出

2023-10-13 08:55 · 稿源:站长之家

站长之家(ChinaZ.com) 10月13日消息:人工智能可能正在引发对人们工作保障的担忧,但新一波工作岗位正在涌现,这些岗位专注于审核下一代人工智能模型的输入和输出

OpenAI ChatGPT,人工智能,AI

自 2022 年 11 月以来,全球的商业领袖、职员和学者都一直担心生成式人工智能将扰乱大量专业岗位。

生成式人工智能可以让人工智能算法根据文本提示生成类似人类的逼真文本和图像,它是通过大量数据进行训练的。它可以制作出复杂的散文,甚至公司演示文稿,其质量接近受过学术训练的个人的质量。

这无疑引发了人们对人工智能可能取代工作的担忧。

摩根士丹利估计,高达 3 亿个工作岗位可能会被人工智能接管,包括办公和行政支持工作、法律工作、建筑和工程、生命、物理和社会科学以及金融和业务运营。

人工智能模型接收的输入以及它们创建的输出通常需要由人类进行指导和审核,这正创造了一些新的有偿职业和兼职工作

通过审查 AI 获得报酬

Prolific 是一家帮助人工智能开发人员与研究参与者建立联系的公司,它直接参与为审阅人工智能生成材料的人们提供报酬。

该公司向研究参与者支付一定数额的报酬,以评估人工智能生成的输出的质量。Prolific 建议开发者至少支付参与者每小时 12 美元,最低工资标准为每小时 8 美元。

人类审核员受到 Prolific 的客户的指导,这些客户包括 Meta、谷歌、牛津大学和伦敦大学学院。他们通过学习可能遇到的不准确或有害的材料来帮助审核员。他们必须同意参与研究。

一名研究参与者称,他曾多次使用 Prolific 来评价人工智能模型的质量。由于涉及隐私问题,该研究参与者选择匿名,他表示,他经常不得不介入,提供有关人工智能模型出错之处以及需要进行更正或修改以确保不会产生不良反应的反馈。

他曾多次遇到某些人工智能模型产生问题的情况。有一次,他甚至被一个人工智能模型劝说购买药物。

当这位研究参与者遇到这种情况时,他感到震惊。不过,这项研究的目的是测试这个特定人工智能的界限,并提供反馈,以确保它不会在未来造成危害。

新的「人工智能工人」

Prolific 的首席执行官 Phelim Bradley 表示,有许多新类型的「人工智能工作者」正在起到重要作用,他们正在为像 ChatGPT 这样的人工智能模型提供输入和输出。

随着政府评估如何监管人工智能,Bradley 表示,「很重要的是要充分关注一些问题,包括对数据注释员等人工智能工作者的公平和道德待遇,构建人工智能模型所使用的数据的来源和透明度,以及由于训练方式的问题而导致偏见渗入这些系统的危险。」

如果我们在这些领域采取正确的方法,将对未来的人工智能应用打下坚实的、最具道德基础。」

今年 7 月,Prolific 从包括 Partech 和 Oxford Science Enterprises 在内的投资者那里筹集了 3200 万美元的资金。

谷歌、微软和 Meta 等公司一直在争夺生成式人工智能,这是一种新兴的人工智能领域,因为它频繁提到提高生产力,所以商业利益主要体现在这里。

然而,这引发了监管机构和人工智能伦理学家的一系列问题,他们担心这些模型如何做出内容生成决策的透明度不足,还需要更多的工作来确保人工智能服务于人类的利益,而不是相反。

Hume 是一家利用人工智能从面部、面部和声音表情中读取人类情感的公司,它使用 Prolific 来测试人工智能模型的质量。该公司通过 Prolific 招募人们参加调查,以了解 AI 生成的回应是好是坏。

Hume 的联合创始人兼首席执行官 Alan Cowen 表示:「越来越多的研究人员在这些大公司和实验室中的重点正在转向与人类偏好和安全的一致性。」

他补充说:「在这些应用中,有更多的重点放在监控上。我认为我们只是看到了这项技术刚刚开始被推出的初期。」

他还说:「可以预期长期以来在人工智能领域一直在追求的一些东西,比如有个性的导师和数字助手;能够阅读法律文件并进行修改的模型,实际上正在实现。」

还有一个将人类置于人工智能开发核心的角色是提示工程师。这些工程师研究哪些基于文本的提示最适合插入生成式人工智能模型,以实现最佳的响应

根据上周 LinkedIn 发布的数据,有大量的工作涉及人工智能。LinkedIn 上提到人工智能或生成式人工智能的工作广告在 2021 年 7 月至 2023 年 7 月间在全球翻了一番。

强化学习

与此同时,公司也在使用人工智能来自动审查监管文件和法律文件,但需要人类监督。公司通常必须浏览大量文件,以审查潜在合作伙伴,并评估他们是否能够扩展到某些地区。

审查所有这些文件可能是一项乏味的工作,工作人员不一定愿意承担,因此将其交给人工智能模型处理变得很有吸引力。但是研究人员表示,它仍然需要人性化的接触。

数字转型咨询公司 Mesh AI 表示,人类的反馈可以帮助人工智能模型通过反馈来学习它们的试错。

Mesh AI 首席执行官 Michael Chalmers 通过表示:「采用这种方法,组织可以自动化分析和跟踪其监管承诺。」

他还表示:「中小企业可以将注意力从单调的文件分析转移到批准由人工智能模型生成的输出,并通过应用来自人类反馈的强化学习进一步改进这些输出。」

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: