首页 > 业界 > 关键词  > 正文

新加坡发布管理用个人数据训练AI模型的指南草案

2023-07-20 17:55 · 稿源:站长之家

站长之家(ChinaZ.com)7月20日 消息:新加坡发布了关于如何管理个人数据用于训练人工智能(AI)模型和系统的指南草案。

该指南旨在解释企业使用个人数据训练 AI 模型和系统时新加坡法律的适用情况,包括研究和业务改进的例外情况。该指南强调了数据的准确性和透明性,并鼓励企业在训练 AI 模型时使用自己的数据,以确保数据的真实性和相关性。这样做可以提供更多的上下文信息,并减轻与准确性和知识产权侵权等潜在风险相关的担忧。

AI机器人上班

然而,这些指导方针不具有法律约束力,也不会补充或改变任何现有法律。他们着眼于问题和情况,例如在开发机器学习模型或系统时,公司如何从 PDPA 中的现有例外中受益。

该指南还明确了了组织在为促进预测、决策和建议的机器学习人工智能系统收集个人数据时如何满足涉及同意、责任和通知的要求。文件还指出,公司何时适合寻求两种例外情况,以进行研究和业务改进,而无需征求同意使用个人数据来训练人工智能模型。

当公司开发产品或拥有他们希望改进的现有产品时,业务改进例外可能适用。当人工智能系统用于推动提高运营效率或提供个性化产品和服务的 决策流程时,这种例外也可能相关。

例如,业务改进例外可以应用于内部人力资源推荐系统,该系统用于为某个角色提供第一批潜在候选人。它还可以应用于人工智能或机器学习模型和系统的使用,以提供提高产品和服务竞争力的新功能。

在数据保护方面,组织在开发、培训和监控使用个人数据的人工智能系统时应 包括适当的技术流程和法律控制。

指南指出:“在开发人工智能系统的背景下,组织应将数据最小化作为良好实践。仅使用包含训练和改进人工智能系统或机器学习模型所需属性的个人数据也将减少人工智能系统不必要的数据保护和网络风险。”PDPC 正在征求公众对指南草案的反馈,该草案应于8月31日之前提交。

举报

  • 相关推荐
  • 大家在看
  • 丰田训练AI机器人制作早餐,无需编码、通过触觉学习

    丰田研究院近日宣布,他们成功使用生成式人工智能在“机器人幼儿园”中培训机器人执行各种灵巧任务无需进行繁琐的编码工作。这一突破性的技术使得机器人可以通过触觉感知和学习,像人类一样执行各种任务。与丰田研究人员的方法类似,他们的机器人利用他们所获得的经验来推断如何做事。

  • 戴尔发布生成式AI工具 提供预训练模型

    科技公司戴尔发布了一款名为“DellValidatedDesignforGenerativeAIwithNVIDIAforModelCustomization”的生成式人工智能工具,旨在帮助企业从数据中提取智能。这一工具的特点在于提供了预训练的模型,用户无需从头开始构建模型,即可快速提取数据中的智能信息。生成式AI模型的定制和微调可以帮助企业更好地利用其数据资源,实现更高效的工作流程和更准确的决策。

  • 中兴通讯:将发布支持大模型训练的最新AI服务器

    10月11日,中兴通讯在互动平台上表示,作为国内主流的服务器厂商,其一直在积极应对人工智能领域的应用需求,并适时推出满足各类AI应用场景的服务器产品。采取了以下两个策略:首先,针对中小型模型的训练和推理需求,中兴通讯在今年1月推出了G5系列服务器。中兴通讯计划在今年内发布一款支持大模型训练的最新AI服务器。

  • 华为发布全新昇腾AI计算集群 支持超万亿参数大模型训练

    华为在全联接大会2023期间发布了全新架构的昇腾AI计算集群Atlas900SuperCluster,该集群可支持超万亿参数的大模型训练。该集群采用了全新的华为星河AI智算交换机CloudEngineXH16800,并使用了创新的超节点架构,大大提升了大模型训练能力。该集群还通过提升系统可靠性,将大模型训练的稳定性从天级提升到月级。

  • 日本AI草案提出采取措施 减少对AI技术的过度依赖

    日本政府的一项AI草案要求利用人工智能的公司和组织采取措施,以减少对该技术的过度依赖。该草案还呼吁AI开发者在机器学习中不使用偏见数据,并要求他们记录与技术的互动,以备在出现问题时提供。利用AI的提供商将被要求警告用户避免输入不希望被第三方访问的个人信息,并保证其服务仅限于预期用途,以防止不良行为者滥用技术用于恶意目的。

  • 智源开源中英文语义向量模型训练数据集MTP

    智源研究院发布面向中英文语义向量模型训练的大规模文本对数据集MTP。这是全球最大的中、英文文本对训练数据集,数据规模达3亿对,希望推动解决中文模型训练数据集缺乏问题。作为中国大模型开源生态圈的代表机构,智源持续进行包括数据在内的大模型全栈技术开源,推动人工智能协同创新。

  • AI的大模型时代 ≠ 只有大模型AI时代

    什么样的技术能经历时间洗礼还历久弥新?答案或许可以归总为一个“三部曲”般的规律——兴起、发展和大规模应用,外加这个过程再一次演进式的迭代。引领第一次工业革命的是蒸汽机,当它演进成为内燃机并开始普及时,第二次工业革命的颠覆者——电能本身以及与它相关的各种设备正处于初创期在电力设备走向微电子的迭代革新时,各种燃油引擎还在持续改良和普及中�

  • OpenLM:一个专为中等规模语言模型设计的模型训练

    OpenLM是一个旨在训练中等规模语言模型的PyTorch代码库,它强调了最大化GPU利用率和训练速度的设计。该库已经通过训练OpenLM-1B和OpenLM-7B两个语言模型,分别在1.6T和1.25T的文本标记上进行验证,取得了令人瞩目的成果。OpenLM的团队成员和致谢也在文章中列出,表明了该项目的合作性质和开源精神。

  • Headless语言模型:通过捆绑嵌入提高模型训练速度

    研究人员发现了一种改进语言模型性能的方法——Headless语言模型,即将输入嵌入与模型的其他嵌入捆绑在一起,并使用对比损失。通常情况下,语言模型的输入和输出嵌入层是分开的,但这种新方法通过捆绑它们,提高了模型的训练速度和准确性。这项工作为以对比学习取代交叉熵作为自监督预训练目标开辟了道路,为语言表示学习提供了一种高效可行的替代方案。

  • 上海AI实验室开源工具箱XTuner 8GB显卡就可训练模型

    上海人工智能实验室发布了一款面向大模型训练的开源工具箱XTuner,通过支持多种硬件适配,大幅降低了企业进行大模型训练的门槛,尤其是对中小企业具有重要意义。XTuner为各类开源模型提供了多样的微调框架XTuner支持与多款开源大模型的无缝衔接,可执行增量预训练、指令微调等任务类型。业内人士表示,这将推动我国在人工智能核心领域的技术进步。

今日大家都在搜的词:

热文

  • 3 天
  • 7天