首页 > 关键词 > AI风险最新资讯
AI风险

AI风险

欧洲联盟警告微软,根据该联盟的数字服务法案,微软可能面临高达全球年收入的1%的罚款,因为该公司未能回应关于其生成式人工智能工具的信息请求。今年3月,欧盟要求微软和其他一些科技巨头提供关于生成式人工智能工具带来的系统风险的信息。微软还表示:“我们一直在与欧盟委员会合作,作为自愿信息请求的一部分,并将继续回答他们的问题,并分享更多关于我们在数字安全方面的方法以及与DSA的合规情况的信息。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“AI风险”的相关热搜词:

相关“AI风险” 的资讯18574篇

  • 欧盟警告微软可能面临数十亿美元罚款,因未提供生成式AI风险信息

    欧洲联盟警告微软,根据该联盟的数字服务法案,微软可能面临高达全球年收入的1%的罚款,因为该公司未能回应关于其生成式人工智能工具的信息请求。今年3月,欧盟要求微软和其他一些科技巨头提供关于生成式人工智能工具带来的系统风险的信息。微软还表示:“我们一直在与欧盟委员会合作,作为自愿信息请求的一部分,并将继续回答他们的问题,并分享更多关于我们在数字安全方面的方法以及与DSA的合规情况的信息。

  • AI风险管理初创公司ValidMind筹集810万美元,助力银行遵守监管要求

    针对金融机构的AI风险管理初创公司ValidMind近日宣布完成810万美元的种子轮融资。此轮融资由Point72Ventures领投,多家风险投资公司参与。”随着AI在金融服务业中变得越来越关键,ValidMind旨在确保整个AI模型生命周期的完整性。

    AI
  • Meta扎克伯格与日本首相讨论生成式AI风险和未来战略

    在对日本进行的官方访问中,Meta首席执行官马克・扎克伯格与日本首相岸田文雄就生成式人工智能所带来的新挑战和机遇展开了一场关键性的讨论。这次会晤持续约30分钟,被描述为“积极富有成效”,主要关注了需要一致性方法来理解和缓解与AI进步相关的潜在风险。随着世界继续应对AI快速发展,从这类讨论中涌现的见解和战略将在塑造前进道路方面发挥关键作用,确保技�

  • 生成式AI风险或促使日本政府创建第三方认证系统

    为鼓励生成式人工智能技术的开发者和服务提供商遵守指导原则,日本政府将考虑采取新措施来减轻生成式AI的风险。这些措施可能包括建立第三方认证系统和加强对被视为高风险的行业和组织的监管。G7达成了一个国际行为准则,呼吁采取适当行动来应对基于AI的风险,以及开发和引入数字水印技术等方法来帮助用户识别AI生成式的内容。

  • 新工具“Glaze”正在保护人类艺术家作品免受AI风险

    芝加哥大学的科学家们近日宣布他们发明了一项创新工具"Glaze",旨在为人类艺术家们提供保护,确保他们的作品不受生成型人工智能的风险。这一工具的核心理念是通过微小的风格变化,使艺术品在人眼中看起来未经改变,但对于AI模型却呈现出完全不同的风格。这一创新工具有望为艺术家们提供更多的控制权和保护,确保他们的作品能够在数字时代得到充分尊重和认可。

  • 比尔盖茨:AI风险可控 这是今生最具变革性的创新

    比尔·盖茨对人工智能的风险似乎没有其他一些硅谷的高管那么担心。在周二的一篇博客文章中,微软联合创始人盖茨概述了人工智能的一些最大的关注领域,包括传播虚假信息和取代工作的可能性。”“这是我们这辈子能看到的最具变革性的创新,”他写道,“一个健康的公共辩论将取决于每个人对技术、其好处和风险的了解。

  • AI前哨|马斯克开启欧洲行:会见意大利女总理 AI风险成讨论重点

    凤凰网科技讯《AI前哨》北京时间6月16日消息,当地时间周四,特斯拉公司CEO埃隆马斯克开启了他的欧洲之行。根据意大利梅洛尼发布的推文,她在周四与马斯克会面,讨论了人工智能风险、出生率等话题。凤凰网科技《AI前哨》对此将持续关注。

  • 全球247亿美元豪赌GenAI,疯狂入局AI成高风险博弈?

    【新智元导读】面对GenAI的技术浪潮,很多人都会在不断迭代更新的技术中逐渐迷失。站在潮头的Sapphire、Emergence、Menlo等风投公司,又会如何看待这场AI变局的现状与走向?根据SapphireVentures的数据,GenAI领域从2022年到2023年迎来了爆发式的增长,全球范围的风投资金总量从76亿美元陡增到247亿。不论我们谈论的是端到端平台是AI驱动的计算环境,成功的关键在于培养适应性。

  • 前OpenAI员工发公开信吁AI公司允许员工提出风险担忧

    一群前OpenAI和GoogleDeepMind员工在一封公开信中呼吁人工智能公司允许员工提出对AI风险的担忧不必担心遭到报复。他们认为AI可能加剧不平等、操纵信息,甚至导致人类灭绝。她呼吁对法律进行重大修改,以更好地保护揭露问题的员工。

  • OpenAI再度拉响安全警报:又一高层离职揭示巨大风险

    OpenAI最近面临了安全团队成员的连续离职,其中包括AI策略研究员GretchenKrueger。她在2019年加入OpenAI,参与了GPT-4和DALL·E2的开发,并在2020年领导了OpenAI第一个全公司范围的“红队”测试。这些问题现在对人们和社区都很重要,它们影响着未来的各个方面如何以及由谁来规划。

  • 英国在旧金山设立办公室以应对 AI 风险

    英国将在本周晚些时候于首尔举办的人工智能安全峰会之前扩大自己在该领域的努力。设立了一个雄心勃勃的目标,即评估和解决人工智能平台的风险的英国人工智能安全研究所表示,将在旧金山开设第二个办公地点。”伊恩・霍加斯表示:“自研究所成立的第一天起,我们一直强调采取国际化的方式对待人工智能安全问题,分享研究成果,并与其他国家合作测试模型并预见前沿人工智能的风险。

  • 防范“AI换脸”风险! 蚂蚁数科正式发布ZOLOZ Deeper

    随着生成式AI技术的发展,Deepfake已成为一种新型的网络犯罪手段,给数字世界的安全带来了严峻挑战。蚂蚁数科旗下生物识别品牌ZOLOZ近日正式发布了针对Deepfake的综合防控产品ZOLOZDeeper。为进一步完善ZOLOZDeeper,蚂蚁集团还通过"蚂蚁集团安全响应中心"官网,设立了超百万的奖金池,鼓励"安全极客"参与漏洞挖掘,助力产品不断优化升级。

  • AI时代下,低端开发者如何应对被取代的风险

    在技术飞速发展的时代,人工智能的发展给科技行业的就业前景带来了一些阴影。为了正视这一紧迫问题,知名软件开发人员RodRobinson近期在其RodTechTalk频道分享了专业见解。通过持续学习、保持相关性并发挥独特技能,开发人员可以在日益自动化的世界中制定成功之路。

  • 微软工程师向美国官员和公司董事会发警告:AI图像生成器存在潜在风险

    一名微软工程师近日向美国监管机构和公司董事会发出警报,指称公司的人工智能图像生成器工具存在潜在的冒犯和有害图像生成风险。工程师ShaneJones称自己是一名举报者,并在上个月与美国参议院工作人员会面,分享了他的担忧。Jones在信中强调,问题的核心在于OpenAI的DALL-E模型使用OpenAI的ChatGPT生成AI图像的用户则不会遇到相同的有害输出,因为两家公司在其产品上覆盖了�

  • 花旗高管表示:生成式AI在银行业具有变革性,但在客户支持方面存在风险

    在花旗银行,生成式人工智能已经在推动数据驱动决策方面取得了积极深远的影响。花旗银行的首席分析技术与创新负责人PromitiDutta表示,GenAI的出现引起了银行内部的一场大变革,将数据和分析置于所有事务的前沿。Bird指出,他们正在采用检索增强生成等技术来提高实时回答问题的准确性,并表示希望在未来一年内看到更多进展。

  • 参议员表示 AI 监管必要以解决潜在风险

    美国参议员MarkWarner和ToddYoung在华盛顿特区约翰斯・霍普金斯大学布隆伯格中心举行的讨论会上,就人工智能政策展开了一场广泛的对话。他们在这场由PunchbowlNews创始人兼首席执行官AnnaPalmer和高级国会记者AndrewDesiderio共同主持的讨论中,探讨了AI监管议题。立法监管的平衡将是关键,以确保AI的发展不受阻碍,同时保护公民权益和民主制度。

  • 专家警告,AI使得选举前的虚假信息风险将上升

    专家警告称,随着2024年总统选举临近,与选举有关的虚假信息可能会成为一个更为严重的问题。防范虚假叙述的措施减少,同时传播虚假信息的工具和网络变得更为强大。我们可以预期他可能会继续利用这一点来激发他的支持者。

  • 保险公司Beazley专家预测:2024年生成式AI将继续是未知风险

    在全球保险领域,生成式人工智能被认为是2024年的未知风险,全球专业保险公司Beazley的网络风险总监PaulBantick表示,生成式人工智能技术的良性和恶性应用将继续成为未知的挑战。Bantick指出,Beazley的Risk&Resilience研究显示,随着生成式人工智能技术的迅猛发展,对网络安全风险的担忧将继续主导企业高管的风险议程,有27%的高管认为网络安全将成为他们在2024年的主要风险。”展望2024年,Bantick解释说,公司预测该行业将看到网络债券数量的增加,随着市场的“演变、增长和越来越成为主流”。

  • 蚂蚁集团与浙商银行达成战略合作 依托AI技术防范电诈风险

    蚂蚁集团与浙商银行签署战略合作协议,双方将在前沿科技、数字金融等六个领域深化合作,共同探索数字科技在金融机构数字化转型上的新实践,增强服务实体经济的能力。具体合作内容包括在数据库、物联网等领域合作,共同开展高可用、高扩展、高性能的数据库应用场景的系统建设合作。双方希望通过合作,共同推动数字科技在金融领域的创新和发展,助力实体经济的高质量发展。

  • Hugging Face 首席执行官希望实现人工智能民主:将 AI 的力量集中在少数人手中是有风险的

    HuggingFace的首席执行官ClémentDelangue对大型科技公司像商业专利一样保留机器学习代码的做法持反对态度。他正在努力构建一个世界,在这个世界中,每个开发者或初创公司都可以自由访问人工智能模型,并有效地帮助AI实现开源。随着AI的快速发展,HuggingFace正在将开发者转向类似于社区的努力——推动系统共享、协作和反馈的方式。

  • OpenAI 加强安全团队并赋予董事会对高风险人工智能的否决权

    OpenAI正在扩展其内部安全流程,以抵御有害人工智能的威胁。公司新成立的「安全咨询小组」将位于技术团队之上,向领导层提出建议,董事会也被授予否决权——当然,他们是否会实际使用这一权力则是另一个问题。但无论如何,它都没有被真正提及。

  • Sam Altman 谈 OpenAI、未来的风险与回报以及通用人工智能的潜力

    作为TIME杂志2023年度「年度CEO」,OpenAI首席执行官SamAltman在当地时间周二TIME杂志的「AYearinTIME」活动中与TIME主编SamJacobs进行了广泛对话,讨论了人工智能对社会的影响及其未来潜力。SamAltman谈到了他11月份在OpenAI的突然解职和复职经历,称这是一次学习经历——对他个人和整个公司言。我认为技术的发展方式,预测往往是错误的。

  • 马斯克和谷歌联合创始人拉里·佩奇在 AI 风险问题上的分歧导致了多年友谊的结束

    站长之家12月4日消息:特斯拉首席执行官埃隆·马斯克和谷歌联合创始人拉里·佩奇之间关于人工智能风险的严重分歧据说导致了他们多年友谊的结束。2015年,在马斯克44岁生日庆祝活动上,佩奇指责马斯克是一位「物种主义者」,他偏爱人类非未来的数字生命形式。这些紧张关系是OpenAI联合创始人SamAltman短暂被公司解职的原因之一。

  • Airbnb 联合创始人警告:设计师必须参与 AI 的发展,否则将面临被边缘化的风险

    Airbnb联合创始人BrianChesky在伦敦RiverCafe的一次独家专访中向Dezeen警告说,设计师必须参与人工智能的发展,否则未来的世界将在没有他们的参与下被设计出来。Chesky,一位罗德岛设计学院的毕业生,提醒设计界,他们可能正重蹈过去的覆辙,当时设计师未能充分利用AI的潜力。」另外,日前Airbnb宣布收购了苹果语音助手Siri的创始人创立的人工智能初创公司GamePlanner.AI。

  • 牛津大学AI研究员发出警告:大语言模型对科学真相构成风险

    在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型对科学真相构成威胁的警告。由BrentMittelstadt、ChrisRussell和SandraWachter等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于GPT-3.5架构等LLMs并非绝对的真实信息来源,可能产生他们所称的“幻觉”——即不真实的回应。Russell教授强调了对LLMs提供的机会进行谨慎考虑,并促使反思这项技术是否应该因为它能够提供某些机会被授予这些机会。

  • ​ 谷歌研究:通过对抗性数据生成和多元评估应对GenAI的道德和安全风险

    谷歌研究团队在人工智能领域持续推动着对生成式AI安全的研究,以应对其在虚假信息、偏见和安全性方面带来的挑战。作为谷歌研究的一部分,负责构建负责任的AI和数据系统的ResponsibleAIandHuman-CenteredTechnology团队旨在通过文化感知研究的视角推进负责任的人本AI的理论和实践,以满足今天数十亿用户的需求,并为更好的AI未来铺平道路。对抗性测试和红队行动是安全策略的重要组成部分,全面进行它们对应对快速创新的要求,不断挑战自己,与内部伙伴、多元用户社区以及其他行业专家合作,发现“未知的未知”。

  • 微软携手风险投资公司,为初创企业提供免费AI芯片资源

    在当前的AI芯片短缺情况下,微软宣布将向一些特权初创企业提供免费访问其Azure云的“超级计算”资源,用于开发AI模型。微软今天宣布将升级其初创企业计划“微软forStartupsFoundersHub”,以包括一个免费的AzureAI基础设施选项,供“高端”初创企业使用,其中包括NvidiaGPU虚拟机集群,用于训练和运行生成模型,包括像ChatGPT这样的大型语言模型。这基本上意味着这个项目中的早期初创企业将免费获得GPU他们通常会被更大的客户所限制,这样他们就可以训练他们的AI模型并推动下一波AI创新。

  • IBM设立5亿美元风险基金 用以投资AI初创公司

    IBM宣布成立了一项5亿美元的企业AI风险基金,旨在投资各类人工智能公司,从初创企业到高增长企业不等。这一举措是IBM在人工智能领域的最新投资,旨在推动企业领域的生成式人工智能技术研究和发展。IBM不断加大对人工智能的关注,并将人工智能引入企业,这在科技领域一直是最引人注目的故事之一。

  • Silobreaker推AI威胁情报助手:协助组织迅速应对风险

    领先的安全和威胁情报技术公司Silobreaker正式宣布推出其全新生成式人工智能工具,名为SilobreakerAI。这一工具的主要目标是为威胁情报团队提供支持,帮助他们更快地生成高质量的情报报告,以助力组织做出以情报为主导的决策。这有助于情报团队更有效地识别威胁,确定威胁的优先级,并支持决策者更快地采取行动,以降低风险、保护收入并推动业务成果。

  • AI安全辩论:Sam Altman剑桥演讲遭抵制、Llama 2被曝存在潜在风险

    全球正掀起一场激烈的AI安全讨论,其中三个关键要点引起广泛关注。OpenAI的CEOSamAltman在剑桥举办的活动中遭到了抵制,抗议者要求停止AI竞赛,导致全球AI安全讨论再次升级。这些讨论反映了对AI的不同看法和担忧,以及对安全措施的需求,以确保AI技术的安全和负责任发展。