首页 > 快讯 > 关键词  > Facebook最新资讯  > 正文

Facebook与阿里云合作,深度学习框架PyTorch将进驻阿里云

2019-09-26 13:43 · 稿源:站长快讯

据界面新闻9月26日报道,9 月 26 日,在 2019 云栖大会第二天的飞天智能主论坛上,Facebook和阿里云宣布合作。Facebook旗下的开源深度学习框架PyTorch将进驻阿里云机器学习平台。PyTorch是全球最受欢迎的深度学习框架之一。达成合作之后,AI开发者在阿里云上可以使用PyTorch框架,体验模型训练、预测部署等全流程功能。

举报

  • 相关推荐
  • 大家在看
  • 阿里云与长龙航空合作 打造航空大模型

    阿里云与长龙航空达成全面合作,共同打造航空大模型。根据长龙航空与阿里云合作协议,基于通义系列大模型产品,双方将共同打造应用于特殊旅客在线服务、手册智能查询、航变通知单自动生成等场景中的航空大模型。大模型将通过现有的航班计划表和保护方案实现秒级自动生成新的航变知单。

  • 研究人员推出深度学习模型RECAST 改进地震预测

    来自加州伯克利分校、圣克鲁斯分校以及慕尼黑工业大学的研究人员发表论文,阐述了一种崭新的模型,将深度学习引入地震预测领域。该模型被命名为RECAST,相比自1988年问世以来改进有限的当前标准模型ETAS,RECAST可利用更大的数据集,提供更高的灵活性。你会看到它朝着正确的方向发展。

  • 阿里云向海外大模型开发者推出PAI灵骏智算、AIACC等服务

    在昨日的阿里云国际峰会上,阿里云宣布将向海外大模型开发者和企业提供一站式开发服务,包括模型训练、推理、部署等全流程的工程平台和智能算力,以满足国际市场对大模型开发服务的旺盛需求。“PAI灵骏智算服务”可为开发者和企业提供AI开发全流程的工程平台和智能算力,能稳定支撑多达10万亿参数的多模态大模型的低能耗训练。根据斯坦福DAWN深度学习基准测试,AIACC可将人工智能模型训练速度提高70%,推理速度提高三倍。

  • 阿里云开源通义千问140亿参数模型Qwen-14B、Qwen-14B-Chat

    9月25日,阿里云开源通义千问140亿参数模型Qwen-14B及其对话模型Qwen-14B-Chat,免费可商用。Qwen-14B在多个权威评测中超越同等规模模型,部分指标甚至接近Llama2-70B。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用Qwen-14B和Qwen-14B-Chat。

  • JoJoGAN:可一键生成艺术化面部图像的深度学习模型

    JoJoGAN是一个深度学习模型,该模型可以将普通的面部图像转化为艺术化的作品,无需专业艺术家或设计师的干预。这项技术可用于各种应用领域,包括艺术创作、虚拟角色设计、社交媒体滤镜和广告营销。它的技术细节和使用指南在文章中都得到了详细介绍,为感兴趣的用户提供了宝贵的资源。

  • 谷歌研究人员在 JAX 中引入了一个开源库 用于在球面上进行深度学习

    Google研究人员最近推出了一个基于JAX的开源库,旨在解决在球面上进行深度学习的挑战。传统的深度学习模型通常处理平面数据,例如图像,但科学应用中的数据通常是球面数据。3.这项研究有望在分子性质预测和气象预测等领域取得突破性进展,为医疗研究和气候分析提供有力支持。

  • srf-attention:一个提高深度学习模型训练效率的注意力机制

    注意力很有用,但计算成本很高。一旦训练完成,通过一些微调计算,您可以减少SRF注意力并消除对序列长度的依赖,从大大加快速度。它可以帮助研究人员和开发者更高效地构建和训练深度学习模型,提高模型的性能和效率。

  • 人工智能安全治理专业委员会成立 由阿里云华为等发起

    中国网络空间安全协会人工智能安全治理专业委员会宣布成立。图源备注:图片由AI生成,图片授权服务商Midjourney中国网络空间安全协会人工智能安全治理专业委员会由国家互联网应急中心、北京智源研究院、上海人工智能实验室、阿里云、华为、金山办公等单位发起,组织人工智能领域产学研单位开展技术创新、产业协作、成果转化和行业自律,并在模型安全、内容安全、数据安全、隐私保护和知识产权保护方面不断提升人工智能安全治理能力,以行业协同方式探索人工智能安全新型综合治理新模式,为中国人工智能产业健康发展提供可持续的基础性支撑。人工智能安全治理专业委员会首批成员单位共58家,包含人工智能领域的高校、研究院所、企业等。

  • DeepMind研究人员发现,深度学习模型在图像和音频压缩方面表现出色

    Google旗下的人工智能子公司DeepMind发布的一项研究表明,大型语言模型除了在文本数据处理方面表现出色之外具备出色的图像和音频数据压缩能力。这一发现为重新审视LLMs的潜力提供了新的角度。这表明LLMs的性能与数据集的大小有关,压缩率可以作为评估模型对数据集信息学习的指标。

  • 深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    ★深度学习、机器学习、生成式AI、深度神经网络、抽象学习、Seq2Seq、VAE、GAN、GPT、BERT、预训练语言模型、Transformer、ChatGPT、GenAI、多模态大模型、视觉大模型、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800随着生成式AI应用的迅猛发展,我们正处在前所未有的大爆发时代。四、性价比较根据SuperMicro的数据,L40S在性价比上相较于A100具有优势,为希望部署高效且具有竞争力的生成式人工智能解决方案的用户提供更多选择。在模型分发和运行过程中,提供全面的账号认证和日志审计功能,全方位保障模型和数据的安全性。

今日大家都在搜的词: