首页 > 业界 > 关键词  > IBM最新资讯  > 正文

IBM 和 NASA 在 Hugging Face 上部署开源地理空间 AI 基础模型

2023-08-04 09:21 · 稿源:站长之家

站长之家(ChinaZ.com) 8月4日消息:IBM 和开源 AI 平台 Hugging Face 宣布,IBM 的 watsonx.ai 地理空间基础模型——使用 NASA 的卫星数据构建——现在将在 Hugging Face 上公开提供。它将成为 Hugging Face 上规模最大的地理空间基础模型,也是与 NASA 合作建立的首个开源 AI 基础模型。

IBM

在气候科学中,获取最新数据仍然是一个重大挑战,因为环境条件几乎每天都在发生变化。尽管数据量不断增长——NASA 的估计显示,到 2024 年,科学家将从新任务中获得 250,000 个 TB 的数据 —— 但科学家和研究人员在分析这些大型数据集方面仍面临障碍。

作为与 NASA 签订的《Space Act Agreement》的一部分,IBM 今年早些时候着手构建了一个用于地理空间数据的 AI 基础模型。通过 Hugging Face 提供地理空间基础模型——这是一个公认的开源领导者,也是所有 Transformer 模型的知名仓库——努力可以推进 AI 的开放性访问和应用,并在气候和地球科学中产生新的创新。

IBM Research AI 副总裁 Sriram Raghavan 表示:「开源技术在加速气候变化等关键领域的发现中所起到的重要作用从未如此清晰。」「通过将 IBM 旨在创建灵活、可重用的 AI 系统的基础模型工作与 NASA 的地球卫星数据仓库相结合,并在领先的开源 AI 平台 Hugging Face 上提供,我们可以利用协作的力量来实施更快捷、更有影响力的解决方案,改善我们的星球。」

Hugging Face 的产品和增长负责人 Jeff Boudier 表示:「AI 仍然是一个以科学为驱动的领域,而科学只能通过信息共享和合作取得进展。」「这就是为什么开源 AI 和模型和数据集的开放发行对于 AI 的持续进展非常重要,以确保技术能够惠及尽可能多的人。」

NASA 首席科学数据官 Kevin Murphy 表示:「我们相信基础模型有潜力改变观测数据分析的方法,并帮助我们更好地了解地球。」「通过开源这些模型并使它们对世界开放,我们希望能够放大它们的影响力。」

这个模型是由 IBM 和 NASA 共同在一年时间内使用 Harmonized Landsat Sentinel-2 卫星数据(HLS)进行联合训练,并在对洪水和烧伤瘢痕制图进行标注的数据上进行了精细调整。与使用一半标注数据的最先进技术相比,该模型迄今为止已经表现出 15% 的改进。通过进一步的精细调整,基础模型可以用于跟踪森林砍伐、预测农作物产量或检测和监测温室气体等任务。IBM 和 NASA 的研究人员还在与克拉克大学合作,将该模型调整为用于时间序列分割和相似性研究等应用。

该模型利用了 IBM 基础模型技术的优势,是 IBM 努力创建和训练可用于不同任务、并且可以将信息从一种情况应用到另一种情况的 AI 模型的一部分。

今年 7 月,IBM 宣布提供 watsonx,一种 AI 和数据平台,允许企业通过可信赖的数据来扩大和加速最先进的 AI 的影响力IBM watsonx 的地理空间模型的商业版本将于今年晚些时候通过 IBM Environmental Intelligence Suite(EIS)提供。

IBM 和 NASA 在 Hugging Face 上的地理空间 AI 模型:

https://huggingface.co/ibm-nasa-geospatial

举报

  • 相关推荐
  • Hugging Face 大语言模型三大优化技术

    大语言模型的生产部署面临着两个主要挑战:一是需要庞大的参数量,二是需要处理超长的上下文信息输入序列。HuggingFace基于他们在提供大型模型服务方面的经验,分享了一些应对这些难题的技术。文章深入剖析了大语言模型优化的关键技术点,对于产业实践具有重要参考价值。

  • 螺旋形状控制网图像Illusion Diffusion:Hugging Face空间的创新之光

    一套基于螺旋形状的控制网图像在网络上引发了热潮。这种独特的螺旋形状风格成为了网友们关注的焦点令人惊讶的是,这个风格是由HuggingFace空间创造出来的。HuggingFace空间的这种创新尝试,不仅展示了其在图像设计和处理方面的强大实力,也进一步推动了相关领域的发展和创新。

  • Riiid AI模型Sheep-duck-llama-2在HuggingFace排名第一

    AI教育解决方案领导者Riiid宣布,其最新生成式AI模型在知名机器学习模型平台HuggingFace上获得第一名。HuggingFace开放式大语言模型排名中,Riiid10月提交的最新模型“Sheep-duck-llama-2”获得了74.07分的高分,在全球500多个开源生成式AI模型中位居榜首。Riiid研究人员将继续开发新的模型架构,提升AI模型性能,并以实际数据验证学习影响,在国际AI会议上发表论文。

  • 上交AI数学开源模型阿贝尔登开源模型排行榜首 打破美国AI公司霸榜局面

    上海交大生成式人工智能研究组的阿贝尔模型在数学推理领域取得了重大突破,打破了美国AI公司在这一领域的霸榜局面,成为国内开源模型排行榜首。阿贝尔项目的成功背后是有监督精调方法的巧妙运用,以及精心策划的训练数据。尽管仍然存在一些挑战和局限性,但这一成就为国内的人工智能研究团队赢得了国际认可,为AI领域的发展注入了新的活力。

  • 聆心智能开源定制角色对话交互模型CharacterGLM-6B

    聆心智能发布了一个名为CharacterGLM的模型,用于定制化角色进行对话交互。这个模型基于ChatGLM模型,有6B、12B和66B三个不同参数量的版本。他们还提供了一些交互样例,展示了不同类别角色的对话交互效果。

  • LAION呼吁欧盟鼓励开源AI模型应用

    AI组织LAION和领先的AI开发者在给欧盟的公开信中建议,AI领域的监管努力应该鼓励使用开源AI模型,以支持透明度、安全性和创新,特别是中小企业。LAION认为,开源AI模型具有更大的安全性、问责制、可复制性和鲁棒性可以促进创新、提高环境友好性等。LAION呼吁欧盟监管努力应鼓励开源AI模型的应用。

  • 亚马逊机器学习团队推出 Mistral 7B 基础模型 支持8000个token上下文长度

    亚马逊机器学习团队近日宣布,MistralAI开发的Mistral7B基础模型现已在亚马逊SageMakerJumpStart上提供,用户可以通过该平台一键部署模型进行推理。Mistral7B是MistralAI开发的英文文本和代码生成基础模型,拥有70亿个参数,支持文本摘要、分类、文本补全和代码补全等多种用例。它们帮助降低训练和基础设施成本,并支持自定义以适应特定用例。

  • IBM CEO:AI 不会影响软件开发者的工作

    IBM的首席执行官ArvindKrishna在一次FortuneCEO倡议大会上表示,人工智能不会对公司的软件开发者岗位产生影响,并表示他不仅不会裁员计划增加开发者的数量。他同时计划削减一些后勤职位,包括人力资源岗位。对于各行各业的技术专业人士来说,了解这些工具可以做什么可以帮助你调整工作流程和自己的职业生涯。

  • 上海AI实验室开源工具箱XTuner 8GB显卡就可训练大模型

    上海人工智能实验室发布了一款面向大模型训练的开源工具箱XTuner,通过支持多种硬件适配,大幅降低了企业进行大模型训练的门槛,尤其是对中小企业具有重要意义。XTuner为各类开源模型提供了多样的微调框架XTuner支持与多款开源大模型的无缝衔接,可执行增量预训练、指令微调等任务类型。业内人士表示,这将推动我国在人工智能核心领域的技术进步。

  • 阿里魔搭社区开源 Mistral AI 旗下新模型 Mistral7B

    阿里巴巴达摩院模型开源社区ModelScope宣布开源法国人工智能初创公司MistralAI旗下新模型Mistral7B,可免费商用。Mistral7B在公开提供的指令数据集上进行了微调后的模型Mistral7BInstruct,在MT-Bench上超越了其他7B模型,并可与13B聊天模型相媲美。