首页 > 业界 > 关键词  > FreeMan最新资讯  > 正文

中国研究团队发布多视角数据集“FreeMan” 解决3D人体姿势估计局限性

2023-09-25 11:30 · 稿源:站长之家

文章概要:

- “FreeMan”是一份大规模多视角数据集,旨在解决现有3D人体姿态估计数据集的局限性。

- 数据集包含来自8台同步智能手机的1100万帧,跨足了室内和室外环境,具备不同光照条件,提供了更真实的场景多样性。

- 研究者通过自动化的标注流程,包括人体检测、2D关键点检测、3D姿态估计和网格标注,生成了精确的3D标注,可用于多种任务,如单2D到3D转换、多视角3D估计和神经渲染。

站长之家(ChinaZ.com)9月25日 消息:从真实场景中估计人体的三维结构是一项具有挑战性的任务,对于人工智能、图形学和人机交互等领域具有重要意义。然而,现有的3D人体姿态估计数据集通常在受控条件下收集,具有静态背景,无法代表真实世界场景的多样性,从而限制了用于真实应用的准确模型的开发。

在这方面,类似于Human3.6M和HuMMan的现有数据集广泛用于3D人体姿态估计,但它们是在受控的实验室环境中收集的,无法充分捕捉真实世界环境的复杂性。这些数据集在场景多样性、人体动作和可扩展性方面存在局限。研究人员提出了各种模型用于3D人体姿态估计,但由于现有数据集的局限性,它们的效果通常在应用于真实场景时受到阻碍。

image.png

中国的一支研究团队推出了“FreeMan”,这个由来自香港中文大学(深圳)和腾讯等机构的团队共同合作开发的项目,被誉为革新性的多视角数据集,旨在为3D人体姿势估计领域带来新的突破。

FreeMan是一个新颖的大规模多视角数据集,旨在解决现有数据集在真实场景中3D人体姿态估计方面的局限性。FreeMan是一项重要的贡献,旨在促进更准确和稳健模型的开发。

FreeMan项目的特点之一是其数据集的规模和多样性。该数据集由8部智能手机在不同场景下的同步录制组成,包括10个不同场景、27个真实场地,总计包含了超过1100万帧的视频。每个场景都涵盖了不同的照明条件,使得这个数据集成为一个独一无二的资源。

FreeMan数据集的开源是为了促进大规模预训练数据集的发展,同时也为户外3D人体姿势估计提供了全新的基准。这一数据集不仅包括视频,还提供了丰富的注解信息,包括2D和3D人体关键点、SMPL参数、边界框等,为研究人员提供了丰富的资源以推动相关领域的研究。

值得注意的是,FreeMan引入了相机参数和人体尺度的变化,使其更具代表性。研究团队开发了自动化的标注流程,以从收集的数据中高效生成精确的3D标注。这一流程包括人体检测、2D关键点检测、3D姿态估计和网格标注。由此产生的数据集对于多种任务都非常有价值,包括单目3D估计、2D到3D转换、多视角3D估计和人体主体的神经渲染。

研究人员提供了对FreeMan进行各种任务的全面评估基线。他们将在FreeMan上训练的模型与在Human3.6M和HuMMan上训练的模型的性能进行了比较。值得注意的是,在3DPW数据集上测试时,训练在FreeMan上的模型表现出显著更好的性能,突显了FreeMan在真实场景中的卓越泛化能力。

image.png

在多视角3D人体姿态估计实验中,与在Human3.6M上训练的模型相比,在跨领域数据集上测试时,训练在FreeMan上的模型表现出更好的泛化能力。结果一致显示了FreeMan多样性和规模的优势。

在2D到3D姿态转换实验中,FreeMan的挑战显而易见,因为在这个数据集上训练的模型面临更大的难度。然而,当模型在整个FreeMan训练集上进行训练时,其性能得到改善,显示出该数据集提高模型性能的潜力。

FreeMan的可用性预计将推动人体建模、计算机视觉和人机交互领域的进步,弥合了受控实验室条件与真实场景之间的差距。

项目网址:https://wangjiongw.github.io/freeman/

举报

  • 相关推荐
  • 媲美OpenAI-o3,刚刚开源模型DeepCoder,训练方法、数据集大公开

    今天凌晨4点,著名大模型训练平台TogetherAI和智能体平台Agentica,联合开源了新模型DeepCoder-14B-Preview。该模型只有140亿参数,但在知名代码测试平台LiveCodeBench的测试分为60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI刚获得3.05亿美元的B轮融资,其估值也从去年的12.5亿美元翻倍至33亿美元。

  • 英伟达开源15T数据集32万个机器人训练轨迹

    全球AI领导者英伟达开源了,用于实体机器人和自动化驾驶的超大训练数据合集——NVIDIAPhysicalAIDataset。这个数据集一共15T,涵盖了超过320,000个机器人训练轨迹,以及多达1,000个通用场景描述包括一个SimReady集合。英伟达表示,未来将继续扩展PhysicalAIDataset,将其建设成世界最大、统一的开源数据集,可用于AI模型、医疗、自动化驾驶等不同领域,加速AI、实体机器人的训练效�

  • 提升大模型自动修Bug能力 豆包正式开源首个多语言类SWE数据集

    今日,字节跳动豆包大模型团队宣布,正式开源首个多语言类SWE数据集Multi-SWE-bench,可用于评估和提升大模型自动修Bug”能力。在SWE-bench基础上,Multi-SWE-bench首次覆盖Python之外的7种主流编程语言,是真正面向全栈工程”的评测基准。相比于以往聚焦Python的单语言任务,Multi-SWE-bench更贴近现实中的多语言开发场景,也更能反映当前模型在自动化软件工程”方向上的实际能力边界。

  • 10倍精度升级!腾讯混元3D模型v2.5版本发布

    腾讯混元3D模型升级至v2.5版本,建模精度和贴图真实度显著提升。新版本参数体量从1B增至10B,有效面片数增加超10倍,支持1024几何分辨率。纹理系统支持4K高清贴图和凹凸细节,率先支持多视图生成PBR模型。针对动画场景优化骨骼蒙皮系统,支持非标准姿态自动绑定。新增文生/图生3D减面模型、多视图建模模板等专业工作流。混元3D v2.5已全面更新至腾讯AI创作引擎,免费生成额度提升至每日20次,并正式上线腾讯云API面向企业开放。GitHub开源版本累计Star超1.2万。

  • 日销破千元!AI生成的3D梗图挂件,被我们卖爆了

    先说结论:我们花15天做的AI3D挂件,在线下卖爆了,单日营收破千元!故事的开始,是因为我们发现把AI3D打印手办做成一门小生意的可行性越来越高,这也激发了我们的“搞钱基因”。再加上前不久新榜在上海举办了「新榜内容节」,一拍即合,我们于是做了一批模型去大会现场摆摊试水!最后结果还不错,单日最高收入突破1000元,是我们“创业史”上的一个高光表现。欢迎大家

  • 3D打印超值购!创想三维国补+百亿补贴双重福利来袭

    今年4月9日,创想三维即将迎来成立11周年的里程碑。作为全球消费级3D打印生态领创者,创想三维以先进技术与卓越品质,赢得全球500万创客用户青睐。心动不如行动,赶快进店选购,拥抱创意无限的3D打印世界!

  • 创想三维十一周年庆典:多款新品发布,共筑3D打印新生态

    4月9日,全球消费级3D打印领军品牌创想三维在中国深圳、美国底特律两地举办“创想三维十一周年庆典暨春季新品发布会”。公司联合创始人陈春、敖丹军、刘辉林、唐京科与来自全球的行业专家、核心经销商合作伙伴、供应链合作伙伴及媒体代表共同见证品牌里程碑时刻。创想三维将持续加码核心技术创新,通过技术突破、生态共建与用户共创,持续推动3D打印技术从“小�

  • 接替Manus,字节的Agent王牌能打多久?

    字节跳动旗下智能体平台"扣子空间"推出首款由大厂发布的Agent爆款产品,自4月18日上线后引发用户疯抢邀请码。该产品具备规划、工具调用和记忆等关键能力,支持游戏攻略撰写、市场调研等复杂需求,并首创"探索模式"和"规划模式"双交互设计。虽然底层模型能力较DeepResearch和Manus仍有差距,但凭借产品设计优化和量大价优的优势,成功填补了Manus留下的市场空白。字节同步推出企业版HiAgent解决私有化部署问题,半年内智能体业务订单量增长超330%。当前行业正迎来Agent爆发期,但企业落地仍面临系统接入、数据安全等挑战。

  • 聚首华南,2025下半年增材制造、3D 打印的顶尖展览与活动推荐

    2025年全球3D打印行业将迎来系列盛会。4月西安论坛成功举办后,下半年将迎来深圳Formnext Asia(8月26-28日)、东京论坛(9月25-26日)和法兰克福Formnext展会(11月18-21日)三大国际活动。这些平台将汇聚全球顶尖企业,展示航空航天、医疗健康、汽车工业等领域的最新技术成果,特别关注中国企业的快速成长。法兰克福展会预计吸引超900家展商,中国展商数量有望再创新高。系列活动将搭建全球产业交流平台,推动3D打印技术创新与商业应用深度融合。

  • 阿伐替尼PIONEER研究展示其在ISM治疗中的卓越疗效

    惰性系统性肥大细胞增多症是系统性肥大细胞增多症中最常见的亚型,是一种由肥大细胞积聚引起的克隆性疾病。ISM患者通常伴有终生的皮肤、胃肠道、神经认知、肌肉骨骼以及全身性症状,生活质量明显下降。目前发表的PIONEER研究结果持续时间较短,尚不足以全面评估阿伐替尼的长期疗效和安全性,但是相信随着未来该研究5年长期随访结果的公布,阿伐替尼在ISM治疗与管理中的重要地位将进一步巩固并提升。