首页 > 关键词 > 物体识别最新资讯
物体识别

物体识别

德州大学达拉斯分校的研究团队开发出一套机器人系统,使用AI技术帮助机器人更准确识别和记忆物品,在提升机器人识别能力方面取得重大进展。机器人要能准确识别家中不同大小、形状和品牌的物品还任重道远,这对机器人完成烹饪、清理餐桌等家务工作至关重要。这项技术进步有望加速机器人进入日常生活,服务人类需求。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“物体识别”的相关热搜词:

相关“物体识别” 的资讯3367篇

  • 新AI技术大幅提升机器人物体识别能力

    德州大学达拉斯分校的研究团队开发出一套机器人系统,使用AI技术帮助机器人更准确识别和记忆物品,在提升机器人识别能力方面取得重大进展。机器人要能准确识别家中不同大小、形状和品牌的物品还任重道远,这对机器人完成烹饪、清理餐桌等家务工作至关重要。这项技术进步有望加速机器人进入日常生活,服务人类需求。

  • NEC开发出高速摄像头物体识别技术、提高生产线点检效率

    NEC与日本东京大学研究生院信息理工学系研究科石川正俊教授实验室妹尾拓讲师等组成研究小组,共同开发了“高速摄像头物体识别技术”。本技术从高速摄像头拍摄的每秒1, 000 帧的大量图像中,瞬间筛选适合识别的图像,从而快速精确地判别检查是否合格。将本技术应用于生产线,无需为了检查产品而操作生产线,可顺利部署并提高生产效率。使用该技术,可以做到实时识别以0. 03 秒的速度从摄像头前面经过的物体上刻印的 5 毫米左右微小

    NEC
  • NEC多种物体识别技术为零售店铺实现无人化结算提供支持

    最近,NEC开发出多种物体识别技术,可大幅提升超市和便利店等零售商结算时的商品识别效率,可对包括生鲜食品、日配品和包装成品等在内的所有零售商品进行图像识别。本技术将为零售店铺实现无人化结算作出巨大的贡献。本技术结合不同特性的深度学习技术和特征点匹配技术,对各种不同的零售商品进行高精度识别,既包括生鲜食品之类个体外观差异大的物品,也包括包装成品之类相似设计大量存在的流水线产品。而且即使这些商品混杂堆放?

  • 实时识别物体的模型YOLOv10升级:识别延迟减少46%

    YOLOv10是一种实时识别物体的模型,在计算成本和检测性能之间取得了有效平衡。研究人员在YOLOs的架构设计、优化目标、数据增强策略等方面进行了探索,取得了显著进展。这对于实际应用中的目标检测任务具有重要意义。

  • OpenAI开发全新AI人机对话技术 支持识别物体和图像

    据TheInformation消息,OpenAI正筹备展示一种革命性的人机对话技术。这一技术将结合声音和文本,不仅能与用户进行流畅的交流具备识别物体和图像的能力,为用户带来前所未有的交互体验。随着技术的不断进步,我们有理由相信,未来的AI将更加智能、更加人性化,为人类生活带来更多便利和惊喜。

  • 新视频分割技术SAM 可高效识别移动物体

    在视频分割领域,SegmentAnything模型被用于探索新的视频对象分割技术。研究团队测试了两种不同的模型,旨在结合SAM的分割能力和光流技术的优势,以提高视频分割的性能。具体的技术细节、模型性能指标以及未来的研究方向尚未详细公布,但这些初步的研究成果已经为视频分割技术的发展提供了新的方向和可能性。

    SAM
  • T-Rex2:文字来描述、框选就能识别图片中的目标物体

    DeepDataSpace推出了T-Rex2,一种革新性的目标检测技术,旨在解决传统目标检测模型的封闭集问题。传统模型局限于事先确定的类别集,需要针对特定任务进行调整和大量训练数据。通过Demo和API,用户可以体验T-Rex2的能力,并探索其在各领域的潜在应用。

  • Meta Ray-Ban智能眼镜引入AI,可识别物体和语言翻译

    Meta公司最新宣布将在其Ray-Ban智能眼镜上推出引人注目的多模态AI功能,为用户提供更智能、交互式的体验。该功能利用眼镜的摄像头和麦克风,使Meta的AI助手能够感知用户周围的视听信息,并做出相应的反应。对于智能眼镜市场言,这一步或许将开创更为多元化的应用场景,为用户带来更加便捷和智能的生活体验。

  • Meta 推出雷朋智能眼镜的多模态 AI 功能测试:可识别物体并翻译语言

    Meta宣布将开始推出其多模态AI功能的早期访问测试,这些功能将应用于MetaRay-Ban智能眼镜,能够通过眼镜的摄像头和麦克风告知用户所看和所听的内容。马克·扎克伯格在Instagram的一个视频中展示了这次更新,他询问眼镜建议哪种裤子与他手里拿着的衬衫相配。有关如何加入的说明可以在此处找到。

  • Meta Quest 3固件泄“天机”:新头显支持室内物体自动识别

    早些时候,Meta宣布,将在9月27日正式发布新一代VR头显MetaQuest3。这款头显的系统固件泄露,展现出了它的部分新功能。关于MetaQuest3的更多信息,有望在9月27日的活动上公布。

  • MIT团队开发隐形3D打印的机器可读标签 可识别和追踪物体

    麻省理工学院(MIT)的一个团队开发了3D打印的标签,用于分类和存储物理对象的数据...这些标签取代了贴在产品上的标准条形码,后者可能会随着时间的推移而被移除或分离或变得不可读,而这些标签不显眼(因为它们是隐形的),而且更耐用,因为它们被嵌入在用标准3D打印机制造的物体内部...下一步是试验在打印机上制作标签的技术...麻省理工学院的团队已经开发了一个软件“用户界面”,可以准确地指定标签应该是什么样子,以及它应该出现在一个特定物体的什么地方...

  • 苹果手机将转用索尼3D传感器 可识别远距离物体

    据AppleInsider报道,日前,索尼负责传感器的总经理Satoshi Yoshihara表示,该公司计划明年夏天开始生产3D芯片,以满足“几家”智能手机制造商的需求。

  • 谷歌教机器人如何通过环境交互识别物体

    几个月前,总部位于旧金山的初创公司OpenAI展示了一种名为“密集对象网”(Dense  Object Nets,简称DON)的计算机视觉系统,该系统允许机器人检查、视觉理解和操纵他们从未见过的对象。谷歌的研

  • DeepMind算法新突破 只需一眼就能识别物体

    网易科技讯11月4日消息,据国外媒体报道,算法往往需要数千个例子才能学到某样东西,不过谷歌的研究人员找到了这一问题的解决方案。大多数人看过一两次某样物体就能将它认出来,而驱动计算机视觉和语音识别的算法则需要成千上万的例子才能够熟知某个新图像或者新词语。谷歌DeepMind的研究人员如今有了解决这一问题的办法。他们对深度学习算法进行了一些巧妙的调整,使得它根据单一的样本就能够识别图像中的物体和其它东西——这一

  • 大屏+AI 有三星Galaxy Tab S9系列618购物体验更畅快

    618除了“买买买”之外,更多的是“看看评测”和“货比三家”,尤其是面对网上层出不穷的种草清单和好物推荐时,我们更需要好好“纠结”一番。在不同产品、价格、配置、平台之间进行比对时,一款效率出色的大屏设备将成为必须。转眼间6月就要过半,618嘉年华也正式进入了下半场的狂欢。

  • 助力数字消费,量化派消费地图丰富消费者购物体验

    作为数字经济时代扩内需、稳增长和促转型的重要动力,数字消费已成为当前促消费政策的重要抓手。2024年政府工作报告要求,“培育壮大新型消费,实施数字消费、绿色消费、健康消费促进政策”。推动我国数字经济健康发展,共创繁荣的数字消费新时代。

  • PhysDreamer:让3D物体符合物理规律动起来

    在创建沉浸式虚拟体验时,实现真实物体交互至关重要。针对新型交互合成真实的3D物体动态仍然是一项重大挑战。PhysDreamer通过使静态3D物体能够以物理合理的方式动态响应互动刺激,迈出了向更具吸引力和真实感的虚拟体验的一步。

  • IntrinsicAnything:调整图片光照 保持物体材质

    在未知静态照明条件下拍摄的姿势图像中恢复物体材质是一项挑战性任务。近期的研究通过神经网络表示材料,并通过基于物理的渲染优化模型参数来解决这一问题。通过广泛实验验证,他们的方法在材料回收方面取得了最先进的性能,为物体材质恢复领域带来了新的突破。

  • 谷歌发布图像局部重绘项目ObjectDrop 插入物体和环境完美融合

    谷歌今天发布了一个名为ObjectDrop的图像局部重绘项目,其效果令人印象深刻。这个项目成功模拟了物体对场景的影响,包括遮挡、反射和阴影,实现了逼真的物体移除和插入。这一成果对于图像处理和计算机视觉领域来说,是一个重要的突破。

  • ObjectDrop官网体验入口 AI照片级物体删除和插入工具下载使用地址

    ObjectDrop是一种监督方法,旨在实现照片级真实的物体删除和插入。它利用了一个计数事实数据集和自助监督技术。ObjectDrop适用于需要从图像中删除或插入物体以获得理想结果的各种场景,如图像编辑、视觉特效合成、3D建模等。

  • 快手出品!DragAnything:拖动锚点精准控制视频物体和镜头运动

    快手科技联合浙江大学、新加坡国立大学表演实验室研究团队提出了一种名为DragAnything的新方法,通过实体表示实现了对任何物体的运动控制。研究团队通过分析发现,DragNUWA的像素运动轨迹并不能很好地代表物体的整体运动,因为单个点无法表示整个实体。DragAnything方法在视频生成领域取得了显著进展,为实现对任何物体的精确运动控制提供了新的思路和方法。

  • 多视角高斯模型LGM:5秒产出高质量3D物体 支持图文到3D

    由北京大学、南洋理工大学S-Lab和上海人工智能实验室联合研究的团队推出的大型多视角高斯模型引起广泛关注。LGM以其核心模块LargeMulti-ViewGaussianModel为基础,采用了一种新颖的方法,能够在仅5秒的时间内从单一视角图片或文本输入中生成高分辨率高质量的3D物体。LGM通过创新的3D表示和骨干结构,以及高效的训练方法,实现了在高分辨率3D内容生成方面的显著进展。

  • 视频新技术!Anything in Any Scene可以在视频中无缝插入任何物体

    "AnythinginAnyScene"是一项新颖的技术,可以在现有的动态视频中无缝地插入任何物体,从增强视频的视觉效果和真实感。该技术的主要特点包括准确放置物体、真实模拟光照和阴影效果以及保持视觉风格一致性。4、为了在连续的视频帧中保持物体的稳定性和连贯性,采用动态跟踪和视频稳定技术,确保随着场景变化,插入的物体能够自然地移动和适应新的视角和位置,包�

  • Runway更新Multi-Motion Brush运动笔刷功能 可同时控制5个物体运动路径

    Runway更新了Multi-MotionBrush运动笔刷功能。这是Gen-2MotionBrush的一个新版本,目前处于早期测试阶段。通过Runway的Multi-MotionBrush运动笔刷功能,用户可以更加方便地探索图像的动态表现,为他们的创作带来更多的可能性。

  • InseRF技术:在图片中通过文本提示生成逼真的3D物体

    瑞士苏黎世联邦理工学院和Google苏黎世的研究人员联合提出了一项名为InseRF的新技术,该技术引起了科技界的广泛关注。该技术通过文本提示和2D边界框,成功在3D场景中生成一致的物体,无需明确的3D信息。随着技术的不断发展和改进,InseRF有望成为未来生成式AI领域的重要技术之一。

  • 携手华为不断升级用户购物体验 京东宣布启动鸿蒙原生应用开发

    1月10日,京东与华为宣布合作,正式启动鸿蒙原生应用开发。鸿蒙原生版京东APP将基于HarmonyOSNEXT的全场景无缝流转、原生智能等,为消费者打造更流畅、更智能、更安全的购物体验。未来京东与华为的合作也将为消费者带来更多更好的产品与更贴心的服务,共同开启新的消费场景与可能性。

  • 新AI模型DPPFA−Net可精准检测到小型3D物体存在

    日本立命馆大学的HiroyukiTomiyama教授领导的研究团队最近开发了一种名为“DynamicPoint-PixelFeatureAlignmentNetwork”的创新模型,旨在解决3D物体检测中对小目标检测困难的问题。该模型采用了多模态方法,巧妙地结合了3DLiDAR数据和2D图像,以在恶劣天气条件下提高性能。”DPPFA−Net的推出标志着多模态3D物体检测领域的一项重大进展,有望为深度学习感知系统的原始数据预标注提供新的可能性,从显著降低手动注释的成本,加速该领域的发展。

  • 微软发布DragNUWA 1.5版本 可精细控制视频物体的运动路径

    微软最近发布了DragNUWA1.5版本,这个新版本的功能让用户在通过图像生成视频之前,能够在图像上画出对应方向的箭头标记。如果你标记的不是具体的物体,镜头就会按照你标记的方向运动。设置完成后,用户可以使用pythonDragNUWA_demo.py命令启动Gradio演示,从能够拖动图像并实时观察其动画效果。

  • 淘宝将支持“仅退款” 提供更好的购物体验

    淘宝发布了关于变更《淘宝平台争议处理规则》的公示通知,该规则已于昨日正式生效。这一变更意味着继拼多多和抖音之后,淘宝也推出了“仅退款”的售后机制。对于“7天无理由退货”商品或买家拒收的商品,支持买家在拒签后申请退款。

  • 通用物体级基础模型GLEE:增强图像和视频分析

    来自华中科技大学、字节跳动和约翰斯·霍普金斯大学的研究人员推出了一款名为GLEE的全新通用物体级别基础模型,为图像和视频分析带来了全新的可能性。这一技术突破依赖深度学习的神奇,使计算机视觉系统能够像虚拟侦探一样,在数字体验的画布上识别、跟踪和理解各种物体。研究人员还探索了在训练过程中使用广泛的图像-标题对,类似于DALL-E模型,从提高GLEE生成详细

热文

  • 3 天
  • 7天