11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
在深度学习技术的推动下,图像分割领域发生了巨大变革VisionTransformers在其中发挥了重要作用。本文介绍了一种基于Transformer的图像分割模型——Mask2Former,该模型在语义、实例和全景分割任务上都能够使用相同的架构,具有通用性。在实际应用中,需要根据具体需求权衡模型性能和资源消耗,选择合适的模型。
研究人员提出了一种新型图像分割方法,称为GeneralizableSAM模型。该模型的设计目标是通过通用任务描述,实现对图像的有针对性分割,摆脱了对样本特定提示的依赖。研究人员希望这种通用任务描述引导的图像分割方法能够推动计算机视觉领域的发展,提高模型在复杂场景下的分割准确性。
字节公司最新推出了一个名为UniRef的图像分割项目,该项目将现有的即参考图像分割、少镜头图像分割、参考视频对象分割和视频对象分割四种分割方式整合到一个架构下进行处理,从能够自动判断应该使用哪种方式来分割内容。论文地址:https://arxiv.org/pdf/2312.15715.pdf这一项目中的UniFusion模块还可以与SAM模型结合使用,进一步提高图像分割的效率和精确度。它在少样本图像分割�
FoodSAM是一种用于食物图像分割的创新框架,结合了SegmentAnythingModel、语义分割器和物体检测器。它能够生成类别无关的二进制掩码,通过与掩码-类别匹配获取食物类别标签,并为背景掩码提供非食物类别。可提示分割:集成了无缝提示-优先选择机制,实现可提示的分割,提供更灵活的分割结果。
香港科技大学团队开发出一款名为Semantic-SAM的图像分割AI模型,相比Meta的SAM模型,Semantic-SAM具有更强的粒度和语义功能。该模型能够在不同粒度级别上分割和识别物体,并为分割出的实体提供语义标签。Semantic-SAM是一款全面且强大的图像分割AI模型。
比Meta“分割一切”的SAM更全能的图像分割AI,来了!模型名为Semantic-SAM,顾名思义,在完全复现SAM分割效果的基础上,这个AI还具有两大特点:语义感知:模型能够给分割出的实体提供语义标签粒度丰富:模型能够分割从物体到部件的不同粒度级别的实体用作者自己的话说:论文来自香港科技大学、微软研究院、IDEA研究院、香港大学、威斯康星大学麦迪逊分校和清华大学等研究单位。
11月19日据量子位消息,谷歌官方推出使用TensorFlow.js的人体图像分割工具BodyPix 2.0,BodyPix于今年 2 月推出,本次2. 0 版的主要更新有:对多人图像的支持、增加基于ResNet- 50 的模型、新的API、权重量化以及对不同尺寸图像的支持。在项目的GitHub主页上,TensorFlow给出了BodyPix 2. 0 软件的一些基本用法演示,还有网页版Demo供用户体验。
近日,华为云EI(企业智能)医疗影像团队在超声图像分割与测量领域取得技术突破,在Grand-Challenge胎儿超声影像头围测量比赛(HC18)上以1.89mm的平均绝对误差取得第一。什么是Grand-Challenge?Grand-Challenge是一个举办医学影像分析比赛的国际化平台,致力于为前沿医学图像算法研究提供统一的数据和标准进行比较,进而更好的促进技术发展。多年来吸引了数以千计的一流研究团队参加,其比赛数据和结果常作为论文被发表在MICCAI等国际
RMBG-1.4是一个用于图像背景去除的Pytorch模型,由BRIAAI开发。经过专业级数据集的训练,能够高效准确地分割前景和背景。使用合法许可的训练数据,有效减轻算法偏差,保证内容安全。
Meta公司最新研发的SAM.cpp项目现已在GitHub仓库中开源。这是一项运行于纯C环境下的分割技术,其底层驱动是GGML。在未来的发展中,我们期待看到更多基于SAM.cpp的应用和创新。
继Meta的「分割一切」之后,又一个颠覆CV的模型来了!近日,威斯康辛麦迪逊、微软、港科大等机构的研究人员提出SEEM模型,通过不同的视觉提示和语言提示,一键分割图像、视频。论文地址:https://arxiv.org/pdf/2304.06718.pdfSEEM模型是一种新型的分割模型,这一模型可以在没有提示的开放集中执行任何分割任务,比如语义分割、实例分割和全景分割。这个模型的出现将会对计算机视�
AI图像语义分割技术可针对复杂场景中不同的物体特征进行差异化图像处理,也可针对主体背景物体生成特殊效果...在今年的联发科天玑旗舰技术沟通会上,能够看到联发科在AI技术方面又一次带来令人惊喜的创新,洞察用户痛点需求,围绕AI图像语义分割技术进行应用探索,展现出联发科对于行业技术演进趋势的准确判断和前瞻布局,期待这项技术在天玑旗舰上的实力展现......
12 月 1 日,国际人工智能顶级会议AAAI2022 论文接受结果公布!本届会议共收到全球的 9215 篇投稿论文,接受率为15%。AAAI(Association for the Advance of Artificial Intelligence)是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。本次腾讯优图实验室共有 14 篇论文被收录,涵盖语义分割、图像着色、人脸安全、弱监
根据研究团队发表的预印本文章,InstantMesh是由腾讯PCGARC实验室和上海科技大学的研究人员开发的人工智能框架,能够在仅需10秒的时间内,从单个2D图像生成高质量的3D网格。该开源框架由多视图扩散模型和3D网格重建模型组成,通过使用不同角度合成的3D视图来实现高质量的重建。这一技术有望显著提升3D行业生产力,尤其在视频游戏开发领域。
GitHub上的fofr/cog-become-image项目是一个创新的图像转换工具,它能够将任意人物的面部图像转换成另一种风格的图片。这项技术的应用范围非常广泛,包括但不限于艺术创作、媒体制作和娱乐行业。无论是专业开发者还是技术爱好者,都可以利用这个项目来实现创意图像的转换。
元象公司发布了首个多模态大型模型XVERSE-V,并将其开源。这一模型支持任意宽高比的图像输入,并在多个权威评测中取得了优异的成绩。除了图像识别,XVERSE-V还在多个实际应用场景中表现突出,包括信息图理解、视障场景处理、文本生成、教育解题等。
PuLID是一个新兴的ID保持项目,它在提升ID保持效果的同时致力于最小化对原始模型的影响。这一技术通过对比对齐的方式,实现了Pure和LightningID的自定义,既保持了高度的ID保真度,又有效减少了对原始模型行为的干扰。注:PuLID的代码和模型即将发布,敬请期待。
AdobePhotoshop的最新测试版现已引入一项革命性的功能,允许用户通过简单的文本提示,利用人工智能技术生成图像。该功能的核心在于Adobe新发布的生成式AI模型系列FireflyImage3。包括谷歌和微软在内的多家科技巨头都在AI领域取得了显著的进展和突破。
Adobe发布了Firefly图像生成模型的最新版本,名为FireflyImage3,声称具有“摄影细节”的图像生成能力。相比之前的版本,这一第三代模型在图像生成能力上有了显著的改进。即使是新手用户也可以在Photoshop中游刃有余,并更快地成为高级用户,PhotoshopgentechAI产品管理总监JohnMetzger表示。
AdobePhotoshop迎来了一次重大更新,通过集成AdobeFireflyImage3Model,引入了多项新的AI功能,这些功能大幅提升了图像编辑的深度与灵活性。这次的更新不仅优化了图像生成的过程让用户能够以前所未有的控制度和精准度实现其创意构想。这些新的AI功能的引入,无疑将为Photoshop用户带来更高效、更精准的图像编辑体验。
字节跳动的Lightning团队发布的新图像模型蒸馏算法Hyper-SD,是一项在图像处理和机器学习领域的重要进展。这项技术通过创新的方法提升了模型在不同推理步骤下的性能,同时保持了模型大小的精简。随着进一步的研究和开发,Hyper-SD及其衍生技术有望在多个领域内推动AI技术的发展和应用。
Midjourney发布了一个有趣的功能,可以基于提示词生成完全随机的图像风格。使用方式:在提示词后添加--srefrandom,如果找到了喜欢的风格可以通过--srefurl将风格迁移到新图片上。无论是个人创作还是与他人合作,Midjourney的新功能都将为用户提供更多创作灵感和交流的机会。
一个可以自动分析PDF、网页、海报、Excel图表内容的大模型,对于打工人来说简直不要太方便。上海AILab,香港中文大学等研究机构提出的InternLM-XComposer2-4KHD模型让这成为了现实。IXC2-4KHD将多模态大模型支持的分辨率提升到了4K的水平,研究人员表示目前这种通过增加切块个数支持更大图像输入的策略遇到了计算代价和显存的瓶颈,因此他们计划提出更加高效的策略在未来实现�
Midjourney最近推出了一个有趣的新功能——Room,为用户提供了一个协作和社交平台。在这个功能中,用户可以一起创建和分享图像,并参与实时聊天。Midjourney通过引入Room功能,为用户提供了一个探索、合作和分享他们人工智能艺术创作过程的平台。
当用户在与MetaAI的聊天中开始输入文本到图像的提示时,将看到随着添加更多关于想创建的内容的细节,图像如何变化。在Meta分享的示例中,一个用户输入了提示:“想象一场在火星上进行的足球比赛。这一新功能是Meta在其所有应用程序中推出AI功能的一部分,包括WhatsApp、Instagram、Facebook和Messenger。
OpenAI宣布关闭DALL-E2图像生成器服务,由其后续产品DALL-E3替代。DALL-E2在2022年4月面世后不久,以其能够根据简单文本提示生成高质量图像一举成名。但为了安全起见,大家可能需要下载自己特别喜欢的任何内容。
在计算机视觉和图形学领域,材质迁移技术一直是研究的热点之一。牛津大学、StabilityAI和MITCSAIL的研究团队共同开发了一种名为ZeST的创新方法,它能够在无需任何先前训练的情况下,实现从一张图像到另一张图像中对象的材质迁移。研究团队将继续探索如何将ZeST扩展到更广泛的应用领域,并进一步提升其性能和效果。
2txt是一个基于AI的图像转文字工具,使用ClaudeHaiku和VercelAISDK创建。这个工具不仅可以将任意图像上的文字识别出来能将其转换成可编辑的文本格式。用户只需上传图片,系统就会自动识别图片中的文字,并将其转换成可编辑的文本格式,极大地提高了工作效率。
北大和字节联手搞了个大的:提出图像生成新范式,从预测下一个token变成预测下一级分辨率,效果超越Sora核心组件DiffusionTransformer。并且代码开源,短短几天已经揽下1.3k标星,登上GitHub趋势榜。他硕士毕业于浙江大学,目前的研究重点是视觉基础模型、深度生成模型和大语言模型。
北大与字节跳动AILab联合提出了一种图像生成新范式——VAR,这一新方法的核心在于预测下一级分辨率非传统的预测下一个token。VAR的提出不仅在图像生成质量上超越了Sora的核心组件DiffusionTransformer在推理速度上也实现了20倍以上的提升。VAR的开源也体现了学术界与工业界合作的积极成果,有助于推动整个AI领域的发展和创新。