11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
著名开源生成式AI平台Stability.ai发布了,全新文生图模型SDXLTurbo。该模型只需1秒甚至更少的时间就能生成高精准图片,可将通常50个生成步降至1—4步。哎~~万万没想到现实中的高压学习、生活方法也适用于大模型界,看来开发灵感真的无处不在啊,真是名师出高徒,严父出孝子。
StableDiffusion是目前最强开源文本生成图片的扩散模型之一,但对于那些没有A100、H100的中小企业、个人开发者来说有一个很大缺点,需要花费高昂的训练成本。为了解决这一痛点,Wuerstchen开源模型采用了一种全新的技术架构,在保证图片质量的情况下实现了42倍极限压缩。Wuerstchen生成图片展示根据Wuerstchen展示的案例,该模型对文本的理解能力非常好,生成的质量效果也能媲美StableDiffusion等目前最强开源扩散模型。
SiteServer CMS以强大的文章管理功能而著名,一直以来做的是企业站、政府等高端用户的管理系统,在3.4.2中还实现了知道系统,以及原先的空间space系统,提供整合Discuz!NT接口,SiteServer CMS将逐步引成一套完整的强大的社区内容管理系统,造福广大站长。
InstantMesh是一项突破性的技术,能够从单张图像快速生成高质量的三维网格模型。这项技术利用了前馈框架,结合了多视图扩散模型和基于大规模重建模型的稀疏视图重建技术,极大地优化了3D资产的创建过程。InstantMesh的出现,预示着3D建模和可视化领域将迎来新的变革,它将极大地提高工作效率,降低技术门槛,使得更多的人能够参与到3D内容的创作中来。
PixArt-sigma由华为诺亚方舟实验室联合多个研究机构共同开发的项目,是一个强大的文本到图像生成模型,通过弥散Transformer进行弱到强训练,旨在实现4K分辨率的图像生成。PixArt-sigma采用了弥散Transformer进行弱到强训练,从能够更好地生成高质量的4K分辨率图像。在应用方面,PixArt-Σ是一款强大的文本到图像生成工具,具有广泛的应用场景,可以满足艺术、设计、游戏开发、营销
RekaAI近日宣布推出其最新力作——RekaCore,这是一款前沿的多模态语言模型,拥有强大的性能和灵活的部署方式。该模型像Gemini一样可以直接分析图片、视频、音频,评测得分与GPT-4和Gemini-Ultra接近。通过Edge、Flash和Core等系列模型的全面支持,Reka已经准备好迎接更广泛的挑战,展望未来,我们期待着与更多愿意加入我们的伙伴共同探索多模态世界的无限可能。
在人工智能领域,多模态模型的发展一直是行业关注的焦点。马斯克XAI公司发布了其最新的多模态模型——Grok-1.5Vision,这一模型不仅能够处理文本信息能够理解和分析各种视觉数据,如文档、图表、截图和照片,标志着公司在人工智能技术上迈出了重要一步。随着该模型的进一步优化和应用,我们有理由相信,它将在多个领域发挥重要作用,推动人工智能技术向前发展。
站长之家(ChinaZ.com)4月9日 消息:据报道,芝加哥大学的研究人员开发了一种名为Nightshade的工具,旨在防止未经许可的AI图像生成。该工具可以使AI图像生成器无法使用未经许可的图像进行训练,从而保护了艺术家和版权所有者的作品。Nightshade的工作原理是在图像中添加隐藏信息,这些信息对人眼不可见。当像Stable Diffusion这样的AI图像生成器尝试使用这些图像进行训练时,这些
苹果近日宣布与Shutterstock达成协议,授权使用数百万张图片来训练其人工智能模型。除了苹果之外,谷歌、Meta和亚马逊等科技公司也曾与Shutterstock达成类似协议,用于发展视觉AI引擎。其打算开发能够尽可能使用设备上技术的LLMs。
一款名为GRM的大型高斯重建模型引起了广泛关注。GRM是一种用于3D重建和生成的技术,通过有效整合多视角信息,它能够在极短的时间内重建出精确的3D模型。随着技术的不断发展,我们有理由相信,GRM将为3D建模技术的应用带来更多可能性。
研究人员提出了一种名为Garment3DGen的方法,旨在实现3D服装的风格化和纹理生成。该方法通过结合先进的计算机视觉技术和人工智能算法,为用户提供了一个简单高效的工具,用于实现服装设计的个性化风格化。随着这一技术的不断完善和推广,我们有理由相信,未来的服装设计将更加多样化和个性化。
谷歌最近发布了一项名为“Vlogger”的新视频框架,可以通过仅一张图片和录音即可生成一个本人演讲视频。这一框架基于扩散模型,包含音频到人体动作和文本到图像模型两部分。随着技术的不断进步和完善,相信Vlogger将在未来有更广泛的应用和发展。
一款名为IPCompositionAdapter的新型适配器引起了广泛关注。该适配器专为StableDiffusion1.5模型设计,其独特之处在于能够在新生成的图像中同步构图忽略风格和内容。随着SDXL变种的研发进展,我们有理由相信,这款适配器将为用户带来更加丰富的创意体验。
清华大学与阿里安全联合发布了概念半透膜模型,这一模型能够在Diffusion架构的AI作图模型中,精准、可控地擦除各类具象或抽象概念。该模型的推出解决了传统AI作图模型存在的生成涉黄、侵权等危险概念的问题,实现了对特定概念的精确擦除。这一研究成果有望在AI内生安全领域、可控生成等方面发挥重要作用,推动AI技术产品向着可用、可靠、可信、可控的方向发展。
清华大学的研究团队在图像处理领域取得了重要进展,他们提出了一种名为ConvolutionalReconstructionModel的前馈式单图像到3D纹理网格生成模型。与传统的大型重建模型相比,CRM在生成速度上表现出色,同时克服了基于Transformer的方法在几何先验方面存在的不足。这一项研究为单图像到3D纹理网格的生成提供了一种新的前馈式模型,具有卓越的速度和质量,为图像处理领域带来了新的
标题:🎥划重点:1.🌐AtomoVideo介绍:阿里技术团队推出的文本图片生成高保真视频模型,通过简单的文本提示和高清图片即可生成逼真高清视频。2.🚀技术创新:AtomoVideo融合多粒度图片注入和时间建模,利用VAE编码器和CLIP编码器提高细节信息和文本语义的一致性,同时在时间维度上进行创新以学习时序动态模式。这一创新性的视频生成模型将为AIGC领域带来更多可能性,引领视频�
FindSD.art是一个能够根据单张图像,帮助用户发现CivitAI的稳定扩散模型,从找到最符合其艺术风格的工具。用户只需上传图像,FindSD.art就能根据你上传的图片风格找到Civitai里面类似风格的SD模型。产品核心功能:通过上传单张图像,快速发现与之匹配的CivitAI稳定扩散模型,为用户提供个性化的艺术风格选择。
英伟达与特拉维夫大学的研究人员联手开发了一款名为ConsiStory的文生图模型,旨在解决目前文生图模型在生成内容一致性方面的挑战。ConsiStory采用了一种全新的方法,通过主体驱动自注意力和特征注入等核心模块,实现了图像主体的一致性,无需任何训练或调优。这些功能共同助力ConsiStory成为一款无需训练即可生成连贯图片的文生图模型,为AI图像生成领域带来了新的可能性
多数文生图模型皆使用的是随机采样模式,使得每次生成的图像效果皆不同,在生成连贯的图像方面非常差。想通过AI生成一套图像连环画,即便使用同类的提示词也很难实现。也就是说生成的图像可以相互关注、共享特征,这使得ConsiStory实现了0训练成本,避免了传统方法中需要针对每个主题进行训练的难题。
ComfyUI最新的3DPack现已发布,让用户可以快速将图片转换为3D模型,并在RTX3080GPU上不到30秒内完成。这一新功能让用户能够直观地查看3D模型,并自动创建多个相机角度,从各种方向全方位地查看3D模型。这一新功能无疑将为用户带来全新的体验和方便,让他们能够更好地应用3D技术于各种领域中。
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
Bard已经更新,现在具有生成图片的能力。这一功能由DeepMind的Imagen2图像生成模型提供支持。值得一提的是,虽然Bard已经更新,但目前只有部分用户能够使用这一功能,因为在试用后发现,即使是已经升级到最新版本的用户账号,也不能使用这一功能。
在最新的研究中,百度提出了一项名为UNIMO-G的统一图像生成框架,旨在克服现有文本到图像扩散模型面临的挑战。传统模型主要根据简洁的文本提示生成图像,但文本描述的简洁性限制了生成复杂细节图像的能力。UNIMO-G的提出为文本到图像生成领域带来了新的可能性,其简单有效的多模态条件扩散框架在处理复杂性和提高图像生成质量方面具有潜在的广泛应用价值。
来自南加州大学、哈佛大学等机构的研究团队最近提出了一项创新性的生成模型方法,名为DreamDistribution。这一方法基于提示学习,能够通过仅有的几张参照图片学习文本提示分布,从实现高度多样化和个性化的图像生成。应用于文本到3D生成:**通过学习提示分发,可以应用于文本到3D生成,并支持文本引导的编辑,提供更多维度的图像生成能力。
一群斯坦福大学研究生发布了一个新项目,他们的AI模型经过了10万个随机位置、50万个街景图片以及其他图片的训练。这个模型能够快速准确地找出图片中的位置,目前的准确率达到了92%。所以对于普通用户来说,保护好隐私是至关重要的。
M2UGen是一款引领潮流的框架,融合了音乐理解和多模态音乐生成任务,旨在助力用户进行音乐艺术创作。通过其强大的功能,M2UGen提供了全方位的音乐生成和编辑体验。从生成摇滚音乐到对图像进行音乐创作,M2UGen满足了用户的多样化需求。
随着ChatGPT的出现以及广泛应用,通过文本生成文本、视频、音频等内容,成为实现技术民主化的关键手段。在3D模型领域通过文本生成并不成熟,多数方法是通过图片。这样通过不断地优化,网格表面的颜色信息会逐渐跟多视角图片越来越接近,从实现纹理的提升。
GoogleResearch最近发布了一款名为VideoPoet的大型语言模型,旨在解决当前视频生成领域的挑战。该领域近年来涌现出许多视频生成模型,但在生成连贯的大运动时仍存在瓶颈。VideoPoet作为大型语言模型,通过集成多种视频生成任务,为零镜头视频生成提供了新的可能性,为艺术创作、影视制作等领域带来了潜在的创新机遇。
12月14日,著名生成式AI开源平台Stability.ai在官网开源了,图片生成高质量3D模型——StableZero123。StableZero123是基于今年3月,丰田研究院和哥伦比亚大学联合开源的Zero123模型开发成。StableZero123模型主要用于研究,未来会开放商用。
阿里巴巴、香港大学、蚂蚁集团的研究人员提出了一种全新图片生成动态视频模型——LivePhoto。用户通过LivePhoto,可将一张静态图片快速生成高精准的动态视频。用户还可以通过简单调节运动强度的数值,自由定制视频中运动的方式。