首页 > AI头条  > 正文

Midjourney V7推出全新功能 “Omni-Reference”,让图像生成更灵活

2025-05-06 10:51 · 来源: AIbase基地

在图像生成领域,Midjourney 近期推出了一项名为 “Omni-Reference”(全向参考)的新功能,为用户带来了更大的创作自由。这一全新图像引用系统不仅是 V6版本中 “角色参考” 功能的升级版,更是赋予用户在创作过程中对图像元素的精准控制。

QQ截图20250503104440.png

核心功能:全向参考与多元素支持

Omni-Reference通过先进的图像参考系统,为用户提供了前所未有的创作控制力。AIbase梳理了其主要亮点:  

精准元素指定:用户可上传参考图像(如人物、动物、武器或车辆),通过提示明确要求“将此元素放入图像”,生成结果高度匹配参考特征。  

多样化支持:支持人物、动物、非人类生物、道具、车辆、物体,甚至整套角色造型或风格元素,适用范围远超V6的角色参考。  

多对象生成:支持单张图像包含多个对象(如两个角色)或上传多张参考图像,提示中明确描述即可生成复杂场景。  

灵活权重调整:通过“全向权重”(--ow)参数(范围0-1000,默认100)控制参考图像的影响强度,低权重(如--ow25)适合风格转换(如照片转动漫),高权重(如--ow400)确保面部或服装细节高度一致。  

生态兼容性:无缝集成个性化(Personalization)、风格化(--stylize)、风格参考(--sref)与情绪板(Moodboards),支持多模态创作。

AIbase注意到,社区测试显示,Omni-Reference将一张“赛博朋克战士”参考图像与“未来城市”场景结合,生成的人物面部、装备与光影高度一致,细节保留率达90%以上,远超V6角色参考的表现。

技术架构:V7专属与多模态融合

Omni-Reference作为Midjourney V7的旗舰功能,依托最新的生成模型与图像处理技术。AIbase分析,其核心技术包括:  

V7模型支持:仅在Midjourney V7(需手动切换至V7模式)上运行,结合235B参数模型(推测)提升图像细节与提示遵循度,优于V6.1的默认设置。  

多模态参考系统:通过CLIP-ViT与潜在扩散模型(LDM)解析参考图像,提取人物、物体或风格特征,支持跨模态生成(如实拍转插图)。  

动态权重控制:Omni-Weight(--ow)基于注意力机制动态调整参考影响,结合--stylize与--exp参数优化风格与表现力,避免高权重下的质量下降。  

多对象解析:利用分割模型(如SAM)与多提示权重(--iw、--sref URL1::2)处理复杂场景,确保多个参考对象在生成图像中的准确呈现。  

MCP潜力:支持Model Context Protocol(MCP),未来可与Qwen-Agent或F-Lite集成,扩展至动态场景生成与工具调用。

AIbase认为,Omni-Reference的多对象支持与权重调整使其超越了Gen-4References的静态图像混合,其与V7模型的深度融合进一步巩固了Midjourney在AI图像生成领域的领先地位。

应用场景:从艺术创作到商业设计

Omni-Reference的强大功能使其在多种场景中展现出广泛潜力。AIbase总结了其主要应用:  

叙事艺术与影视:生成一致性角色(如“科幻电影中的机器人”)或物体(如“中世纪剑”),适配故事板设计与概念艺术,助力Unity或Blender工作流。  

游戏开发:快速生成统一风格的角色、道具或场景(如“RPG游戏中的龙与城堡”),缩短资产制作周期,适合独立开发者与AAA工作室。  

广告与电商:将产品(如手表)或品牌Logo融入多样化场景(如“沙漠日落”),提升Shopify或Instagram营销视觉吸引力。  

数字艺术与NFT:创作一致性角色或风格化物体(如“蒸汽朋克飞船”),适配OpenSea等平台,满足收藏家需求。  

教育与虚拟现实:生成历史场景(如“古罗马战士与战车”)或VR交互对象,增强教学与沉浸式体验。

社区案例显示,一位艺术家利用Omni-Reference将“蒸汽朋克机械狗”与“维多利亚时代街道”结合,生成的图像保留了机械细节与环境氛围,创作时间缩短约60%。AIbase观察到,Omni-Reference与Genie2的3D环境生成结合,或可扩展至实时交互内容创作。

上手指南:快速部署与创作

AIbase了解到,Omni-Reference现已通过Midjourney V7(需Standard或Pro订阅)在Web与Discord平台开放,暂不支持Fast Mode、Draft Mode或Vary Region(V6.1)。用户可按以下步骤上手:  

切换V7模式:在Midjourney Web界面(midjourney.com)设置中选择V7,或在Discord输入--v7。  

上传参考图像:Web界面点击Imagine Bar的图像图标,拖拽PNG/JPEG图像至“Omni-Reference”区域;Discord输入--oref <图像URL>(需先上传至Discord或Imgur)。  

设置提示与权重:输入描述性提示(如“战士持剑站在雪山,赛博朋克风格”),添加--ow100(默认)或调整至25-400,结合--sref或--stylize增强风格。  

多对象生成:上传含多个对象的图像或多张图像,在提示中明确描述(如“战士与龙”),确保对象特征清晰。  

优化与反馈:若细节丢失,增加--ow(如400)或补充提示描述;开发者可通过Hugging Face社区(huggingface.co/midjourney)提交反馈。

社区建议为风格转换使用低权重(--ow25)并强化提示描述(如“动漫风格,蓝发”),高权重(--ow400)适合精确复制面部或服装。AIbase提醒,Omni-Reference不支持精细细节(如特定雀斑或Logo),需通过提示补充,且测试阶段可能存在不稳定性,建议关注Midjourney更新。

社区反响与改进方向

Omni-Reference发布后,社区对其一致性与多元素支持给予高度评价。开发者称其“将AI图像生成的一致性推向新高度,简化了复杂场景创作”,尤其在叙事艺术与游戏开发中的表现被认为是“颠覆性突破”。 然而,部分用户反馈多对象生成可能出现细节混淆,建议增强分割精度。社区还期待支持Niji6(动漫模型)、视频生成与实时3D兼容性。Midjourney回应称,Omni-Reference将每周迭代,计划优化多对象解析与细节保留,未来或支持Draft Mode与视频生成。AIbase预测,Omni-Reference可能与Claude的语音模式或NIM Operator2.0的微服务整合,构建从创作到部署的闭环生态。

未来展望:AI艺术创作的里程碑

Omni-Reference的推出标志着Midjourney在图像生成一致性与用户控制力上的重大飞跃。AIbase认为,其多元素支持与V7生态集成不仅挑战了F-Lite与Gen-4References的生成灵活性,还通过开源社区的反馈机制加速了技术迭代。社区已在探讨将其与MiMo-7B的推理能力或Genie2的3D生成结合,构建从静态图像到交互世界的综合平台。长期看,Omni-Reference可能演变为“AI创作市场”,提供共享参考模板与API服务,类似Hugging Face的生态模式。AIbase期待2025年Omni-Reference在视频支持、多模态交互与低资源优化上的突破。

  • 相关推荐
  • 字节发布豆包1.5深度思考模型:“实拍级”图像生成

    快科技4月17日消息,据报道,今日,在火山引擎AI创新巡展杭州站的现场,字节跳动旗下火山引擎总裁谭待正式发布了备受瞩目的豆包1.5深度思考模型。谭待指出,豆包1.5深度思考模型在多个关键领域展现出卓越性能。在数学、编程、科学推理这类专业领域中,它能够精准高效地处理复杂问题;在创意写作等通用任务方面,同样表现出色。该模型采用MoE架构,总参数为200B,激�

  • UniToken:多模态AI的“能选手”,一次编码搞定文理解与图像生成

    复旦大学与美团研究者提出UniToken框架,首次在统一模型中实现图文理解与生成任务的"双优表现"。该方案融合连续和离散视觉编码,有效解决了传统多模态建模中的"任务干扰"和"表示割裂"问题。通过三阶段训练策略(视觉语义对齐、多任务联合训练、指令强化微调),UniToken在多个基准测试中性能超越专用模型。其创新性体现在:1)统一的双边视觉编码

  • AI日报:阿里腾讯面支持MCP协议;阶跃星辰多模态推理模型Step-R1-V-Mini;美WHEE图像生成模型Miracle F1

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP协议腾讯紧随其后近日,中国人工智能领域迎来技术标准的变革,ModelContextProtocol成为国内AI生态的事实标准。12.英伟达发布Llama3.1NemotronUltra253B,性能�

  • 雷军祝大家五一快乐 晒超级小爱新功能:一键生成拍立得照片

    快科技5月1日消息,雷军今早发文祝大家五一节快乐,并且还晒出了小米手机上超级小爱的新功能一键生成拍立得照片。雷军用自己在武大与SU7合影的照片,以及发布会上穿皮衣的照片生成了对应图像,整体非常传神,而且是Q版特效,很适合五一发朋友圈。这是超级小爱一项最新推送的功能,只要对小米手机的超级小爱说生成拍立得照片”,就可以生成这样效果的照片。超级小爱在去年底开始推送给用户,相比传统小爱更聪明、更智能。小米重塑了界面UI,能够与系统界面融合,在任何页面都可以唤醒超级小爱,并与它交流,不再有单独的APP感。支持全局多?

  • AI日报: OpenAI推出gpt-image-1图像生成API;纳米AI发布MCP万能工具箱;中国占球AI专利60%

    【AI日报】栏目聚焦人工智能领域最新动态:1) OpenAI推出ChatGPT图像生成API,开发者可轻松集成AI绘图功能,已生成超7亿张图片;2) 谷歌Gemini月活用户突破3.5亿,但仍落后于ChatGPT的6亿用户;3) OpenAI预测2029年收入将达1250亿美元,AI代理业务成主要增长点;4) Ostris发布8B参数扩散模型Flex.2-preview,优化ComfyUI工作流;5) 英伟达推出多模态LLM模型Describe Anything,支持指定区域生成详细描�

  • 公众号上线新功能!个人微信可以直接写文章发表了!

    这两天,微信灰度上线了一个新功能“我的公众号”。点击个人微信号首页中的“公众号”,进入“公众号列表”(即原先的订阅号列表界面),点击右上角“人像图标”,新增了一个新版块“我的公众号”。在该版块中有多个新功能,可以点击“发图文”和“写文章”,直接创作内容,保存草稿,发表内容,并且可以查看互动和私信消息。而在此之前,需要通过APP“公众号�

  • 为国人量身打造!比亚迪仰望U7推出“大红大紫”配色方案

    快科技4月17日消息,日前,仰望汽车销售事业部总经理胡晓庆在其个人社交媒体表示仰望U7新增大红大紫”配色方案,将阿盖尔紫外观与云锦红内饰进行搭配,现已在车辆订购页面支持同时选配。此前,阿盖尔紫外观和云锦红内饰并不能同时选配,此次官方开通了这两种内外饰颜色的同时选择通道,满足了消费者对个性化和豪华感的双重追求。阿盖尔紫外观颜色的选装价格为2�

  • 重回初心 为发烧而生!小米手机新功能可调节CPU/GPU频率

    小米手机最初的口号是为发烧生”,产品主要面向发烧友,带来顶级配置。随着体量不断扩大,小米手机需要照顾到的用户越来越多,如今性能释放上则是需要更保守,以稳定体验为主。这功能潜在风险也非常巨大,用户自行调节后若手机出现问题也会导致售后问题,最终该功能是否能顺利落地还存疑。

  • 微信开通最新功能:小蓝包公众号、服务号可礼物抽奖!

    微信小蓝包推出新功能,公众号/服务号可直接插入粉丝抽奖活动。商家需先开通小店送礼功能,由超级管理员授权后,在小店后台选择"营销中心-送礼物"开通抽奖权限。操作流程包括:设置活动时间、选择参与商品、绑定抽奖账号等。用户可通过文章中的小蓝包卡片查看中奖情况,中奖者会收到服务通知领取礼物,未中奖则无提示。该功能为公众号运营者提供了新的粉丝互动方式,同时带动小店商品销售。

  • ChatGPT上线图库功能:可管理AI生成图

    快科技4月16日消息,据报道,OpenAI近日宣布将为ChatGPT推出全新的Image Library图库功能,该功能将帮助用户更高效地管理和查看AI生成的图像。这项创新功能将逐步向所有用户开放,包括移动端和网页端的免费版、Plus版及Pro版用户。新功能的设计充分考虑了用户体验的便捷性。用户只需点击ChatGPT侧边栏的Library入口,就能进入一个直观的图像网格界面。在这个界面中,用户可以轻�

今日大家都在搜的词: