首页 > 传媒 > 关键词  > AI应用最新资讯  > 正文

1.3亿美元!LiblibAI拿下国内AI应用融资

2025-10-23 13:57 · 稿源: 站长之家用户

在 AI 应用层加速爆发的2025年,AI应用公司LiblibAI宣布完成1.3亿美元B轮融资,由红杉中国、CMC资本及一战略投资方联合领投,老股东顺为资本、源码资本、明势创投、渶策资本均超额增持,远识资本继续担任本轮融资的独家财务顾问。

这是今年迄今为止国内资本市场AI 应用赛道最大的一笔融资,这笔融资也标志着 AI 投资热点正从底层模型转向应用层。 在大模型逐渐成为少数头部玩家游戏的当下,资本正重新聚焦那些能够将多模态能力真正落地于创作、生产与消费场景的 AI 平台。

LiblibAI 成立于2023年底,经历了开源视觉创作的爆发期,LiblibAI 现已成长为中国最大的多模态模型与创作社区,平台整合了图像、视频、3D、LoRA 训练等多模态能力,覆盖从灵感生成、视觉设计到动态视频制作的完整 AI 工作流,孵化了超过2000万 AI 创作者,包括插画、摄影、电商、海报、IP 等专业视觉场景。

在 AI 基础模型逐渐趋同的背景下,LiblibAI 凭借“工具集成+社区生态”的战略路径脱颖而出。平台不仅聚合了全球领先的开闭源视频与图像生成模型,还通过模型轻量级训练与创作者激励机制,形成了独特的模型-场景-创作者共创生态。

2025年10月,LiblibAI 发布2.0版本,将“聚合工具”升级为“AI 专业创作工作室”,强化视频生成能力,支持多模型生成与专业级特效模板,实现从灵感到成片的端到端体验,为 AI 视频制作打开了新的标准。

融资完成后,LiblibAI 将加速全球化布局,打造全球创作者共创的多模态内容生态。作为一家致力于赋能创作的科技公司,LiblibAI 正在寻找更多有志之士加入团队,共同见证 AI 时代创意产业的未来。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 谷歌AI眼镜官宣明年问世:搭载Gemini多模态模型

    谷歌宣布,正与三星、Gentle Monster及Warby Parker等合作伙伴共同研发两种类型的AI智能眼镜,预计新产品将于2026年面市。 谷歌硬件负责人Payne表示,公司已从过往经历中吸取教训。新款眼镜将深度集成其先进的Gemini大模型,在无需双手操作的情况下,用户可实现拍照、导航、接听电话及识别眼前物体等功能,其定位与Meta和雷朋合作推出的智能眼镜相似。 此次发布的产品线将分�

  • 可灵AI O1正式上线:号称全球首个统一多模态视频大模型

    可灵AI正式发布全新O1视频大模型,被誉为全球首个统一多模态视频大模型。该模型基于创新的多模态视觉语言交互架构,用户可在单一输入框内无缝融合文字、图像、视频等多种指令,实现跨模态内容的高效创作。其技术突破解决了传统视频生成工具功能割裂、操作复杂的痛点,并攻克了视频中主体特征漂移的行业难题,支持长达310秒的自由生成时长。目前用户可通过可灵App及官网体验。

  • 全球首个大一统多模态视频模型可灵O1发布 让P视频像P图一样简单

    全球首个大一统多模态视频创作工具“可灵O1”正式上线。它基于全新视频图像模型,以自然语言为语义骨架,融合视频、图片、主体等多模态描述,将生成和编辑任务整合于一个全能引擎中,为用户提供从灵感到成品的闭环创作体验。该模型打破传统单一视频生成任务边界,支持参考生视频、文生视频、首尾帧生视频、视频内容增删、风格重绘等多种任务,用户无需在多个工具间跳转即可一站式完成全流程创作。

  • 为AI Agent时代筑基,火山引擎多模态数据湖方案重塑数据处理范式

    人工智能时代全球数据量激增,预计2028年将达393ZB,其中80%为非结构化数据。火山引擎推出多模态数据湖方案,以Lance存储+Daft计算为核心,解决数据处理痛点:存储层实现高压缩比与灵活Schema,计算层通过延迟计算提升70%效率。该方案在智能驾驶等场景显著优化性能,端到端处理时间缩短70%,资源利用率提升至95%以上。平台还推出"算子广场"降低开发门槛,并推出Data Agent实现自然语言交互的数据分析,推动企业构建以数据消费为导向的治理体系。

  • 小度AI眼镜Pro获评WISE2025年度焦点产品奖,多模态交互定义硬件新形态

    在36氪WISE2025大会上,小度科技CEO李莹以“智能深潜,硬件开始觉醒”为主题,系统阐述了大模型时代智能硬件的演进方向。她强调,场景、AI与硬件的深度融合是破局关键,并以小度AI眼镜Pro为例,展示了“第一视角智能”的创新突破,具备智能构图、防抖、降噪等功能,实现无缝交互体验。同时,小度智能摄像机开创“上帝视角智能”,支持AI随心看护和智能寻物。这些产品背后是全新“超能小度”AI助手,通过多模态交互实现从“能听会说”到“能看会想”的质变。小度宣布为已售设备免费升级,彰显AI普惠决心。小度AI眼镜Pro获“WISE2025年度焦点产品奖”,印证行业对其创新高度认可。

  • 余杭,让AI与青才双向奔赴 ——“AI杭州 码动未来”AI模型智能体创新大赛圆满落幕

    “AI杭州+码动未来”AI模型智能体创新大赛决赛近日在余杭落幕。作为2025杭州国际人才交流与项目合作大会的重点活动,大赛吸引了近200名AI领域青年才俊、专家学者及产业代表参与。赛事聚焦“AI+大健康”“AI+未来教育”“AI+办公提效”“AI+具身智能”四大前沿方向,汇聚了来自北京大学、浙江大学、中国人民大学等顶尖高校及高潜力初创企业的550余名青年人才,征集项目200余个。经过激烈角逐,最终评选出一等奖4项、二等奖4项、三等奖8项及优秀奖8项。大赛不仅是竞技平台,更是产业化的起点。余杭区通过设立总奖金池、提供办公空间免租、推出算力券模型券等政策,并联动“海创未来”人才项目、创新创业项目等,构建了覆盖技术研发、场景验证、精准服务的产业支撑体系,旨在为青年人才提供从创新到创业的全周期支持,打造AI开发者一站式服务平台,推动人才与产业双向奔赴。

  • 亿道信息以“AI+终端”与“AI+应用”双轮驱动,开启智能普惠新纪元

    12月3日,亿道信息在深圳举办年度“亿道科技日”,以“Edge+AI,端云协同”为核心,展示公司从产品提供商向场景计算体系构建者的战略转型。活动发布了覆盖个人、家庭、企业、工业、穿戴等核心场景的AI终端矩阵与一体化应用方案,致力于将AI转化为千行百业触手可及的生产力引擎。重点产品包括旗舰AI+PC(算力达180TOPS,预装“小亿AI助手”)、高性能AI+BOX(集成126TOPS算力与96GB显存)及全系列AI服务器矩阵。同时,公司推出“亿道超算AI智能引擎”以降低企业AI部署门槛,并展示AESOF跨平台开放框架,构建开放生态,与英特尔、高通等产业链伙伴深化合作,推动智能技术普惠化。

  • AI+VR革新视光体验!博士眼镜首家“豪雅星耀视觉空间”落地深圳

    博士眼镜与豪雅光学合作打造的全国首家“豪雅星耀视觉空间”在深圳揭幕。该空间融合AI验光与VR视觉训练,旨在将传统配镜服务从单一视力矫正,升级为互动化、全程化的视觉健康管理。消费者可体验AI智能验光设备30秒完成12项眼部参数测量,以及针对青少年近视防控的VR沉浸式训练,将枯燥训练转化为互动游戏。行业观察认为,此类“硬件+场景+服务”的创新模式,或将成为视光行业升级的重要方向。

  • 响应“人工智能+消费”命题,AI喜临门打响价值升级战

    近期,两项高规格政策为智能睡眠行业指明发展路径。商务部和工信部等六部门分别提出推动“人工智能+消费”,并鼓励开发脑机接口等人工智能终端用于健康服务,开展智能家居大规模推广行动。政策聚焦脑机接口等前沿技术,推动行业向更深层次突破。喜临门与强脑科技(BrainCo)合作推出全球首款脑机接口AI床垫“宝褓·BrainCo”,首次将非侵入式脑电技术引入民用睡眠产品,旨在更直接评估睡眠状态和干预可能。这一实践呼应了政策鼓励的方向。同时,喜临门旗下aise宝褓率先通过国家《家具+智能等级评定及标识》标准,成为首个获得最高L4级认证的智能床垫品牌。行业努力方向已发生变化,不再满足于让床垫多几个调节模式或附加功能,而是开始朝着精准提升睡眠质量进化。政策已为智能睡眠行业勾勒出发展框架,真正的机会在于能否沿着这条确定的道路,通过不断投入研发和开放式协作,将智能化稳步转化为用户每晚可感知、可信任的健康价值。

  • 可灵2.6模型上线!语音、音效与画面一键直出 重构AI视频创作工作流

    可灵视频生成2.6模型推出“音画同出”功能,彻底改变了传统AI视频“先无声画面、后人工配音”的工作流程。它能在单次生成中,输出包含自然语言、动作音效及环境氛围的完整视频,重构了AI视频创作工作流,极大提升创作效率。该模型在中文语音生成效果上保持全球领先,支持生成最长10秒的视频,可广泛应用于广告营销、自媒体、电商等内容创作场景。

今日大家都在搜的词: