11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
腾讯云
12-20
印凡MS-S1MAX迷你AI工作站体积仅3.3升,集成126TOPS算力,搭载AMD锐龙AI Max处理器与Radeon 8060核显,支持本地运行1280亿参数大模型。配备128GB LPDDR5X内存、双M.2插槽及高速USB4接口,采用先进散热设计实现130W稳定输出。紧凑机身支持灵活部署,为企业本地AI与边缘计算提供高效解决方案。
雷蛇发布新一代清姬V2与V2X摄像头,将4K超清画质与自适应AI软件结合,为主播及创作者带来高效内容创作体验。清姬V2支持4K 30fps专业级影像,搭载Sony STARVIS™传感器,通过AI自动优化曝光、对焦及取景,实现一键画面增强。集成Camo Studio平台,提供智能背景虚化、光线校正等功能。清姬V2X支持1440P 60fps,配备一体式麦克风,即插即用。两款产品均强调简化操作,助力用户专注内容创作。
DeepSeek发布数学推理模型DeepSeek-Prover-V2,包含7B和671B两个参数版本。该模型采用"递归+强化学习"训练方法,在MiniF2F测试集上达到88.9%通过率,解决了PutnamBench中的49道题目。关键技术包括:1) 使用DeepSeek-V3分解复杂定理生成子目标;2) GRPO算法从多个候选方案中自动学习最优解;3) 通过思维链整合非形式化推理与形式化证明。模型在AIME竞赛题和教科书题目上也表现优异,7B小模型意外在部分问题上超越大模型。论文指出该方法为通向AGI提供了正确路径,未来将扩展至IMO级别数学难题。
快科技4月30日消息,今日,DeepSeek 今日在 AI 开源社区 Hugging Face 发布了一个名为 DeepSeek-Prover-V2-671B 的新模型。据介绍,DeepSeek-Prover-V2-671B 其参数量达到6710亿,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多种计算精度,方便模型更快、更省资源地训练和部署。在模型架构上,该模型使用了DeepSeek-V3架构,采用MoE(混合专家)模式,具有61层Transformer层,7168维隐藏层。同时支持超长上下文,最大位置嵌入达163840,使其能处理复杂的数学证明,并且采用了FP8量化,可通过量化技术减小模型大小,提
本文介绍了多个前沿的人工智能产品和技术动态,包括SkyReels-V2视频生成模型、讯飞星火大模型升级、宇树科技人形机器人比赛计划、Coze Space AI协作平台、Gemma3 QAT优化模型、英特尔AI Playground工具、Reachy2人形机器人发布、ChatTS-14B语音研究项目、Figma推出AI设计工具以及MarkItDown MCP文档转换工具,展示了AI技术在多领域的广泛应用与创新发展潜力。
音旗下TECNOC品牌将于8月下旬发布两款新款手机,分别为PhantomVFold2和PhantomV2Flip。一位名叫ParasGuglani的人在X平台发布了这条消息,并分享了后者相关的照片。关于尺寸方面,展开时的尺寸预计为170x74x8毫米,折叠时则为85x74x16毫米。
7月24日,爱诗科技正式发布视频生成产品PixVerseV2,全球同步开放,致力用AI视频大模型为每一个用户释放创意可能。PixVerseV2采用DiffusionTransformer基础架构,并在各方面进行技术创新,提供了更长、更一致、更有趣的视频生成能力。PixVerseV2致力让更多用户感受到AI视频创作的乐趣,无论是记录日常脑海中的灵光乍现是讲述引人入胜的视频故事,都能变得触手可及。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、Hedra的Character-1开放使用Hedra的Character-1开放使用,为创作者提供了通过文本和图片生成说话和唱歌视频的神器,开启了创作革命。模型基于创新性数据集和简化设计,短时间内完
腾讯混元团队联合中山大学、香港科技大学推出了一款全新的图生视频模型,名为"Follow-Your-Pose-v2"。这一模型在视频生成领域实现了从单人到多人的跨越,能够处理人物合照,让所有人都能同时在视频中动起来。混元DiT模型的使用门槛降低,用户可以在HuggingFace的官方模型库中用三行代码调用模型。
腾讯混元团队联合中山大学、香港科技大学宣布推出全新图生视频模型"Follow-your-Pose-V2”,实现单张图片多人动作驱动。用户只需输入一张人物图片和一段动作视频,模型便能巧妙地让图片中的人物跟随视频中的动作舞动,生成的视频长度可达10秒。模型还具备强大的泛化能力,无论是年龄、服装各异的人物是背景杂乱的场景,亦或是动作复杂的视频,它都能轻松应对,生�