11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
8 月 26 日,宁德时代宣布与宜安科技、三祥新材、万顺机电在宁德市寿宁县签订了《镁系合金材料项目四方合作投资框架性协议》。四家公司同意投资设立合资公司,开展镁系合金材料业务。宁德时代、宜安科技、三祥新材、万顺集团拟按25%:30%:25%:20%的股权比例共同投资。镁系合金材料项目投资共计 20 亿元。
根据研究团队发表的预印本文章,InstantMesh是由腾讯PCGARC实验室和上海科技大学的研究人员开发的人工智能框架,能够在仅需10秒的时间内,从单个2D图像生成高质量的3D网格。该开源框架由多视图扩散模型和3D网格重建模型组成,通过使用不同角度合成的3D视图来实现高质量的重建。这一技术有望显著提升3D行业生产力,尤其在视频游戏开发领域。
日本首相岸田文雄将在即将于5月初举行的经济合作与发展组织会议上宣布一个用于规范和使用生成式人工智能的国际框架。预计将有40多个国家参与,日本旨在在创建国际人工智能规则方面取得领先地位。视频中将介绍OP作为一种有用的技术,用于识别虚假信息。
4月19日,Web3.0头部安全审计公司CertiK官方宣布,已与全球知名数字资产交易平台OKX达成战略合作,将共同构建全方位安全框架。此次合作覆盖交易所平台、移动端、钱包安全和智能合约审计在内的多个领域,旨在通过探索全面的安全解决方案,增强用户信任和增长,以及共同提升区块链安全标准,促进Web3.0生态的可持续健康发展。CertiK曾发现并协助修复了SUI、Aptos、COSMOS等Layer1区块链和WormHole跨链桥等Web3.0知名项目的高危漏洞,并因发现苹果iOS内核的安全漏洞两次获得苹果公司致谢,2024年2月,CertiK荣获三星移动安全名人堂荣誉,并接连获得包括蚂蚁集团、京东、字节跳动等传统互联网头部公司的公开致谢。
蚂蚁集团和浙江大学合作开发了一个名为OneKE的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。他们将持续优化知识抽取的性能,并将相关技术应用到金融、医疗、政务等领域,推动可控生成技术的产业落地。
小鹏汽车与大众汽车集团签订了EEA电子电气架构技术战略合作框架协议,双方将联合开发行业领先的电子电气架构。这一框架协议将使小鹏汽车最新一代基于中央计算和域控制器的电子电气架构集成到大众汽车在中国生产的电动车型上,预计从2026年开始应用。这一合作框架协议标志着小鹏汽车与大众汽车集团在中国市场电动车平台领域的战略合作,开启了双方合作的新里程碑。
北京大学最近发布了一种新的图像生成框架,名为VAR。这一突破性的技术首次使GPT风格的自回归模型在图像生成上超越了扩散transformer,同时展现出了与大语言模型观察到的类似Scalinglaws的规律。VAR算法为计算机视觉中的自回归算法设计提供了新的见解,有望推动这一领域的进一步发展。
DreaMoving是什么?DreaMoving是阿里一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。DreaMoving能够适应大多数风格化扩散模型以生成多样化的结果。
【新智元导读】模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。基于Transformer的大语言模型具有很强的语言理解能力,但LLM一次能够读取的文本量仍然受到极大限制。还可以看到ReadAgentS大大优于ReadAgent-P,性能改进的代价是检索阶段的请求数量增加了六倍。
研究人员从清华大学和北京理工大学开发了DRAGIN,这是一种针对大型语言模型设计的动态检索增强生成框架。该框架旨在通过在文本生成过程中实时确定何时以及如何检索外部信息,从提高语言模型的性能。未来的工作旨在克服与自注意力可访问性相关的限制,并对查询构建技术的影响进行评估。
中国香港中文大学和SmartMore的研究人员推出了一种名为Mini-Gemini的新颖框架,通过增强多模态输入处理来推动VLMs的发展。Mini-Gemini采用了双编码器系统和一种新颖的补丁信息挖掘技术,结合一个特别策划的高质量数据集,使其能够有效处理高分辨率图像并生成内容丰富的视觉和文本内容,从使其脱颖出。正如研究人员所承认的那样,Mini-Gemini在视觉理解和推理能力方面仍有改进�
Meta公司最近推出了一款名为OPT2I的新框架,该框架利用大型语言模型来提高SD图像从提示词到图像的生成过程中的一致性。OPT2I是一个优化框架,旨在提升T2I模型中的提示-图像一致性。OPT2I框架为提高T2I模型的提示-图像一致性提供了一种新的有效方法。
社交媒体上的毒性言论可能会像野火般蔓延,特别是针对个人和边缘化群体。明显的仇恨言论相对容易被发现,但隐含毒性——依赖于刻板印象和编码语言不是明显的侮辱——提出了更为棘手的挑战。但通过谨慎使用,它为赋予边缘化声音权力和遏制网络上的压制性言论提供了一条道路。
随着ChatGPT的出现,大语言模型在生成连贯文本和遵循指令方面获得了巨大技术突破。然后在推理和解决复杂内容方面,面临内容不准确、安全等难题。每次只需要一个查询获得相似性能的集成方法需要40倍的查询量,也就是说可以节省很多算力资源。
一项名为AnyV2V的全新视频转视频框架引起了广泛关注。这一框架的独特之处在于,它不仅支持对源视频进行深度修改能加入附加的控制元素,如文本提示、主题或风格,以生成一个既与原视频相符,又与所提供的控制内容相匹配的新视频。这一框架的推出,无疑为视频编辑领域带来了新的创新和可能性。
在当今人工智能时代,计算机可以通过扩散模型生成自己的“艺术”,逐步向嘈杂的初始状态添加结构,直到清晰的图像或视频出现。扩散模型突然变得异常受欢迎:输入几个词,即可体验现实与幻想交汇的梦幻景象。当前版本使用StableDiffusionv1.5作为教师模型,学生继承了一些限制,如渲染文本和小脸部的细节描绘,这表明更先进的教师模型可能进一步提升DMD生成的图像。
HPT是HyperGAI研究团队推出的新型多模态大型语言模型框架。它具有高效且可扩展地训练大型多模态基础模型的能力,能够理解包括文本、图像、视频等多种输入模态。点击前往HPT官网体验入口需求人群:"适用于需要处理和理解多模态数据的研究人员和开发者,如进行视觉-语言任务、图像分析、图表解读等。
谷歌最近发布了一项名为“Vlogger”的新视频框架,可以通过仅一张图片和录音即可生成一个本人演讲视频。这一框架基于扩散模型,包含音频到人体动作和文本到图像模型两部分。随着技术的不断进步和完善,相信Vlogger将在未来有更广泛的应用和发展。
LaVi-Bridge项目是一个无需训练将不同的语言模型和生成视觉模型结合起来,以实现文本到图像的生成的项目。LaVi-Bridge是一个灵活的框架,它允许将不同的预训练语言模型和生成视觉模型集成到文本到图像生成的过程中。在短提示、长提示和组合提示下的文本对齐和图像质量指标上进行了广泛的评估,并通过大量可视化实验验证了LaVi-Bridge的有效性。
LaVague是一个旨在自动化浏览器交互的大型动作模型框架,通过将自然语言指令转化为无缝的浏览器交互,重新定义了互联网浏览体验。该框架的设计初衷是为用户自动化繁琐的任务,节省时间,让用户能够专注于更有意义的事务。未来的发展方向可能包括优化本地模型、改进信息检索以确保生成的代码片段相关性、支持其他浏览器引擎等。
在最新的研究中,由卡内基梅隆大学的研究团队开发,提出了一种名为H2O的框架,通过强化学习实现了人对人形机器人的实时全身遥控操作。该框架在仅使用RGB摄像头的条件下,成功地让人形机器人模仿并实时执行各种动态的全身运动,包括行走、后空翻、踢球、转身、挥手、推动、拳击等。这是首次在人形机器人领域实现了这一技术上的突破,为全新的人机交互和协作场景�
SLD 是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。点击前往SLD官网体验入口需求人群:适用于需要精确文本到图像对齐的研究者和开发者,以及希望进行图像生成和编辑的用户。使用场景示例:使用SLD框架根据文本提示生�
MovieLLM是一个创新框架,旨在为长视频创建合成的、高质量的数据。该框架利用GPT-4和文本到图像模型的力量,生成详细的脚本和相应的视觉内容。MovieLLM将为您提供强大的支持和创意工具,让视频创作更加简单和高效。
加利福尼亚大学圣地亚哥分校和南加利福尼亚大学的研究人员最近推出了一种名为CyberDemo的新型人工智能框架,旨在通过视觉观察进行机器人模仿学习。传统的模仿学习方法通常需要大量高质量的示范数据来教导机器人完成复杂任务,特别是对于需要高度灵巧的任务来说。虽然为每个任务设计模拟环境需要额外的工作,但减少了数据收集的人为干预,并避免了复杂的奖励设计�
阿里巴巴在人工智能领域再次取得突破,推出了一款名为AtomoVideo的高保真图像到视频生成框架。这一技术的问世,标志着基于文本到图像生成技术的视频生成领域取得了显著的快速发展。不过从AK大神发布的演示来看,AtomoVideo生成的视频质量和sora相比差距较大,和SVD相比也有一些差距,希望后续会有更大的提升吧。
随着Sora的爆火,人们看到了AI视频生成的巨大潜力,对这一领域的关注度也越来越高。除了视频生成,在现实生活中,如何对视频进行编辑同样是一个重要的问题,且应用场景更为广泛。如下表所示,UniEdit的表现大幅超过基线方法。
一款名为ChatwithMLX的大模型框架推出,专为Mac用户打造,让他们也能享受本地大模型的乐趣。这个框架仅需两行代码即可部署,支持与本地数据交互,并提供中文支持。对于Mac用户来说,这无疑是一次令人振奋的消息,也让他们更便捷地体验到大模型带来的便利和乐趣。
重磅:北大团队联合兔展发起了一项Sora复现计划——OpenSora。框架、实现细节已出:初始团队一共13人:带队的是北大信息工程学院助理教授、博导袁粒和北大计算机学院教授、博导田永鸿等人。又有消息称:Dreamina即将上线类似sora的视频生成功能。
谷歌AI团队最近发布了一项名为MUSCATEL的全新时间感知框架,旨在对抗概念漂移问题,提升图像识别准确率。概念漂移一直是机器学习领域的难题,即数据分布随时间变化,影响模型持续有效性。谷歌发布的MUSCATEL方法为机器学习领域的概念漂移问题提供了一种创新的解决方案,为模型在大规模、动态数据集中持续准确地进行分类提供了新的思路和方法。
阿里巴巴智能计算研究所提出了一种新的生成式框架EMO,只需输入图片和音频即可生成具有表现力的视频视频中的嘴型还可以与声音匹配。这项技术支持多语言、对话、唱歌以及快速语速的适配,但也可能成为造假的利器,因此一些名人可能需要警惕了。需要注意的是,该框架目前仅用于学术研究和效果演示有待进一步优化和扩展其应用范围。