首页 > 关键词 > 压缩率最新资讯
压缩率

压缩率

上海科技大学、NeuDim、字节跳动和DGene的研究团队共同发布了一篇名为《HiFi4G:人体建模和高效渲染的突破性进展》的AI论文。该论文介绍了HiFi4G,这是一种全新的、全显式且紧凑的高斯方法,用于从密集视频中重新创建高保真的4D人体表演。用户在虚拟环境中进行各种活动时,可以获得更具沉浸感的体验。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“压缩率”的相关热搜词:

相关“压缩率” 的资讯4624篇

  • 25倍压缩率!​HiFi4G渲染技术实现照片级真实人体建模和高效渲染

    上海科技大学、NeuDim、字节跳动和DGene的研究团队共同发布了一篇名为《HiFi4G:人体建模和高效渲染的突破性进展》的AI论文。该论文介绍了HiFi4G,这是一种全新的、全显式且紧凑的高斯方法,用于从密集视频中重新创建高保真的4D人体表演。用户在虚拟环境中进行各种活动时,可以获得更具沉浸感的体验。

  • Meta公布全新开源AI语音压缩技术:号称比MP3压缩率高10倍

    Meta公布了一项名为EnCodec”的AI语音压缩技术,该技术号称可以64kbps的速度压缩比MP3格式小10倍的音频,同时还能保证不会损失质量...Meta指出,压缩技术对目前互联网十分重要,借助于此用户可以十分容易的发送高画质图片、语音信息等...虽然此前也有人尝试用神经网络压缩音频,但Meta是首个将此技术用于48kHz立体声的团队...

  • 高压缩率 金山云媒体处理平台免费开放使用三个月啦

    4 月 26 日,金山云媒体处理平台向首次开通用户免费提供三个月使用权限,用户只需一键接入平台,无需开通其他服务,便可体验一站式服务。 (支持最高 5 并发,最终解释权归金山云所有) 高压缩率 获得极佳画质体验 金山云媒体处理平台融合视觉AI、转码能力,用户可以较低成本、高同画质压缩率,获得清晰的画质体验。当客户使用KS3 存储音视频媒体文件时,开通并调用媒体转码服务,按指定的方式和参数对存储空间的媒体文件进行相关多

  • 蓝牙低功耗音频标准公布:LC3编码压缩率更高音质更好

    随着越来越多手机厂商取消3.5mm耳机孔,无线蓝牙耳机市场也开始火热起来。作为标准制定组织,蓝牙SIG在CES期间宣布了全新的蓝牙LE Audio(低功耗蓝牙音频标准)。

  • 石墨烯技术压缩率高达99.9%,BCH的扩容之路稳健进行中

    对于具有支付功能的加密货币而言,达到Visa或Mastercard等主要支付网络的水平是一种理想。想要实现这个理想,大规模扩容是必须经历的过程。目前的扩容方法主要有两种:链上扩容和链下扩容。不过,目前无论是直接进行大规模链上扩容还是链下扩容,都还没有达到非常理想的效果。 链下扩容 最为出名的链下扩容方案莫过于比特币采用的“闪电网络”。虽然闪电网络确实解决了一部分因为链上限制而造成的交易拥堵问题,但是闪电网络并不?

  • 压缩率达99.54%,Xthinner已应用于BCH主网

    BCH作为大区块的代表,坚定的走在扩容的路上。不过BCH并非是单纯的增加区块大小,需要配合一些技术的改进,如UTXO证明、石墨烯等。在BCH扩容的过程中,随着区块容量的增加也不得不考虑区块传播速度和区块验证速度的问题。为了更好的解决区块传播的瓶颈,BCH社区中提出了很多方案,如致密区块(Compact Block)、极瘦区块(Xthin Block)、Bitcoin Unlimited开发团队一直在开发的石墨烯(Graphene)以及BCH开发者Jonathan Toomim推出的Xth

  • 谷歌WebP图像格式评测:压缩率显著提升

    本月初,Google 宣布了WebP 图像格式方案, 意欲挑战多年来JPEG图像格式在Web上的权威。根据Google 官方给出的资料,WebP 使用了与 WebM 相同的VP8编码器来压缩图像,利用预测编码技术,通过部分像素块的颜色来预测其邻近块的颜色值,并只记录两者的差值...

  • 设计论理-fireworks VS photoshop 的压缩率

    人感到惊讶的是,根据我的一个项目调查表明,还有相当多的设计人员在用fireworks.就我个人而言,我很少用fireworks.photoshop是我做设计的首选软件,从图片编缉到整站制作.但是你知道吗,fireworks对图片的压缩率比photoshop要更好.

  • 清华微软开源全新提示词压缩工具,长度骤降80%,GitHub怒砍3.1K星

    清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。

  • 微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本

    微软研究发布了名为LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从降低成本和延迟。该公司认为这是一个有前途的方法,可以通过压缩提示实现更好的泛化能力和效率。

  • 让大模型“瘦身”90%!清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%

    对大模型进行量化、剪枝等压缩操作,是部署时最常见不过的一环了。这个极限究竟有多大?清华大学和哈工大的一项联合研究给出的答案是:90%。作者进一步分析了这种极低比特量化模型的能力和前景,并为未来的研究提供了指导。

  • 网站加载效率至少提升90%!谷歌Chrome测试共享字典压缩技术

    近日谷歌官方发布公告表示,Chrome开发团队正着手在浏览器上实现共享字典压缩技术,可让网站加载效率提升90%以上。开发者现在可在网站中,开始尝试采用Brotli或ZStandard压缩算法的共享字典,以测试该技术对网站性能的影响。且Chrome团队还指出,在最新的共享字典压缩方案中,已经解决了此前存在的安全性问题,且无论是动态还是静态资源都可获得益处。

  • ​清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能

    清华大学和哈尔滨工业大学联合发布了一篇论文,成功将大模型压缩到1bit,仍保持83%的性能。这一成果标志着量化模型领域的一次重大突破。随着技术的不断进步,将有望实现将大型语言模型等大模型压缩到极低位宽,并实现在移动设备上高效运行的愿景。

  • 微软开源 SliceGPT:大模型体量压缩25%左右,性能保持不变

    微软和苏黎世联邦理工学院的研究人员联合开源了SliceGPT,该技术可以极限压缩大模型的权重矩阵,将模型体量压缩25%左右,同时保持性能不变。实验数据显示,在保持零样本任务性能的情况下,SliceGPT成功应用于多个大型模型,如LLAMA-270B、OPT66B和Phi-2。这一技术的推出,有望为广大开发者和企业提供更加便捷、高效的大模型应用解决方案。

  • WhisperKit官网体验入口 AI自动语音识别模型压缩与优化工具在线使用地址

    WhisperKit是一个专为自动语音识别模型压缩与优化设计的强大工具。它不仅支持对模型进行压缩和优化提供详细的性能评估数据。通过WhisperKit官网,您可以详细了解该工具的功能和应用,并体验其卓越的自动语音识别模型优化能力。

  • 微软开发新型大模型压缩方法SliceGPT

    SliceGPT是微软开发的一种新型的大语言模型压缩方法。通过SLICEGPT,可以在保持99%,99%,和90%零样本任务性能的同时,将LLAMA2-70B、OPT66B和Phi-2模型分别去除高达25%的模型参数。这种方法的核心优势在于,它允许模型在去除一定比例的参数后,仍然能够保持接近原始模型的性能,适用于资源受限的设备上部署大型模型,比如普通的个人电脑或者移动设备。

  • Windows 11新功能来了:文件压缩更全面灵活

    微软日前发布了最新的Windows11CanaryBuild26040预览版更新。Windows11进一步增强了压缩文件的能力。点击后会弹出一个全新的向导页面,让用户可以选择以下选项进行压缩:1、压缩目标目录2、压缩格式:包括7zip、TAR和ZIP;3、压缩算法/方式:包括Store、Deflate、BZip2、LZMA1、LZMA2、PPMd等,具体取决于所选择的压缩格式;4、压缩等级:从0到9;5、是否保留符号链接和硬链接下的其他内容。

  • 业界首款!美光推出低功耗压缩附加内存模块:速率最高9600MT/s

    美光推出业界首款标准低功耗压缩附加内存模块,容量从16GB到64GB不等。目前LPCAMM2内存模块已经出样,并计划在2024年上半年投产,这是自1997年推出SO-DIMM规格以来,客户端PC首次引入颠覆性新外形尺寸。与DDR5内存模块一样,LPCAMM2内存模块也带有电源管理IC和电压调节电路,为模块制造商降低产品功耗提供了更多途径。

  • 奥克斯诉格力侵权获赔5849万:确认“压缩机”发明专利侵权

    近日,天眼查App公布了两起侵害发明专利权纠纷案件的一审判决书,两起案件涉及奥克斯空调股份有限公司与珠海格力电器股份有限公司。浙江省杭州市中级人民法院公布判决书显示,原告奥克斯公司以压缩机”发明专利权被侵害为由提起诉讼,要求被告格力公司分别赔偿经济损失及合理维权开支共计3996.17万元和3332万元。法院分别判决格力电器公司,赔偿奥克斯公司经济损失及合理费用3303万元和2546万元。

  • 20倍的压缩比例!​微软发布LLMLingua:压缩长提示并加快模型推理速度

    微软的研究团队开发了一种名为LLMLingua的独特粗细压缩技术,旨在解决大型语言模型中长提示带来的问题。LLMs以其强大的泛化和推理能力显著推动了人工智能领域的发展,展示了自然语言处理、自然语言生成、计算机视觉等方面的能力。该方法表现出色,并提供了一种改善LLM应用程序的效果和可负担性的有用方式。

  • 轻秒格式工厂:在线图片压缩,工作、生活便捷神器

    在数字化时代,图片是我们日常生活和工作中不可或缺的一部分。随着高分辨率设备和摄像头的普及,图片文件的大小也越来越大,给存储和传输带来了诸多不便。访问即可开启您的轻松图片压缩之旅!

  • 智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!

    来自UC伯克利,港大等机构的研究人员,开创性地提出了一种「白盒」Transformer结构——CRATE。他们通过将数据从高维度分布压缩到低维结构分布,实现有效的表征,从进一步实现了有竞争力的模型性能。如果CKPT_DIR是None,则此脚本用于在CIFAR10上通过随机初始化来训练CRATE。

  • 「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?

    RNA3D结构预测是一个长期存在的挑战。受最近蛋白质结构预测领域突破的启发,南开大学、山东大学以及北京理工大学的研究团队开发了trRosettaRNA,这是一种基于深度学习的自动化RNA3D结构预测方法。为了克服对已知RNA折叠的偏见,可以利用神经网络来学习力场或识别/组装局部图案不是直接预测全局3D结构。

  • 小米电视收费包压缩了58%!北京治理电视套娃收费等取得阶段性成果

    快科技11月10日消息,今年9月份,国家广播电视总局联合工信部、市场监管总局等有关单位宣布,将整治电视套娃”收费问题。今天下午,首都广电”官方公众号发文宣布,北京市治理电视套娃”收费和操作复杂试点工作取得阶段性成果。据介绍,在第一阶段治理工作中,歌华有线收费包压缩了79%,小米电视收费包压缩了58%,远超国家广电总局规定的压缩40%的目标。在治理操作

  • Win11史诗级更新!原生支持创建7z和tar压缩文件:不再局限于zip

    在上个月底的可选KB5031455更新中,微软添加了对11种压缩文件的解压支持,但仍不支持除zip外的压缩文件创建。但在最新的Windows11Canary预览版本中,微软添加了在没有第三方工具的情况下创建7z和tar压缩文件的功能,虽然仍不支持rar格式,但至少不再只局限于zip。”此外该版本还对SMB协议进行了更改、剪切工具中的HDR支持改进以及修复了一些已知问题。

  • 天玑9300支持内存硬件压缩技术,行业第一,让手机运行AI大模型更快速

    联发科最新发布的一代旗舰级5G生成式AI移动芯片天玑9300,其创新的全大核架构设计与最新的AI处理器APU等联发科特色技术的合并,为生成式AI应用提供了强大的动力,以实现引人入胜、丰富多样的生成式AI体验。联发科也与大量的AI企业在业内进行深入合作,共同在移动平台上构造了一个充满活力的AI生态。联发科等生成式AI的领先者们正通过不断地技术革新和适当的生态布局,大力推动混合式AI计算,并为端侧生成式AI部署设计出了一套独自且高效的方法,全力以赴推进生成式AI在端侧的普及,旨在让更多的用户享受到端侧AI的个性化服务,带来全新的全方位智能体验,实现科技成果惠及全社会。

  • 研究人员推出压缩框架QMoE:可将1.6万亿参数模型高效压缩20倍

    最新研究来自ISTA的科学家提出了一种创新的模型量化方法,称为QMoE,可以将庞大的1.6万亿参数SwitchTransformer压缩到令人难以置信的160GB以下,每个参数仅占用0.8位。这一方法实现了高达20倍的压缩率,为解决大型模型的高昂成本和内存需求问题提供了新的解决方案。这一创新性研究将有望为未来的深度学习和大型模型研究开辟新的方向。

  • 迟到了28年的功能:Win11原生支持11种压缩格式 包括7z RAR等

    在今年5月份的微软Build2023活动中,微软特别提到了将在Windows11系统中原生增加对RAR、7Z等压缩文件格式的解压支持。微软已通过本月的可选KB5031455预览累积更新添加了对11种压缩文件的解压支持,目前共支持.rar、.7z、.tar、.tar.gz、.tar.bz2、.tar.zst、.tar.xz、.tgz、.tbz2、.tzst和.txz等格式。另外这项新功能还将通过在11月份发布的PatchTuesday累积更新向所有Windows11用户推出。

  • 最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力

    在长文本场景中,ChatGPT等大语言模型经常面临更高算力成本、更长的延迟以及更差的性能。为了解决这三大难题,微软开源了LongLLMLingua。这充分证明LongLLMLingua可以在压缩提示的同时提升关键信息提取。

  • 国内最大压缩机安装成功:可存2600万立方米天然气

    10月20日,国内最大的压缩机在新疆昌吉回族自治州的呼图壁储气库安装成功。有了这台压缩机,呼图壁储气库的日注气能力将从1600万立方米提升至2600万立方米,进一步提升我国天然气储气调峰和应急保供能力。它通过高速运转的叶轮,对气体进行增压,再注入地下进行储藏。