首页 > 数码 > 关键词  > 电池最新资讯  > 正文

斯坦福/清华大学研发出可以自愈的电池

2013-11-19 09:23 · 稿源: 驱动之家

现在锂离子电池的最大问题就是当你对其充电的次数越来越多,它的负极聚电能力就变得越来越差。这对于我们的移动未来显然是一个很大的阻碍,最近来自斯坦福大学的一个研究小组开发出了一款可以自愈的电池,也就是说它可以永不衰竭

最近几年研究人员经过努力,已经在减小重量的前提下,提升了锂电子的能量密度。而最近一项令人振奋的发现来自于在电极上加入硅,这可以使电池的聚电能力大幅超过现在电池中氧化物的聚电能力。而硅的物理膨胀可以达到300%,电子在扩张后又可以有效的缩小,这也就使得这种材料可以在短短几次充放电的过程中完成分裂。

这种自愈化合物是由来自斯坦福的王超(音译)和北京清华大学的吴辉(音译)共同开发的,它可以在瞬间修复自己。“我们发现在硅电极上添加自愈性化合物可以延长其10倍的寿命,在几个小时内就修复了之前的分裂,”斯坦福的鲍镇安(音译)教授表示,鲍镇安教授的团队曾帮助开发具有弹性的电子机器人外壳。

“自愈对于延长动物和植物的寿命都有着非同小可的意义,我们希望将这种特性整合到锂离子电池当中,并延长它的使用寿命。”王教授在一篇发表过的文章中曾这样表示。

目前的电池技术只能保证在100次充电循环内无衰减。而研究团队希望搭载了自愈技术的电池,可以在未来保证手机500次充电循环不衰减,和电力汽车3000次充电循环的不衰减

举报

  • 相关推荐
  • 大家在看
  • 清华大学:女生喝奶茶更易上瘾并导致抑郁焦虑

    快科技10月3日消息,对于当代不少年轻人来说,奶茶是不可少的饮品,一天不喝就浑身难受。不过,奶茶里面的热量除了带来物理攻击发胖以外,也因含有大量糖分而产生一定的魔法伤害。近日,清华大学和中央财经大学的科学家调查了超5000名北京的大学生发现,奶茶能够让人上瘾,16.3%的学生符合成瘾标准,女生和年龄较小者更为严重,并且与抑郁和焦虑有关。此外有研究发现过量摄入糖分会使得老鼠脑内一种名为BDNF(脑源性神经营养因子)的蛋白质相应减少。而这种蛋白质广泛分布于中枢神经内,具有神经再生和修复功能,BDNF及其受体也被认为在改

  • 斯坦福大学研究人员提出MAPTree算法,改进决策树建模

    决策树是一种广泛使用的著名机器学习算法,可用于分类和回归任务。斯坦福大学的研究人员在最新论文中提出了一种称为MAPTree的决策树归纳算法,这是基于贝叶斯决策树理论的一种改进方法。这项突破不仅利于决策树算法本身的发展,也为决策树在数据挖掘等领域的应用带来了新的契机。

  • 斯坦福大学的研究人员推出Spellburst 可简化艺术创意转化为代码的过程

    生成艺术家通常使用编程语言或AI文本到图像工具来将表达性语义转化为代码,以创建抽象的图案或超现实的景观。编写艺术作品是一个耗时复杂的过程通常需要通过多次迭代的试验和错误来改进作品,这可能会受到界面的限制感到沮丧。他们计划在今年晚些时候将该工具作为开源工具发布,以供艺术家使用,并研究这种工具如何帮助新手学习如何用代码创作艺术。

  • Xwin-LM击败GPT-4登顶斯坦福AlpacaEval 多项性能评估表现出色

    Xwin-LM是一款基于Llama2微调的语言模型,最近在斯坦福大学的AlpacaEval评估中一举击败了GPT-4,登上了榜首之位。这一成就引发了广泛的关注,因为GPT-4一直以来在AlpacaEval上表现出色,胜率超过95%。这一研究对于推动自然语言处理领域的进步具有重要意义。

  • GPT-4竟成Nature审稿人?斯坦福清华校友近5000篇论文实测,超50%结果和人类评审一致

    【新智元导读】斯坦福学者发现,GPT-4对于Nature、ICLR的论文给出的审稿意见,竟然和人类审稿人有超过50%的相似性。看来让大模型来帮我们审论文,并不是天方夜谭啊。他的研究兴趣涉及计算社会科学、社会计算和数据科学。

  • AMIRO觅光与清华长三角衰老科学研发中心签订战略合作

    9月28日,由浙江清华长三角研究院衰老科学创新研发中心主办的第五届生物活性肽前沿技术转化研讨会在浙江清华长三角研究院清华讲堂举行。AMIRO觅光作为战略伙伴出席参会,并与ACRDC正式签订战略合作协议,双方将携手推进精准护肤行业发展。双方强强联手有助于将精准医学、光电科技、计算生物学、生物学信息学等多个学科的前沿成果,快速转化为先进的消费级产品,让消费者护肤更精确、有效、科学、可控的同时,也将推动中国本土品牌在核心技术方面的积累,增加行业的国际竞争力。

  • A轮获NVIDIA领投1亿美元融资,大模型先驱和斯坦福教授用AI颠覆制药业

    AI生物医药领域,DeepMind的AlphaFold是最出名的研究,它几乎完整解析了所有蛋白质结构。AlphaFold的AI系统基于Transformer架构Transformer论文主要的作者JakobUszkoreit也已投身AI医药领域。数据安全的逻辑下,很可能诞生一批中国本土的AI药物研发和AI医疗健康创业公司,十分值得期待。

  • GPT-4就是AGI,谷歌斯坦福科学家揭秘大模型如何超智能

    【新智元导读】谷歌研究院和斯坦福HAI的两位专家发文称,现在最前沿的AI模型,未来将会被认为是第一代AGI。最前沿的LLM已经用强大的能力证明,AGI即将到来!通用人工智能,其实已经实现了?最近,来自谷歌研究院和斯坦福HAI的大佬发文称,现在的大预言模型就是通向AGI的正确方向现在最前沿的模型,已经拥有AGI的能力了!这两位作者都是AI业界大佬,BlaiseAgüerayArcas现在是Google

  • 0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性

    【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以在零样本设置下,对新任务实现非常好的泛化性能,但在现实应用时,往往还需要针对特定用例对模型进行微调。微调后的模型安全性如何?是否会遗忘之前接受的对齐训练吗?面向用户时是否会输出有害内容?提供LLM服务的厂商也需要考虑到,当给终端用户开放模型微调权限后,安全性是否会下降?最近,普林斯顿大学、IBM、斯坦福等机构通过redteam实验证明,只需要几个恶意样本即可大幅降低预训练模型的安全性,甚至普通用户的微调也会影响模型的安全性。不管真正的原因是什么,研究人员假设,如果能够在未来的对齐工作中巩固那些不太稳健的危害类别,可能能够进一步提高良性微调情况下的整体安全性。

  • 全面的中文大语言模型评测来啦!香港中文大学研究团队发布

    ChatGPT的一声号角吹响了2023年全球大语言模型的竞赛。2023年初以来,来自工业界和研究机构的各种大语言模型层出不穷,特别值得一提的是,中文大语言模型也如雨后春笋般,在过去的半年里不断涌现。”“对大模型能力认知和评测的研究本身,也一定会帮助研究团队理解和加强持续提高大模型的能力。

今日大家都在搜的词: