11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
ThinkBook 16+ 2025款搭载酷睿Ultra 7 255H和锐龙AI 9 H365处理器,性能对比显示酷睿版在核心性能、图形处理、AI算力、续航及屏幕亮度等方面全面领先。酷睿版凭借更高主频、更强核显及AI加速技术,在校园学习、多任务处理及游戏场景中表现更优,且价格更具性价比,适合学生和职场新人选择。
《AI日报》精选AI领域最新动态:1)OpenAI发布GPT-5模型,具备强大多模态能力但推理任务仍有局限;2)知网推出AIKBase V2.0多模态数据管理系统;3)Ideogram新增"角色"功能实现图像风格统一;4)Cursor发布CLI版本支持终端AI编程;5)百度即将推出全新推理模型和文心5.0大模型;6)dots.ocr推出1.7B参数多语言文档解析工具;7)特斯拉解散Dojo超算团队转向英伟达合作;8)谷歌Pixel 10引入AI相�
小米昨日晚间面向小米15用户推送了HyperOS 2.0.230.18.WOCCNXM Beta版系统更新,更新包大小约为360MB。本次更新主要针对电源键功能和设备重启体验进行了优化。这也是小米15自从7月3日以来推送的第三版基于安卓16的HyperOS Beta版推送。
本期AI日报重点报道了多项AI领域突破性进展:1.月之暗面推出万亿参数开源大模型Kimi K2,展现强大智能能力;2.智源研究院开源RoboBrain2.0和RoboOS2.0机器人系统;3.通义千问发布桌面客户端Qwen Chat;4.IndexTTS2实现影视级语音合成;5.HuggingFace开源机器人Reachy Mini热销;6.Meta推出实时视频生成模型StreamDiT;7.PixVerse新增多关键帧视频生成功能;8.特斯拉推出仅支持AMD处理器的Grok AI助手;9.OpenAI推迟开源大模型发布以加强安全测试;10.Liquid AI开源边缘AI模型LFM2;11.AI"时间穿越"特效在社交媒体走红。
2025年5月16-18日,ETH Beijing黑客松在北京盛大举行。TRON作为金牌赞助商亮相,展示其公链生态优势:采用DPoS共识机制,3秒出块,理论峰值TPS超2500,零手续费转账。截至2025年5月,TRON链上用户超3.07亿,总交易量破103亿次,TVL达230亿美元。USDT-TRC20流通规模超750亿美元,占全球USDT供应量50%。TRON还布局AI、RWA等领域,设立1亿美元AI基金,并与多米尼加政府合作成为其国家公链。BTTC作为跨链解决方案,支持TRON、以太坊等主流链互操作,交易确认仅2-3秒,成本低于1美分。活动期间,TRON与北京大学区块链协会合作,推动高校与Web3行业深度链接。
今日,vivo宣布vivoWATCH3已全面推送BlueOS2.0系统,新增智能运动教练、全新语音助手、手表端应用商店、更多车钥匙以及多项AI新功能。升级BlueOS2.0后,vivoWATCH3AIGC表盘将支持部件编辑,语音助手接入蓝心大模型,同时新增特斯拉、小牛车钥匙。在2024年vivo开发者大会上,蓝河操作系统2正式发布,支持拥有大模型能力的蓝心小V,围绕智慧交互、运动健康和便捷生活三个核心场景,通过AIGC表盘、AI运动教练、智慧视窗和AI速记等智慧功能,提升用户使用体验。
美国劳工统计局的数据显示,软件工程师的需求依然强劲,并且这一趋势预计将持续。到2031年,软件开发人员、质量保证分析师和测试人员的就业人数将增长25%,远高于所有职业的平均增长水平。不断学习和提升自身技能,掌握市场热门技术,是程序员在竞争激烈的就业市场中获得高薪的关键。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、谷歌发布王炸推理模型Gemini2.0FlashThinking,挑战OpenAIo1谷歌近期推出的Gemini2.0FlashThinking模型在多模态推理领域展现出强大的能力,支持32,000个输入标记和8,000个输出标记,极大提升了处理复杂问题的效率。与前代产品相比,Falcon3的训练规模翻倍,展现出强劲的竞争力,尤其是在与其他主流开源模型的基准测试中表现优异。
长江存储近日推出了PE321固态硬盘,凭借其第三代三维闪存技术,以高达6.4TB的容量引起了广泛关注。现在这款SSD已经来到我们评测室,下面为大家带来图赏。背面也板载了8颗闪存芯片、5颗内存芯片,以及一颗SSD主控、一颗用于掉电保护设计的大容量电容。
什么?Kimi底层推理架构刚刚宣布:开!源!了!你没听错,就是那个承载了Kimi线上80%以上流量的架构。大约几小时前,月之暗面Kimi联合清华大学等机构,开源了大模型推理架构Mooncake。Mooncake开源项目从论文延伸,以超大规模KVCache缓存池为中心,通过以存换算的创新理念大幅度减少算力开销,显著提升了推理吞吐量。