11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
苹果又出事了!不过这次,苹果真的是无辜背锅了。据美国加州《斯坦福日报》报道,周末,一群斯坦福大学学生在帕罗奥托市的一家苹果零售店门前拉横幅抗议。他们认为手机成瘾问题不但伤害了朋友之间的关系,而且还会降低生产力并产生压力。
“活着的意义是什么?”3年前,董凡铭辞去美国硅谷的高薪工作回到上海,想明白了这个问题后,便投身到了滚滚创业浪潮中。他认为“活着的意义”有三类:通过“消费”获得体验感;“创造”新事物获得成就感;承受“苦难”获得成长。父辈要想好这个路径是什么样的,到底什么时候交,难道要等到身体吃不消的时候再交吗?这应该是一个有意识的选择不是无奈的选择。
斯坦福年初刚教完机器人炒菜,现在又教机器人系鞋带!他们还发布了全球首个机器人自主系鞋带演示视频:与之前的炒菜版1.0相比,这个版本的它可以执行更加轻巧、复杂的任务。评论区的网友也是一片夸夸:网友一:小手怪巧的,我系鞋带都没他系的好!网友二:OMG!是个好东西!量产!网友三:可爱捏!它甚至会打蝴蝶结!小手怪巧的除了系鞋带,视频中的Aloha2机器人还会挂衣服、拧齿�
当炒作出了「泼天的流量」,已经没人关心产品厉不厉害了。OpenAI的秘密项目「Q*」一直受到了圈内人士的广泛关注。更多技术细节和评估结果请参阅原论文。
【新智元导读】斯坦福炒虾机器人作者,又出新作了!通过模仿学习,达芬奇机器人学会了自己做「手术」——提起组织、拾取针头、缝合打结。最重要的是,以上动作全部都是它自主完成的。能够自主学习的手术机器人,有望在未来进一步扩展外科医生的能力。
【新智元导读】斯坦福炒虾机器人团队时隔半年再出新作,谷歌最强Gemini1.5Pro加持,MobilityVLA让机器人在836平方米的办公室里轻松导航。还记得年初爆火的斯坦福炒虾机器人吗?时隔半年,原班人马联合谷歌研究人员,重磅推出全新机器人自主导航的基础模型——MobilityVLA。软件和硬件设施的制造以及两者的结合,成为机器人制作领域最为头疼的难题。
论文是研究新技术、开发新产品获取“图纸”的重要途径之一,OpenAI的研究人员正是借鉴了Transformer的论文,才开发出了对全球各行业影响巨大的产品ChatGPT。论文的数量、通过率和被引用次数是衡量一个国家科技人才素质,以及技术创新能力的重要标准之一。这也充分证明了,中国对生成式AI、大模型的重视程度、技术环境以及拥有庞大的AI人才库。
【新智元导读】过去一年,美元在华投资大幅缩水,资本市场呈现「寒冬」态势。在这样的背景下,这家中国公司成立仅一年却创纪录的拿下超7亿元的天使轮融资,得到产业界、学界、国家队资本及市场化机构等多方支持,成为具身智能赛道中的黑马。相信这一天不会太远。
人形机器人的「HelloWorld」。说起前段时间斯坦福开源的MobileALOHA全能家务机器人,大家肯定印象深刻,ALOHA做起家务活来那是有模有样:滑蛋虾仁、蚝油生菜、干贝烧鸡,一会儿功夫速成大餐:研究团队来自斯坦福,由三个人共同打造完成。与其他远程操作方法相比,Shadowing系统更具优势。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、美图发布王炸产品MOKI可一键生成AI视频短片美图公司发布了名为MOKI的AI视频制作工具,实现了一键生成AI视频短片的功能,展示了其在AI领域的深入布局和创新能力。市场上已有�
【新智元导读】斯坦福天才少女郭文景的Pika,在成立一年之际再获一笔8000万美元融资。团队成员也首次曝光,6位IOI金牌得主,包揽9块金牌。下一步他们将如何利用AI,推动视频生成领域的最前沿。
斯坦福大学的一个AI团队在5月29日发布了一个名为Llama3-V的多模态大模型,并宣称只需500美元就能训练出一个性能与GPT4-V相媲美的模型。该模型随后被指控抄袭,与国内由面壁智能和清华大学自然语言处理实验室联合推出的大模型MiniCPM-Llama3-V2.5存在极高的相似度。刘知远是清华大学计算机系长聘副教授,智源青年科学家,主要研究方向为自然语言处理、知识图谱和社会计算。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、挑战英伟达!高绩效者在GenAI采用中更具挑战性,但通过最佳实践取得成功。
斯坦福团队抄袭清华系大模型事件后续来了——Llama3-V团队承认抄袭,其中两位来自斯坦福的本科生还跟另一位作者切割了。最新致歉推文,由SiddharthSharma和AkshGarg发出。正如刘知远老师所说:此瓜甚巨,吃瓜者众,或许更重要的是,一些成见正在破壁。
斯坦福大学AI研究团队的Llama3-V开源模型因抄袭指控被推上风口浪尖。该模型被指涉嫌抄袭清华系明星创业公司面壁智能开发的开源模型“小钢炮”MiniCPM-Llama3-V2.5,这一事件迅速在网络上引发广泛关注和热议。这一道歉信在发布后不久被删除,但随后他们再次发布了类似内容的道歉信,表明了他们对此次事件的重视和决心。
近日,斯坦福AI团队被曝出了抄袭事件抄袭的还是中国国产的大模型成果,模型结构和代码,几乎一模一样。斯坦福的Llama3-V项目在5月29日发布,宣称仅需500美元就能训练出一个性能超越GPT-4V、GeminiUltra、ClaudeOpus等的多模态大模型。面壁智能CEO李大海对此事件做出了正式回应,要求Llama3-V作者对这个问题给出一个正式的解释,目前,此事仍在持续发酵中。
斯坦福大学的NEXAAI团队宣布推出全球首个多模态AI代理模型OctopusV3,让AI代理更加智能、快速、能耗及成本降低。今年四月份初,NEXAAI推出了备受瞩目的OctopusV2,该模型在函数调用性能上超越了GPT-4,减少了95%的推理时所需的文本量,为端侧AI应用带来了新的可能性。NEXAAI的创始团队表示,他们将继续致力于推动端侧AI技术的发展,通过开源模型提升其创新技术的影响力,为用户创造更智能、高效的未来生活。
奥特曼的斯坦福闭门演讲内容曝光了,可谓亮点频出:GPT-5会比GPT-4强得多,GPT-6还会更强;ScalingLaw还未过时,我们远未达到这条曲线的顶端;谷歌用GPT-4复刻出Gemini很容易,但难的是新范式的创新。AI届大红人Altman在母校斯坦福开讲当天,在场的学生挤爆了英伟达礼堂。所有人开始为Altman唱起了生日快乐歌。
黄仁勋亲自为OpenAI送来了全球第一台NvidiaDGXH200超级计算机,三人合影引得大家津津乐道。奥特曼也没闲着,现身斯坦福大学的Nvidia礼堂发表演讲,大约超过1000名学生排起了长队。奥特曼表示一年前他们推出的GPT-4曾引发了人们两周的恐慌,人们认为这是一件疯狂的事,世界被永远改变了。
斯坦福大学人工智能研究院发布的《2024年人工智能指数报告》提供了对2023年人工智能领域进展的全面分析,覆盖了技术进步、经济影响、政策制定和公众舆论等多个方面。以下是报告的一些关键要点:技术进步:行业研究贡献:行业在AI研究方面发挥了重要作用,2023年贡献了51个重要的机器学习模型学术界仅贡献了15个。报告也强调了需要关注AI的伦理、责任和社会影响,以确保其发展能够造福全人类。
斯坦福大学的研究团队近日推出了一款名为Octopusv2的新型人工智能模型,这款模型以其在端侧设备上的强大运行能力受到广泛关注。论文:Octopusv2:On-devicelanguagemodelforsuperagent论文地址:https://arxiv.org/abs/2404.01744模型主页:https://huggingface.co/NexaAIDev/Octopus-v2Octopusv2的推出,标志着设备端AI智能体时代的来临。对于那些对AI技术充满热情的开发者和企业来说,Octopusv2无疑提供了一个全新的�
斯坦福大学研究人员发布的Octopusv2模型引起了开发者社区的极大关注,其20亿参数的模型一夜下载量超过2k。这一模型可以在智能手机、汽车、个人电脑等端侧设备上运行,并在准确性和延迟方面表现超越了GPT-4,同时将上下文长度减少了95%。设备端AI智能体时代即将到来,Octopusv2的发布为这一趋势注入了新的活力。
「这是自Karpathy和我2015年启动这门课程以来的第9个年头,这是人工智能和计算机视觉令人难以置信的十年!」知名AI科学家李飞飞的计算机视觉「神课」CS231n,又一次开课了。总共600多位学生报名,第一堂课的现场座无虚席:从2015年到如今,CS231n已经走到九个年头,也成为了一代计算机视觉专业学生心中的「必修课」:虽然课程代码不变,但可以猜到,2024年的课程相比2021年版本的课程有不少新增内容,这还要归因于视觉生成技术三年来的巨大飞跃。值得注意的是,在CS25课程中,除了基于自然语言处理的演讲内容之外,也覆盖了视觉Transformer的相关内容。
斯坦福的一篇案例研究表示,提交给AI会议的同行评审文本中,有6.5%到16.9%可能是由LLM大幅修改的这些趋势可能在个体级别上难以察觉。LLM在飞速进步的同时,人类也越来越难以区分LLM生成的文本与人工编写的内容,甚至分辨能力与随机器不相上下。希望这些研究结果能够促进对于LLM在未来信息生态系统中应该如何使用以及可能带来的影响的深入探讨,从推动出台更加明智的政
UMI是斯坦福开发的一个机器人数据收集和策略学习框架,通过手持式夹持器和精心设计的接口进行数据收集。该框架能够将人类在复杂环境下的操作技能直接转移给机器人,无需人类编写详细的编程指令。通过UMI,机器人能够快速学习新任务,提高操作能力,降低学习成本,推动机器人技术在各领域的广泛应用。
【新智元导读】近日,北大、斯坦福、以及PikaLabs发布了新的开源文生图框架,利用多模态LLM的能力成功解决文生图两大难题,表现超越SDXL和DALL·E3近日,北大、斯坦福、以及爆火的PikaLabs联合发表了一项研究,将大模型文生图的能力提升到了新的高度。论文地址:https://arxiv.org/pdf/2401.11708.pdf代码地址:https://github.com/YangLing0818/RPG-DiffusionMaster论文作者提出了一个全新的免训练文本�
【新智元导读】大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。在加入微软研究院之前,他曾在乔治亚理工学院和丰田工业大学芝加哥分校担任计算机科学助理教授。
【新智元导读】在社交媒体上发照片要谨慎了,AI工具一眼就能识破你的位置!随手在网络上发布的一张照片,能暴露多少信息?外国的一位博主@rainbolt就长年接受这种「照片游戏」的挑战,网友提供照片,他来猜测照片的具体拍摄地,有些照片甚至还能猜到具体的航班细节。是不是细思极恐?但「照片挑战」也同样抚慰了很多人心中的遗憾,比如拿着一张父亲年轻时候拍的照片,
一群斯坦福大学研究生发布了一个新项目,他们的AI模型经过了10万个随机位置、50万个街景图片以及其他图片的训练。这个模型能够快速准确地找出图片中的位置,目前的准确率达到了92%。所以对于普通用户来说,保护好隐私是至关重要的。
爆火的斯坦福全能家务机器人MobileALOHA,大!翻!!车!!!你以为它擦个红酒轻易举,但实际上却是这样的:全给你弄撒喽,顺带碎个杯子……你以为它能化身大厨娴熟烹炒,结果给你上演一个炒锅底:MobileALOHA的翻车大合集还不止这些。例如刚才炒完虾的锅,哎呦喂,一不小心没拿住:即使小哥一个箭步冲上去也没阻止“悲剧”的发生。除了这两家,李飞飞团队也一直在跟进,其名为VoxP