站长之家(ChinaZ.com)4月6日 消息:今日,原美团联合创始人王慧文在朋友圈宣布,其AI项目光年之外正式开张,办公地点位于北京搜狐网络大厦。
今年2月,王慧文在社交平台上发文,宣布进入AI领域,设立北京光年之外科技有限公司,打造中国版ChatGPT,出资5千万美元,估值2亿美元。
随后,美团创始人王兴,前京东技术掌门人周伯文,搜狗输入法之父马占凯等陆续宣布加入。
此外,「光年之外」还与AI架构创业公司「一流科技Oneflow」达成并购意向,交易将以换股形式进行。
(举报)
11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
4月2日消息,美团CEO王兴发布内部邮件,称王慧文逐步恢复健康,将以部分时间作美团顾问。去年6月,正在创业的王慧文因病住院,其创立的公司光年之外也被美团收购。知情人透露,经过近一年治疗后,王慧文近期状态相对稳定,但并未完全康复。医嘱认为,短期恢复一些规律性低压力工作有利于恢复。因此选择顾问的方式,部分时间参与工作。王兴在邮件表示,“老王将以他的经验和智慧,在公司的战略、文化和人才梯队建设,以及科技创新、新业务探索等方面支持我和大家。”“欢迎老王与我们继续并肩战斗”,邮件最后,王兴表示,“祝福老王早日完
美团CEO王兴今日向全体员工发送内部邮件,通报了公司原联合创始人王慧文的健康状况。邮件中提到,王慧文经过一段时间的积极治疗后,健康状况正在逐步恢复,并将以顾问的身份部分时间参与美团的工作。在2023年8月,光年之外完成了工商变更,王慧文正式退股。
AI计算创业公司FlexAI近日宣布获得3000万美元的种子资金,正式走出隐形模式。该公司成立于去年,团队成员包括来自苹果、英特尔、英伟达和特斯拉的前员工。”Tripathi曾担任特斯拉的硬件工程领导者,并最近担任英特尔加速计算系统和图形副总裁。
在AI行业,尤其是生成式AI领域,技术的快速发展和应用的广泛前景吸引了大量的投资和关注。这一领域的高昂成本也引起了业界的广泛讨论。如何在追求技术进步的同时实现可持续的商业模式,是所有AI公司需要面对的重要问题。
Sora爆火后,掀起了全球竞逐AI视频生成的热潮。国内一支AI生成的视频短片引发关注。证券时报报道称,在三轮融资总计数亿元人民币的资本加持下,生数科技已成为目前国内多模态大模型中估值最高的初创公司之一。
南京师范大学附属中学宿迁分校成立智慧教学小组,并以周为单位,对教师的智慧课堂应用数据进行复盘;中国人民大学附属中学丰台学校的教师们,已经习惯于课后通过课堂智能反馈系统总结自己的上课情况;而通过集体备课平台,北京师范大学广州实验学校的教师们可以随时随地进行线上交流互动和资源共享……在全国各地的中小学,AI技术正与教育不断融合。变化背后,有�
4月18日,以“AIforAll,让世界充满AI”为主题的第十届联想创新科技大会在上海成功举办。大会全面展现了联想集团基于混合式人工智能判断的核心主张、战略图景和最新技术成果。正如本次大会的主题“AIforAll,让世界充满AI”,联想通过推动整个产业生态系统,在开发和应用的各个环节,保证人工智能的普惠性、公正性和包容性,让人人都能从人工智能的发展中获益,打造一个“让世界充满AI和爱”的可持续发展的美好未来。
AI大模型公司们有了新的必争高地——把流量打出去,普通用户抢过来。例如现在逛个B站,画风简直就是“五步一AI,十步一AIGC”。科技大佬们所构想的“所到之处皆是人工智能”,想必不会太久了。
4月23日,是第29个世界图书日。在这个具有特殊意义的日子里,联想客户管理中心联合人民文学出版社、甘肃省青少年发展基金会,在甘肃省永登县苦水镇中心小学举办了“书联世界让AI生花”公益捐书活动。联想将以科技创新为依托,通过AI赋能,为合作伙伴、区域产业经济、乡村振兴,带来基于AI数字化能力的升级变革,持续为社会贡献价值。
今天深夜小米连发三文要求智己道歉是以公司名义正式道歉。此事起因是智己在新车L6的发布会上各种对标小米SU7Max,但却将前后双碳化硅标注为前IGBT、后碳化硅,且被大量网友提醒却久久未能修正。需要注意的是,这次智己L6在营销方面的问题还不止于此,有网友发现其预约小程序页面描述为小米雷军邀请你体验智己汽车”,被不少人吐槽。
Spark是一款智能、专注的电子邮件应用,帮助您掌控收件箱。通过智能筛选,快速了解重要内容,并快速清理其余邮件。Spark还提供AI助手帮助您快速编写完美的电子邮件。
Chatbox是一个易于使用的人工智能解决方案,支持多平台,帮助提升工作和学习效率。它具备本地数据存储,确保隐私和轻松访问,同时支持多种尖端人工智能模型,提供多样化、适应性和智能化的用户互动。Chatbox还具备强大的提示功能,释放创造力,支持Markdown、引用、令牌估计等功能,为思维提供广阔的发展空间。
ChatX是一个基于先进AI技术的客户端应用,它通过高速API服务器提供极速体验,支持iPhone、iPad和macOS设备间的云同步。用户可以利用它完成各种AI任务,如文本生成、图片生成等,显著提高工作效率。产品的主要优点包括高速访问、自定义功能、经济的按字数消耗模式以及丰富的高级功能,如AI参数微调、Siri朗读等。ChatX的背景是AI技术的快速发展和用户对于高效、智能工具的需求。目前,产品在Mac App Store上免费提供,但提供App内购买项目。
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
EmojiTell是一个创新的在线服务,可以将文本翻译成表情组合,增加沟通的趣味性和表现力。它由一支对表情符号充满热情的开发者和设计师团队开发,旨在通过表情符号的力量,让信息传递更加生动和个性化。
Perplexica是一个开源的AI驱动搜索引擎,它不仅搜索网络,还理解您的问题。它使用先进的机器学习算法,如相似性搜索和嵌入,来优化结果,并提供引用来源的清晰答案。使用SearxNG保持最新和完全开源,确保您始终获得最新信息,同时不损害您的隐私。
FaceChain是一个深度学习工具链,由ModelScope提供支持,能够通过至少1张肖像照片生成你的数字孪生体,并在不同设置中生成个人肖像(支持多种风格)。用户可以通过FaceChain的Python脚本、熟悉的Gradio界面或sd webui来训练数字孪生模型并生成照片。FaceChain的主要优点包括其生成个性化肖像的能力,支持多种风格,以及易于使用的界面。
HuggingFace镜像站是一个非盈利性项目,旨在为国内的AI开发者提供一个快速且稳定的模型和数据集下载平台。通过优化下载过程,减少因网络问题导致的中断,它极大地提高了开发者的工作效率。该镜像站支持多种下载方式,包括网页直接下载、使用官方命令行工具huggingface-cli、本站开发的hfd下载工具以及通过设置环境变量来实现非侵入式下载。
WebLlama是一个基于Meta Llama 3构建的代理,专门为网页导航和对话进行了微调。它旨在构建有效的以人为中心的代理,帮助用户浏览网页,而不是取代用户。该模型在WebLINX基准测试中超越了GPT-4V(零样本)18%,展示了其在网页导航任务中的卓越性能。
GitHub Copilot for Infrastructure as Code(简称Infra Copilot)是一个利用机器学习技术帮助基础设施专业人员自动生成精确基础设施代码的工具。它通过理解基础设施任务的上下文,允许专业人员使用自然语言表达需求,并接收相应的代码建议。Infra Copilot不仅简化了基础设施即代码(IaC)的开发过程,还确保了跨环境和项目的一致性,加速了新团队成员的上手和学习过程,显著提高了工作效率并节约了时间。
LLaVA++是一个开源项目,旨在通过集成Phi-3和LLaMA-3模型来扩展LLaVA模型的视觉能力。该项目由Mohamed bin Zayed University of AI (MBZUAI)的研究人员开发,通过结合最新的大型语言模型,增强了模型在遵循指令和学术任务导向数据集上的表现。
PhysDreamer是一个基于物理的方法,它通过利用视频生成模型学习到的对象动力学先验,为静态3D对象赋予交互式动力学。这种方法允许在缺乏真实物体物理属性数据的情况下,模拟出对新颖交互(如外力或代理操作)的真实反应。PhysDreamer通过用户研究评估合成交互的真实性,推动了更吸引人和真实的虚拟体验的发展。
AI快站是一个为AI开发者设计的服务平台,提供HuggingFace模型的免费加速下载,解决大模型下载缓慢和断开的问题,支持高达4M/s的下载速度,大幅减少等待时间,提高开发效率。
Llama-3 8B Instruct 262k是一款由Gradient AI团队开发的文本生成模型,它扩展了LLama-3 8B的上下文长度至超过160K,展示了SOTA(State of the Art)大型语言模型在学习长文本操作时的潜力。该模型通过适当的调整RoPE theta参数,并结合NTK-aware插值和数据驱动的优化技术,实现了在长文本上的高效学习。此外,它还基于EasyContext Blockwise RingAttention库构建,以支持在高性能硬件上的可扩展和高效训练。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
Interactive3D是一个先进的3D生成模型,它通过交互式设计为用户提供了精确的控制能力。该模型采用两阶段级联结构,利用不同的3D表示方法,允许用户在生成过程的任何中间步骤进行修改和引导。它的重要性在于能够实现用户对3D模型生成过程的精细控制,从而创造出满足特定需求的高质量3D模型。
GraphRAG (Graphs + Retrieval Augmented Generation) 是一种通过结合文本提取、网络分析以及大型语言模型(LLM)的提示和总结,来丰富理解文本数据集的技术。该技术即将在GitHub上开源,是微软研究项目的一部分,旨在通过先进的算法提升文本数据的处理和分析能力。
Qwen1.5-110B是Qwen1.5系列中规模最大的模型,拥有1100亿参数,支持多语言,采用高效的Transformer解码器架构,并包含分组查询注意力(GQA),在模型推理时更加高效。它在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。该模型的发布展示了在模型规模扩展方面的巨大潜力,并且预示着未来通过扩展数据和模型规模,可以获得更大的性能提升。
ID-Aligner 是一种用于增强身份保留文本到图像生成的反馈学习框架,它通过奖励反馈学习来解决身份特征保持、生成图像的审美吸引力以及与LoRA和Adapter方法的兼容性问题。该方法利用面部检测和识别模型的反馈来提高生成的身份保留,并通过人类标注偏好数据和自动构建的反馈来提供审美调整信号。ID-Aligner 适用于LoRA和Adapter模型,通过广泛的实验验证了其有效性。