本周末有博主曝光称,华为P60系列将会在三月份发布,这次P60系列会新增Ultra版本,共有P60E,P60,P60Pro,P60 Ultra四个版本,其中P60 Ultra会搭载最强的技术,无疑非常值得期待。
新机将采用IMX789和IMX888两颗新大底主摄,其中IMX888有望拿下首发,两颗传感器均为5000万像素,拥有1/1.4英寸尺寸,同时还将配备可变光圈。
(举报)
11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
多方爆料称,华为Pura70系列将会在今天正式公布,并直接开售。博主WHYLAB”已经提前曝光了Pura70Pro和Pura70Ultra的包装盒。Pura70Pro、Pura70Ultra内存16GB起步,最高可选1TB存储。
vivoX100Ultra的自拍也是顶级水平,这次蓝厂用的是JN1传感器,这颗sensor一般被友商用来做旗舰的后置长焦和广角,vivoX100Ultra拿来做前置带自动对焦。vivoX100Ultra前置也支持4K60fps视频拍摄,相比之下,其它旗舰前置3200万像素,只能做到3K视频拍摄,靠插值才能做4K,跟真4K不可同日语。该机将于5月13日登场。
vivo公司通过其官方微博正式揭晓,将于5月13日晚上7点盛大举办“影像新蓝图暨X系列新品发布会”。此次发布会将有可能亮相两款备受瞩目的新品——vivoX100s和X100Ultra。vivo公司此次的新品发布会无疑将为我们带来一场视觉盛宴,期待这两款新品能够为我们带来更多惊喜。
日前,华为Pura70系列开启先锋计划,Pura70Ultra和Pura70Pro已率先开售。华为官网公布了Pura70系列四款机型维修价格。该伸缩镜头机械结构至少能承受30万次伸缩,支持2米级的IP68防尘抗水。
博主数码闲聊站表示,华为Pura70Ultra是华为影像旗舰全力回归之作,毕竟当年第一个搭载卷大底主摄和潜望镜的就是华为。这次Pura70Ultra搭载了5000万像素的1英寸超大底主摄,同时还配备了5000万像素的潜望长焦摄像头,并支持超级微距功能。该机将于近期上市销售。
在科技数码界掀起一阵热潮的vivoX100Ultra今日正式揭开了其神秘的面纱。作为vivo的最新旗舰机型,X100Ultra凭借其前沿的参数细节,将再次引领手机摄影的新风潮。对于喜欢拍照、追求科技感的消费者来说,这无疑是一场不容错过的盛宴。
今天下午,华为举行全场景新品发布会,在介绍新品之前,余承东回顾了刚刚上市不久的Pura70系列。余承东介绍,华为Pura70Ultra首发超高速风驰闪拍功能,堪称抓拍速度之王,能轻松定格300km/h赛车,抓住精彩瞬间。镜头模组还搭配有XMAGE影像徽标、红圈设计及专业机械音,每一次拍摄都极具仪式感。
知名数码博主“数码闲聊站”独家揭秘了vivoX100Ultra的详尽影像参数,再次将这款旗舰手机推至行业焦点。vivoX100Ultra的前置摄像头,不仅像素高达5000万,更采用了三星JN1传感器,确保了自拍的高清晰度和色彩还原度。这款备受瞩目的新品将于5月份正式登场,届时,我们将能一睹其真容,体验其带来的极致影像魅力。
vivoX100Ultra现已正式亮相,其配置亮点如下:显示屏:搭载了一块6.78英寸的三星2KE7材质的居中单挖孔曲面屏,为用户带来沉浸式视觉体验。生物识别:配备了先进的超声波指纹识别技术,提供快速且安全的解锁方式。vivoX100Ultra核心优势依旧是影像,相机配置直接拉满了,就连口号都是“vivo的第一款相机,vivo的第一款UItra!
华为Pura70系列先锋计划已启动,官网现已上架全系列四款新品。近期有部分用户反馈称,他们对Pura70标准版未能支持华为领军的星闪技术表示遗憾。更令人印象深刻的是,它仅需蓝牙60%的能耗,便能实现高达6倍的速度,同时传输时延仅为传统技术的1/30。
MuLan是一个开源的多语言扩散模型,旨在为超过110种语言提供无需额外训练即可使用的扩散模型支持。该模型通过适配技术,使得原本需要大量训练数据和计算资源的扩散模型能够快速适应新的语言环境,极大地扩展了扩散模型的应用范围和语言多样性。MuLan的主要优点包括对多种语言的支持、优化的内存使用、以及通过技术报告和代码模型的发布,为研究人员和开发者提供了丰富的资源。
MiLM-6B是由小米公司开发的大规模预训练语言模型,参数规模达到64亿,它在中文基础模型评测数据集C-Eval和CMMLU上均取得同尺寸最好的效果。该模型代表了自然语言处理领域的最新进展,具有强大的语言理解和生成能力,可以广泛应用于文本生成、机器翻译、问答系统等多种场景。
TalentGenius是一个利用人工智能技术帮助专业人士评估技能、优化职业路径,并匹配最佳工作机会的平台。它通过AI工具提供个性化的职业导航、辅导、招聘和咨询,帮助用户在技术快速发展的今天保持竞争力。
Pipecat是一个开源框架,用于构建语音和多模态对话代理,如个人教练、会议助手、儿童故事玩具、客户支持机器人、接待流程和机智的社交伴侣。它支持本地运行,并可迁移到云端,集成了多种AI服务和传输方式,具有高度的可定制性和扩展性。
MetaTrend是一个专注于提供AI、加密货币和金融行业趋势的新闻网站。它通过每日更新的新闻摘要,帮助用户快速了解这些领域的最新动态,对于希望紧跟科技和金融潮流的专业人士来说,这是一个不可或缺的工具。
打标助手是基于GPT4-Vision开发的一个在线工具,它通过微调prompt实现批量图片文字标注,为基于SD模型的训练提供数据支持。该工具的主要优点在于其免费性、批量处理能力和高效的标注准确性,特别适合需要大量图片标注的科研和商业用户。
Gemma 2是下一代谷歌Gemma模型,拥有27亿参数,提供与Llama 3 70B相当的性能,但模型大小仅为其一半。它在NVIDIA的GPU上运行优化,或在Vertex AI上的单个TPU主机上高效运行,降低了部署成本,使更广泛的用户能够访问和使用。Gemma 2还提供了强大的调优工具链,支持云解决方案和社区工具,如Google Cloud和Axolotl,以及与Hugging Face和NVIDIA TensorRT-LLM的无缝合作伙伴集成。
Gemini 1.5 Flash是Google DeepMind团队推出的最新AI模型,它通过'蒸馏'过程从更大的1.5 Pro模型中提炼出核心知识和技能,以更小、更高效的模型形式提供服务。该模型在多模态推理、长文本处理、聊天应用、图像和视频字幕生成、长文档和表格数据提取等方面表现出色。它的重要性在于为需要低延迟和低成本服务的应用提供了解决方案,同时保持了高质量的输出。
Imagen 3 是谷歌一个先进的文本到图像的生成模型,它能够生成具有极高细节水平和逼真效果的图像,并且相较于之前的模型,其视觉干扰元素显著减少。该模型对自然语言的理解更为深入,能够更好地把握提示背后的意图,并从更长的提示中提取细节。此外,Imagen 3 在渲染文本方面表现出色,为个性化生日信息、演示文稿标题幻灯片等提供了新的可能性。
Veo是Google最新推出的视频生成模型,能够生成高质量的1080p分辨率视频,支持多种电影和视觉风格。它通过先进的自然语言和视觉语义理解,能够精确捕捉用户创意愿景,生成与提示语调一致且细节丰富的视频内容。Veo模型提供前所未有的创意控制水平,理解电影术语如“延时摄影”或“航拍景观”,创造出连贯一致的画面,使人物、动物和物体在镜头中逼真地移动。
PaliGemma是Google发布的一款先进的视觉语言模型,它结合了图像编码器SigLIP和文本解码器Gemma-2B,能够理解图像和文本,并通过联合训练实现图像和文本的交互理解。该模型专为特定的下游任务设计,如图像描述、视觉问答、分割等,是研究和开发领域的重要工具。
lluminous是一个快速、轻量级的开源聊天界面,支持多供应商API密钥,提供完整的隐私保护,所有对话历史和密钥都存储在本地。它支持多模态输入、多轮对话提示、预填充响应、模型切换以及对话分享等功能。
CuMo是一种多模态大型语言模型(LLMs)的扩展架构,它通过在视觉编码器和MLP连接器中融入稀疏的Top-K门控专家混合(MoE)块,提高了模型的可扩展性,同时在推理时几乎不增加激活参数。CuMo在预训练MLP块后,初始化MoE块中的每个专家,并在视觉指令调整阶段使用辅助损失以确保专家的均衡负载。CuMo在各种VQA和视觉指令遵循基准测试中超越了其他同类模型,且完全基于开源数据集进行训练。
混元-DiT是腾讯推出的首个中英双语DiT架构的人工智能模型,专注于中文元素理解,具备长文本理解能力和细粒度语义理解。该模型能够分析和理解长篇文本中的信息,并生成相应的艺术作品,包括但不限于人物写真、创意创作等。混元-DiT的推出,对于提升中文文本理解的深度和广度,以及促进中英双语交流具有重要意义。
GPT-4o('o'代表'omni')是自然人机交互的重要一步,它可以接受任意组合的文本、音频、图像和视频输入,并生成任意组合的文本、音频和图像输出。它在音频输入响应上的速度极快,平均响应时间仅为320毫秒,与人类对话的响应时间相近。在非英语文本处理上取得了显著进步,同时在API上速度更快且成本降低了50%。GPT-4o在视觉和音频理解方面也比现有模型更出色。
AutoGroq是一个AI驱动的对话助手,旨在通过自动生成专家代理来彻底改变用户与AI工具的互动方式。它克服了现有解决方案的局限性,提供了一个用户友好、强大且无需配置的体验。该平台专注于通过自动生成专门针对任何问题的专家代理,无论问题的复杂性如何,提供即时和相关的帮助。
OpenGlass是一款可穿戴眼镜,它能够记录用户的生活,并提供有帮助的总结和建议。这款眼镜可以针对不同的使用场景进行定制,适合追求个性化体验和生活记录的用户。它结合了最新的硬件技术和软件开发,为用户带来全新的交互体验。
Refuel LLM-2 是一款为数据标注、清洗和丰富而设计的先进语言模型。它在约30种数据标注任务的基准测试中超越了所有现有的最先进语言模型,包括GPT-4-Turbo、Claude-3-Opus和Gemini-1.5-Pro。Refuel LLM-2 旨在提高数据团队的工作效率,减少在数据清洗、规范化、标注等前期工作上的手动劳动,从而更快地实现数据的商业价值。
Aloe是由HPAI开发的一款医疗领域的语言模型,基于Meta Llama 3 8B模型进行优化。它通过模型融合和先进的提示策略,达到了与其规模相匹配的最先进水平。Aloe在伦理和事实性指标上得分较高,这得益于红队和对齐工作的结合。该模型提供了医疗特定的风险评估,以促进这些系统的安全使用和部署。
FunClip是一款完全开源、本地部署的自动化视频剪辑工具,通过调用阿里巴巴通义实验室开源的FunASR Paraformer系列模型进行视频的语音识别,随后用户可以自由选择识别结果中的文本片段或说话人,点击裁剪按钮即可获取对应片段的视频。FunClip集成了阿里巴巴开源的工业级模型Paraformer-Large,是当前识别效果最优的开源中文ASR模型之一,并且能够一体化的准确预测时间戳。