首页 > 关键词 > 语音数据集最新资讯
语音数据集

语音数据集

作为教育科技的先行者,好未来近日开放了一批长达 587 小时教学场景中的中英文混合语音数据集。该数据集源自语种混合最具代表性场景之一——教师英语授课场景。好未来此次开放的数据集是迄今教育行业最大的语音开源数据集之一,也是目前已知全球较大的中英文混合场景开源数据集,有效填补了中英文混合语音识别研究的数据稀缺空白。 算法、算力、数据是人工智能技术发展的三大基石。一个AI模型从设计到训练,再到部署使用,整个过?...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“语音数据集”的相关热搜词:

相关“语音数据集” 的资讯72篇

  • 好未来开源近600小时中英文混合语音数据集,填补教育AI研究空白

    作为教育科技的先行者,好未来近日开放了一批长达 587 小时教学场景中的中英文混合语音数据集。该数据集源自语种混合最具代表性场景之一——教师英语授课场景。好未来此次开放的数据集是迄今教育行业最大的语音开源数据集之一,也是目前已知全球较大的中英文混合场景开源数据集,有效填补了中英文混合语音识别研究的数据稀缺空白。 算法、算力、数据是人工智能技术发展的三大基石。一个AI模型从设计到训练,再到部署使用,整个过?

  • Mozilla更新公共语音数据集 包含18种语言共1400小时

    【CNMO新闻】Mozilla近日发布了最新版本的Common Voice,这是它的开源语音数据转录集,目前包含超过1400个小时的语音样本,由4.2万名贡献者提供18种语言,包括英语、法语、德语、荷兰语、哈卡钦语、世界语、波斯语、

  • 标贝科技多人会议场景语音数据采集 让办公效率直线拉满

    随着智能语音技术应用场景的日益丰富,多人交互场景下的智能语音处理技术受到了越来越多的关注。最为常见的就是会议场景。除了提供多人会议音频采集方案,标贝科技还针对不同的会议主题,精心制作了高质量的多人会议语音数据集,包括了实际会议场景下各种特性,例如停顿、重叠、说话人轮转、噪声等,提高会议场景语音识别准确性。

  • 爱数智慧受邀参加FiNEXT峰会 语音数据产品赋能保险数字化未来

    FiNEXT峰会现场2020年12月23日,保险系列峰会“FiNEXT: Digital保险科技数字化峰会”在上海成功举办,峰会邀请了保险和科技类企业代表齐聚一堂,共话保险业未来数字化升级之路。为升级保险价值全链条,加速顺应保险数字化浪潮,爱数智慧作为专业的AI数据产品企业受邀参加此次峰会,现场展位引发嘉宾关注和咨询。爱数智慧CEO张晴晴在峰会现场做《数据驱动AI 语音赋能保险——语音数据产品如何助力保险业智能化转型》的主题分享,分?

  • 谷歌在中国招募语音数据专员

    谷歌正通过公开招聘渠道招募数名“语音数据专员”。网易科技得知,这份工作的主要任务可能和谷歌在网络和Android平台推出的语音搜索功能的中文本地化工作有关。

  • Meta AI 发布开源基准数据集OpenEQA 促进AI代理的 “体验智能”

    MetaAI研究人员今天发布了OpenEQA,这是一个新的开源基准数据集,旨在衡量人工智能系统对“体验式问答”的能力——这种能力使人工智能系统能够理解现实世界,从回答有关环境的自然语言问题。这一数据集被Meta定位为“体验智能”领域的关键基准,其中包含超过1,600个关于180多个真实环境的问题。为了衡量人工智能代理的性能,研究人员使用大型语言模型自动评分,衡量人工智能生成的答案与人类答案的相似程度。

  • Meta AI 发布 MMCSG数据集:使用 Project Aria 捕获的 25 小时以上的双向对话

    MetaAI最近发布了MMCSG数据集,该数据集包含使用ProjectAria录制的25小时以上的双向对话。CHiME-8MMCSG任务的重点是转录使用智能眼镜录制的对话,这些眼镜配备了多个传感器,包括麦克风、摄像头和惯性测量单元。MMCSG数据集的提供为在动态现实环境中开发和评估转录系统提供了宝贵资源。

  • 出门问问开放大模型“序列猴子”开源数据集

    出门问问宣布,将向公众开放其超大规模语言模型“序列猴子”的部分训练数据集,命名为“序列猴子开源数据集1.0”。作为出门问问的核心技术之一,具备强大的通用表示与推理能力,已在问答系统、自然语言处理、机器翻译、文本摘要等多个领域展现出其卓越的性能,极大地提高了生产效率和数据处理能力。开源数据集的发布将促进学术交流与合作,加速相关领域的创新步伐。

  • HuggingFace推出最大的开放合成数据集Cosmopedia 250亿个tokens

    HuggingFace推出了Cosmopediav0.1,这是最大的开放合成数据集,由Mixtral7b生成,包含超过3000万个样本,总共约250亿个标记tokens。数据集旨在通过映射来自网页数据集如RefinedWeb和RedPajama的信息来汇编全球知识,包括教科书、博客文章、故事和WikiHow文章等各种内容类型。其目标是通过量身定制提示风格和受众,最大程度地提高多样性,从显著减少重复内容。

  • 图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

    能不能有一种通用的图模型——它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?或者既能预测不同作者的论文引用可以发现基因网络中的人类衰老机制?你还真别说,被ICLR2024接收为Spotlight的“OneforAll”框架就实现了这个“精髓”。它由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者们联合提出。更多研究细节,可参考原�

  • 史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

    语言模型一直是自然语言处理技术的核心,考虑到模型背后的巨大商业价值,最大最先进的模型的技术细节都是不公开的。真·完全开源的大模型来了!来自艾伦人工智能研究所、华盛顿大学、耶鲁大学、纽约大学和卡内基梅隆大学的研究人员,联合发表了一项足以载入AI开源社区史册的工作——他们几乎将从零开始训练一个大模型过程中的一切数据和资料都开源了!论文:https://allenai.org/olmo/olmo-paper.pdf权重:https://huggingface.co/allenai/OLMo-7B代码:https://github.com/allenai/OLMo数据:https://huggingface.co/datasets/allenai/dolma评估:https://github.com/allenai/OLMo-Eval适配:https://github.com/allenai/open-instruct具体来说,艾伦人工智能研究所推出的这个开放大语言模型实验和训练平台,则提供了一个完全开源的大模型,以及所有和训练开发这个模型有关的数据和技术细节——训练和建模:它包括完整的模型权重、训练代码、训练日志、消融研究、训练指标和推理代码。她对机器学习的技术和认知科学的理论的融合应用充满了热情。

  • AutoMathText体验入口 数学内容的AI模型数据集免费在线下载地址

    AutoMathText是一个引人注目的数学文本数据集,拥有约200GB的高质量内容。每一条信息都经过先进的语言模型Qwen的自主选择和评分,确保了高水平的相关性和内容质量。要了解更多信息并开始您的数学与人工智能之旅,请访问AutoMathText官方网站。

  • 200GB!AutoMathText:专注数学文本的超大规模数据集

    AutoMathText是一个庞大的数学文本数据集,总体规模达到200GB,汇聚了来自多个来源的数据,包括科学论文、编程代码片段以及网页数据。该数据集经过特定的过滤和处理,旨在服务于数学推理、推理训练和微调等多种应用场景。StackMathQA的集合是由数学问题和对应答案组成,提供了更具挑战性的数学任务,为模型的进一步发展提供了支持。

  • Anim400K:一个针对视频自动配音设计的数据集

    Anim400K:一个针对视频自动配音设计的数据集,包含超过425,000个对齐的音视频剪辑,总时长达763小时。这些剪辑来自超过190个作品,涵盖了数百种主题和类型,并包含英语和日语两种语言的内容。数据集中的丰富内容和元数据也可以用于媒体内容分析,如情感分析、内容推荐、自动生成视频剪辑等,以及在语言学和文化研究领域的应用,特别是在跨文化传播和翻译领域。

  • ANIM-400K官网体验入口 AI动画视频片段数据集免费下载地址

    ANIM-400K 是一个综合的数据集,包含超过425, 000 个日语和英语动画视频片段。这个数据集专为研究用途设计,支持自动配音、同声翻译、视频摘要以及流派/主题/风格分类等多种视频相关任务。公开提供给研究者,助力于各种视频处理和分析技术的开发。点击前往ANIM-400K官网体验入口谁可以从ANIM-400K中受益?ANIM-400K是为研究者和开发者提供的理想工具,特别适用于那些需要大量

  • DL3DV-10K数据集:可用于深度学习的3D视觉大规模场景

    神经视图合成在从多视图视频生成逼真的三维场景方面提出了复杂的挑战,尤其是在多样化的真实世界场景中。当前先进的NVS技术在面对照明变化、反射、透明度和整体场景复杂性的变化时,其局限性变得明显。数据集的先进和方法学创新的结合推动该领域朝着更加强大和多功能的神经视图合成能力迈进。

  • 智源研究院开源代码生成训练数据集与评测基准TACO

    TACO是一个专注于算法的代码生成数据集,旨在为代码生成模型提供更具挑战性的训练数据集和评测基准。与当前主流代码评测基准相比,TACO在数据规模、数据质量和细粒度评测方案上具有明显优势。提供细粒度标签:TACO数据集中每个题目均包含任务主题、算法、技能及难度等细粒度标签,为代码生成模型的训练与评测更精确的参考。

  • 研究发现大型 AI 数据集包含虐待儿童图像:该数据集已用于构建流行的人工智能图像生成器,包括 Stable Diffusion

    根据斯坦福互联网观察站周三发布的一项新研究,流行的人工智能图像生成器的基础数据库中隐藏着数千张儿童性虐待图片。作为对这一研究的回应,一些最大和最常用的图像数据库的运营商关闭了对它们的访问权限。LAION的创始人是德国研究员和教师ChristophSchuhmann,他今年早些时候表示,公开提供如此庞大的视觉数据库的部分原因是为了确保AI发展的未来不受少数强大公司的�

  • Meta重磅推出Ego-Exo4D:视频学习与多模态感知研究的基础数据集

    Meta最近宣布推出Ego-Exo4D,这是一项具有重大影响的举措,为视频学习和多模态感知研究提供了一套基础数据集和基准套件。该数据集是MetaFAIR与ProjectAria以及15所大学两年合作努力的结晶。Ego-Exo4D是实现这一未来的关键一步,他们迫不及待地期待看到研究社区如何应用它。

  • 中国团队开源大规模高质量图文数据集ShareGPT4V

    中国团队最近开源了一个引人瞩目的图文数据集,命名为ShareGPT4V,它基于GPT4-Vision构建,训练了一个7B模型。这一举措在多模态领域取得了显著的进展,超越了同级别的模型。这一成果对于推动人工智能领域的发展具有积极的意义。

  • 英伟达发布HelpSteer:一个用于构建有用LLM的开源数据集

    英伟达最近宣布了NVIDIANeMoSteerLM技术作为英伟达NeMo框架的一部分。这项技术使用户能够在推断过程中控制大型语言模型的响应。这个新的开源数据集为开发人员提供了一个有用的工具,帮助他们更好地理解和应用NVIDIANeMo框架中的SteerLM技术。

  • OpenAI与第三方机构合作,构建新的AI训练数据集

    OpenAI最近宣布了DataPartnerships计划,旨在与第三方机构合作,创建用于AI模型训练的公共和私有数据集。这一举措旨在解决现有AI模型训练数据集中存在的问题,其中包含有毒语言和偏见。在克服数据集偏见等挑战方面,OpenAI是否能做得更好,仍有待验证。

  • OpenAI:计划与合作伙伴共同生成用于训练 AI 模型的数据集

    OpenAI宣布将与合作伙伴共同生成用于训练AI模型的公共/私有数据集,以推动AI的未来发展并让更多组织从中受益。为了实现这一目标,OpenAI计划收集反映人类社会、涵盖不同语言、主题和格式的大量数据,并寻求合作伙伴的帮助以数字化并删除敏感信息。OpenAI表示,通过这些举措,旨在推动AI技术的进一步发展,并确保其造福全人类。

  • Together AI发布RedPajama v2:包内30万亿token数据集,用于训练大型语言模型

    TogetherAI最近发布了RedPajamav2,这是一个庞大的在线数据集,包含了30万亿token,成为目前公开可用的最大数据集之一,专门用于学习型机器学习系统的培训。对于像Llama、Mistral、Falcon、MPT和RedPajama等最先进的开放式LLM,高质量的数据至关重要,但由于HTML到纯文本的转换引发的异常、通常质量较低的数据来源以及网络内容传播中固有的偏见,这些数据未经精细处理,不适合直接用于LLM的培训。这一工作将为LLM领域的研究和应用提供更多的有力数据支持。

  • DeepMind验证卷积神经网络在大规模数据集上可媲美视觉变换器

    最新研究表明,卷积神经网络在大规模数据集上能够与视觉变换器媲美,挑战了以往认为视觉变换器在这方面具有卓越性能的观点。在计算机视觉领域,ConvNets一直以来都是在各种基准测试中取得卓越性能的标准。这些结果突显了同时扩展计算和数据资源的重要性,为计算机视觉研究的未来带来了新的启示。

  • Google AI推出SANPO:多属性视频数据集助力高级视觉场景理解

    GoogleAI最近推出了名为SANPO的数据集,旨在帮助AI模型更好地理解户外人类主观场景。这一数据集的重要性在于,它不仅包括真实世界的数据包括合成数据,以及丰富的注释和多属性特征。研究人员的隐私承诺使这一数据集能够支持其他研究人员开发面向视障人士的视觉导航系统,并推动先进的视觉场景理解领域的发展。

  • 机器人研究迎来ImageNet时刻:一个数据集,让DeepMind具身智能大模型突飞猛进

    在大模型不断取得突破的2023,把大模型当做大脑来辅助运行的具身智能机器人研究也在被迅速推进。2个多月前,谷歌DeepMind推出了第一个控制机器人的视觉-语言-动作模型——RT-2。未来的另一个方向是进一步探索不同数据集的混合会如何影响跨具身智能体泛化,以及这种泛化是如何是实现的。

  • 中国研究团队发布多视角数据集“FreeMan” 解决3D人体姿势估计局限性

    从真实场景中估计人体的三维结构是一项具有挑战性的任务,对于人工智能、图形学和人机交互等领域具有重要意义。现有的3D人体姿态估计数据集通常在受控条件下收集,具有静态背景,无法代表真实世界场景的多样性,从限制了用于真实应用的准确模型的开发。FreeMan的可用性预计将推动人体建模、计算机视觉和人机交互领域的进步,弥合了受控实验室条件与真实场景之间的差距。

  • 「字少信息量大」,Salesforce、MIT 研究者手把手教 GPT-4「改稿」,数据集已开源

    自动摘要技术取得了长足的进步,这主要归功于范式的转变——从在标注数据集上进行有监督微调转变为使用大语言模型进行零样本prompt,例如GPT-4。不需要额外的训练,细致的prompt就能实现对摘要长度、主题、风格等方面特征的精细控制。更多论文细节,可参考原论文。

  • 智源开源中英文语义向量模型训练数据集MTP

    智源研究院发布面向中英文语义向量模型训练的大规模文本对数据集MTP。这是全球最大的中、英文文本对训练数据集,数据规模达3亿对,希望推动解决中文模型训练数据集缺乏问题。作为中国大模型开源生态圈的代表机构,智源持续进行包括数据在内的大模型全栈技术开源,推动人工智能协同创新。