首页 > 传媒 > 关键词  > AIGC最新资讯  > 正文

激发用户AI创作力量,快手“星有灵犀—AI短剧创作大赛”启幕

2024-09-01 12:43 · 稿源: 站长之家用户

今年以来,AIGC浪潮席卷短剧行业,带来令人兴奋的娱乐形态——AI短剧。为加速“AIGC+短剧”的内容变革,快手星芒短剧联合快手自研视频生成大模型“可灵AI”,9月1日起正式推出“星有灵犀-AI短剧创作大赛”。据悉,大赛将以流量奖励、荣誉奖励、内容签约等多元举措,激励更多有创造力的人加入AI创作,共探AIGC在短剧领域的创新应用。

现金奖励叠加资源扶持,助力每一个AI创作梦

随着新一代AI创意生产力工具不断进化,越来越多普通人正在点燃想象力、创造内容新可能。为激发广大用户的AI创作力量,2024年9月1日—10月8日期间,“星有灵犀—AI短剧创作大赛”将会面向所有用户,征集导向积极、创意新颖、视觉新奇、形式新潮的优秀AI短剧作品。

据悉,大赛将大幅降低创作门槛,对内容题材、内容制式、参赛资格的包容度更高。题材方面,使用“可灵AI”生成视频素材,制作符合叙事逻辑与时代旋律的短剧内容即可;制式方面,不限横屏或竖屏,清晰度720P及以上的1-10分钟连续剧情即可;资格方面,在快手带话题#快手星芒短剧、#星有灵犀AI短剧创作大赛、#可灵AI发布作品,即为参赛成功。

用算力代替人力提升创作效率,让更多人体验当导演的快乐之余,“星有灵犀—AI短剧创作大赛”还将通过现金奖励、资源扶持、内容签约等多元激励方式,进一步提振创作者的参赛热情,增加心怀AI创作梦之人投身浪潮的信心。

其中,大赛为获奖作品提供“现金激励+荣誉奖励+可灵激励”。按照赛制,本次现金奖池高达50万+,“可灵”灵感值高达20万+,单条作品比较高可获10万+奖励。同时,优秀创作者更有机会推进星芒全力内容签约,签约作品可享受星芒“参投+分账+现金激励”政策、专属流量扶持及定制宣发服务,进而实现“剧星梦”。

举办一场赛事的意义,不仅仅是见证AI和创作者的发展,更在于为行业树立可供参考的样本。因此,快手大模型团队负责人张迪,快手文娱业务负责人陈弋弋,中国传媒大学戏剧影视学院基础部主任、教授赵晖,娱乐资本论创始人郑道森,也共同组成本次大赛评委团,从技术、内容、学界、业界等多视角出发遴选佳作。

快手再次抢先行业半步,让AIGC的风吹向短剧

近年来,短剧行业规模爆发式增长,成为文娱市场不容忽视的新兴力量。作为率先布局、持续深耕短剧赛道的平台,快手早已构建起供需双向增长的短剧生态——公开数据显示,快手短剧创作者数量超过10万人;截至2024年7月,快手短剧日活用户达3亿,每日观看10集以上短剧的重度用户达1.46亿,近8成短剧用户每周都要看短剧。

尽管如此,与突飞猛进的短剧内容消费需求相比,短剧创作的产能与供给显得严重不足。而在快手看来,AI是解放短剧生产力的一把钥匙,既可以帮助从业者轻松突破题材限制,也能以更快速度与更小成本实现灵感落地。这意味着,“AIGC+短剧”的组合,有望为行业带来全新解法。

因此,快手再次抢先行业半步,早早开启短剧与AIGC的适配性实验——今年7月,由快手星芒短剧出品、快手自研视频生成大模型「可灵AI」提供深度技术支持的《山海奇镜之劈波斩浪》,不仅成为国内首部AIGC原创奇幻微短剧,其电影级别的画质表现和动态效果,还引发人们对“AIGC已开始爆改短剧行业了”的热议。

与此同时,快手星芒短剧还联合快手自研视频生成大模型“可灵AI”,在WAIC2024快手论坛上官宣「星芒短剧×可灵大模型」创作者孵化计划,助力更多优质AI短剧创作者实现“剧星梦”,使更多精品AI短剧被充分挖掘。如今二者再度联手,打造“星有灵犀-AI短剧创作大赛”,有望把AI短剧创作模式推向更广泛的人群,让这对网络视听领域“优质CP”结出更多硕果。

在“AIGC+短剧”新浪潮之下,快手星芒短剧将持续面向产业未来,推动短剧创作向着智能化迈进。过程中,快手星芒短剧与行业伙伴将联合发力,不断探索AIGC在网络视听领域的创新应用,孵化并扶持更多掌握前沿技术与创新理念的创作者,为短剧行业的可持续发展注入新活力、创造新可能。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 大家在看
  • Canvas:与ChatGPT协作的新方式

    Canvas是OpenAI推出的一个新界面,旨在通过与ChatGPT的协作来改进写作和编码项目。它允许用户在一个单独的窗口中与ChatGPT一起工作,超越了简单的聊天界面。Canvas利用GPT-4o模型,能够更好地理解用户的上下文,并提供内联反馈和建议。它支持直接编辑文本或代码,并提供快捷操作菜单,帮助用户调整写作长度、调试代码等。Canvas还支持版本回溯,帮助用户管理项目的不同版本。

  • Text Behind Image:轻松创建文字背景图片设计。

    Text Behind Image 是一个开源的设计工具,允许用户轻松创建文字背景图片设计。它提供了一个简洁的界面,让用户可以自由地在图片上添加文字,创造出独特的视觉效果。这个工具对于设计师、社交媒体运营者和内容创作者来说非常有用,因为它可以快速生成具有吸引力的视觉内容。

  • torchao:PyTorch原生量化和稀疏性训练与推理库

    torchao是PyTorch的一个库,专注于自定义数据类型和优化,支持量化和稀疏化权重、梯度、优化器和激活函数,用于推理和训练。它与torch.compile()和FSDP2兼容,能够为大多数PyTorch模型提供加速。torchao旨在通过量化感知训练(QAT)和后训练量化(PTQ)等技术,提高模型的推理速度和内存效率,同时尽量减小精度损失。

  • LFMs:新一代生成式AI模型

    Liquid Foundation Models (LFMs) 是一系列新型的生成式AI模型,它们在各种规模上都达到了最先进的性能,同时保持了更小的内存占用和更高效的推理效率。LFMs 利用动态系统理论、信号处理和数值线性代数的计算单元,可以处理包括视频、音频、文本、时间序列和信号在内的任何类型的序列数据。这些模型是通用的AI模型,旨在处理大规模的序列多模态数据,实现高级推理,并做出可靠的决策。

  • NVLM-D-72B:前沿的多模态大型语言模型

    NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。

  • gradio-bot:将Hugging Face Space或Gradio应用转化为Discord机器人

    gradio-bot是一个可以将Hugging Face Space或Gradio应用转化为Discord机器人的工具。它允许开发者通过简单的命令行操作,将现有的机器学习模型或应用快速部署到Discord平台上,实现自动化交互。这不仅提高了应用的可达性,还为开发者提供了一个与用户直接交互的新渠道。

  • AI-Powered Meeting Summarizer:会议语音转文本并自动生成摘要的AI工具

    AI-Powered Meeting Summarizer是一个基于Gradio的网站应用,能够将会议录音转换为文本,并使用whisper.cpp进行音频到文本的转换,以及Ollama服务器进行文本摘要。该工具非常适合快速提取会议中的关键点、决策和行动项目。

  • VARAG:视觉增强的检索与生成系统

    VARAG是一个支持多种检索技术的系统,优化了文本、图像和多模态文档检索的不同用例。它通过将文档页面作为图像嵌入,简化了传统的检索流程,并使用先进的视觉语言模型进行编码,提高了检索的准确性和效率。VARAG的主要优点在于它能够处理复杂的视觉和文本内容,为文档检索提供强大的支持。

  • JoyHallo:数字人模型,支持生成普通话视频

    JoyHallo是一个数字人模型,专为普通话视频生成而设计。它通过收集来自京东健康国际有限公司员工的29小时普通话视频,创建了jdh-Hallo数据集。该数据集覆盖了不同年龄和说话风格,包括对话和专业医疗话题。JoyHallo模型采用中国wav2vec2模型进行音频特征嵌入,并提出了一种半解耦结构来捕捉唇部、表情和姿态特征之间的相互关系,提高了信息利用效率,并加快了推理速度14.3%。此外,JoyHallo在生成英语视频方面也表现出色,展现了卓越的跨语言生成能力。

  • PhysGen:基于物理的图像到视频生成技术

    PhysGen是一个创新的图像到视频生成方法,它能够将单张图片和输入条件(例如,对图片中物体施加的力和扭矩)转换成现实、物理上合理且时间上连贯的视频。该技术通过将基于模型的物理模拟与数据驱动的视频生成过程相结合,实现了在图像空间中的动态模拟。PhysGen的主要优点包括生成的视频在物理和外观上都显得逼真,并且可以精确控制,通过定量比较和全面的用户研究,展示了其在现有数据驱动的图像到视频生成工作中的优越性。

  • Whisper large-v3-turbo:高效自动语音识别模型

    Whisper large-v3-turbo是OpenAI提出的一种先进的自动语音识别(ASR)和语音翻译模型。它在超过500万小时的标记数据上进行训练,能够在零样本设置中泛化到许多数据集和领域。该模型是Whisper large-v3的微调版本,解码层从32减少到4,以提高速度,但可能会略微降低质量。

  • Realtime API:低延迟的实时语音交互API

    Realtime API 是 OpenAI 推出的一款低延迟语音交互API,它允许开发者在应用程序中构建快速的语音到语音体验。该API支持自然语音到语音对话,并可处理中断,类似于ChatGPT的高级语音模式。它通过WebSocket连接,支持功能调用,使得语音助手能够响应用户请求,触发动作或引入新上下文。该API的推出,意味着开发者不再需要组合多个模型来构建语音体验,而是可以通过单一API调用实现自然对话体验。

  • Saylo AI:探索无限的AI角色扮演游戏。

    Saylo AI是一个AI角色扮演游戏,让你与AI角色互动,探索多样化的戏剧性故事。它利用人工智能技术,提供沉浸式的互动体验,让玩家在虚拟世界中与AI朋友交流,体验不同的故事情节。Saylo AI的背景信息展示了其创新性和娱乐性,旨在为玩家提供一种全新的娱乐方式。目前产品处于推广阶段,价格未明确标注。

  • twinny:Visual Studio Code的免费且私密的AI扩展

    twinny是一个为Visual Studio Code用户设计的AI扩展,旨在提供个性化的编程辅助,提高开发效率。它通过集成先进的AI技术,帮助开发者在编码过程中快速解决问题,优化代码,并提供智能提示。twinny的背景是响应开发者对于更加智能和自动化编程工具的需求,它通过简化开发流程,减少重复劳动,从而让开发者能够专注于更有创造性的工作。

  • Buildpad:构建人们真正想要的产品

    Buildpad 是一个旨在帮助创始人从概念到成功最小可行产品(MVP)的在线平台。它通过提供智能验证工具、AI引导的开发流程、进度跟踪以及个性化的项目见解,帮助用户构建能够获得市场认可的产品。Buildpad 的主要优点包括简化产品开发流程、提高产品成功率、以及提供个性化的指导和支持。

  • Novela:AI时代的技能学习平台

    Novela是一个专注于AI时代技能学习的在线平台,提供早期访问服务,用户可以免费试用。它旨在帮助用户掌握AI相关的技能,以适应未来职场的需求。

  • interview.co:视频面试软件,简化招聘流程

    interview.co是一个专注于简化招聘流程的视频面试软件。它通过提供在线视频面试、AI问题生成器和面试管理工具,帮助企业高效地筛选和评估候选人。产品背景信息显示,interview.co旨在解决传统面试中的时间消耗、日程安排困难和成本高昂等问题。价格方面,interview.co提供试用版,具体定价信息需进一步探索。

  • Open NotebookLM:将任何PDF转换为播客集!

    Open NotebookLM是一个利用开源语言模型和文本到语音模型的工具,它可以处理PDF内容,生成适合音频播客的自然对话,并将其输出为MP3文件。该项目的灵感来自于NotebookLM工具,通过使用开源的大型语言模型(LLMs)和文本到语音模型来实现。它不仅提高了信息的可访问性,还为内容创作者提供了一种新的媒体形式,使他们能够将书面内容转换为音频格式,扩大其受众范围。

  • Chital:macOS平台的Ollama模型聊天应用

    Chital是一个为macOS平台设计的应用程序,它允许用户与Ollama模型进行聊天。这个应用具有低内存占用和快速启动的特点,支持多聊天线程,能够在不同的模型间切换,并支持Markdown格式。此外,它还能自动为聊天线程生成标题摘要。Chital的开发主要是为了满足开发者个人的使用需求,但也鼓励社区成员通过fork代码库来添加新功能。

  • SafeEar:保护隐私的音频深度检测

    SafeEar是一个创新的音频深度检测框架,它能够在不依赖于语音内容的情况下检测深度音频。这个框架通过设计一个神经音频编解码器,将语义和声学信息从音频样本中分离出来,仅使用声学信息(如韵律和音色)进行深度检测,从而保护了语音内容的隐私。SafeEar通过在真实世界中增强编解码器来提高检测器的能力,使其能够识别各种深度音频。该框架在四个基准数据集上的广泛实验表明,SafeEar在检测各种深度技术方面非常有效,其等错误率(EER)低至2.02%。同时,它还能保护五种语言的语音内容不被机器和人类听觉分析破译,通过我们的用户研究和单词错误率(WER)均高于93.93%来证明。此外,SafeEar还构建了一个用于反深度和反内容恢复评估的基准,为未来在音频隐私保护和深度检测领域的研究提供了基础。

今日大家都在搜的词: