首页 > 传媒 > 关键词  > 正文

“隔空”救援:快手联动警方半年挽救131名试图自杀者

2023-09-11 14:36 · 稿源: 站长之家用户

   9 月 10 日是第 21 个“世界预防自杀日”,记者从快手获悉, 2021 年 8 月快手正式组建自杀干预社会救助小组,通过AI预警系统识别、建立安抚干预标准流程,7X24 小时在线干预挽救有自杀倾向的人,仅今年上半年已成功挽救 131 人。目前,“AI+人工”的自杀干预模式已成为主流互联网平台治理的标配。

  女网友自杀被成功挽救

   26 岁的黄蓉毕业于南京信息工程大学,在进入自杀干预社会救助小组以前,她在一家互联网公司做内容审核员。加入快手后,经过专业的心理学知识和真实案例的培训,在试岗一个月后,经考核合格,她正式成为救助小组的一员,至今已有两年时间。

  (图说:快手自杀干预社会救助小组成员黄蓉。)

  黄蓉现在所做的干预工作,是在接到系统或人工的风险预警后,通过综合预警对象的直播、短视频、评论等信息,来判断风险,并施以安抚或联动警方上门干预挽救。

  “你赶紧帮我查一下你们那一个快手用户,她的快手号是XXX”。今年 6 月 13 日下午 14 时 33 分许,快手客服接到一名男性用户进线,电话那头是焦急的语气。

  在和进线的用户确认快手号和账号昵称后,进线的用户继续对快手客服说:“对,就是她,这个人自杀了,她喝药了,你查查她电话是多少,你赶快查出来报警,救救她呀。”

  原来,这名“自杀”的用户是进线用户在快手上认识的一位女性网友,他们加了微信成了好友。当天这位女性网友突然打视频与他微信通话,说自己喝药了。等他向这名女性网友询问详细信息时,对方再也没有回信。

  但他除了知道这名网友是辽宁某市的外,别的信息一无所知。他也向该市的 110 报了警,但因他能提供的信息实在太有限了,警方核实处置仍需一定时间。于是,他将求助电话打到快手平台。

  快手客服的工作人员记录用户反馈的信息,立即将该风险信息推送给自杀干预社会救助小组。

  当日值班的黄蓉接到预警信息后,先是电话与“自杀”的用户联系核实,但拨打三次均未接通。黄蓉根据处置流程核查了用户近期所发的视频信息,发现在其中一条视频中,该用户回复网友时吐露“我要离开这个痛苦的世界”。

  结合用户的进线,黄蓉综合判断该用户自杀的风险比较高,于是她根据用户公开的IP地址向警方报警,并根据警方的询问补充相关信息。

  警方分析确认当事人位置后,他们同步拨打了120,出警上门后,将当事人送医。

  一周后,黄蓉再观察这名用户的登录状态以及她是否再有风险行为时,发现她的昵称已改成积极向上的昵称,并一直在持续更新内容。

   10 分钟内要完成风险评估和报警

  仅仅凭借一个毫无证据的来电反馈,如何做出下一步干预动作?这既对团队成员综合评估判断能力要求极 高,也是对干预标准和流程的考验。

  快手自杀干预社会救助小组组长林雨(化名)介绍,平台自 2018 年底即开始利用AI技术等开展自杀干预, 2021 年 8 月正式组建自杀干预社会救助小组,通过对干预流程的多次升级完善,已经形成了从AI技术识别、公众反馈信息的快速预警,到整合评估用户发布内容、评论等信息,综合判断预警信息的风险的流程。

  “对达到报警标准的,会立即报警;对未达到报警标准的,会联系用户沟通安抚;对经判断无风险的,会将该用户纳入观察期。”林雨说,这套流程要求小组成员在接到预警信息后,必须在 10 分钟内完成风险评估并完成报警。目前平均完成一个案例,基本控制在 6 分钟左右。

  (图说:自杀干预社会救助小组的部分成员在复盘干预案例。)

  自杀干预的背后是平台与死神争分夺秒的过程,这不仅要求平台的AI等技术,要具备比较高的识别准确率,还要求自杀干预社会救助小组的成员具备同理心,具备沟通安抚的心理学相关专业知识、审核判断风险的能力、较好的表达沟通能力。此外,考虑到自杀风险随时都可能发生,尤其凌晨 2 点至 4 点是高发期,这也要求小组成员具备适应夜班的能力。

  林雨说,对新员工,团队会对他们进行心理学相关专业知识和实践案例的培训,经过老员工带着试岗 1 个月后,经考核合格的,才能正式上岗。团队还会不定期邀请心理学领域的专家来开展授课培训,提高小组成员外呼安抚的专业能力。此外,还邀请公安机关的工作人员来开展培训,指导小组成员如何更有效地报警,提高报警的准确率、有效率。

  每天要甄别大量无效信息

  在海量的短视频内容中,若是仅依靠被动的信息反馈和“人肉”的方式排查,很难发现潜在的自杀倾向。因此,“AI+人工”也成为目前主流互联网平台在自杀干预方面不约而同采取的方式。

  林雨透露,平台上半年联合各方救下 131 名有自杀倾向者的背后,是对 5530 条确定性风险预警信息的研判。而这 5530 条确定性风险预警信息,则是从每天近万条被标记为潜在风险的信息中筛查出来的。

  (图说:自杀干预工作的性质,要求自杀干预社会救助小组7X24 小时在线。)

  “尽管系统的发现预警能力不断的增强,但对我们来说,一直处于如履薄冰的状态。”林雨说,很多风险信息事后被证明是无效信号,有些人可能是在开玩笑,也可能是发泄情绪,但我们却不敢轻易地放过去。

  曹受君是自杀干预社会救助小组的一员,她从 2020 年 10 月进入快手工作以来,见证了小组的筹备、招募和正式成立。

  在她看来,从过往干预的案例来看,有一部分人是因一时想不开,在平台上发布有自杀倾向的内容,对于这一人群,通过电话安抚,多听他们倾诉,试着开解他们,他们可能就会放弃轻生的念头。

  “但也有一部分人,他们做出风险动作的背后,或因家庭矛盾,或因感情、疾病、经济压力等多重问题影响。”曹受君说,解决这一社会问题,除了平台、警方联动干预外,还需社会各方共同参与。

  黄蓉刚选择这个职业时,她的父母对她的工作不理解,也会惊讶于互联网上预警的数字。如今她再向父母讲述自己又成功挽救的案例时,父母会说:“你做了一件积德的事。”两年多的工作,让黄蓉变得对那些深处困境的人,多了更多同理心,再回看自己的生活,她想说:“人生还有很长的时间可以去经历更多的事情。”

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 大家在看
  • Nemotron-4-340B-Reward:多维奖励模型,助力构建自定义大型语言模型。

    Nemotron-4-340B-Reward是由NVIDIA开发的多维奖励模型,用于合成数据生成管道,帮助研究人员和开发者构建自己的大型语言模型(LLMs)。该模型由Nemotron-4-340B-Base模型和一个线性层组成,能够将响应末尾的标记转换为五个标量值,对应于HelpSteer2属性。它支持最多4096个标记的上下文长度,并能够对每个助手轮次的五个属性进行评分。

  • Nemotron-4-340B-Instruct:NVIDIA的高级语言模型,优化于英文对话场景。

    Nemotron-4-340B-Instruct是由NVIDIA开发的大型语言模型(LLM),专为英文单轮和多轮对话场景优化。该模型支持4096个token的上下文长度,经过监督式微调(SFT)、直接偏好优化(DPO)和奖励感知偏好优化(RPO)等额外的对齐步骤。模型在约20K人工标注数据的基础上,通过合成数据生成管道合成了超过98%的用于监督微调和偏好微调的数据。这使得模型在人类对话偏好、数学推理、编码和指令遵循方面表现良好,并且能够为多种用例生成高质量的合成数据。

  • BookSlice:让阅读更有趣,用游戏化的方式增加阅读量。

    BookSlice是一款面向忙碌人群的游戏化阅读应用,通过心理学原理帮助用户建立阅读习惯,并通过设置每日挑战来维持阅读连续性。它利用实施意图、习惯叠加等心理工具,使阅读变得习惯性和上瘾。此外,BookSlice还提供AI问答功能,帮助用户在阅读过程中获得上下文答案。

  • agentUniverse:基于大型语言模型的多智能体应用开发框架

    agentUniverse 是一个基于大型语言模型的多智能体应用开发框架,提供了构建单一智能体和多智能体协作机制的所有必需组件。通过模式工厂,允许开发者构建和自定义多智能体协作模式,轻松构建多智能体应用,并分享不同技术与业务领域的模式实践。

  • HunyuanDiT Distillation Acceleration:高性能图像生成模型的蒸馏加速版本

    HunyuanDiT Distillation Acceleration 是腾讯 Hunyuan 团队基于 HunyuanDiT 模型开发的蒸馏加速版本。通过渐进式蒸馏方法,在不降低性能的情况下,实现了推理速度的两倍提升。该模型支持多种GPU和推理模式,能够显著减少时间消耗,提高图像生成效率。

  • WonderWorld:从单张图片生成交互式3D场景

    WonderWorld是一个创新的3D场景扩展框架,允许用户基于单张输入图片和用户指定的文本探索和塑造虚拟环境。它通过快速高斯体素和引导扩散的深度估计方法,显著减少了计算时间,生成几何一致的扩展,使3D场景的生成时间少于10秒,支持实时用户交互和探索。这为虚拟现实、游戏和创意设计等领域提供了快速生成和导航沉浸式虚拟世界的可能性。

  • ChatTTS_Speaker:基于ERes2NetV2模型的音色稳定性评分与音色打标。

    ChatTTS_Speaker是一个基于ERes2NetV2说话人识别模型的实验性项目,旨在对音色进行稳定性评分和音色打标,帮助用户选择稳定且符合需求的音色。项目已开源,支持在线试听和下载音色样本。

  • fastc:轻量级文本分类工具,使用大型语言模型嵌入。

    fastc是一个基于大型语言模型嵌入的简单且轻量级的文本分类工具。它专注于CPU执行,使用高效的模型如deepset/tinyroberta-6l-768d生成嵌入。通过余弦相似度分类代替微调,实现文本分类。它还可以在不增加额外开销的情况下,使用相同的模型运行多个分类器。

  • MeshAnything:3D资产的自动生成工具

    MeshAnything是一个利用自回归变换器进行艺术家级网格生成的模型,它可以将任何3D表示形式的资产转换为艺术家创建的网格(AMs),这些网格可以无缝应用于3D行业。它通过较少的面数生成网格,显著提高了存储、渲染和模拟效率,同时实现了与先前方法相当的精度。

  • HunyuanDiT-v1.1:多分辨率扩散变换器,支持中英文理解

    HunyuanDiT-v1.1是由腾讯Hunyuan团队开发的一款多分辨率扩散变换模型,它具备精细的中英文理解能力。该模型通过精心设计的变换器结构、文本编码器和位置编码,结合从头开始构建的完整数据管道,实现数据的迭代优化。HunyuanDiT-v1.1能够执行多轮多模态对话,根据上下文生成和细化图像。经过50多名专业人类评估员的全面评估,HunyuanDiT-v1.1在中文到图像生成方面与其他开源模型相比,达到了新的最先进水平。

  • UniAnimate:高效生成一致性人物视频动画的模型

    UniAnimate是一个用于人物图像动画的统一视频扩散模型框架。它通过将参考图像、姿势指导和噪声视频映射到一个共同的特征空间,以减少优化难度并确保时间上的连贯性。UniAnimate能够处理长序列,支持随机噪声输入和首帧条件输入,显著提高了生成长期视频的能力。此外,它还探索了基于状态空间模型的替代时间建模架构,以替代原始的计算密集型时间Transformer。UniAnimate在定量和定性评估中都取得了优于现有最先进技术的合成结果,并且能够通过迭代使用首帧条件策略生成高度一致的一分钟视频。

  • LVBench:长视频理解基准测试

    LVBench是一个专门设计用于长视频理解的基准测试,旨在推动多模态大型语言模型在理解数小时长视频方面的能力,这对于长期决策制定、深入电影评论和讨论、现场体育解说等实际应用至关重要。

  • Mo:通过卡片式学习,轻松掌握AI科技知识。

    Mo是一款结合超现实主义艺术和堂吉诃德理想主义精神的AI科技学习APP。它通过卡片形式,以图文、动画、视频、语音等多样化内容,使AI和科技知识的学习变得生动有趣。Mo不仅覆盖了AI的基础知识,还包含了元宇宙、大数据、大模型等前沿技术,适合各种背景的学习者,旨在打造一个个性化的学习体验。

  • 开搜AI搜索:面向大众的AI问答搜索引擎

    开搜AI问答搜索引擎是一款面向大众的、直达答案的AI问答搜索引擎,它能够帮助用户从海量的文献资料中筛选出有用的信息,提供直接、精准的答案,并且能够自动总结重点、生成大纲、思维导图并下载。

  • AI Math Notes:一个交互式绘图应用,用于数学方程的绘制和计算。

    AI Math Notes 是一个开源的交互式绘图应用程序,允许用户在画布上绘制数学方程。应用程序利用多模态大型语言模型(LLM)计算并显示结果。该应用程序使用Python开发,利用Tkinter库创建图形用户界面,使用PIL进行图像处理。灵感来源于Apple在2024年全球开发者大会(WWDC)上展示的'Math Notes'。

  • VideoTetris:文本到视频生成的创新框架

    VideoTetris是一个新颖的框架,它实现了文本到视频的生成,特别适用于处理包含多个对象或对象数量动态变化的复杂视频生成场景。该框架通过空间时间组合扩散技术,精确地遵循复杂的文本语义,并通过操作和组合去噪网络的空间和时间注意力图来实现。此外,它还引入了一种新的参考帧注意力机制,以提高自回归视频生成的一致性。VideoTetris在组合文本到视频生成方面取得了令人印象深刻的定性和定量结果。

  • Visual Sketchpad:多模态语言模型的视觉推理工具

    Visual Sketchpad 是一种为多模态大型语言模型(LLMs)提供视觉草图板和绘图工具的框架。它允许模型在进行规划和推理时,根据自己绘制的视觉工件进行操作。与以往使用文本作为推理步骤的方法不同,Visual Sketchpad 使模型能够使用线条、框、标记等更接近人类绘图方式的元素进行绘图,从而更好地促进推理。此外,它还可以在绘图过程中使用专家视觉模型,例如使用目标检测模型绘制边界框,或使用分割模型绘制掩码,以进一步提高视觉感知和推理能力。

  • GoMate:基于RAG框架的可靠输入和可信输出系统

    GoMate是一个基于Retrieval-Augmented Generation (RAG)框架的模型,专注于提供可靠输入和可信输出。它通过结合检索和生成技术,提高信息检索和文本生成的准确性和可靠性。GoMate适用于需要高效、准确信息处理的领域,如自然语言处理、知识问答等。

  • SD3-Controlnet-Canny:一种用于生成图像的深度学习模型。

    SD3-Controlnet-Canny 是一种基于深度学习的图像生成模型,它能够根据用户提供的文本提示生成具有特定风格的图像。该模型利用控制网络技术,可以更精确地控制生成图像的细节和风格,从而提高图像生成的质量和多样性。

  • Tencent EMMA:多模态文本到图像生成模型

    EMMA是一个基于最前沿的文本到图像扩散模型ELLA构建的新型图像生成模型,能够接受多模态提示,通过创新的多模态特征连接器设计,有效整合文本和补充模态信息。该模型通过冻结原始T2I扩散模型的所有参数,并仅调整一些额外层,揭示了预训练的T2I扩散模型可以秘密接受多模态提示的有趣特性。EMMA易于适应不同的现有框架,是生成个性化和上下文感知图像甚至视频的灵活有效工具。

今日大家都在搜的词:

热文

  • 3 天
  • 7天