首页 > 产品 > 关键词  > 用户模型最新资讯  > 正文

用户模型和数据(一)

2011-08-22 11:30 · 稿源:Shimu design

在我有限的两年多工作经验中,只接触过一次比较大型系统的用户模型:一年前在支付宝时和用研的同事一起做一个关于生活费用类的需求。当时还通过用研同事之口得知了淘宝的用户模型库,也上去看了看,被其系统和细节所折服。一年之后在我自己去卖力做用户模型和数据的时候,却发现一个庞大和系统的用户模型的弊病,无论是对小项目还是大项目来说,它都显得太过庞大了。

先以一个假象中的简单的例子开头(无任何影射)。一般用户模型基本都会有这几个因子:年龄、性别、职业(收入)、用产品的时间,但是在具体使用过程中,我发现这样做其实是蛮难满足具体需求(来自产品和运营的需求)。譬如假设要优化支付宝的快捷支付,最近我老是在这里使用受挫。在这个需求场景里会需要使用支付宝产品的时间和频度、持有银行卡的类型、支付宝余额功能的使用情况、经常购物的类型、职业(收入)等这几个主要因子,显然已经细化到了相当一个程度。那么这个需求用户模型能满足么?

尽管理论上说用户模型是在不断充实和修补的,但无论是大项目还是小项目,由于互联网行业的本身特性,需求就是多量和多变的。这么复杂的情况下,一个庞大的用户模型是难以控制好因子的粒度可伸缩性的。在我脑海中除非有这么一个系统,首先它可以持续地添加因子,且产品的所用用户都会按照添加的因子填入属性,然后系统支持正式使用的时候选取不同的因子,然后列出过滤因子后的海量用户情况,这个系统才能在实践中满足各种各样的需求。显然这么个系统实在坑爹,跟人口普查还麻烦。

实践中我们需要的是大量的灵活小巧的用户模型

灵活小巧的用户模型,就是去满足单个特定需求的。因为实际的情况往往是这样,一个产品和用户群可以剥离出很多因子,但在具体某个需求的时候,往往只是需要其中几个因子。而如果在用户模型建立的时候去考虑到所有的因子并获取所有因子的用户资料,如上面所说是坑爹的。莫如实际一些的做法:先从产品和运营的需求中抽离出因子,然后产品、运营、用研综合考虑后选取抽样,依靠一个比较强大的BI支持你跑出数据,然后就可以开始分析了。这么做大概一个晚上就可以从需求到最后分析得出结论给搞定。对一些特定的因子BI无法跑出数据的,可以通过和一些典型用户详细聊天来达到。

这个方法其实是基于一个考虑,用研的目的是什么?在我看来是:通过尽可能科学及有保证的方法,去分析分析分析特定情况的用户行为,得出结论后指导特定情况下的产品发展。在项目实际过程中,真的很少见到那种比较宽泛的用户调研需求,而不断累积的用户模型库,实在是跟不上业务和产品发展的速度。而我一直认为项目的中心始终是人,只要人的脑袋能跟上,是足够相出各种办法来满足用户调研需求的。只是千万不要被体制和流程僵化掉。

一个实践中的例子

在我的摄影社区的项目中,前人并没有一套比较完整的用户模型文档。当然,99%的产品都没有这么一个文档,但我认为这是很有必要的,因为一个产品的owner不可能永远都是一个人,owner在健康情况下都是最了解产品和用户的人,如果能形成一个用户模型文档,则能帮助后来的owner尽快熟悉产品和用户,同时启发后续的思考。在做完这批调研需求后,我正在做这份文档。稍微扯远了点,正题是我在项目中做用户模型的经验。

首先一个门户公司下面的摄影社区,什么样的人都有。从事做摄影社区行业的人会发现没有任何两个较好的摄影社区的用户群是大部分相同的。在网易摄影中,按照用户群的真实需要分,大概可以划分成这么几档(左边是用户群,右边是他们的需要):

卡片机瞎拍的人:尽可能多的人来捧我的片子(其实没什么人看)

摄影入门及快速进步的人:混各个社区,有比自己厉害(看上去厉害也行)的人教我一两句

有一定水平的职业摄影师:各种虚名、流量

有一定水平(中高)的非职业摄影师:有能和自己同等对话的人

特高水平的职业摄影师:钱

特高水平的非职业摄影师:???

这个模型是同伴和我长期泡在社区,并和各色人等打交道后总结出来的。像他们的需要这种,基本上不可能通过跑数据跑出来,问卷调查我认为也很难做(因为问题会模糊),唯一的办法就是之前提到的和用户聊天,注意是聊天而不是焦点小组等等。就是说坚持一段时间(3个月或半年)高频度地和社区中的用户闲聊,只有闲聊你才能挖出他们内心深层次的想法,只言片语中见真章。而这个模型只有“真实的需要”和用户专业水平这两个因子,因为这是一次大规模的定性,并且真实的需要这个因子划分出来的几种属性都是很概括的,比如各种虚名里面包括了显摆、装逼等,有能和自己同等对话的人包括了纯净的社区氛围、牛逼的小团体等等,并且“钱”这个属性,任何一种类型的人都想要,只不过只有特高水平的职业摄影师才是“直接”想要钱。这是第一个模型例子,有了这个模型,我们就可以按照我们能给出的资源,来大致圈定社区的目标用户以及重点目标用户。

第二个模型是我们想知道到底每天来访问网站的是些什么样的人。之前的认识都比较感性,没有一个强有力的支撑,导致产品在持续优化时显得方向很杂,也导致产品做出来之后并不知道对不同的人群效果如何。于是我和运营一起做了一次深入的用户模型,这次是依靠数据分析。首先提取了10天内访问landing页面的用户ID,然后根据我们对上面那个模型的理解,提出了第一批若干因子,例如:在社区里第一次发作品的时间、用户等级、作品数量、优秀作品数量、加入小团体的个数、近10天访问的次数等,然后根据这些因子跑了一份详细的数据表出来。这份表出来以后,迷雾立马就清晰了。马上形成了一个用户模型,按照这几个因子各种组合归纳之后,除了基本的活跃用户占比之外,还得出了很多有用的结论:比如用户等级和近10天访问次数的关系、优秀作品数量/作品数量和加入小团体个数的关系等等。值得一提的是,在这个过程中,我们发现还需要挖掘更多一些的因子,比如用户的各种互动情况,对我们这个用户模型会是很好的补充。同时也会去抓更多的数据,建立各种复合需要的用户模型。

做完这一套后我发现,其实这个过程和敏捷开发类似。互联网产品行业发展的时间还太短,像产品经理、用户研究、交互设计这些职业沉淀的时间也太短(传统软件行业除外),很难有一套持续指导的方法论。而唯一能保证的就是人本身和实践。在实践中最可靠的还是产品owner的想法以及驱动,因为如果owner不提出或者不理睬建立用户模型的需求,那用研同事招得再多也无济于事。最悲催的情况就是用研同事辛苦做了一个庞大的用户模型,要么无人问津,要么在实践中无法起到和付出的代价相匹配的效果。

有些观点是说建立用户模型、做用户调研更多的是在验证自己脑袋中的想法,这个我完全不赞同,这是很明显的主观意识。想法这个东西很不靠谱,你想到了A,你就很可能去想B、C、D……并且想法的粒度和范围都是模糊的。真实的用户情况会更有力地告诉你真相并且更坚定地指导后面的产品工作。于是下一篇日志就是用户模型和数据(二),写一下实践中的数据。

文章来源:shimuuu.com/blog 转载请注明出处链接。

举报

  • 相关推荐
  • TDBC大会揭幕:百度智能云再造数据与AI新连接,激活大模型生命线

    中国通信标准化协会等机构联合主办的"TDBC2025可信数据库发展大会"在京召开。会上公布了上半年"可信数据库"评估测试结果,百度智能云向量数据库VectorDB成为国内首批完成测试的向量数据库产品。该测试覆盖稠密向量检索、多向量检索、标量向量融合检索三种场景,评估指标包括索引构建时间、QPS、延迟、资源占用等多个维度。百度智能云总架构师朱洁指出,超过50%的AI项目时间消耗在数据治理环节,提出构建"智能数据基座"实现数据统一管理,形成"Data+AI+App"闭环。百度智能云通过湖仓一体架构提升AI训练数据效率,智能调度CPU/GPU算力优化资源分配,预计到2028年多数生成式AI应用将直接基于企业数据平台构建。

  • 大模型时代企业查询第一站——水滴信用企业数据查询MCP

    水滴信用推出企业数据查询MCP平台,通过大模型技术实现企业数据查询的智能化升级。该平台整合3.7亿市场主体数据,覆盖工商、司法、知识产权等六大类1000+维度信息,支持自然语言交互和跨域关联分析。目前已应用于银行风控、证券投研、供应链管理等核心场景,显著提升商业决策效率。作为央行备案征信机构,水滴信用凭借权威数据源和专业团队,正推动企业征信服务进入AI普惠时代,降低高价值商业情报获取门槛,促进透明可信的商业环境形成。

  • AI驱动全域进化,金仓数据库以“融合”重构数据基座

    7月15日,电科金仓在京举办"融合进化+智领未来"主题产品发布会,推出多款AI时代数据库产品:KES V92025融合数据库具备多语法体系兼容、多集群架构等特性,性能提升30%;KEMCC统一管控平台实现跨云环境数据库管理;云数据库AI版集成高性能硬件与AI大模型;KFS Ultra智能数据集成平台支持百种数据源。中国人民大学教授王珊指出,数据库与AI深度结合已成释放数据价值关�

  • 硬盘丢失了数据怎么恢复?硬盘数据恢复的6种方法

    文章分析了硬盘数据丢失的常见原因及恢复方法。数据丢失主要源于人为误操作、硬件故障、软件系统问题和环境因素四类。针对不同情况,介绍了6种恢复方法:回收站还原、系统版本回退、备份还原、Mac系统的TimeMachine、命令行操作以及专业数据恢复软件。其中专业软件如转转大师能深度扫描硬盘,支持多种文件格式恢复,操作简便且成功率高。文章强调数据丢失后应避免写入操作,根据实际情况选择合适恢复方式,并建议做好日常备份预防数据丢失。

  • 告别模型搜寻困境:AIbase模型广场让你高效找到最佳AI模型

    文章探讨了在AI技术快速发展背景下,如何高效发现和评估适合需求的AI模型这一核心挑战。传统方式存在模型分散、评估门槛高、应用场景模糊等问题。AIbase模型广场通过聚合主流平台模型、提供多维度评估(性能指标、用户反馈、易用性等)、强化场景连接(按业务问题分类)和部署辅助信息,构建了完整的模型发现与应用生态。该平台能显著提升效率,帮助开发者快速锁�

  • 最新AI模型哪里看?8个国内优质AI模型库与获取渠道盘点

    文章探讨大模型API价格战背景下,开源模型+本地微调成为降本增效的新趋势。当前典型工作流已转变为:GitHub找代码→Hugging Face找权重→国内镜像站下载→本地/云端微调。模型库成为生产链起点而非单纯资源站。建议从三个维度筛选模型:1)协议类型决定商用权限;2)框架兼容性避免格式转换;3)场景标签匹配度节省检索时间。推荐8个国内优质模型获取渠道,包括AIbase(2.3万+模型)、阿里ModelScope(社区活跃)、百度EasyDL(零代码友好)等,各平台在电商、语音、交通等垂直领域各有优势。最后给出快速检索建议:商用需求优先查协议,垂直场景找专业平台,追踪更新可订阅RSS。

  • 最新AI模型哪里看?查找最佳AI模型平台推荐

    文章介绍了AI领域快速迭代背景下,开发者如何高效追踪最新模型动态。主要渠道包括:1)官方渠道(GitHub、公司官网/博客);2)科技媒体和社区(Twitter、Reddit等);3)专业聚合平台(推荐AIbase模型广场)。重点推荐AIbase平台,其优势在于:实时更新全球最新模型、结构化展示关键信息、支持多维筛选排序、直达相关资源链接。建议开发者善用官方渠道获取源头信息,同时�

  • 在质疑声中前行:谢海玉用数据回应所有偏见

    谢海玉在科研困境中坚持探索的故事。他连续37天熬夜实验却数据不理想,向海外学者求助只得到过时数据。面对质疑和团队危机,他通过上万组数据验证猜想,最终将冷门领域变成显学。2019年实验平台突发故障时,他独自排查三天找到问题,带领团队通宵补救并发现新方法。如今他仍保持泡实验室的习惯,常对学生说科研就像在黑暗中挖隧道,每挖一厘米就更接近光明。

  • 三维天地AI智能体应用:数据资源盘点实现“自动驾驶”

    传统数据治理存在效率低下、深度不足、准确性差三大痛点。SunwayLink开发的智能体通过三大创新突破:1)自动生成数据目录,缩短盘点周期60%;2)NLP技术智能洞察数据内容,元数据填充率从20%提升至85%;3)动态监控元数据变更,自动更新并预警。某军工单位应用后,数据发现效率显著提升,血缘覆盖率达75%,自动化任务占比超80%。该方案实现了从"人治"到"智治"的转型,推动企业数字化升级。

  • 用数据丈量时代:神策十年进化论

    神策数据成立于2015年4月,从服务互联网客户的SaaS模式起步,逐步发展为国内数字化用户运营市场的领先企业。十年来,公司业务模式不断升级,现已服务金融、零售等大型客户,产品体系涵盖客户数据引擎(CDP)、客户旅程分析引擎(CJA)等核心产品,并接入AI大模型提升智能化水平。目前服务2500+付费客户,覆盖30多个行业,获得近100项专业认证和100+奖项。公司持续推动产品迭代