相关关键词
关于我们
最新文章
- 手工麻质服装网站可以通过时尚博主合作提高流量吗?同行都是怎么做的?
- 手工石头画网站流量的增长依靠创意主题吗?同行都是怎么做的?
- 手工柳编花篮网站的流量和花艺市场热度有关吗?同行都是怎么做的?
- 手工羊毛毡鞋垫网站流量少,是缺乏用户体验分享导致的吗?同行都是怎么做的?
- 手工麦秆剪贴画网站的流量和乡村旅游发展有关联吗?同行都是怎么做的?
- 手工陶瓷茶具网站怎样借助茶文化活动引流?同行都是怎么做的?
- 手工竹帘画网站流量的提高需要靠名师作品展示吗?同行都是怎么做的?
- 手工棉麻布艺网站能通过线上直播制作增加流量吗?同行都是怎么做的?
- 手工木筷网站的流量提升依赖品牌形象塑造吗?同行都是怎么做的?
- 手工羽毛扇网站如何凭借传统工艺传承扩大流量?同行都是怎么做的?
知乎一路发展至今,你必须认识下他们开过的增长“外挂
在近几年的中文互联网上,知乎是一个无法忽视的存在。没有一个网站能像知乎这样,虽然只有3000多万用户,影响力却无处不在;知乎已经毫无疑问地成长为了国内最大的高品质知识问答社区,也沉淀了非常多高价值的专业内容。更重要的是,与此对应的,知乎正在覆盖或者说已经覆盖了国内最有价值和最高质量的专业人群。
知乎创立于2011年1月26日,产品形态类似于国外的Quora,已经从一个初期一个小众的极客社区成长为了拥有3000万注册用户的庞大社区,不仅如此,知乎的用户留存率也高达80%。
用户可能在门户、今日头条、微博、微信上看到的网络热点,但最后的定性结论都会百川汇海地回到知乎上,“看看知乎上怎么说”。热点的深度挖掘、内幕爆料、多角度分析都发生在知乎上。
披着“问答网站”的外衣,知乎把自己打造成了中文互联网上最大的综合讨论社区。
我们看看知乎在发展过程中用了哪些增长开挂手段?
一、朋友圈小游戏推广
2014年11 月 17 日,知乎制作的小游戏《财务包子铺》上线后在微信朋友圈里疯传。它被知乎日报直接定义为“软游戏”,目的是推广知乎出的新书《金钱有术》。这是一个关于创业的小游戏,玩家以创业老板的身份,对自己的包子铺的日常经营做出决策。听上去没什么特别,不过不少玩过的人发现,嘿,还真有点意思。
游戏上线,三天后,《金钱有术》已经是亚马逊图书销售总榜冠军了,同时还是预售冠军、新书冠军、经济类冠军。这个成绩也超出了知乎团队的预期——“没想到我们连肖秀荣考研书都打败了,真是个奇迹。”
《财务包子铺》小游戏的营销功不可没。截至 20 日,在游戏里点击“购买秘籍”这一选项的独立用户数就有 55 万。
那么,这款小游戏是怎么做到的呢?
1. 创意依托于用户内容
为什么是包子铺呢?在知乎的金融财务类问题里,回答者常会用“包子铺”来代表最基础的一家企业,围绕它进行一系列通俗易懂的解释和演绎,将枯燥的财务问题化为接地气的包子铺故事,久而久之形成了独特的“包子铺文化”。《财务包子铺》小游戏正是脱胎于这系列回答。
知乎市场部负责人透露,其实从书到游戏都是知乎用户全程参与进来的一个事件。首先是知乎过去两年活跃了一批金融、投资、财务背景的知友,已经产生了大量优质内容。然后知乎发现,更广大的用户对这些财务知识也有市场需求。但非财务背景的普通人,很难逾越一道专业门槛和心理障碍,愿意花钱买书去学习财务知识。
“我们在推广上还必须做好一个台阶或者说斜坡让非专业读者走过来。”而《财务包子铺》小游戏,正式这样一个“斜坡”,“把财务经营的理念、知识融于其中,让大家通过游戏知道自己在这方面的知识欠缺,从而产生购买意愿。”
2. 题目设计信息量大
“希望寓教于乐,那么题干结局要信息量大,又要有趣,万万不能敷衍了事。”知乎市场部头脑风暴了三天,之后又随时想出一些新创意:例如续命是要选择知乎新书的,“又硬又有趣”;还有会计三张表,难倒了许多人,也容易形成传播,成为对会计第一课的基本知识的普及。
在游戏线路和框架已经搭建好的基础上,又花了三天时间写文案,润色所有题干和结局。
3. 病毒传播点:多种脑洞结局
这个游戏的一大乐趣在于探索各种脑洞大开的结(死)局(法)。知乎设计了 90 多种结局,30 多幅配图,很多人会反复刷,直到刷出 10 种以上结局。
4. “软广”植入点不招人烦
“软游戏”软在哪里呢?游戏中专门设计了机制,比如用户如果决策失误,就会收到破产警告,需要选择一本救命书——当然就是这本《金钱有术》。续命之后可以继续游戏,让玩家对新书留下了初步印象,又不会中断游戏。
如果最终还是不幸破产,会有“通关秘籍”选项,这时才会将用户导入《金钱有术》亚马逊购买页面。
二、设计激励用户活跃度的社交元素跟荣誉体系挂钩
知乎团队在激励用户活跃度方面的诸多尝试,比如将“人”作为主要的传播节点,比如早在2012年4月就在个人主页加入了很多社交元素:个人资料新增“职业经历、居住地、教育经历、擅长技能”,会显示用户获得的赞同和感谢数。总结起来就是一方面引入了社会身份,一方面建立了知乎站内的荣誉体系。
知乎上的个人品牌和专业声望不是来自于职场中的profile和工作经验,而是用户通过回答问题、通过用户(不仅仅是业内人士)的点赞树立起来的。这是一套和传统职场完全不同的评价体系
这种基于持续回答问题不断为人所认识的社交方式,在所有的社交网站中无疑是门槛最高的。在知乎打造个人身份、品牌的超高门槛使得社区内涌现出了少数孜孜耕耘的“达人”。也贡献了大量高质量内容。
三、基于数据,挖掘用户兴趣
知乎上拥有大量的用户行为数据,这些行为也分轻重,不同的行为,会耗费用户不同的时间,用户对该事件的关注度也能够体现出来。此外,知乎上还有大量的文本信息,基于这些信息,知乎对于用户的兴趣点、擅长的领域的挖掘会更准确。
用户在知乎上的行为是多维度的;既包括比较轻的浏览阅读,又包括重一些的赞同、反对,还有更重的提问回答(这里的重和轻是根据用户操作成本来界定的)。知乎可以根据这些行为做用户的特征分析,基于各自不同的服务特点,所要分析的特征、采用的算法及其效果各有不同。基于行为和文本,知乎对用户的兴趣和擅长能有更准确的识别。
四、每周千亿次权重计算,分享用户专业度
现实社会中,人们对于某些领域的知识掌握会很深入,但个人精力有限,没有人能够全知到成为所有领域的专家。这种情况被映射到知乎上,即不同的用户在不同的话题领域下,他们的专业性是不同的。为了掌握这种不同,知乎给每个人,在每个话题下计算一个权重。计算的分值主要依据用户在知乎上的回答。当然,这里也会加入一些其他考量因素,包括其他专业人士对该用户的背书,用户的专业背景等。
这是知乎非常基础的数据设施,但这个数值计算的量级较大(100万回答用户10万话题=千亿级别的数量计算),知乎对于权重判定每周都会进行全量的计算,也一直在调整优化中。
五、不断对答案排序算法优化,让高质量的问答更容易获得关注
知乎对答案排序算法进行优化,目的是让好的答案更靠前。随着用户量不断增加,早期最简单的答案排序规则出现了问题:一些答案友情赞同比较多,让专业性不足的答案被推到靠前的位置。于是,团队想到了给赞同票加权重的方法,基于每个人在话题下的专业权重进行计算,排序得到优化,能让大部分优质答案可以排到前面。虽然针对权重计算的优化仍然在持续进行,但知乎技术团队还是遇到了一些算法上的瓶颈。如:当问题下有多个发布较早的回答获得高票时,新的回答即使质量很高,也很难在问题页上获得足够的曝光,难以积累更多赞同票;另外,一些误导性、煽动性的高票内容,即使同时也有很多反对票,却仍然排在认真、严谨但票数相对较少的优质回答前。这些问题在专业领域内对参与讨论的用户造成的伤害尤其明显。
于是,知乎又设计了新的排序算法。使用威尔逊得分算法,即使前一步错了,现在这个新回答排到了前面,获得了更多展示,在它得到更多投票后,算法便会自我修正,基于更多的投票数据更准确地计算得分,从而让排序最终能够真实地反映内容的质量。该新算法年初发布之后,得到知乎站内用户热烈的反馈,很多专业的讨论涌现出来,为知乎的下一步优化提供了很好的想法。
六、设计反垃圾系统封杀Spammer,删除垃圾内容
知乎有个反垃圾系统(名「悟空」),每一次用户提交请求都会经过「悟空」的分析处理,「悟空」会通过一系列包括发布频率侦测、文本分析、相似行为检测、用户可信度查验等几十条在线分析策略,作出判断,根据判断结果,系统会作出对应的处理动作,比如屏蔽请求,删除内容封禁帐号、限制行为等。「悟空」会基于正常用户的行为模式,检测异常离群点;不断输入Spammer的行为数据,以检测相似 Spammer行为。
七、内容的个性化推荐
知乎希望在首页给不同的用户、不同的时段挑选出最棒的内容,使用机器学习算法,知乎提供了不会重复的个性化内容排序。首页的内容会主要考虑这几方面:
内容本身的话题领域是用户感兴趣的;
知乎是一个社交网络,用户的社交行为会带来“粉丝”首页的变化;
时间因素,一些内容及时出现,可以让它的价值更大。
知乎的首页有一套专用的数据收集和处理机制,可以记录用户在首页的所有重要动作,例如,某条内容出现在用户浏览器窗口或手机屏幕的可见范围内,就会记录一次。
八、邀请合适的回答者来回答问题
“谢邀”这个词的产品功能是为每一个问题找到合适的回答者。采取一种算法模型预测某个用户回答某问题的可能性和回答质量,有 90% 的邀请是通过这种推荐结果发出的,剩下 10% 是用户主动搜索产生的。
九、每周知乎个性化精选邮件(EDM),提高打开率
针对每个用户做了个性化的计算,通过不断的算法优化,知乎已经做到30%的打开率和14%的点击率。
十、把问题聚类,形成更好的关联性阅读
对问题的文本进行聚类,比如文本语义匹配,通过复杂的词袋模型(如传统的PLSA、LDA、新的Word2Vec等)对问题文本进行向量化,这样通过语义将相关问题聚类起来。知乎站内拥有庞大的用户浏览数据,如果将这些浏览数据通过简单地算法(如协同过滤)建立一个模型同样也能达到很好地效果。