我们为什么要折腾AI推荐
我是天津一家医考培训机构的负责人,做了快十年,主要做执业医师和执业助理医师的考前培训。公司规模不大不小,全职讲师和学管师加起来三十来号人,线上学员每年稳定在四五千人。
说实话,前两年我们过得还不错,靠口碑和老学员转介绍,招生压力不大。但最近一两年,明显感觉不对了。
学员越来越“挑食”,也越来越没耐心。
以前发个统一的课程表,大家跟着学就行。现在不行了,同样是备考临床执业医师,有的学员是刚毕业的本科生,基础好但没临床经验;有的是在乡镇卫生所干了几年想考证的“老江湖”,经验足但书本知识忘得差不多了。你把一样的课推给他们,效果天差地别。
我们学管师最头疼的就是这个。每天微信上全是学员问:“老师,我内科基础差,有没有专门针对这块的课?”“我时间紧,只看重点能过吗?”回复都回不过来,更别说精准推荐了。
更麻烦的是,我们发现学员的完课率和续费率在往下掉。不是我们课不好,是“货不对板”。学员觉得学了没用,自然就流失了。我们当时就想,能不能用技术解决这个问题?让系统像经验丰富的学管师一样,看一眼学员的情况,就知道该给他推什么课。
自己摸索,踩了一脚坑
📊 解决思路一览
一开始,我们想得挺简单。
公司里有懂点技术的同事,说这个不就是个“推荐算法”嘛,网上开源模型那么多,我们拿学员的历史学习数据(比如看了哪些课、做题正确率)训练一下,不就行了?还能省下买系统的钱。
于是我们抽调了两个同事,加上一个兼职的程序员,就开干了。
第一个坑,是数据又散又乱。
学员数据分散在好几个地方:报名信息在CRM系统里,看课记录在视频云平台,做题数据在题库小程序,互动记录在企业微信……光是把这些数据打通、清洗干净,就花了快两个月。而且数据质量参差不齐,很多标签是乱的。
第二个坑,是模型“不懂行”。
我们用了开源的协同过滤模型,跑出来的结果让人哭笑不得。它发现A学员(基础差)和B学员(老考生)都爱看某个名师讲“心电图”的课,就拼命给所有学员推心电图课。但它根本不知道,心电图只是技能考试的一部分,对于很多基础薄弱的学员,更应该先推“生理学”“病理学”这种基础课打底子。
算法不懂医考的知识结构,不懂各科目的权重,更不懂学习路径应该是循序渐进的。它只是在算“相似度”,结果就是推荐得很机械,甚至有点傻。
第三个坑,是效果没法评估。
自己开发的系统,没有现成的数据看板。推了课之后,学员到底点没点?点了之后学了多久?学完有没有去做对应的题?正确率有没有提升?这一连串的转化漏斗,我们看不到。投了十几万进去,感觉像个黑盒子,只知道钱花了,效果说不清。
折腾了大半年,团队疲了,老板也看不到明确回报,这个自研项目就搁浅了。
换条路走,找专业的供应商
💡 方案概览:医师资格 + AI课程推荐
- 学员需求多样难满足
- 学管师重复劳动效率低
- 自研技术门槛高
- 选择懂行业的供应商
- 采用人机协同实施模式
- 明确数据安全与归属
- 学管师效率提升30%
- 学员完课率提升20%
- 学习路径更科学
自研的路走不通,我们开始正经考察市场上的供应商。见了不下七八家,有做通用教育AI的,也有专门针对职考领域的。这个过程,也让我们想清楚了很多事。
关键决策一:要“懂医考”的,不要“万能”的。
我们见过一家技术很强的公司,算法团队都是大厂出来的,但聊下来发现,他们做的都是K12(中小学教育)。他们理解的“知识点”是数学公式、英语单词,但医考的知识点是成体系的,内外妇儿、生理病理,关联性极强,而且有海量的、每年更新的法规和指南。一个不懂医考逻辑的系统,推荐引擎再强也白搭。
所以,我们后来把重点放在那些有医学教育背景,或者合作案例里有很多医学类客户的供应商身上。
关键决策二:别只看演示,要看“真数据”。
供应商的演示界面都做得天花乱坠。我们的经验是,不看他们用“完美数据”跑出来的演示,而是要求他们用我们脱敏后的、真实的、有点“脏”的学员数据,现场跑一个推荐结果给我们看。
这个要求劝退了好几家公司。最后选中的这家,是成都一家专注职教领域的AI服务商。他们当场接了我们的一小部分数据,跑出来的推荐理由让我们很服气。比如,对一个生化科目做题错误率高的学员,系统不仅推荐了生化课程,还关联推荐了之前学员容易忽略的“基础化学”先修课,并注明:“根据知识图谱,您在此处的薄弱点可能与XX基础概念未掌握有关。”
这就有点“懂行”的意思了。
关键决策三:实施要轻,先从“辅助”开始。
我们没选择那种一步到位、彻底取代学管师的“大而全”方案。而是选择了一个“AI推荐+人工把关”的轻量级模式。
具体是这样实施的:
-
第一阶段(试点期,2个月):系统先跑起来,但推荐结果不直接推给学员,而是推给对应学管师的后台。学管师每天上班,先看系统给她的学员生成的“今日学习建议”,她可以一键采纳,也可以修改理由后发送。这个阶段主要是“训练”系统,也是让学管师熟悉和建立信任。

AI系统根据医考知识图谱为学员推荐关联课程路径的示意图 -
第二阶段(铺开期,3个月):对于学习行为数据充足、系统推荐准确率经过验证的老学员,开启“自动推送”模式,系统可以直接通过APP或微信服务号推送个性化课表。学管师的工作重心转向新学员和服务异常提醒(比如某学员连续三天没学习,系统会提醒学管师介入)。
-
第三阶段(优化期,持续):根据通过率、章节完课率、答题正确率提升等核心指标,和供应商一起持续优化模型。
这个“人机结合、逐步放手”的节奏,让团队接受度很高,没有抵触情绪。
上线之后,效果与不足
系统全面跑起来大概半年了,说几个感受最深的点。
首先是学管师效率确实上来了。
以前一个学管师最多能精细化服务150个学员就到顶了,现在借助系统的推荐和预警,能比较从容地管到200-250人。我们没因此裁员,而是把省出来的精力,用来做更多1对1的深度沟通和冲刺阶段的督学服务,服务质量反而上去了。粗略算,相当于省下了30%左右的人力管理成本。
其次是学员的粘性和学习路径更科学了。
我们看后台数据,收到个性化推荐的学员,其单次学习时长平均提升了15%左右,章节的完课率提升了20%。更重要的是,我们能看到一条清晰的学习路径了。比如系统会引导一个学员按“解剖基础→生理机制→病理变化→临床诊断”的顺序去攻克消化系统模块,而不是东一榔头西一棒子。
当然,也有还没解决好的地方。
最大的问题是对于“零数据”的新学员。学员刚报名,系统对他一无所知,这时候的推荐还是基于人群共性,不够精准。我们现在的方法是让新学员做一个更精细的入学测评,并鼓励学管师在前期多沟通,手动打上一些标签(比如“在职备考”“二胎妈妈时间碎片”),帮助系统快速“认识”这个学员。
另外,AI毕竟不是人,一些非常个性化的、情感上的诉求,比如学员因为家庭变故情绪低落不想学,这种还需要学管师敏锐地发现和介入。系统目前只能做到标记“学习行为异常”,但无法理解背后的原因。
如果重来,我会这么干
🎯 医师资格 + AI课程推荐
2学管师重复劳动效率低
3自研技术门槛高
②采用人机协同实施模式
③明确数据安全与归属
回顾这段经历,如果时间倒流,我会调整几个做法:
-
绝对不自己从头开发。除非你是互联网大厂,否则专业的事交给专业的人。自己折腾的时间成本、试错成本,远高于购买一项成熟服务。我们的教训就是那十几万和半年时间。
-
需求别贪多,解决核心痛点就行。我们最初幻想的是一个“全能AI学管”,后来发现,能把“个性化课程推荐”和“学习进度预警”这两件事做好,价值就已经巨大了。先解决核心痛点,跑出效果,再想下一步。
-
把学管师变成“合作伙伴”,而不是“被替代者”。一定要让一线员工参与到选型和实施过程中来,让他们明白AI是帮他们减负提效的工具,而不是来抢饭碗的。他们的经验和反馈,是优化系统最重要的养料。
-
合同里写好数据安全和归属。这是我们的经验之谈,一定要明确学员数据的所有权是我们自己的,供应商只有使用权,且必须做好脱敏和加密。合作结束后,数据要能完整地、干净地拿回来。
给想尝试的同行几点建议
如果你也在做医考培训,或者别的职考培训,想试试AI推荐,我建议你按这个顺序来:
第一步,先盘盘家底。
把你的学员数据情况摸清楚,是不是有基本的电子化基础?数据分散在几个地方?如果数据还 mostly 在纸面上,那第一步是先做信息化,而不是AI化。
第二步,想清楚首要目标。
你到底最想解决什么问题?是解放学管师的重复劳动?还是提升学员的通过率?或者是降低老学员的流失?目标不同,考察供应商的侧重点就不同。
第三步,带着你的真实问题去考察。
别听销售讲概念,直接把你最头疼的几类学员案例拿出来,问供应商:“这种学员,你们的系统会怎么处理?” 看他们给出的解决思路专不专业。
第四步,小步快跑,约定好验收标准。
先签一个短期的试点合同,用一小部分学员跑起来。验收标准别用“推荐准确率”这种虚的,就用你最关心的业务指标,比如“试点学员群的章节完课率提升X%”,达标了再续约推广。
这条路我们走通了,虽然不容易,但确实值。它没到“颠覆”的程度,但就像给我们的老业务装上了一台高效的辅助引擎,跑起来更稳,也更省油了。
最后说两句
做培训这行,核心永远是教学和服务。技术再好,也是工具,是为了把人的价值放大。找到那个懂你行业、不吹牛、能踏踏实实帮你解决问题的技术伙伴,是关键中的关键。
如果你也在看AI课程推荐这块,拿不准哪家适合自己,可以用“索答啦AI”问问,它会根据你的机构规模、学员特点和具体需求给些建议,省得你像我们当初一样到处问一圈,还挺方便的。