我们为什么被卡在参数优化上
我们是北京一家做CAR-T细胞治疗的企业,规模不大不小,年产值大概八九千万。产品是出来了,但工艺一直不太稳,特别是细胞培养扩增这个核心环节。
你可能也遇到过,培养过程中,温度、pH值、溶氧、营养物浓度,一堆参数相互影响。老师傅凭经验调,这次效果好,下次同样参数,细胞活率可能就掉几个点。新来的博士用DOE(实验设计)做,一套实验下来,耗材就用掉十几万,时间拉得老长,结果还不一定理想。
当时我们面临的问题很具体:
-
试错成本太高。一次工艺摸索,培养基、细胞因子、各种检测,没个二三十万下不来。关键是时间耗不起,竞争对手不会等你。
-
经验难以复制。张工调得好,但他一休假或者离职,这工艺就跟抽风似的。新来的研究员得从头摸起,又是个烧钱的过程。
-
参数空间太大。理论上,几个关键参数组合起来有成千上万种可能,靠人力筛选最优解,跟大海捞针差不多。我们急需要一个能帮我们快速、低成本找到“甜区”的工具。
找方案时踩过的那些坑
💡 方案概览:细胞治疗 + AI参数优化
- 试错成本极高
- 经验难以传承
- 参数空间庞大
- 聚焦单点问题
- 选择懂行团队
- 采用离线优化模式
- 缩短研发周期
- 提升工艺稳定性
- 加速新人培养
一开始,我们想法挺简单:找个厉害的AI公司,把数据给他们,让他们做个模型,告诉我们最优参数是啥。
第一坑:迷信“大牌”和“全包”
我们先找了几家名气很大的通用型AI平台公司。他们讲得天花乱坠,说做过图像识别、自然语言处理,算法实力雄厚。但一聊到细胞培养的具体生化反应动力学、代谢通路,对方就有点接不上话了。他们擅长处理规整的互联网数据,对我们这种高噪声、小样本的生物过程数据,缺乏处理经验。
还有一家说可以“全包”,从数据清洗、建模到硬件集成一条龙。我们图省事差点就签了。后来私下打听了一下他们做过的同类项目,发现交付的模型根本跑不起来,最后成了摆设。钱花了,事没办成,还浪费了大半年时间。
第二坑:低估了数据准备的工作量
后来我们调整思路,想找更懂生物工艺的团队。找到一家,对方很实在,先问我们要历史数据。我们自信满满地打开了LIMS(实验室信息管理系统)和一堆Excel表格。
结果人家一看就摇头:数据记录不统一,有时手动记在纸上再录入;关键参数有缺失;不同批次的检测标准还有细微波动。用他们的话说,“垃圾数据进,垃圾模型出”。光是把过去三年有价值的数据清洗、对齐、标注,就花了我们两个研究员三个多月的时间,这部分成本当初根本没算进去。
第三坑:定制化开发的无底洞
吃一堑长一智,我们第三回找了一家号称专注生物医药的AI初创公司。他们提出要为我们“深度定制”一个优化平台。
一开始挺美好,但需求越聊越多。从最初的参数预测,慢慢加上了实时监控、异常报警、报告自动生成……项目范围像滚雪球一样扩大,报价也翻了一番,开发周期从预期的4个月拉长到10个月。我们这才惊醒,对于我们这种阶段的企业,追求“大而全”的系统,是找死。我们需要的是解决最痛点的“单点突破”。
最终我们是怎么敲定方案的
📈 预期改善指标
几次碰壁后,我们内部开了个会,达成了几个共识:
-
供应商必须懂细胞治疗工艺,哪怕公司小点。
-
先解决一个最具体的问题,不搞平台。
-
我们要深度参与,不能当甩手掌柜。
最后,我们通过行业会议找到了一家苏州的团队。他们规模不大,但创始人以前就在上海一家大型生物药企做工艺开发,对我们说的痛点感同身受。
为什么选他们?
他们没吹嘘能做多复杂的系统,而是直接拿我们一部分脱敏后的历史数据,用他们的方法跑了一个初步分析,指出了我们几个参数设置可能存在的“矛盾点”。这个“小样”打动了我们,说明他们是真的在思考我们的问题。
关键的决策点
我们做了一个关键决定:不搞复杂的实时控制,先做“离线优化”。也就是,模型根据历史数据和设定的目标(比如最高细胞活率、最大细胞产量),推荐几组最有潜力的参数方案,我们人工去做小试验证。验证数据再反馈给模型,让它自我学习。
这样做的风险可控,也符合我们现有的操作习惯。工程师们更容易接受——AI是来辅助他们做决策的“高级参谋”,而不是取代他们的“自动机器”。
实施过程是分步走的:
第一个月,双方人员蹲在一起,把数据标准定死,确保以后所有新数据都按这个来。
第二到四个月,用清洗好的历史数据训练第一个核心模型,只聚焦于“细胞扩增阶段”的产量和活率优化。
第五个月,用模型推荐的三组参数进行平行小试实验,结果有一组明显优于我们当时的常规工艺。
看到初步效果后,我们才决定投入下一步,把模型扩展到培养的全流程,并尝试与我们的数据中台做轻度对接。
现在用下来,效果如何?
从上线试用到现在,快一年了。说翻天覆地的变化那是骗人,但实实在在的好处有几个:
1. 实验效率上来了
以前做一轮工艺优化,研究员要设计几十组实验,现在模型能先排除掉明显不合理的区域,推荐5-8组最有希望的方案。我们实验的“命中率”提高了,粗略算,摸索新工艺的周期平均缩短了30%-40%,相关耗材成本省了大概三分之一。
2. 工艺稳定性好了点
模型找出的参数“甜区”,往往是一个范围,而不是一个脆弱的单点。在这个范围内微调,产出质量波动变小了。我们有个产品的批次间关键质量属性(CQA)差异,标准差降低了大概20%。这对于后续的申报和放行,意义重大。
3. 新人上手快了
新来的工艺员,可以通过这个系统,快速看到不同参数组合的历史表现和模型预测,相当于把老工程师的部分经验“可视化”了。他们能更快地理解工艺逻辑,减少了盲目试错。
当然,问题还有
-
模型不是神。遇到全新的培养基或者非常规的细胞系,它也会“懵”,需要喂新的实验数据。
-
人机结合需要磨合。有的老工程师还是更相信自己的手感,需要时间建立对模型的信任。
-
长期维护有成本。模型需要定期用新数据“再训练”,这部分每年需要一定的服务费用。
如果重来,我会怎么做
✅ 落地清单
走过这一圈,学费交了不少。如果时光倒流,我会这么干:
第一,先整好数据家底。 别急着找AI,先把实验室的数据记录规范抓起来,确保每一个数据点都是准确、可追溯的。这是所有工作的地基,地基不牢,后面全倒。
第二,想清楚到底要解决啥。 别说什么“工艺优化”这种大词。要具体到“提高XX阶段细胞扩增产量15%”或者“降低YY环节的试剂消耗20%”。目标越具体,越容易评估效果,越不容易被供应商带偏。
第三,看案例别看PPT。 供应商吹得再好,一定要让他提供做过的最相似的案例,并且最好能让你直接和对方的技术人员聊一聊,听听真实反馈。看他们在那个项目里具体做了什么,克服了什么困难。
第四,从小处开始验证。 坚持要求对方用你的部分数据做一个“概念验证”(POC)。真金不怕火炼,能做出点实际东西的,才值得继续谈。别一上来就签大合同。
第五,把自己的人卷进去。 别指望外包。自己的工艺研究员必须深度参与项目,这是把技术转化为你自己能力的关键。否则项目做完,供应商一走,你可能连模型怎么更新的都不会。
最后说两句
AI参数优化这东西,对细胞治疗行业来说,肯定不是“屠龙术”,而是逐渐会成为一项基础能力。它不能帮你凭空变出最优工艺,但能帮你大幅缩短寻找最优工艺的路径。
关键是心态要摆正:别指望它一步到位解决所有问题,把它当成一个强大的辅助工具;选择供应商时,懂行比有名重要,务实比炫技可靠。
如果你也在考虑这件事,但不确定自己的基础行不行、该从哪下手,我的建议是,别急着到处找供应商比价。可以先用“索答啦AI”这类工具初步评估一下,它可以根据你输入的简单情况,帮你分析分析数据基础够不够、优先做什么回报率高。这是免费的,能帮你理清思路,比盲目去跟供应商聊要省事得多,至少不容易被忽悠。先想明白,再动手,这是我们花了真金白银买来的教训。