一个最重要的原因没有说。
那是研究问题。
‘中心锚点连线’算法,就只是为了分析小型的粒子对撞实验,临时想到了一個快速完成的研究。
研究分为两个部分,一个部分是中心锚点连线,也就是关联所有实验数据的算法。
这种依靠中心到边缘连线覆盖数据的算法,效率并不高,可替代性也很强。
另一个是‘偏差评估体系’。
‘偏差评估体系’是一整套体系,研究只是节选了应用到实验分析中的部分。
‘偏差评估体系’,关系到另外一个研究--lbnt分析法。
lbnt分析法综合了覆盖算法以及偏差评估体系,可以对大型的实验进行偏差分析,甚至可以把不同的实验数据放在一起进行整体分析。
‘偏差评估体系’,实际上,是一种数字代码分析手段。
中心锚点连线的研究为了简化算法,让其针对小型实验更加实用,并没有加入数字分析的内容。
当实验参数过多的时候,没有添加转化数字代码的内容,‘偏差评估体系’就会变得极为复杂。
中心锚点连线的研究中,‘偏差评估体系’就已经复杂到需要很长时间才能理清逻辑关系。
当参数增加一倍甚至更多时,其逻辑复杂度会增加几百倍甚至更多。
这就是指数型增长。
举个最简单的例子,‘10中选2’有45种可能,而‘20选2’就有190种可能。
这还只是‘选2’。
如果再叠加‘选3’、‘选4’,想梳理全部的可能性,形成一套完善的逻辑闭环,会是个非常庞大的工程。
所以必须要用到lbnt数字分析法,否则研究想要短时间完成根本是不可能的。
高能所已经碰到了这个问题。
在和张硕的合作项目验收结束后,谭志明回到实验物理中心召开会议,决定研发能对大型实验进行实验模拟偏差分析的软件。
项目的名称叫做‘大型实验模拟偏差分析算法研究’。
项目负责人是计算中心主任、副所长曹孟波,参与的核心人员包括鲍贺星、廖振宇、刘烨,等等。
虽然已经决定进行算法研究,但实际上,项目也只是走到了准备提交评估报告的阶段。
高能所的项目,首先要拿出一份完善的评估报告,才能