NIPT需要多少数据?
1.测序原理依然是CG一直在用的测序byligation(SBL),而不是illumina明显占优势的测序bysynthesis(SBS)。虽然CG前段时间买了SBS的专利,但显然没有用在这个音序器上。28bp的阅读长度应该是4个7聚体的长度。2.阅读长度为28bp。50xcoverage,一个WGS,每年10000 WGS,如果一个run运行8天,一个run的通量从数据量上来说大概是32.8T,绝对是定序器里的航母大小。当然占地面积更是#。按照官方的说法,准确率应该是“不可思议的准确”,错误率大概是1E-6,显然远远高于任何一个被采访的测序机的正确率。但是,请不要忽略CG测序仪的读数长度只有28bp,但请考虑将illumina的读数长度从250bp和150bp切割到28bp,比较准确率。3.1先说优点。数据输出巨大,所以单位成本一定很低,适合人类基因组重测序。CG自诞生之日起就被标榜为“人类基因组重测序的最佳测序平台”。具有28bp阅读长度和低复杂性的“人类”基因组(或外显子)非常容易处理。28bp只能重测序,还是睡觉组装什么的吧。对于NIPT和类似技术来说,测序过程只是“堆积数据”,只需要检测拷贝数的变化,而不需要关注覆盖率和SNP水平的变化。新机CG可能是一个非常好的选择(我不确定28bp的长度是否可能对大规模混合样本造成一些麻烦,需要很多复杂度高的条码)。类似于未来对肿瘤无创早期筛查的游离肿瘤细胞(ctC)、游离肿瘤DNA(ctDNA)、胎儿有核红细胞(FNRBC)的检测,大部分测得的数据将是无用的,CG作为“数据免费”平台的优势可能会显现。只是一堆数据而已。我们很擅长这个。3.2缺点,数据太多也是缺点——如果对跑步不满意,大部分人根本跑不起来。参考HiseqX的尴尬处境。那么读龙就是硬伤,除了“人类”和“重测序”(远没有人类基因组复杂的熊猫,大概还可以)之外,几乎不能应用到其他领域。以及28bp对pooling中条形码的影响。其他的,指CG之前的机器,它的运行稳定性是个考验。毕竟8天不短,反应数据量巨大。不知道会不会容易需要“售后”。