测手段太少了。如果是面对面进行人脸识别的话,那么需要的计算量依佛里特自己就能轻松搞定了,根本就不用这么麻烦。但关键问题是这里没有人会让你脸对脸的去一个个的识别,我们的信息来源仅有小纯提供的不太准确的电磁扫描图,然后就是依佛里特的无人侦察单元发回的热敏信号、视频监控信号以及声波讯号。
这些讯号对直接识别目标都不是那么有用,因此只能进行大范围的排查,对可能的目标特征进行分类,然后对比。而且因为模糊数据太多,所以对比过程不能依靠单一数据得出结果,正能交叉对比,最后的对比结果还没发用,需要将所有的对比结果进行对照,然后选出数据最接近的。就这样还是不行,因为接近也不一定就是对的,因为数据来源并不可靠,所以最后的数据还是需要反复的核对。如果某个目标的信息数据只有一个对应信号,那可靠性就较高,而如果对应某个宾客名单的数据有好多人都是类似的,那就只能说明这些人都有可能,并不能确定数据最接近的就一定是那个人。
基于这种情况,运算量突然就变成了海量的信息,也就是我们这帮人每个人都有一个超级生物脑,外加一个小型的量子计算终端,不然的话,这么大的信息量一般的大型计算机都忙不过来。