wang亲亲
你就不要研究这个了,有研究这个的精神不如好好去研究自己的论文了,查重原理不大一样,一般来说大的平台查重更严格一些。 
论文检测时匹配数据库文章:当学生们使用论文查重软件的时候,软件会自动去匹配数据库中的文章。一般情况下数据库中的文章匹配度越高的,论文查重率越高的。这样说明论文的在数据库中有重复。当然,在检测的时候论文会被软件分为若干个小段落,分词进行检测,重复率高飘红就越严重,从而就能大致的分析出论文查重率。拼凑算法:论文查重还有重要的算法是匹配算法,主要是防止有学生们胡乱的拼凑论文。比如拼凑的一段话,只要网上的数据库里面存在的话,就能够被查出来,从而论文查重率就比较高了,严重的时候就无法通过论文查重。标记参考算法:标记参考算法是有固定的引用格式,凡是正确的引用格式,基本上引用的文献不会被查重的。说白了引用格式就是告诉机器,这段内容是引用的。机器自然就会跳过论文查重。一旦论文不按照的标准的引用格式引用文献,会被查重,一般这里会降低论文查重率。所以学生们应该注意这里。
论文查重的原理我个人是这么理解的。应该是通过上传的论文跟自己对比库里面的资料来比较,然后通过对比检测来看论文的重复率。不同的写作格式有可能论文的重复率也是不同的
查重系统有庞大的对比库,论文经过查重系统会查到有无重复部分,重复部分占比多少。占比超过学校要求的就需要降重了。
我们要如何去避免重复率过高呢?首先当然就是去了解论文查重系统本身的特征了,这样才能更好地帮我们规避高重复率带来的困难,更早更快地写出符合查重标准的文章。