De brukar inte avslöja sin algoritm, men försäkrar "den omfattar teknologi" och "upptäcker digital signatur av författarna". En ledare inom detta område, säger "Storstads letar efter sidor som innehåller betydande bitar av identisk text". Ingen vet hur det leder till numbers.The tillgång till "text de-författarverktyg" gör immaterialrätt fråga mycket suddiga någon advokat villig att utvärdera förekomsten av ett brott. Och som en bieffekt, den ändrade texten kommer inte att upptäckas av anti-plagiat verktyg, som oftast söka efter exakt text coincidences.
Google och andra sökmotorer är emot "duplicerad innehåll", men att de inte definierar den.Jag igång att undersöka några plagiatupptäckarsystem platser, och jag märkte att de bättre kräver någon form av en avgift. Naturligtvis är det inte lätt att jämföra en student uppsats med hela Library of Congress och hela webben, plus de gamla webbArkivet i vägen tillbaka Machine. Andra som Ferret är gratis och låter dig jämföra din fil med en annan, men du måste ge både files.
So, utan att dölja mitt tillstånd av SEO Verktygsmakare, förklarar jag att det behövs en offentlig algoritm som kommer att avgöra om en text är fn -ethical eller omoraliskt eller olagligt derivat av en webbkälla. Det är nödvändigt antingen spik plagiatorer eller hjälpa författare och webmasters att definiera gränserna för nära-plagiat och nära-plagiat enheter. Omdömen