Problemet med Søkemotor Rankings

Søkemotorer som Google gjør Internett går rundt. Milliarder av besøkende er kastet rundt hver måned av disse Internett-gigantene, og uten deres pågående dominans, er det vanskelig å forestille seg hva strukturen av nettet kan se ut. Som sådan, få en topp rangering for din kjerneordet sikt som en bedrift har potensial til å generere en alvorlig avkastning over en periode med måneder og år. Dermed insentiver for webansvarlige til å engasjere seg med søkemotorer og for å forsøke å "spillet" resultatene er enorme, og skaper en grunnleggende problem for søkemotorer som vil fortsette å øke sitt stygge hode som relevansen av menneskelige nettsted vurderinger ved fastsettelse rankings fortsetter å vokse .

Problemet med algoritmisk søk ​​er at når algoritmen er kjent, kan det være (og er oppmuntret av insentiv til å være) åpne for manipulasjon. Google gjør sitt beste i å skjule deler av algoritmen og shrouding sine metoder i hemmelighold, men egenskapene til Internett gjør det mulig for alle å teste ut sine egne teorier om hvordan algoritmer funksjonen, samtidig gir tilgang til de tanker og teorier om profesjonell søkemotor optimizer.

Resultatet? En situasjon der selv på et begrenset budsjett, kan noen webmaster påvirke relevansen av deres nettside i søkemotorene for å sikre flere besøkende ender opp på deres side enn på siden av en konkurrent.

grell problem dette fører til er en forurensning av søkemotorrangeringer – det er naturlig på kant med prinsippene for en søkemotor for å tillate partisk menneskelig inngripen for å finne ut hvordan de besøkende bruker nettet og kvaliteten på området de kan forvente å besøke; i kraft, for å muliggjøre webmastere gjennomføre egne nettsted vurderinger.

Selvfølgelig gjør algoritmisk søk ​​nytte av automatisering og raffinement av teknologi, og i form av skalaen er det rett og slett umulig for noen annen forbedret form for søk derivasjon til konkurrere. Hvordan ellers kunne det være mulig å indeksere og rangere milliarder av nettside resultater, i den grad at selv de mest obskure lang hale søkeord hadde en bestemt rangeringen av sidene?

Human-avledet søk, mens langt fra perfekt , ser ut til å hjelpe minst løse problemene med relevant forurensing, som gir selvstendig, bekreftende nettsted vurderinger ved fastsettelse av rangeringen av et bestemt nettsted. Når et kollektiv av brukerne bestemme hvilke nettsteder er å være commended og for å få en lavere ranking, er insentivene utelukkende basert på verktøyet: å sikre de beste nettstedene får mest dekning for å forbedre opplevelsen av nettbrukere. Som et resultat, er kommersiell skjevhet helt strippet fra ligningen, og etterlater en mye mer raffinert serie av resultater som er sannsynlig å gi mest mulig verdi for den som søker.

Problemet med søkemotorrangeringer er at de tar ingen innkalling av uavhengige nettsiden vurderinger, og som sådan effektivt tillate enkeltpersoner å bestemme deres innhold som den mest relevante og mest interessant for søkere. Brukergenererte nettstedet vurderinger på den annen side gi et middel som nettlesere kan virkelig bygge opp et bilde av relevansen av deres destinasjon, uten den økende bekymring for skjemt, kompromitterte resultater som ikke klarer å gjenspeile de beste nettstedene på nettet.



Previous:
Next Page: