*   >> Lezen Onderwijs artikelen >> tech >> internet

Hoe Zoeken Engi es werk -? Web Crawler

Het is de zoekmachines die uiteindelijk uw website onder de aandacht van de potentiële klanten. Daarom is het beter om te weten hoe deze zoekmachines eigenlijk werken en hoe ze informatie presenteren aan de klant de inleiding van een zoekopdracht.

Er zijn in principe twee soorten zoekmachines. De eerste is door robots genaamd crawlers of spiders.

Zoekmachines Heb gebruiken spiders te indexeren websites.

Wanneer u uw website pagina's naar een zoekmachine in te dienen door het invullen van de benodigde indiening pagina, de zoekmachine spider zal indexeren van uw gehele site. Een 'spider' is een geautomatiseerd programma dat wordt uitgevoerd door de zoekmachine systeem. Spider bezoeken van een website, lees de inhoud op de huidige site, Meta tags van de site en volg ook de banden die de site met elkaar verbindt. De spin keert vervolgens al die informatie naar een centrale depositaris, waar de data wordt geïndexeerd. Het zal elke link die u op uw website en de index die sites bezoeken.

Sommige spiders indexeren alleen een bepaald aantal pagina's op uw site, dus niet een site te maken met 500 pagina's!

De spin zal regelmatig terug te keren naar de sites om te controleren of alle informatie die is veranderd. De frequentie waarmee dit gebeurt wordt bepaald door de moderators van de zoekmachine.

Een spin is bijna als een boek waar de inhoudsopgave bevat de werkelijke inhoud en de links en verwijzingen voor alle websites te vindt tijdens haar zoektocht, en het kan index tot een miljoen pagina's per dag

. Voorbeeld:.

Excite, Lycos, AltaVista en Google

Wanneer u een zoekopdracht te vragen engine om informatie te vinden, het is eigenlijk te zoeken via de index die zij heeft gemaakt en niet daadwerkelijk zoeken op het web. Verschillende zoekmachines geven verschillende rankings omdat niet elke zoekmachine maakt gebruik van hetzelfde algoritme om te zoeken via de indices.

Een van de dingen die een zoekmachine algoritme scans voor de frequentie en de locatie van de zoekwoorden op een webpagina, maar het kan ook kunstmatig trefwoord detecteren stuffing

of spamdexing.


Dan is de algoritmes analyseren van de manier waarop pagina's verwijzen naar andere pagina's in het web. Door het controleren van hoe pagina's aan elkaar te koppelen, kan een motor zowel bepalen wat een pagina over gaat, als de trefwoorden van de gelinkte pagina's zijn vergelijkbaar met de zoekwoorden op de oorspronkelijke pagina.



Copyright © 2008 - 2016 Lezen Onderwijs artikelen,https://onderwijs.nmjjxx.com All rights reserved.