Hvordan fungerer søkemotorer?
Søkemotorer er i utgangspunktet datamaskinalgoritmer som hjelper brukere med å finne den spesifikke informasjonen de leter etter. Med bokstavelig talt billioner av sider med informasjon på nettet, uten effektive søkemotorer, ville det være nesten umulig å finne noe på internett. Ulike søkemotorer fungerer på forskjellige spesifikke måter, men de bruker alle de samme grunnleggende prinsippene.
Det første søkemotorene må gjøre for å fungere er å lage en lokal database med, i utgangspunktet Internett. Tidlige søkemotorer indekserte nettopp nøkkelord og titler på sider, men moderne søkemotorer indekserer all teksten på hver side, samt en god del andre data om sidens forhold til andre sider, og i noen tilfeller alle eller en del av mediene som er tilgjengelige på siden også. Søkemotorer må indeksere all denne informasjonen slik at de kan kjøre søk på den effektivt, i stedet for å måtte løpe rundt på internett hver gang et søk blir sendt.
Søkemotorer lager disse databasene ved å utføre periodiske gjennomsøkinger på Internett. Tidlige søkemotorer krevde ofte at sider ble sendt til dem for å krype dem, men nå blir de fleste sider funnet ved å følge lenker fra andre sider. Det som kalles roboter eller edderkopper, dataprogrammer bygget for å indeksere sider, flit fra side til side, registrere alle dataene på siden og følge hver lenke til nye sider. Ulike søkemotorer oppdaterer indeksene med forskjellige intervaller, avhengig av hvor mange edderkopper de stadig har krypende, og hvor raskt de edderkoppene kryper, med noen som jobber seg gjennom internett hver dag eller to, og andre bare gjør en periodisk oppdatering hver uke eller måned.
Når edderkoppen går gjennom disse sidene, registrerer den ordene den finner på sidene. Det gjør notater om hvor mange ganger hvert ord vises, om ordene er vektet på visse måter, kanskje basert påStørrelse, plassering eller HTML -markering, og bestemmer hvor relevante ordene er basert på koblingene som kommer inn på siden, og på den generelle konteksten på siden.
Søkemotorer må da vekt på verdien på hver side, og verdien til hver side for ordene som vises på den. Dette er den vanskeligste delen av hva en søkemotor har å gjøre, men også den viktigste. På det mest enkle nivået kan en søkemotor ganske enkelt følge med på hvert ord på siden, og registrere siden som relevant for søk med det nøkkelordet. Dette ville ikke gjort mye bra for de fleste brukere, da det som er ønsket er den mest relevante siden for søket deres. Så forskjellige søkemotorer kommer med forskjellige måter å vektere betydning på.
Algoritmene som forskjellige søkemotorer bruker er godt beskyttet, for å forhindre at folk spesifikt lager sider for å få bedre rekker, eller i det minste for å begrense graden de kan gjøre det. Denne forskjellen er grunnen til at forskjellige søkemotorer gir forskjelligt Resultater for de samme vilkårene. Google kan bestemme at en side er det beste resultatet for et søkeord, og spør kan avgjøre at den samme siden ikke engang er i topp 50. Dette er bare basert på hvordan de verdsetter inngående og utgående lenker, tettheten av nøkkelordene de synes er viktig, hvordan de verdsetter forskjellige plasseringer av ord og et hvilket som helst antall mindre faktorer.
Den nyeste trenden i søkemotorer, og sannsynligvis fremtiden for søk generelt, er å bevege seg bort fra søkeordbaserte søk til konseptbaserte søk. I denne nye formen for søk, i stedet for å begrense et søk til nøkkelordene søkerinngangene, prøver søkemotoren å finne ut hva disse nøkkelordene betyr, slik at den kan antyde sider som kanskje ikke inkluderer det nøyaktige ordet, men likevel er aktuelle for søket. Dette er fremdeles et utviklingsfelt, men så langt ser det ut til å ha mye potensiale for å gjøre søk mer relevant, noe som gjør nettet til et enda enklere sted å finne nøyaktig hva du leter etter.