LSI copywriting: hva er det? Forklar utviklingen i nær fremtid

I mars 2014 begynte Google å kryptere helt alle søknadsforespørsler. Nå, i Google Analytics, i stedet for en søkefras, ifølge hvilken det var et helt antall besøk på nettstedet, ville vi se to ord: ikke oppgitt. Tilbakekall Yandex i desember 2013 - sammen med kunngjøringen om kanselleringen av referanse rangeringen - begynte også å kryptere teksten i søkefrasen i Referer header i en del av søkene. Vi forutsetter at dette vil skje med alle forespørsler. Videre, snarere snarere enn senere.

Oppsummering kan vi si: Situasjonen er slik at det i nær fremtid blir umulig å forstå hva forespørsler i emnet vil generere overganger med samme klarhet - det kan bare forutsies.

Hovedkonklusjonen for nettstedseiere og SEO? Fremme av stillinger som endelig ble kansellert. Det er bare ett pålitelig mål for effektivitet - søketrafikk.

Hva er LSI Copywriting?

Hva betyr alle disse triste for SEO (og oppmuntrende for de som er fremme ved hjelp av innholdsmarkedsføring) nyheter? Det ser ut til at søkegigantene sikter mot systematisk utryddelse av alle gjenværende elementene i klassisk SEO i søkemarkedsføring. Dette er en konsekvent forfalt politikk for maksimal utjevning av manipulative handlinger av optimalisatorer.

Hvis det ikke er kjent for hvilke forespørsler nettstedet ditt mottar trafikk, så på grunnlag av hva du skal konkludere om effektiviteten av en bestemt nøkkel / søkefras? Det er et slikt forslag: Hvis vi glemmer søk, må du forsøke å spore hvilken side som trenger denne siden eller den aktuelle siden, slik at relevansen blir "sløret" på siden som et resultat. Men faktisk er alt ikke så. Alt er ærlig: hva du skriver ned på siden - til det er det relevant.

Det er viktig å forstå at relevansen ikke lenger er nøkkelteten på en side. Og vi forstår hva vi snakker om. For mange år siden har vi selv utviklet et nøkkeltest estimat skript basert på nettsteder som ligger i TOP-20 søkeresultatene for en bestemt spørring. Og generelt, siden 2010 har vi ikke brukt det selv :) - dette er rett og slett ikke bra. Relevans gjelder ikke lenger for beacon setninger skrevet i tekstlig innhold, relevans i semantiske søketider angår mening, innhold.

Trenden de neste årene er den såkalte LSI-copywriting.

Forkortelsen LSI er mer eller mindre klar: det er latent semantisk indeksering (latent semantisk indeksering), en metode for indeksering av skjult semantikk - semantikk som endrer mening avhengig av konteksten. Takket være LSI lærer søkemotorer å forstå det naturlige spørsmålet.

Som svar på søkemotorbevegelsen mot semantisk søk, oppsto det såkalte LSI-copywriting. LSI-copywriting vil avskaffe seo-copywriting i de neste to til tre årene.

Hvordan endres begrepet "relevans" med forbedring av semantisk søk

Hva mener vi med seo copywriting? Arbeid med teksten på grunnlag av listen over nøkler for å skrive inn og tettheten av deres oppføring. Hvorfor vil det eksistere i ytterligere to eller tre år? Det er ikke fordi nøkkelinngang er effektiv i dag. Det er bare at treghetene i markedet er store, og det er derfor at arbeid med tekst på nøkkeltetthet fremdeles vil leve en stund.

Å skrive inn nøkler (seo-copywriting) er ikke relevant, ikke effektiv, og til og med skadelig i to år. Alt startet i 2011 - med Panda-algoritmen, den største som er viktig i historien om oppdateringer til Google-algoritmer. Det viktigste som de sier om Panda: Denne algoritmen var rettet mot å bekjempe tekster med lav kvalitet. Men dette er ikke helt sant. Faktisk vurderte Panda brukerens samspill med nettstedet, nærmere bestemt graden av sitt engasjement når man ser innholdet på en nettside. Tydeligvis spiller tekstinnholdet en stor rolle i å forme besøkendeens oppfatning av siden. Og fra dette synspunkt er det legitimt å si at Panda er begynnelsen på en alvorlig kamp med tekster av lav kvalitet (selv om det selvfølgelig er feil å redusere all denne oppdateringen til kun kvaliteten på teksten). Etter introduksjonen av denne algoritmen ble Googles problem fjernet av et stort antall tekstbruker og nettsteder der teksten ble tydelig opprettet for å legge inn nøkler, og ikke for folk.

Men stort sett fantes et ekte gjennombrudd innen semantisk søk ​​med introduksjonen i 2013 av Hummingbird-algoritmen (Hummingbird). Fra det øyeblikket begynte den sanne historien om LSI copywriting.

Hummingbird ble presentert på en pressekonferanse dedikert til 15-årsdagen for Google. Da merket Amit Smith, leder av søkemotorenes utviklingsavdeling, at Humminbird er den mest seriøse oppdateringen siden 2001. Med introduksjonen begynte perioden med behandling av søk, ikke så mye av nøkkel, men av forstand. Som nevnt av Google, er denne innovasjonen svaret på det faktum at folk begynte å legge til hyppige søk som inneholder nøkkelfraser i søkefeltet, og flere og flere begynte å bruke "naturlige" spørringer - bare samtalesetninger, ofte ganske komplekse og lange. Hummingbird "visste hvordan" å håndtere slike forespørsler.

Således er det fornuftig i dag å snakke om «betydningen av betydninger», og ikke om «relevans av beacon ord» på siden, noe som er et seriøst evolusjonært skritt i semantisk søk.

Faktisk snakker vi om det faktum at søket søker å "lese" og "retellere" teksten i sine egne ord - og dette er ikke mer eller mindre - en søknad om kunstig intelligens. Så langt har imidlertid ikke en eneste robot passert denne "teksten til førstegradere", men utviklingen i denne retningen går i imponerende tempo.

Hva handler det om?

Umiddelbart husker jeg hvor alvorlig Google nylig begynte å fokusere på utviklingen knyttet til etableringen av kunstig intelligens. I januar 2014 overvåte Larry Page personlig oppkjøpet av Google fra det Londons baserte selskapet DeepMind Technologies, som fokuserte på å skape algoritmer for dyp maskinlæring, ved hjelp av utviklingen innen neurobiologi.

Og like før dette kjøpte søkegiganten Boston Dynamics, et verdensberømt engineeringfirma som utvikler kanskje de mest avanserte robotene på denne planeten.

En av de militære utviklingene i Boston Dynamics er BigDog. Den er beregnet for bevegelse på terrenget, hvor vanlig transport ikke kan bevege seg. Robotens lengde - 0,91 m, høyde - 0,76 m, vekt -110 kg.

Google er fokusert på dyp læring og sannsynligvis på å skape en smart maskin "hjerne". Videre har selskapet opprettet en etikkkommisjon som vil overvåke utviklingen av kunstig intelligens i den "riktige" retning fra utgangspunktet av allment aksepterte humane normer.

Etter det, hva er sjansen for at Google vil gi muligheten til å produsere i det minste noen manipulerende effekter på problemet? Nei.

Poenget er at jo mer du tenker på interessene til folket (publikum), og jo mindre om hvordan du kan kjøre trafikk på bekostning av ufullkommenhetene i søkemotoren, desto lettere blir det for deg å vokse og få et lojalt publikum. Opprett innhold for folk, forbedre nettsteder for å gjøre det enkelt for besøkende å bruke dem. Optimalisering er over, forblir ren markedsføring på nettet. Tenk på hva ditt sentrale auditorium trenger, og gi det til henne - hva mer kan du si?

Vel, spesielt for de som tviler på at den teknologiske singulariteten vil bli oppnådd. Se videoen under. Og etter det er du fortsatt i tvil?

Basisbevegelsene til denne roboten er gitt av algoritmen. Men han bestemmer selv hvilke bevegelser som skal brukes - avhengig av hvilken type musikk og rytme.

Loading...

Legg Igjen Din Kommentar