Apreciati ironia, nu incerc sa va invat la prostii, nici sa aveti site-ul penalizat de Google, dimpotriva, incerc sa va invat cum si mai ales ce sa nu faceti pentru a scapa de furcile caudine ale roboteilor Google!
Conform proverbului omul din greseli invata, atunci sa enumeram greselile si astfel poate invatam, nu, pentru a nu fi penalizat de Google?! :d
1-link exchange! He, he, aici e -dureros de amuzant-pentru ca desi oamenii de SEO (multi dintre ei desigur) atunci cand cauta link-exchange-ul il cauta in functie de Pr, realitatea este ca mai important decat Pr-ul este autoritatea domeniului, de unde rezulta, ca mai bine ar cauta si asta! Cum poti verifica autoritatea unui domeniu? Intra pe SEO Majestic, iti faci cont gratuit(au si platit) inserezi domenii si ei iti spun ce si cum!
2-404– ”Atentie, cade!” -cunoasteti probabil destul de bine ce inseamna eroarea 404 in navigarea online(pagina negasita, pentru nestiutori)! Roboteii Google nu sunt deloc ”intelegatori” si taxeaza la sange site-uri cu prea multe pagini 404! Cum le recunosc ei? Simplu, prin link disparut, adica la indexare pe linkul adaugat prin sitemap exista pagina iar la crawling-ul programat nu au mai gasit pagina(o explicatie pentru copii mici am dat, stiu 😀 )!
3-Supra-optimizarea! -am mai vorbit despre, au mai vorbit si altii, una peste alta toti am spus ca este ok sa optimizezi SEO un site, dar nu este deloc ok sa abuzezi de unelte(prea multe cuvinte cheie, meta-descrieri lungi, multe linkuri interne in pagina etc..)! Folositi extensia de Chrome pe numele sau SEO Tools, va spune tot despre site-ul vostru(tot ceea ce este important)!
4-linkurile platite– un concept greu de inteles sau mai bine zis cum sa te feresti de el! Ok, toti vrem sa castigam bani din blogging, dar daca vindem linkuri atunci cel mai bine ar fi sa vindem spre site-uri ce au continut sau nisa apropiata de a blogului nostru! Un exemplu, eu am blog ”culinar” si trimit linkuri spre site-uri auto, ce relevanta poate avea, chiar si pentru un robotel? 😀
5-linkurile spam– aici e mai usor, linkurile in comentarii le poti modera din dashboard, comentariile de altfel le poti modera(a se intelege ca stergi ce nu-ti convine sau place)! Pe wordpress poti folosi Akismet sau poti folosi platforme ”custom” de comentare, gen Livefyre sau Disqus! Linkurile spam sunt una dintre cele mai frecvente moduri prin care un site ajunge sa fie penalizat de Google.
6-linkuri ascunse – iarasi o chestie amuzanta, pentru ca multi considera link ascuns acel link pus pe o ancora text, de genul acesta, insa este complet gresit pentru ca linkul ascuns este linkul inserat prin cod html in codul sursa al paginii(blogului) tau! Se pare ca aceste linkuri ii enerveaza la culme pe roboteii Google si incep a te taxa cat ai zice memo! 😀
7-ancore text ce variaza– asta e o chestie ce nu o stiu prea multi si anume ca atunci cand trimiti dintr-un articol mai mult de un link spre aceeasi pagina web atunci trebuie sa folosesti aceeasi ancora text de fiecare data, o singura litera modificata reprezinta o sansa in plus de a ”supara” roboteii!
8-link building agresiv – e o metoda frecvent folosita de SEO-isti(ce urat suna, stiu si imi cer scuze), aceea de a face link-building agresiv, de a pune spre un site, linkuri pe alte 500 de site-uri in doar 24 de ore! Ca in orice domeniu, agresivitatea si in domeniul asta are un singur rezultat si anume esecul! Normal pentru scurta perioada scopul link-buildingului va fi atins, site-ul va creste, insa dupa cateva luni va fi penalizat drastic si chiar banat site-ul respectiv! De ce banat? -V-am zis, roboteii nu stiu de joaca! 😀
9-site-ul offline– aici e ceva ce tine mult de firma unde aveti gazduit site-ul, pentru ca daca acea firma e de toata jena si are servere ce cad la fiecare cateva ore, atunci cu siguranta site-ul vostru va avea de suferit! E de inteles, nu? (nu confundati cu mentenanta, deoarece in mentenanta site-ul este tot online, insa doar pentru robotei)
10-continut slab calitativ – de cate ori s-a scris despre asta, de cate ori s-a mai scris despre cum percepe Google daca un continut al unei pagini e de buna calitate? De multe ori stiu, de multe ori s-a filosofat pe tema asta incat la final nimeni nu a priceput nimic! Treaba e simpla, cu cat ”bounce rate-ul” e mai mic, cu atat mai bine sau altfel spus cu cat vizitatorii stau mai mult timp pe aceeasi pagina cu atat bounce-rate-ul va fi mai mic si roboteii vor fi siguri ca acel continut chiar e bun tocmai pentru ca-i face pe oameni sa-l ”savureze”!
11- H1, H2, H3 – ati inteles nu-i asa? vorbesc codificat! E vorba despre codurile CSS ce translateaza textul unei pagini pentru a putea fi perceput corect de robotei(iar am explicat pentru copii dar parca e mai bine asa)! Etichetele CSS sunt parti ale unui cod CSS, de regula cei fara prea mult interes pe domeniul asta nici nu le luati in seama, insa daca le luati atunci fiti atenti ca o singura eticheta H1 trebuie sa fie prezenta in pagina! Eticheta H1 vine de regula aplicata titlului, lesne de inteles de ce, pentru titlul trebuie sa fie mai mare ca font, ori H1 tocmai asta face, il face mai mare! 😀 -Folositi H2 sau H3 daca vreti sa fiti ceva mai ”agresivi” pentru ochii cititorilor, desi cel mai bine ar fi sa va rezumati la un bold!
12-Continut duplicat -aici am vorbit mult(eu cel putin am facut o adevarata munca de documentatie pentru ceea ce inseamna asta, mai ales pentru ca aveam de protejat MWB)! Gasiti in arhiva balantza.com o serie intreaga de articole pe tema asta! Esenta? E simplu, folositi Google Plus, asociati-va blogul cu contul Google Plus, capatati astfel prioritate, apoi verificati sa nu aveti articole in duplicat, imagini in duplicat, text in aceeasi pagina in duplicat! Inca o chestie, aveti grija sa nu fiti copiati iar daca sunteti copiati atunci rezolvati problema(si anuntati-ma si pe mine cum ati reusit)! 😀
13-Aglomerare de cuvinte cheie(keywords)– si aici s-a tot spus, si aici tot eu am spus ca mai mult de 10 cuvinte cheie per pagina inseamna aglomerare iar mai mult de 20 aduc sigur penalizare!
14-continut ascuns– iar o chestie despre care s-a vorbit si care de fapt e o tehnica asa de blackhat incat iti condamna blogul la indelunga suferinta! Continutul ascuns nu reprezinta decat text de culoarea fundalului paginii unde este afisat, devenind astfel invizibil ochilor ”umani” dar nu si roboteilor! Continutul ascuns de regula consta in serii de cuvinte ce se afla la mare cautare pe Google si care evident odata indexate saboteaza –-cautarea pe Google! 🙂
15-hacked site(site spart de hackeri, furat)- nu inseamna decat ceea ce este si lesne de inteles din denumire ce inseamna! Pe cat de rar vi se poate parea ca se intampla pe atat de des se intampla! Un site poate fi considerat spart in mai multe feluri, cel mai frecvent se intampla atunci cand baza de date este virusata printr-o injectie de cod ”malefic” si care trimite spre site-uri banate de Google etc…!
Gata, am terminat lista ”cum sa eviti sa fii penalizat de Google”, sper ca ati reusit sa invatati ceva nou iar daca nu ati reusit atunci nu-i bai, cu alta ocazie! 🙂
am invatat ceva de aici. Nu stiam ca 404 e asa problematic.
Ai ca am invatat ceva. Nu stiam ca 404 e asa problematic.
Scuze de dublu post. Am o nelamurire. Ce faci cu 404, in caz ca vin de pe taguri pe care nu le mai folosesti sau articole care pbbil le-am sters, etc.. ? Nu stiu exact daca fac bine, dar 404 le marchez ca remediate si imediat la introduc la eliminare adrese url din webmaster tool. Pe cele care necesita fixarea legaturii o fac, dar cele mai sus amintite pur si simplu le elimin adresele. E ok asa, sau e gresit procedeul?
Sunt mai multe metode, cea mai simpla e sa faci o redirectionare spre prima pagina sau spre o pagina de arhiva! Daca folosesti wordpress atunci poti utiliza pluginul 404 Simple Redirect!
Recomand redirectionarea pentru ca 404 poate fi afisat si la pagini care in realitate exista si au url curat, dar uneori din cauza unei supra-solicitari a serverului acesta nu mai raspunde corect si afiseaza eroare, deci primesti 404(ca vizitator) ca si cand pagina nu ar exista, insa la o reincarcare a pagini constati ca de fapt nu e 404 ci doar eroare! O redirectionare spre o pagina ”custom” e idealul pentru ca in acea pagina poti introduce o lista cu toate categoriile si tagurile tale, o unealta de cautare avansata, si apoi sunt atatea pluginuri ce pot completa aceasta pagina spre care redirectionezi!
Incearca 404 Simple Redirect!
Metoda de care zici nu e gresita insa e extrem de solicitanta, trebuie sa stai ”mereu la panda”, pe cand o redirectionare automata iti salveaza timpul si iti eficientizeaza munca!
Multumesc de sfat. Deci o sa incerc pluginul. Problema e ca de multe ori sunt taguri moarte pe care am uitat sa le scot, sau s-a mai intamplat sa sterg o pagina, un articol.. deci nu ar fi nici o problema daca si in cazul acestora, regirectionarea se face catre ceva anume, chiar daca numarul acestora poate fi de 20, 30, 50?
Nu conteaza cate pagini moarte sunt, conteaza ca redirectionezi spre o pagina valida, de asta ziceam sa redirectionezi spre prima pagina(homepage) pentru ca e singura pagina pe care o vei verifica mereu si vei sti sigur ca exista!
Apoi, in legatura cu redirectionarea, e bine sa o faci doar spre o pagina, in sensul ca Google accepta redirectionare direct spre pagina, nu prin intermediere, in genul multiple-redirect, din pagina in pagina!
Eu de exemplu pe balantza.com a trebuit sa schimb tot softul in urma unei infectari mysql si astfel am pierdut toate url-urile indexate de google, toate devenin 404 la un moment dat si vorbesc aici de aproximativ 700 de pagini! Pagerankul e in continuare 3, autoritatea paginii e 45 din 100, deci destul de bine!
Eu as sugera un mesaj 404 custom. Bine optimizat cu unele posturi pe care le consideri tu mai importante in blog. Un search pe pagina. Cred ca ti-ar fi mult mai de folos decat un redirect.
am vazut ca nu merge meniul principal. Tot pe home ma arunca.
Am instalat pluginul pe ambele bloguri si sunt multumit de el. Am lasat directionarea default catre home. Multumesc de sfat si recomandare
Foarte bune precizarile. La ultima actualizare de PR am scazut de la 3 la 2. Am citit in unele articole ca introducerea site-ului in directoare este penalizata de google. Tu ce parere ai?
Da, Google penalizeaza linkurile plasate in directoare web, la fel cum penalizeaza si linkuri plasate in forumuri! Sigur, nu trebuie confundat cu agregatoarele de feed-uri, gen bundecitit.ro sau meritacitit.ro, acolo e alta situatia si nu sunt penalizari pentru ca respectivele site-uri functioneaza pe sistem de social network!
Salut, am un site la care am schimbat structura si dupa schimbare am primit in google webmaster tools ca am 1181 de erori 404…problema e ca am schimbat structura din exemplu.ro/x/y/z in exemplu.ro/y/z….cum as putea sa rezolv problema sa nu imi mai indexeze nici o pagina care e de forma exemplu.ro/x indiferent de ce urmeaza dupa/x?Multumesc.
Asta e o problema care din pacate nu poate fi rezolvata usor. Solutiile cele mai frecvent folosite sunt:
-scrii reguli noi in robots.txt unde specifici pentru fiecare din linkurile ce returneaza 404 ”order/ deny/allow …deny” (trebuie sa vezi mai intai cum se aplica astfel de reguli in robots.txt, eu ti-am dat doar exemplu, dar asta e cea mai sigura metoda si opreste erorile pentru ca robotilor le este interzis accesul pe respectivele pagini)
-aceeasi metoda de mai sus, dar aplicata direct de google, in webmaster tools/site/index google/eliminati-adrese-url si inserezi rand pe rand fiecare adresa ce returneaza 404. Asta e de fapt o cerere catre google de a scoate pagina ce returneaza 404 din Index-ul sau, insa nu va fi o garantie ca robotii nu vor mai trece pe acea pagina, pentru ca exista posibilitatea ca un alt site sa indice link follow-index spre acea pagina, deci eroare poate sa nu dispara.
-in webmaster la accesare cu crawlere faci un ”fetch as google” (preluare ca google), insa si aici nu exista garantia ca acele erori vor disparea dar vei informa google de noua structura a site-ului;
Pe langa astea doua, mai trebuie sa trimiti sitemap catre google si sa astepti sa-ti fie indexate noile pagini.
Atunci cand sunt multe erori 404 (1000-2000) de regula eu folosesc doar ”fetch as google” si trimitere de sitemap, nu inainte de a marca in webmaster toate erorile ca fiind rezolvate. Oricum, paginile ce returneaza erori 404 in decurs de 90 de zile vin scoase din index si sunt ignorate de roboti.
Preluare ca google am facut si nu au disparut erorile
Am verificat acum link-urile care nu merg si nu returneaza eroare 404 ci imi acceseaza link-ul respectiv pe care am o eroare php.
Am citit pe http://www.robotstxt.org/orig.html urmatoarea:
The following example „/robots.txt” file specifies that no robots should visit any URL starting with „/cyberworld/map/” or „/tmp/”, or /foo.html:
User-agent: *
Disallow: /cyberworld/map/ # This is an infinite virtual URL space
Disallow: /tmp/ # these will soon disappear
Disallow: /foo.html
Sa inteleg ca daca trec in robots.txt Disallow: /x/ nu o sa imi mai fie vizitate de crawlere paginile care incep cu /x/?
Acum robots.txt la mine arata asa:
User-Agent: *
Disallow: /x/
Eu vreau sa nu imi mai indexeze deloc paginile de forma aia, pana gasesc o metoda sau pe cineva care sa imi rezolve problema cu eroare php care imi apare la link-urile vechi si nu da 404.
Multumesc.
Fiind vorba de foarte multe pagini sterse (sunt sterse, chiar daca doar ai schimbat formatul url) ar fi bine sa scrii in robots.txt o regula de Disallow sau Deny in htaccess, pentru respectivul format de url. Nu trebuie sa scrii fiecare url in parte, ci doar sa specifici regula.
In robots.txt nu treci:
Disallow /x/ ci
User-agent:*
Disallow /~x/#
Sau poti scrie altfel, mult mai indicat:
User-agent:*
Disallow /~x/page1.html
Disallow /~x/page2.html
Disallow /~x/page3.html
Pentru a refuza accesul pentru fiecare link in parte.
Salut, m-am gandit sa redirectionez tot ce incepe cu domeniu.ro/x/ sa redirectionez spre domeniu.ro. Mai exact am gasit o comanda pentru .htacces (RedirectMatch ^/x/* http://www. doemeniu .ro) ca orice incepe cu domeniu.ro/x/ indiferent de ce urmeaza dupa /x/ sa imi redirectioneze spre domeniu.ro
Ce parere ai despre asta?o sa imi mai ia in considerare google link-urile alea vechi?daca am dofollow pe link-uri vechi si acum toate link-urile vechi duc spre prima pagina?M-am mai gandit sa iau toate link-uri alea vechi care le gasesc in webmaster tools la care da eroare si sa le redirectionez pe fiecare imparte spre aceeasi pagina numai ca le pun link-ul corect, de ex. avem domeniu.ro/x/articol/produs1.html sa redirectionez in .htacces la domeniu.ro/articol/produs1.html dar asta ar insemna sa trec in .htacces 1181 de redirectionari, as avea un .htacces Kilometric.
Ce sfat imi dai?Care din variantele astea crezi ca e mai buna?
Mersi
@Sergiu:
-eu iti sugerez sa te rezumi doar la metoda robots.txt
Lucrul in htacces pentru astfel de probleme nu e metoda cea mai indicata, mai ales ca vei redirectiona tot spre acelasi domeniu si asa cum spuneai creezi multe redirectionari, care in functie de caz pot deveni un loop iar in acest caz primesti ”ban” in SE.
In robots.txt, insereaza urmatoarele linii (sau prelucreaza ce ai deja):
User-agent: *
Allow: /
Disallow: /x/
(unde evident, x este categoria disparuta)
Apoi, mergi in google webmaster tools, sterge toate erorile 404 (nu inainte de a copia toate adresele url ce-ti returneaza 404). Dupa asta, tot acolo, faci o ”preluare ca google”, pentru ca mai apoi sa trimiti si un sitemap.
Numarul de erori va fi zero pentru urmatoarele zile, apoi vor incepe sa apara, treptat, cateva, in functie de vechimea paginii. Pentru toate astea noi, tot in google webmaster tools, la Index Google, soliciti eliminare de adrese url, unde introduci fiecare adresa url ce-ti returneaza 404.
Asta e metoda cea mai simpla, fara prea multa munca si care da rezultate imediate. Poti folosi rubrica de contact de aici, si vorbim pe mail.
h1…h6 sunt etichetele CSS? Eu as spune mai degraba ca sunt marcatori HTML. Pe toti acesti marcatori HTML se aplica cod CSS pentru a oferi un aspect cat mai placut si usor de perceput de catre utilizatori. Asadar h1…h6 sunt marcatori folositi pentru titluri in acelasi timp delimiteaza si importanta acelui titlul spre xemplu h1 este cel mai important deci robotelul ii va acorda o nota mai mare(importanta mai mare) iar h6 este cel mai putin semnificativ. H1 are default fontul cel mai mare insa el poate fi modificat prin aplicare de cod CSS astfel incat sa para un text normal insa robotul il va vedea ca pe un titlu important. Ce nu am mai inteles este punctul cu „linkuri ascunse” cred ca ai explicat prea pentru copii :))
te pierzi in niste explicatii inutile, nu crezi? 😉
Linkurile ascunse cred ca le-ai inteles, din moment ce le-am explicat prea pentru copii! 😛
cum spui tu. mai am o intrebare si gata. ce crezi despre erorile de dom sau HTML sunt sau nu penalizate de google? bit.ly/1bq24ot
Sunt, dar nu chiar asa de aspru (ma rog, in conditiile in care nu sunt multe). Iar penalizarea nu e aplicata la ranking ci la frecventa si viteza de indexare (e logic de altfel, pentru ca erori de genul ”deruteaza” robotii). Din pacate, ceea ce mi-ai aratat tine de wordpress si de template, insa parsatorul e pentru website-uri nu pentru bloguri. Oricum, cu tot cu acele erori balantza e indexat corect si rapid, datorita metadata. (poti vedea in GWT)
Iei totul prea personal. Am pus linkul catre pagina asta pentru ca pe ea ma aflam (chiar imi place blogul mai ales pentru faptul ca nu am vazut publicitate pe el ceea ce ma face sa cred ca nu e unul comercial ci unul creat din pasiune). Eu incercam doar sa mai arat niste lucruri de care trebuie tinut cont. Parerea mea e ca nu conteaza din ce categorie face parte aplicatia (website,blog,magazin) trebuie sa tina cont si de regulile W3C pentru ca in mare ei standardizeaza lucrurile pe partea asta. Insa asta e problema celor care creaza plugin-uri. In fine… In ceea ce priveste meta tagurile ai perfecta dreptate ele ajuta foarte mult atat pentru indexarea in motoare de cautare cat si pentru shararea continutului pe retelele de socializare. Multa bafta in continuare.
Ups, scuze daca am fost acid, chiar nu mi-am dat seama. Am un stil mai direct, si poate sarcastic uneori, de a conversa, dar te asigur ca nu am avut intentia de a jigni in vreun fel. 🙂
Da, sigur, trebuie tinut cont de W3C, insa din experienta iti zic, sunt atat de multe chestii de care trebuie sa tii cont in domeniul asta incat de multe ori mai trebuie sa si lasi unele nerezolvate. Nu din alta cauza, dar spre exemplu la WordPress, poti lucra in fisierele core, poti iarasi umbla in pluginuri sa reglezi erori, insa dupa cateva luni trebuie s-o iei de la capat pentru ca apar actualizari de securitate sau rezolvari de alte bug-uri despre care cel mai probabil nu aveai habar.
Bafta in continuare si tie! Ah, nu te speria de mine, nu musc. :)) Daca ai ceva de zis, sau consideri ca nu am avut dreptate, o poti face fara menajamente. Consider ca in orice meserie e loc de imbunatatiri, de perfectionare.
Data trecuta intrebai de linkuri ascunse. Sunt acele linkuri invizibile pentru oameni (ma rog, sunt vizibile in codul sursa, totusi) dar vizibile pentru roboti, care le urmaresc si indexeaza. Practic sunt linkuri ce nu au nicio ancora text si ca si surfer nu le vezi in pagina, desi ele exista. Spre exemplu, vei gasi in codul sursa la pagina asta linkuri ascunse, de authorship si publisher de la Google. (stiu, ironia sortii, sa pui linkuri ascunse catre Google, dar daca alt sistem nu au gasit pt confirmarea celor doua functii, asta este)
Foarte bun articolul însă mă pierd puțin la tema paginilor 404. Am un site noi și deja am acele pagini 404. E bună redirecția 301 asa am citit pe undeva sau sa le las așa ?
Daca aveti pagina custom 404 (adica o pagina ce sa contina un mesaj de eroare, o casuta de cautare, cateva linkuri spre arhiva, sitemap etc…si spre care sa fie directionate toate paginile ce returneaza 404 atunci cand userul le acceseaza) atunci o puteti folosi cu incredere. Practic userul intra pe o pagina, pagina din diferite motive nu mai exista, insa in loc sa apara eroare de browsing, userul e redirectionat spre homepage sau spre o pagina custom 404 (e pentru o mai buna experienta de navigare). Mare atentie insa, s-au schimbat cateva chestii in regulile google, iar prea multe pagini ce returneaza 404 inseamna penalizare, la fel redirectionarile 301 (permanente) nu mai reprezinta chiar o solutie in cazul in care e vorba de sute de pagini si de asta cel mai bine e sa elimini in GWT acele pagini (le elimini de fapt din index-ul google, care treptat timp de 180 de zile le scoate rand pe rand, in functie de crawling).
Pagina 404 include toate aceste lucruri deci oferă o destul de bună experiență de navigare. Instalasem un plugin pentru wordpress numit ”Redirection” și am redirecționat cu ajutorul lui cîteva pagini cu acele erori, însa acum înțeleg ca e mai bine să le las așa și să încerc să le scot din google webmaster tools. Mulțumesc pentru ajutor.
Cu multa placere. Da, cel mai bine e sa rezolvi in GWT. Ca si idee, divagand, mult mai mare impact in ranking au linkurile ”broken” dintr-un site, tragand rankingurile in jos, decat aceste 404. Cu 404 se descurca robotii, de cateva luni de zile, pe site-urile ce au metadata si sunt scrise in html5.