Ważne: Ta strona jest za pomocą plików cookie (cookies). Za pomocą tej strony internetowej bez wyłączania plików cookie w przeglądarce, oznacza to, że użytkownik zgadza się za to.
Kup Teraz! Funkcje Pliki do pobrania

Zarabiaj z nami!

Jeśli chcieliby Państwo rozpocząć zarabianie pieniędzy z vBET dołączyć do Program partnerski.
Wyniki 1 do 10 z 10

Wątek: Mail do mnie Google

  1. #1
    Członek
    Zarejestrowany
    Listopad 2009
    Wiadomości
    64

    Exclamation Mail do mnie Google

    Googlebot napotkał problemy podczas indeksowania witryny Pdaapps.

    Googlebot napotkał bardzo dużej liczby linków w witrynie. Może to wskazywać na problem z Twojej strony struktury adresów. Googlebot może niepotrzebnie się czołgać wielu różnych adresów URL, które wskazują na identycznych lub podobnych treści, lub indeksowania części witryny, które nie są przeznaczone do zaindeksowane przez Googlebota. W wyniku Googlebot może zwiększać obciążenie łącza, lub może nie być w stanie całkowicie indeks wszystkich treści w witrynie.

    Więcej informacji na ten temat: -

    Googlebot napotkał bardzo dużej liczby adresów URL w witrynie - Narzędzia dla webmasterów Pomoc

    Lista adresów URL próbki z potencjalnymi problemami. Jednak ta lista może nie zawierać wszystkich problematycznych adresów URL w witrynie.


    muszę się martwić o nic?

  2. #2
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Prosimy o:
    1. Blok znaczenia zawartości robots.txt (patrz tutaj: http://www.vbenterprisetranslator.co...rformance.html)
    2. Sprawdź w Narzędzia dla webmasterów linki nieosiągalny. I uwaga z nami, jeśli jest jakiś sposób związane z vBET.
    3. Jeżeli znajdziesz na forum jakieś "zapętlony" linki gdzie można zobaczyć kilka kodów językowych w tym samym łączu - przyp go do nas.

    PS.
    Można też pomyśleć o usunięcie niektórych linków wychodzących (np. Norton, McAfee), także masz 5 reklam banerów na stronie głównej (UWAGA: to nie będzie steru w tej kwestii, ale ostatecznie będzie lepsze dla SEO).

  3. #3
    Członek
    Zarejestrowany
    Listopad 2009
    Wiadomości
    64

    Default

    ok o to co zrobiłem: -
    1. już zrobione
    2. narzędzia dla webmasterów powiedzieć tylko 8 linków nieosiągalny
    3. nie mógł zrozumieć,

    również i usunąć nadmiar reklam teraz tylko dwa banery reklamowe, usunąć norton i mcafee linki


    żadnych więcej propozycji?

  4. #4
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    O 3. Jeśli znajdziesz gdzieś na naszym forum jak linki / pl / af / pl ... - Należy pamiętać, do nas. Ja piszę to na wszelki wypadek, bo vBET nie powinna dawać takich linków (to poprawione dawno, dawno temu).

    Przeważnie podobne strony pochodzi z kalendarza i strony użytkownika. Jesteś w tej chwili zablokowane przez plik robots.txt - że to powinno wystarczyć. Nie więcej wskazówek w tej chwili - żeby sprawdzić, czy Google będzie szczęśliwy

  5. #5
    Członek
    Zarejestrowany
    Listopad 2009
    Wiadomości
    64

    Default

    noooo moje Zaindeksowane adresy URL w dół z 80k + do 14k, co dzieje się i martwię ruch w dół za

  6. #6
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Quote Napisał bhanuprasad1981 View Post
    noooo moje Zaindeksowane adresy URL w dół z 80k + do 14k, co dzieje się i martwię ruch w dół za
    Jesteś zablokowane strony przez robot.txt - więc wszystko jest OK. Zablokowane strony są usuwane z indeksu. I ruch w dół jest tylko ruch, który został wyprodukowany przez roboty na stronach, które są blokowane teraz Tak więc wszystko jest jak być powinno. Roboty nie pełzać na nie odpowiednich stron (ruchu mniej fałszywe - lepsza wydajność serwera ) a nie odpowiednie strony są usuwane z indeksu (mniej treści powielania treści, więcej rzeczywistej treści w indeksie, lepsze SEO i pozwala mieć nadzieję wreszcie PageRank zostanie poprawione ).

    Wydaje się to dla mnie dobre

  7. #7
    Członek
    Zarejestrowany
    Listopad 2009
    Wiadomości
    64

    Default

    robots.txt został w miejsce ostatnich 3 miesięcy, tak że nie może być problem oryginalnych adresów spadła.

  8. #8
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Quote Napisał bhanuprasad1981 View Post
    robots.txt został w miejsce ostatnich 3 miesięcy, tak że nie może być problem oryginalnych adresów spadła.
    Niestety - nie zrozumiałem jednej z naszych poprzednich odpowiedzi (http://www.vbenterprisetranslator.co....html # post2524) - Myślałem, że po prostu zmienił robots.txt - to byłoby przyczyną zmiany ruchu. Czy na pewno nie ostatnich zmian w pliku robots.txt - proszę sprawdzić datę modyfikacji pliku.

    Nadal wydaje się, że przyczyną zniknięcia stron z indeksami. Plese pamiętać, że Google nie zmienia jej indeksów od razu. I 2-3 miesięcy okres, w reakcji na zmiany strony są standardowe.

    Czy jesteś w stanie określić, które strony znikają z indeksu - jak oczekuję tych stron są blokowane przez robots.txt i możesz być spokojny. Więc proszę określić, co znika - może po prostu się dzieje, o co poprosisz, przez blokowanie stron w pliku robots.txt.

  9. #9
    Senior Member
    Zarejestrowany
    Marzec 2010
    Wiadomości
    116

    Default

    mam ten problem zbyt ..
    ten sam problem mamy
    mój wskaźnik w dół od 134.000 do 128.000
    , ale e-mail z google jak ty

    moje sitemap generator nie działa to vBET
    Ostatnio edytowane przez badawidollah; 21-05-10 W 12:46.

  10. #10
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Quote Napisał badawidollah View Post
    mam ten problem zbyt ..
    ten sam problem mamy
    mój wskaźnik w dół od 134.000 do 128.000
    , ale e-mail z google jak ty

    moje sitemap generator nie działa to vBET
    Czy fallowed instrukcjami zawartymi w tym wątku? Należy pamiętać, że Google będzie zobaczyć większość nieodpowiednich stronach jak zawartość powielania (strony tj. państwa, Callendar, itp..). To dlaczego jest imadło, aby zablokować go przed Google uważają, że w ten sposób. Proszę używać pliku robots.txt do zablokowania znaczenia treści i pamiętać, że liczba indeksowanych stron będzie w dół, ponieważ blokowane strony zostaną usunięte z indeksu, co ma i dobre.

Tagi dla tego tematu

Uprawnienia

  • Państwo nie może wysyłać nowe wątki
  • Państwo nie może odpowiedzi po
  • Państwo nie może załączników postu
  • Państwo nie może edytować swoich postów
  •