ZalogujUzytkownik Haslo
Zaloguj mnie automatycznie przy każdej wizycie    
Rejestracja
Rejestracja
Zaloguj się, by sprawdzić wiadomości
Zaloguj się, by sprawdzić wiadomości

Nauka gry na keyboardzie w Częstochowie Nauka gry na pianinie w Częstochowie Nauka gry na saksofonie w Częstochowie

Poleć to, co sprawdzone i najlepsze Masz inne doświadczenia? Wystaw odpowiednią rekomendacje.
Forum Moja Rekomendacja Strona Główna » Luźne rozmowy na każdy temat

Napisz nowy temat   Odpowiedz do tematu
Pozycjonowanie stron www
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
muzyk



Dołączył: 21 Kwi 2008
Posty: 112

PostWysłany: Nie Maj 11, 2008 9:03    Temat postu: Pozycjonowanie stron www Odpowiedz z cytatem

Pozycjonowanie stron www to zapewnienie Twojej stronie czołowych miejsc w wynikach wyszukiwania najpopularniejszych wyszukiwarek.
Polecam sprawdzone programy do pozycjonowania stron www dostępne na http://domeny.idg.pl/ftp/kategoria/pc_241/Projektowanie.stron.WWW/Pozycjonowanie.stron.html

Sprytne Katalogowanie
Program dla właściceli stron internetowych, którzy chcieliby zwiększyć odwiedzalność swojej strony oraz podwyższyć jej pozycję w wyszukiwarkach internetowch. Wyszukiwarka wyświetla jako pierwsze te strony, do których prowadzi najwięcej linków z innych stron.

IBP & ARELIS
Jeden z najlepszych i najczęściej nagradzanych programów do pozycjonowania stron WWW, ich optymalizacji pod wyszukiwarki, sprawdzania rankingów w wyszukiwarkach, dodawania do katalogów internetowych oraz wyszukiwarek oraz zarządzania linkami.

AdSenseLog
Program pozwala sprawdzić konto i ułatwia analizę danych statystycznych witryny w Google Adsense.

Good Keywords
Program służący do optymalizacji zawartości strony internetowej, aby była ona lepiej pozycjonowana w najpopularniejszych silnikach wyszukujących takich jak Google, Altavista, Yahoo!, itd.

Google PageRank Monitor
Prosty i szybki program do sprawdzania aktualnego Google PageRank wybranych stron. Jednym kliknięciem możesz poznać bieżący PageRank swoich stron internetowych.

Link Popularity Check
Narzędzie pozwalające śledzić popularność linków w największych silnikach wyszukujących. Jeśli posiadasz własną stronę internetową, to możesz porównać ją z konkurencją.

WebSEO toolbar
Pasek narzędziowy przeznaczony do pozycjonowania witryn w wyszukiwarkach. Program w formie paska instalowanego w przeglądarce internetowej umożliwia blokowanie wyskakujących okienek, szybki dostęp do serwisów tematycznych, sprawdzenia pozycji wybranej strony, chat oraz wiadomości.

WebSEO toolbar dla Firefoksa pl
Pasek narzędziowy przeznaczony do pozycjonowania witryn w wyszukiwarkach. Program w formie paska instalowanego w przeglądarce internetowej umożliwia blokowanie wyskakujących okienek, szybki dostęp do serwisów tematycznych, sprawdzenia pozycji wybranej strony, chat oraz wiadomości.

SPQ PageRank
Program do sprawdzania wartości pagerank na wybranej stronie www

Hitman
Darmowe narzędzie przeznaczone do monitorowania ilości pobrań materiałów (programów, stron internetowych, obrazów, animacji) ze stron internetowych. Aplikacja jest przeznaczona dla profesjonalnych webmasterów, developerów oprogramowania czy też zwykłych użytkowników.

Advanced Web Ranking
Narzędzie, które znacznie ułatwia sprawdzanie pozycji Twojej strony WWW w głównych silnikach wyszukujących.

GooPR
Wpisz adres strony internetowej, aby dowiedzieć się jakie miejsce zajmuje ona w rankingu Google. Dodatkowo wyświetlana jest informacja o umiejscowieniu witryny w Google directory.

free Monitor for Google
Narzędzie do promocji stron WWW przeznaczone dla webmasterów i specjalistów zajmujących się wyszukiwaniem w Internecie. Aplikacja pozwala dowiedzieć się, jaką pozycję w rankingu Google zajmuje konkretna strona przy wyszukiwaniu konkretnych słów kluczowych.

Keyword Ranking Tool
Darmowe narzędzie napisane w języku Visual Basic for Applications (VBA) do sprawdzania najpopularniejszych słów kluczowych w wyszukiwarce Google. Aplikacja oferuje kilka ciekawych rozwiązań takich jak: przechowywanie danych na komputerze lokalnym, eksport do Excela, zapis wyników w plikach, które później łatwo jest analizować. Program korzysta z Google API i Google API Web Service.

Advanced Website Position Reporter
Narzędzie do analizowania rankingów wyszukiwarki Google. W przeciwieństwie do innych programów, które swoje zapytania wysyłaja porzez Search Service, AWPR wysyła dane bezpośrednio poprzez Google API Service. Użytkownik może wysłać 1000 zapytań dziennie (IP komputera nie będzie blokowane przez Google).

Google Monitor Query
Narzędzie przeznaczone dla webmasterów i specjalistów, którzy regularnie spędzają wiele godzin na monitorowaniu rankingu swojej strony w wyszukiwarce google. Program wykona za nich to żmudne zajęcie i wygeneruje statystyki na temat wyszukiwań i rankingu stron internetowych.

ClickTracks Analyzer
Program pozwalający na kompleksowe przeanalizowanie popularności poszczególnych elementów witryny internetowej. Gdy załadujemy stronę internetową przy każdym odniesieniu pojawi się szereg informacji, m.in. ilość osób, która kliknęła dane łącze oraz czas, który tam spędziły na podstronie.

Auscomp eNavigator Suite
Pakiet ma za zadanie usprawnić zarządzanie dużymi serwisami internetowymi oraz umożliwić zbudowanie profesjonalnego systemu nawigacji po stronie.

Dynamic Submission
Program do rejestracji stron WWW w internetowych serwerach wyszukiwawczych np. Yahoo, Lycos czy InfoSeek.

SubmitWolf PRO
Pomaga zgłosić stronę internetową do dużej liczby wyszukiwarek.

Ciekawym zestawem programów do pozycjonowania stron www jest Semonitor więcej na www.semonitor.pl
Semonitor to zintegrowany pakiet narzędzi wspierających promocję i optymalizację stron www Może być z powodzeniem używany zarówno przez profesjonalistów jak i początkujących do ciągłego udoskonalania witryn. Aplikację cechuje przy tym łatwość i intuicyjność obsługi.
Poniżej przegląd narzędzi, które wchodzą w skład pakietu Semonitor:

Ranking Monitor Ranking w wyszukiwarkach
Narzędzie to służy do sprawdzania pozycji Twojej witryny w wielu wyszukiwarkach internetowych, na podane słowa kluczowe. Obsługiwane są między innymi takie wyszukiwarki jak: Google, Yahoo, MSN, AltaVista, AllTheweb, Lycos, HotBot czy polskie Onet, WP, Google.pl.

Link popularity checker link popularity checker software
Liczba prowadzących do strony www linków jest jednym z najważniejszych czynników, wpływających na pozycję serwisu w wyszukiwarkach. Narzędzie to służy do określania ilości odnośników, które prowadzą do Twojej witryny, a także do określania wieku tychże linków. Dzięki temu modułowi możesz także analizować konkurencję czy szukać serwisów chętnych do wymiany linków.

Site indexation tool Indeksacja witryny
Narzędzie sprawdza w jakim stopniu dana witryna została zaindeksowana przez wyszukiwarki. Zanim bowiem strona pojawi się w wynikach wyszukiwania, musi zostać odwiedzona przez roboty wyszukiwarek. Semonitor umożliwia sprawdzenie, jak dobrze wyszukiwarki zaindeksowały Twój serwis.

Log analyzer Analiza logów
Program został przygotowany z myślą o analizie logów serwera. Udostępnia wszechstronne wyliczenia zużycia transferu, liczby wizyt, wyszukiwarek, które zostały użyte do znalezienia serwisu, stron odsyłających, krajów użytkowników i wiele więcej.

Page Rank analyzer page rank analyzer image
Program automatycznie sprawdza wartość Google PageRank dla podanych adresów URL. Dodatkowo badana jest liczba linków przychodzących, a także obecność serwisu w katalogach DMOZ i Yahoo.

Keyword suggestion tool Sugerowanie słów kluczowych
Jednym z najważniejszych elementów promowania serwisu w wyszukiwarkach jest dobór odpowiednich słów kluczowych. Narzędzie to korzysta z rozmaitych źródeł, aby zasugerować najodpowiedniejsze frazy dla danej witryny. Podawana jest także konkurencyjność danych słów kluczowych - im będzie ona mniejsza, tym łatwiejsze będzie wypozycjonowanie na nie witryny.

HTML analyzer Analiza treści strony
Jest to moduł, służącym do analizy treści dokumentów html. Narzędzie udostępnia pelne raporty dotyczące wagi i gęstości (częstości występowania) słów kluczowych na Twojej stronie. Może także służyć jako doskonałe narzędzie analizujące strony konkurencji.

The Google Data Centers program google data centers
Wyszukiwarka Google korzysta z wielu różnych Data Center. Dzięki temu narzędziu, możesz szybko sprawdzić pozycję swojej witryny w każdym z DC, za pomocą wygodnego interfejsu.

The Snippets viewer seo tools snippets
W wynikach wyszukiwania znajdują sie jedynie tytuł, opis i adres Twojej witryny. Kluczem do sukcesu jest przygotowanie ich w sposób zwięzły i treściwy, aby zachęcić użytkownika do kliknięcia. Dzięki temu narzędziu sprawdzisz, jak prezentuje się Twoja strona w wynikach wyszukiwania.

Semonitor automatyzuje proces promocji witryny, dzięki czemu swój czas wykorzystasz w sposób bardziej efektywny i produktywny. Żmudne działania zostaną przerzucone na aplikację, która umożliwia jednoczesną obsługę wielu serwisów www
_________________
nauka na keyboardzie impresariat stroiciel agencja artystyczna nauka na pianinie stomatolog
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Szymon



Dołączył: 15 Kwi 2008
Posty: 226

PostWysłany: Nie Maj 11, 2008 14:23    Temat postu: Kurs pozycjonowania stron w wyszukiwarkach internetowych Odpowiedz z cytatem

Programy wspierające pozycjonowanie stron www są bardzo przydatne jednak warto wspomnieć o podstawach.
Kurs pozycjonowania stron w wyszukiwarkach internetowych polecany przez www.pozycjoner.org

Czym jest pozycjonowanie stron?

Najprościej mówiąc pozycjonowanie polega na takim dostosowaniu strony, by po wpisaniu w wyszukiwarce danej frazy, nasza witryna ukazała się na jak najwyższej pozycji w wynikach wyszukiwania. Jest to niezwykle skuteczny sposób promocji stron internetowych, przynoszący niewiarygodne korzyści i znaczny wzrost popularności pozycjonowanego serwisu. Z tego względu powstało mnóstwo firm świadczących usługi pozycjonerskie, niestety są one zbyty drogie dla przeciętnego posiadacza niekomercyjnej witryny. Dlatego postanowiliśmy opisać tutaj podstawowe zagadnienia dotyczące pozycjonowania i optymalizacji stron WWW. Dzięki zgromadzonym tu informacjom każdy właściciel witryny internetowej może podnieść jej pozycję w rankingu wyszukiwarek bez większych nakładów finansowych.
Optymalizacja kodu strony

Pozycjonowanie warto zacząć od dopracowania swojego serwisu i optymalizacji kodu pod kątem wyszukiwarek internetowych. Najlepiej wykonywać te czynności jeszcze w trakcie projektowania strony, kierując się określonymi zasadami, które zostały przedstawione poniżej.
Nagłówek (head)

Istotne informacje, na które zwracają uwagę roboty wyszukiwarek znajdują się w nagłówku strony, czyli pomiędzy <head> a </head>.

TITLE
Najważniejszym elementem nagłówka (pod względem pozycjonowania) jest znacznik TITLE, który zawiera tytuł strony wyświetlany w wynikach wyszukiwania jako link do znalezionej witryny. Powinien zatem być krótki i sugestywny. Należy pamiętać, że lepiej oceniane są przez pajączka te słowa, które znajdują się bliżej początku dokumentu HTML lub bliżej początku sekcji, a więc gdyby słowem wpisanym przez użytkownika w wyszukiwarce było "księgarnia internetowa", to strona o tytule:

<title>Księgarnia internetowa – największa i najtańsza</title>

mogłaby uzyskać wyższą pozycję, niż strona o tytule:

<title>Największa i najtańsza księgarnia internetowa</title>

META DESCRIPTION
Nieco mniejsze znaczenie niż Title ma znacznik Description. Powinien on zawierać krótki i zwięzły opis witryny zachęcający do jej odwiedzenia, ponieważ wyświetlany jest zwykle w wynikach wyszukiwania zaraz po tytule serwisu. W Description także największe znaczenie mają wyrazy znajdujące się najbliżej początku znacznika. Przykładowy opis wygląda następująco:

<META name="description" content="Opis strony"/>

META KEYWORDS
Znacznik META Keywords był niegdyś jednym z najważniejszych elementów branych pod uwagę przy tworzeniu rankingu stron. Obecnie jego znaczenie jest bardzo małe, ale mimo to warto go umieścić w kodzie swojej strony. W Keywords zawarte są tak zwane słowa kluczowe. Jest to zbiór kilku oddzielonych od siebie przecinkami, najważniejszych, najczęściej występujących w treści witryny wyrazów. Dobrze jest tutaj umieścić wyrazy zawarte w tytule strony, ale trzeba pamiętać, by słowa kluczowe się nie powtarzały. Przykładowy znacznik META Keywords wygląda następująco:

<META name="keywords" content="słowo1, słowo2, słowo3, słowo4"/>

META ROBOTS
Znacznik Robots instruuje mechanizmy wyszukiwarek, jak mają indeksować serwis. Za pomocą odpowiednich parametrów określa się, gdzie można wpuścić robota i co ma indeksować. Najczęściej znacznik Robots używany jest z parametrami index, follow, ale istnieją też inne:

1. index – pozwala robotom indeksować dokument HTML;
2. noindex – zapobiega indeksowaniu strony przez roboty;
3. follow – pozwala robotom indeksować wszystkie strony, do których dotrze poprzez linki w danej witrynie;
4. nofollow – nie pozwala robotowi indeksować stron, do których linki znajdują się w dokumencie;
5. all – to samo, co index, follow;
6. none – to samo, co noindex, nofollow.


Przykładowy znacznik META Robots wygląda następująco:

<META name="robots" content="index, follow"/>

Istnieje też wiele innych znaczników META, takich jak Language, Author, Copyright itp., jednak nie mają one większego wpływu na miejsce witryny w wynikach wyszukiwania.
Właściwa część strony (body)

Znaczniki META mają już coraz mniejsze znaczenie, a roboty wyszukiwarek przywiązują coraz większą wagę do właściwej treści serwisu, dlatego należy zwrócić szczególną uwagę na odpowiednie przygotowanie tej części witryny.

NAGŁÓWKI H1 - H6
Pojawienie się szukanego słowa w nagłówku H1 – H6 jest korzystne dla pozycji strony. Warto więc tytuły artykułów, aktualności i innych rzeczy w serwisie umieszczać pomiędzy znacznikiem <h1> a </h1>, <h2> a </h2>, <h3> a </h3> itd. w zależności od ważności danego wyrażenia, np.:

<h1>Pozycjonowanie stron WWW</h1>

Wygląd nagłówków H1 - H6 można łatwo określić przy użyciu arkusza styli CSS.

WYRÓŻNIENIE WAŻNIEJSZYCH SŁÓW
Warto ważniejsze słowa w treści strony (a szczególnie niektóre słowa kluczowe) wyróżnić np. pogrubieniem (<b>Tekst pogrubiony</b> albo <strong>Tekst pogrubiony</strong>), podkreśleniem (<u>Tekst podkreślony</u>) lub kursywą (<i>Tekst pochyły</i> albo <em>Tekst pochyły</em>). Dzięki temu wyróżnione wyrazy mają większe znaczenie dla wyszukiwarek.

OPISY I KOMENTARZE PLIKÓW GRAFICZNYCH
Niemałe znaczenie mają komentarze i opisy plików graficznych umieszczane w znacznikach IMG, np.:

<img src="obrazek.gif" alt="słowo kluczowe" title="słowo kluczowe"/>

Należy jednak zachować umiar i nie przesadzać z ilością słów kluczowych w komentarzach, gdyż efekt może być odwrotny do zamierzanego.
Linki

Przedstawione powyżej elementy jedynie wspomagają pozycjonowanie strony. Prawdziwa moc kryje się w linkach, które wiodą do danej witryny. Sztuka polega na odpowiednim doborze treści odsyłaczy, serwisów do wymiany i umieszczania linków oraz wielu innych czynników. Link popularity (czyli ilość odsyłaczy ze stron zaindeksowanych przez wyszukiwarkę, prowadzących do określonej witryny) jest jedną z kluczowych wartości przy układaniu rankingu stron, dlatego też należy poświęcić więcej uwagi opisanym tu zagadnieniom.
Katalogi stron WWW

Dodawanie linków najlepiej jest zacząć od katalogów stron, dzięki czemu można na początek za darmo zyskać nieco stałych odsyłaczy. Swoją stronę powinno się umieszczać w katalogach stosujących linki bezpośrednie, bez różnego rodzaju przekierowań. W pierwszej kolejności warto dodać stronę do najpopularniejszych katalogów, takich jak:

DMOZ - największy na świecie katalog stron, posiadający tysiące klonów, dzięki czemu dodając do niego swoją witrynę, automatycznie zyskuje się bardzo dużą ilość linków, niestety póki zgłoszony serwis zostanie zaakceptowany przez redaktorów i faktycznie opublikowany w katalogu mija zwykle kilka miesięcy;

Katalog Onet.pl - najbardziej popularny wśród polskich internautów katalog stron jednego z największych polskich portali internetowych - Onet.pl. Obecnie zawiera około kilkuset tysięcy adresów precyzyjnie posegregowanych w szczegółowych kategoriach tematycznych;

Katalog WP.pl - jeden z największych polskich katalogów stron WWW w portalu Wirtualna Polska. Obecność witryny w tym katalogu jest jednym z kluczowych elementów, branych pod uwagę przy tworzeniu rankingu stron w wyszukiwarce WP. Niestety, umieszczenie strony w tym katalogu jest płatne;

WebwWeb.pl - bezpłatny, otwarty katalog internetowy, tworzony przez użytkowników. Zawiera nowoczesny system zarządzania dowolną ilością własnych wpisów; przed dodaniem strony należy się zarejestrować.

Oprócz stron wymienionych powyżej, istnieje niezliczona ilość mniejszych katalogów, które także mogą się przyczynić do wzrostu popularności naszej witryny. Aby ułatwić sobie zadanie, można skorzystać z tak zwanych multirejestratorów, czyli specjalnych formularzy dostępnych na stronach WWW albo programów dających możliwość zgłoszenia serwisu do dużej liczby katalogów i wyszukiwarek jednocześnie, jednak większość osób zajmujących się pozycjonowaniem odradza stosowanie tego typu rozwiązań. Jako argument można podać opinię, że wyszukiwarki "lubią" naturalny przyrost ilości linków, a opublikowanie kilkuset identycznych odsyłaczy jednego dnia trudno uznać za naturalne.
Wymiana linków

Kolejny sposób na zwiększenie popularności witryny to wymiana linków z innymi stronami. Aby wymiana była uczciwa, oba serwisy muszą mieć podobną popularność, by nikt na tym nie stracił. Największe znaczenie mają odsyłacze ze stron podobnych pod względem tematycznym oraz takich, które posiadają wysoką wartość PageRank. Zwracając uwagę na PageRank, nie powinno się zapominać, że im więcej hiperłączy do stron zewnętrznych znajduje się w danym serwisie, tym każde z nich ma mniejszą "moc", możliwe więc, że łącze ze strony o PR równym 3, ale nie zawierającej innych linków od naszego, bardziej przyczyni się do wzrostu wartości pozycjonowanej witryny, niż łącze ze strony o PR równym 5, jednak posiadającej wiele różnych odnośników do stron zewnętrznych. Dość ważny jest także tak zwany anchor tekst, czyli treść linka, np.:

<a herf=http://www.twojastrona.pl>anchor text</a>

Anchor tekstem powinny być nasze słowa kluczowe. Warto pamiętać, by treść linków była zróżnicowana, np. podczas pozycjonowania serwisu pod słowem "książki" można różnicować anchor tekst dodając inne wyrazy ("tanie książki", "ciekawe książki" itp.), natomiast pozycjonując witrynę pod kilkoma słowami kluczowymi, dobrze jest, aby w każdym kolejnym linku używać innej frazy kluczowej. Z długością anchor tekstu nie powinno się przesadzać, gdyż pełna "siła" odsyłacza rozkłada się na każde słowo, a zatem największą wartość mają linki zawierające tylko jeden wyraz. Mówiąc o wymianie odsyłaczy, należy także wspomnieć o systemach wymiany linków, takich jak np. Linkor czy Linkuj. Zasada działania jest prosta: należy zgłosić swoją witrynę w systemie, a następnie na każdej podstronie umieścić specjalnie wygenerowany kod, który odpowiada za wyświetlanie łączy do innych stron biorących udział w wymianie, a w zamian na tych witrynach pokazywany jest odsyłacz do Twojego serwisu. Takie sposoby pozycjonowania mają wiele zalet, ale też i wad. Przede wszystkim można zyskać sporo dodatkowych odsyłaczy. Niestety, dużo do życzenia pozostawia jakość tych linków, gdyż w takich systemach uczestniczą zwykle mało wartościowe strony, a do tego łącza przydzielane są dynamicznie, bez wiedzy użytkownika. Między innymi dlatego wiele osób odradza korzystanie z tego typu rozwiązań. Lepsze od rotacyjnych są statyczne systemy wymiany linków (np. LinkORN czy LinkMe), głównie przez fakt, iż hiperłącza są stałe, a nie przydzielane dynamicznie przy każdym odświeżeniu strony, natomiast użytkownik ma pełną kontrolę nad swoimi odsyłaczami. Wymieniając się linkami warto sprawdzić, czy właściciel partnerskiego serwisu nie jest oszustem. Strona, na której umieszczono nasz odsyłacz musi być zaindeksowana przez Google'a, inaczej jest on bezwartościowy. Niektórzy używają sztuczek polegających na umieszczeniu znacznika META Robots z parametrem noindex, nofollow lub none (informują one robota wyszukiwarki, by nie indeksował strony, bądź nie brał pod uwagę łączy zewnętrznych), wstawiają atrybut rel="nofollow" w kodzie odsyłacza itp. Negatywny wpływ może mieć także umieszczanie hiperłączy do stron zbanowanych (usuniętych z indeksu za naruszenie zasad) przez Google'a, tzw. farm linków bądź miejsc zawierających treści pornograficzne, faszystowskie, rasistowskie, hazardowe itp.
Zakup linków

Dysponując odpowiednim zapleczem finansowym, można sobie pozwolić na kupowanie linków w popularnych serwisach internetowych. Cena zależy przede wszystkim od wartości PageRank, ilości zindeksowanych stron przez popularne wyszukiwarki, liczby łącz wychodzących oraz średniej ilości unikalnych odwiedzin witryny sprzedającej usługę.
Inne sposoby zdobywania linków

Przy promocji serwisu należy wykazać się pomysłowością i odrobiną sprytu. Oprócz rejestrowania strony w katalogach i wyszukiwarkach, wymiany i kupowania linków istnieją inne sposoby na zdobywanie odsyłaczy mających tak duży wpływ na popularność witryny oraz jej pozycję w rankingu wyszukiwarek. Można wykorzystać np. księgi gości dostępne w różnych serwisach internetowych i pozostawić po sobie pamiątkę w postaci linka do swojej strony. Warto uwzględnić również fora dyskusyjne. Niektóre z nich zawierają bowiem dział przeznaczony do prezentacji własnych witryn (np. forum.webhelp.pl czy forum.pozycjoner.org). Godne uwagi są jeszcze grupy dyskusyjne, a szczególnie takie jak pl.comp.www.nowe-strony oraz pl.comp.nowe-strony stworzone specjalnie po to, by użytkownicy mogli przedstawiać swoje serwisy. Innym sposobem jest umieszczenie "reklam" strony w popularnych portalach ogłoszeniowych, między innymi Pajęczyna, Dwukropek itp. Stosując te opcje należy dbać o netykietę i nie przesadzać z natarczywym zachwalaniem i reklamowaniem witryny.
Mapa witryny

Mapą witryny jest zestawienie na jednej podstronie wszystkich odsyłaczy do treści zawartych w całym serwisie WWW, w sposób odzwierciedlający ich faktyczny układ i zależność między nimi. Mapa serwisu przydaje się zarówno użytkownikom, jak i robotom wyszukiwarek indeksującym witrynę. Wyszukiwarki internetowe wykorzystują do indeksowania stron mechanizm zwany pajączkiem (crawlerem). Po przeczytaniu serwisu crawler poprzez linki przechodzi na inne (niesprawdzone dotąd) strony. Dzięki zastosowaniu mapy witryny, pajączek nie ominie żadnej podstrony i szybciej zaindeksuje każdą z nich. Przed tworzeniem mapy serwisu warto obejrzeć przykładowe rozwiązania, np. mapa serwisu Google.com, mapa serwisu Gazeta.pl, mapa serwisu Kataloog.info. Podane powyżej przykłady zostały wykonane głównie z myślą o ułatwieniu użytkownikom nawigacji po serwisie, jednak zaleca się także utworzenie mapy zgodnej z protokołem Sitemap, preferowanym przez najpopularniejsze wyszukiwarki. Więcej informacji znajduje się na stronie Google Sitemaps.
Spamowanie wyszukiwarek

Spamowanie (zaśmiecanie) polega na próbie oszukania wyszukiwarki poprzez użycie nieetycznych metod pozycjonowania mających na celu podniesienie pozycji strony w wynikach wyszukiwania. Powoduje to znaczny spadek efektywności wyszukiwarek, dlatego ich właściciele, chcąc utrzymać swój produkt na rynku, starają się przeciwdziałać manipulacji wynikami wyszukiwania. Są więc zmuszeni do opracowywania technik antyspamowych, które w przypadku wykrycia nadużycia mogą spowodować znaczny spadek witryny w rankingu wyszukiwarki lub nawet jej całkowite usunięcie z indeksu (zbanowanie). Wymyślono już wiele technik spamerskich. Dawniej były one skuteczne, jednak rozwój serwisów wyszukiwawczych sprawił, że są one uznawane za spam. Nieustannie wymyśla się nowe sposoby oszukiwania wyszukiwarek. Nawet jeśli obecnie przynoszą one efekty, w przyszłości mogą zostać potraktowane jako spam. Poniżej zostały przedstawione najczęściej spotykane techniki spamerskie, których nie należy nigdy stosować.
Przeładowanie strony słowami kluczowymi

Jednym z najczęściej spotykanych rodzajów spamu w wyszukiwarkach jest zbyt duże nagromadzenie słów kluczowych na stronie. Kilkakrotne występowanie poszukiwanej frazy w treści witryny (w tym także znacznikach Title, META Keywords, META Description, opisach plików graficznych itd.) ma korzystny wpływ na pozycję strony w wynikach wyszukiwania. Jednak niektórzy nie dość, że powielają ten sam wyraz w META Keywords i Description, to jeszcze wstawiają go w znacznikach takich jak Copyright, Author, Generator, Subject. Jeszcze kilka lat temu, gdy wyszukiwarki tworzyły ranking stron głównie na podstawie słów kluczowych zawartych w Keywords takie techniki przynosiły efekty. Obecnie mechanizmy wyszukiwarek są wyczulone na tego rodzaju nadużycia, a np. dla Google META tagi nie mają większego znaczenia. Należy także uważać przy opisywaniu plików graficznych:

<img src="obrazek.gif" alt="opis obrazka" />

Zbyt częste używanie pozycjonowanej frazy w parametrze ALT znaczników IMG może zostać uznane za spam. Trudno określić, jaki poziom występowania słów kluczowych jest bezpieczny. Zwykle przyjmuje się, że wszystkie słowa kluczowe występujące na stronie nie powinny przekraczać 8-9% treści całej witryny.
Słowa kluczowe sprzeczne z treścią strony

Dla niektórych właścicieli stron liczy się tylko ilość odwiedzin generowanych przez wyszukiwarki, nie zwracając uwagi na ich jakość. Wstawiają więc w znacznikach META, warstwach stylów CSS, opisach alternatywnych słowa kluczowe nieadekwatne do zawartości serwisu. Są to zazwyczaj bardzo popularne frazy (np. SMS, mp3), których użycie powinno spowodować pojawienie się witryny na wysokiej pozycji pod tymi właśnie wyrazami i w efekcie zwiększyć ruch na stronie. W konsekwencji jednak witryna zazwyczaj spada rankingach i traci w oczach odwiedzających.
Niewidoczny tekst

W celu zwiększenia ilości wystąpień pozycjonowanej frazy w treści strony lub ukrycia słów niezwiązanych z tematyką serwisu stosuje się czasem niewidoczny tekst (invisible text), najczęściej w kolorze tła. Dzięki temu jest on praktycznie niezauważalny dla użytkownika, jednak czytają go roboty wyszukiwarek przy indeksowaniu witryny. Technika ta często łączona jest z małym tekstem (tiny text) napisanym zwykle czcionką o wielkości jednego piksela, której osoby odwiedzające stronę nie są w stanie dostrzec. Mechanizmy wyszukiwarek potrafią wykryć takie nadużycia, niestety pojawiły się bardziej zaawansowane sposoby ukrywania tekstów jak np. przykrycie słów obrazkiem lub wykorzystanie arkusza styli CSS.
Farmy linków

Jako farmę linków (link farm) określa się stronę, na której znajduje się bardzo duża ilość odsyłaczy do witryn zewnętrznych mających na celu podwyższenie ich pozycji w wyszukiwarkach. Rzeczywistość jest jednak inna. Google nie bierze zwykle pod uwagę łącz pochodzących z farmy linków. Umieszczanie hiperłączy do takich stron może poważnie zaszkodzić naszej witrynie, dlatego lepiej omijać je jak najdalej.
Brak wartościowej treści

Najlepiej oceniane przez wyszukiwarkę są strony posiadające konkretną, unikalną i niepowtarzalną zawartość. Czasem spotyka się jednak witryny, na których została powielona treść z innych, wcześniej już istniejących stron. Do takich działań uciekają się często webmasterzy chcący za wszelką cenę zwiększyć popularność swojego serwisu i kopiują artykuły z cudzych witryn. Również właściciele sklepów internetowych, w nadziei na zwiększenie sprzedaży, tworzą kopię posiadanego serwisu, zmieniając jedynie nazwę domeny i modyfikując szatę graficzną. Takie strony narażone są na całkowite usunięcie z indeksu wyszukiwarki za tak zwane duplicate content (powielenie zawartości). Nawet, jeśli przewinienie nie zostanie wykryte przez mechanizmy antyspamowe, istnieje duże prawdopodobieństwo, że autor powielonego tekstu lub osoba z konkurencyjnej branży zgłosi występek administratorom danej wyszukiwarki.
Cloaking

Technika zwana cloakingiem polega na podstawieniu określonym przeglądarkom internetowym specjalnie przygotowanej wersji strony. Robota wyszukiwarki również można potraktować jako swego rodzaju przeglądarkę i stworzyć skrypt, który w przypadku wykrycia crawlera pokazuje mu wersję witryny maksymalnie dostosowaną do wymagań wyszukiwarki, inną niż widzi reszta użytkowników serwisu. Cloaking umożliwia także wyświetlenie witryny o zupełnie innej tematyce, niezwiązanej z wyrażeniem poszukiwanym przez internautę, np. po wpisaniu w wyszukiwarce słowa "pozycjonowanie" zostaje pokazana strona pornograficzna. Opracowano już jednak techniki pozwalające na wykrycie cloakingu przez crawlera. Serwisy takie jak Google posiadają pajączki podszywające się pod daną przeglądarkę internetową (Internet Explorer, Netscape itd.), może także ulec zmianie ich nazwa i numer IP. Cloaking jest bardzo kontrowersyjnym tematem w pozycjonowaniu. Używa się go czasem w dobrych intencjach, np. wyświetlenie konkretnym przeglądarkom specjalnie dostosowanej dla nich strony lub zmiana jej wersji językowej w zależności od lokacji geograficznej użytkownika (określanej na podstawie jego numeru IP). Niestety, roboty nie potrafią odróżnić, w jakim celu zastosowano tę technikę, dlatego należy unikać cloakingu, gdyż jego wykrycie powoduje często trwałe usunięcie witryny z indeksu wyszukiwarki.
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
zielonahela



Dołączył: 14 Kwi 2008
Posty: 901

PostWysłany: Nie Cze 29, 2008 11:17    Temat postu: Pozycjonowanie stron www Odpowiedz z cytatem

Top listy stron wwww pozwalają na lepsze miejsce naszej strony w wyszukiwarkach. Ten ciekawy ranking może wypromować Twoją stronę www w sieci.
Mało osób odwiedza Twoją stronę internetową? Chcesz to zmienić, pokazać swoją stronę światu, wypromować ją w Internecie? Zgłoś stronę do przynajmniej jednej toplisty i ciesz się nowymi, napływającymi na nią gośćmi.
Polecam www.dorobkiewicz.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Pon Cze 30, 2008 11:32    Temat postu: Na czym polega pozycjonowanie stron? Odpowiedz z cytatem

Pozycjonowanie to szereg zabiegów mających na celu osiągnięcie wysokich pozycji w wyszukiwarkach dla wybranych słów i zwrotów wpisywanych przez osoby szukające.
Zabiegi związane z pozycjonowaniem rozpoczynają się na stronie internetowej, a dokładnie w jej kodzie. Jest to proces optymalizacji strony.
Kolejne zabiegi odbywają się już poza stroną i polegają na stopniowym reklamowaniu adresu strony na innych witrynach.
Pozycjonowanie stron to proces stopniowy i długotrwały - liczony w miesiącach. Chodzi o takie ustawienie wyników aby były one stabilne, a nie opadły po kilku tygodniach. Dzieje się tak właśnie w przypadku szybkiego pozycjonowania ponieważ wyszukiwarki starają się maksymalnie utrudniać manipulacje przy wynikach. Dlatego średni czas pozycjonowania wynosi około 3 miesięcy.
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Pon Cze 30, 2008 11:36    Temat postu: Pozycjonowanie stron www Odpowiedz z cytatem

Pozycjonowanie - reklama nie dla każdego
Optymalizacja wyników wyszukiwania (pozycjonowanie stron) pomimo swej dostępności nie jest reklamą dla każdego.
Przykładem nieodpowiedniej frazy do wykonania tej usługi może być fraza "pogotowie komputerowe". Nieodpowiedni wybór wynika to z tego, że "pogotowie komputerowe" najczęściej jest potrzebne wtedy gdy nie działa komputer - wiec nie można poszukać w internecie takiego pogotowia.
Innym przykładem usługi "nie dla każdego" może być fraza "sklep spożywczy". Taki sprzedawca najczęściej sprzedaje na wąskim rynku lokalnym (osiedlowym) i jemu taki rodzaj reklamy nie jest potrzebny.
Jednym z ostatnich czynników określających przydatność tej formy reklamy jest jej cena. Ze względu na zasięg tej formy reklamy a także ze względu na "czas jej emisji" uznaje się, że koszt jej w stosunku do skuteczności jest relatywnie niski.
Niestety to przeświadczenie powoduje, iż potencjalny klient wyobraża sobie, że jest to tania reklama internetowa. Dodatkowym czynnikiem, który potwierdza rzekomą niską cenę tej formy reklamy są ceny zawarte w nierzetelnych ofertach często przedstawianych na przykład na allegro bądź ceny za niekompleksową usługę (nie uwzględniającą innych czynników) jaką jest na przykład usługa katalogowania stron. Błędy popełnione przy niekompleksowych usługach związanych z pozycjonowaniem w późniejszym czasie bardzo często skutkują koniecznością podniesienia ceny ze względu na konieczność "naprawienia błędów" wynikających z niewłaściwych decyzji.
Usługa optymalizacji wyników wyszukiwania (pozycjonowania stron) jest relatywnie tanią reklamą - co nie znaczy, że jest to reklama mogąca zamknąć się w cenie 50 zł. opłaty jednorazowej. Jej koszt jest kosztem stałym - miesięcznym a wysokość opłat jest zależna od wielu czynników trudnych do omówienia via telefon czy też via e-mail.
Na czym polega pozycjonowanie
SEO (search engine optimization), optymalizacja wyników wyszukiwania potocznie zwana pozycjonowaniem stron jest nie jawną reklamą internetową.
Polega ona na podniesieniu wartości serwisu, której skutkiem jest wyższa pozycja w organicznych wynikach wyszukiwania.
Pozycjonowanie stron nie polega tylko na optymalizacji kodu witryny!. Optymalizacja kodu to tylko jeden z elementów ułatwiających pozycjonowanie.
Elementy pozycjonowania
- dobór fraz (słów kluczowych);
- SEO analiza konkurencji;
- SEO analiza strony;
- optymalizacja kodu witryny internetowej;
o optymalizacja title, url;
o linki wewnętrzne;
o optymalizacja objętości kodu;
o standaryzacja kodu;
- linki zewnętrzne;
- optymalizacja treści witryny;
Pozycjonowanie produktów
Pozycjonowanie wielu produktów umieszczonych w jednym serwisie internetowym (sklepie) może nastręczyć wielu kłopotów.
Pierwszym zagadnieniem, które należy wziąć pod uwagę jest ilość produktów. Dość kosztowną byłaby usługa pozycjonowania uwzględniająca każdy produkt jako osobną frazę. W wielu przypadkach należy zatem doprowadzić do takiej optymalizacji witryny (sklepu) aby siłą własną serwisu produkty zaczęły pojawiać się wysoko w wynikach wyszukiwania.
Pozycjonowanie poprzez optymalizację serwisu
Podczas optymalizacji pod kątem pozycjonowania wielu produktów należy uwzględnić:
- optymalizację opisów (treści);
- optymalizację adresów podstron;
- optymalizację tytułów podstron;
- optymalizację linkowań wewnętrznych.
Optymalizacja pod kątem pozycjonowania wielu produktów pozwala znacznie obniżyć koszty pozycjonowania. Taka optymalizacja jest kosztem jednorazowym i najczęściej jej wykonanie rozwiązuje także problem nowo wprowadzanych produktów.
Co to jest optymalizacja stron pod kątem SEO
Optymalizacja stron pod kątem SEO może przyjąć rożne formy. Jej głównym celem jest podniesienie wartości podstron serwisu w celu uzyskania wyższych pozycji w SERP. Jednym z wariantów optymalizacji witryny jest optymalizacja treści a także doprowadzenie jej kody do jednego ze standardów W3C. Wraz z taką optymalizacją pod kątem standaryzacji kodu przeprowadzana jest optymalizacja objętości kodu HTML (też PHP) co ma bezpośredni wpływ na szybkość otwierania się stron optymalizowanego serwisu oraz zmniejszenie transferu a także zmniejszenie obciążenia serwera na którym zaparkowana jest witryna.
Elementy optymalizacji
Spośród ogólnego pojęcia optymalizacji należy wyszczególnić:
- optymalizację kodu pod kątem objętości;
- optymalizację kodu strony pod kątem standaryzacji;
- optymalizację zapytań baz danych;
- optymalizację linków wewnętrznych;
- optymalizację adresów URL;
- optymalizację tytułów;
- optymalizacja treści.
Zalety optymalizacji
Korzyści z optymalizacji w stosunku do wyżej wymienionych elementów optymalizacji
- zmniejszenie transferu, zmniejszenie obciążenia serwera;
- zmniejszenie obciążenia serwera bazodanowego;
- zmniejszenie kosztu usługi pozycjonowania w szczególnych przypadkach nawet do 80% wartości usługi.
Optymalizacja objętości kodu strony
Optymalizacja kodu strony pod kątem jego wielkości ma na celu:
- zmniejszenie transferu danych,
- przygotowanie serwera do zwiększonego obciążenia,
- zwiększenie prędkości ładowania strony,
Optymalizacja wielkości kodu w usłudze pozycjonowania.
Wśród wielu ofert usługi pozycjonowania brak jest bardzo ważnego elementu jakim jest optymalizacja wielkości kodu. Najczęściej także specjalistyczne firmy trudniące się wytwarzaniem stron nie kładą nacisku na optymalizację kodu strony.
Wykonanie usługi pozycjonowania stron wiąże się z kilkukrotnym (i większym) zwiększeniem ruchu na stronie klienta a więc i zwiększeniem transferu czy też zwiększeniem obciążenia serwera. Ze względu na powyższe przed wykonaniem usługi pozycjonowania stron powinno się dokonać optymalizacji skryptu strony.
Bardzo często przebudowa skryptu strony może być kosztowniejsza niż napisanie skryptu od podstaw.
Zewnątrzne arkusze stylów CSS
Jednym z elementów optymalizacji wielkości kodu jest przeniesienie stylów CSS do zewnętrznego pliku arkusza stylów.
Przeglądarka internetowa czytając stronę pierwszy raz zaczyta zewnętrzny arkusz stylów CSS i przechowa go w lokalnym buforze. Dalsze przeglądanie stron będzie odbywało się już bez konieczności czytania stylów CSS co byłoby nieuniknione w przypadku gdy style CSS zawarte są bezpośrednio w kodzie HTML.
Przeniesienie stylów CSS do zewnętrznego arkusza stylów to jeden z wielu elementów optymalizacji strony pod kątem wielkości strony.
Co to jestPageRank™
PageRank™ (Ranking Page'a) jest metodą nadawania indeksowanym stronom internetowym określonej wartości liczbowej (rangi) z przedziału od 0 do 10. Algorytm ten został opracowany w 1998 roku przez Larry'ego Page'a oraz Sergeya Brina i wzorowany był na znanej heurystyce według której jakość tekstu jest proporcjonalna do ilości tekstów, które się na niego powołują.
Według testów w obecnych czasach PageRank™ nie ma bezpośredniego wpływu na pozycję strony w wynikach wyszukiwania. Jest jedynie wartością w dużym uproszczeniu informującą o randze strony, wyliczonej w oparciu o PageRank™ stron linkujących do ocenianej strony.
Do dziś algorytm PageRank™ nie został ujawniony, przeszedł wiele zmian i nadal jest wykorzystywany przez popularną wyszukiwarkę internetową Google™.
Wartość PageRank™ strony internetowej można sprawdzić poprzez narzędzia udostępniane online lub bardzo często z paska narzędziowego np. Toolbar Google instalowanego w przeglądarce.
PageRank™ dla większości internautów jest mało znanym pojęciem i jest bez większego znaczenia dla SEO.
Co to jest fraza w usłudze pozycjonowania
Fraza w usłudze pozycjonowania.
Fraza jest ciągiem znaków (wyraz) wprowadzany do okna wyszukiwarki w celu uzyskania wyników wyszukiwania (SERP) - na rysunku poniżej w czerwonej ramce.
Fraza może być jednowyrazowa a także wielowyrazowa. Każda z fraz podlega osobnej analizie a następnie osobnej wycenie, niezależnie od tego z ilu poprzednio analizowanych i wycenianych fraz składa się obecnie analizowana fraza. W uzasadnionych przypadkach niektóre frazy mogą być pomijane w wycenie (np. ze względu na niewielką konkurencyjność frazy).
Ile kosztuje pozycjonowanie
Głównym czynnikiem kształtującym koszt usługi pozycjonowania jest konkurencyjność fraz. Wśród wielu fraz niektóre wymagają jedynie kosztu jednorazowego inna zaś ze względu na dużą konkurencyjność pociągają za sobą konieczność wnoszenia opłat stałych (koszt stały-miesięczny).
Jedynie kompleksowe rozwiązania usługi pozycjonowania pozwalają na pełne wykorzystanie środków klienta. Do takich kompleksowych rozwiązań należy zaliczyć:
- określenie grupy docelowej;
- dobranie słów kluczowych (fraz) do odpowiedniej grupy docelowej;
- analiza wybranych fraz pod kątem ich celowości;
- obranie strategii wykonania usługi (oferujemy 5 głównych strategii oraz szereg rozwiązań pośrednich, różniących się skutecznością oraz ceną);
- optymalizację kodu witryny pod kątem pozycjonowania;
- pozycjonowanie.
Ze względu na skomplikowany proces usługi pozycjonowania stron, wycena on-line dokonana bez szczegółowego omówienia potrzeb omawianych podczas spotkania, może zawierać tylko koszty fraz - co nie daje pełnego obrazu kosztów.
Dzięki zastosowaniu odpowiedniego wariantu można doprowadzić do obniżenia kosztów usługi w szczególnych przypadkach nawet o 80% wartości pozycjonowanych fraz. Ze względu na powyższe nie przedstawiamy ofert bez wcześniejszego spotkania, na którym szczegółowo omawiane są wszystkie aspekty kompleksowej usługi pozycjonowania stron dające klientowi możliwość późniejszego odpowiedniego wyboru strategii kosztów.
Co to jest SEO CMS
SEO CMS (SEO Content Management System) jest to system zarządzania treścią witryny zoptymalizowany na potrzeby usługi optymalizacji wyników wyszukiwania (SEO).
Odpowiednia budowa SEO CMS pozwala na znaczne obniżenie kosztów usługi optymalizacji wyników wyszukiwania (pozycjonowania stron) w szczególnych przypadkach nawet do 80% wartości usługi.
Nie w każdym wypadku daje się zastosować SEO CMS jako element obniżający koszty usługi. Jego właściwości oraz sens zakupu szczegółowo omawiany jest na spotkaniach handlowych.
Nasz SEO-CMS
Dodatkowe cechy naszego SEO CMS
- tworzenie i edycja nowych zakładek (podstron);
- edycja tytułów, adresów zakładek itp;
- prosta edycja treści witryny wbudowanym edytorem tekstu;
- wklejanie, ustawianie rozmiaru rysunków;
- możliwość ukrycia zakładek na czas ich tworzenia;
- możliwość edycji kodu HTML - dla bardziej zaawansowanych;
- podgląd edytowanej strony;
- tworzone podstrony są zgodne ze standardem W3C (brak konieczności optymalizacji kodu);
- obniża koszty usługi optymalizacji wyników wyszukiwania (pozycjonowania stron);
- wiele innych cech objętych tajemnicą handlową;
Polecam www.erbit.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Sro Lip 09, 2008 11:48    Temat postu: Słowniczek pojęć Odpowiedz z cytatem

Adres e-mail, Adres poczty elektronicznej - adres, na który można wysłać pocztę elektroniczną. Ma postać nazwa@serwer.com, gdzie "nazwa" to identyfikator użytkownika, a "serwer.com" to adres serwera pocztowego. Nie może być nigdy jednocześnie dwóch takich samych adresów e-mail, ale za to kilka różnych adresów e-mail może prowadzić to tej samej skrzynki pocztowej - alias pocztowy. Alias internetowy - to alternatywny (dodatkowy) atrakcyjny i łatwy do zapamiętania adres URL lub adres poczty elektronicznej. Zastępuje zwykle długą i trudną nazwę lub cały zbiór poleceń.
Aplet (applet) – kojarzone z programami napisanymi w języku Java. Są to niewielkie programy osadzone na stronach WWW, które mogą być ściągane z sieci i uruchamiane na komputerze użytkownika.
ARP (Address Resolution Protocol) - protokół komunikacyjny przyporządkowywania 32-bitowych adresów IP (ustalanych autorytarnie przez użytkownika/administratora) fizycznym, 48-bitowym adresom MAC (przypisanym m.in. do kart sieciowych).
Autoryzacja - poświadczenie autentyczności danych podanych przez użytkownika. Autoryzacja jest zwykle poprzedzona uwierzytelnieniem (zidentyfikowaniem) podmiotu. Uwierzytelnienie zwykle odbywa się przez podanie odpowiedniego loginu i hasła.
Banner - najpopularniejsza forma reklamy internetowej. Banner to szeroki, poziomy pasek, przekazujący (zwykle w formie animacji) treści informacyjne bądź reklamowe. Najczęściej spotykany rozmiar bannera to 700x100 i 468x60 pikseli.
Baza Danych (database) - zbiór danych zarządzany przez system zarządzania danymi. Bazy danych operują głównie na danych tekstowych i liczbowych, lecz większość współczesnych baz umożliwia przechowywanie danych binarnych typu: grafika, muzyka itp. Takimi bazami są np. informacje teleadresowe, katalogi stron WWW.
B2B (Business to Business) - to określenie transakcji elektronicznych zawieranych w obrocie pomiędzy firmami.
Boksy reklamowe - reklamy stron wyświetlane zazwyczaj po prawej stronie wyników wyszukiwania.
BOOTP (BOOTstrap Protocol) - protokół dynamicznie ustalający konfigurację hosta. DHCP umożliwia automatyczne pobranie ustawień sieciowych, takich jak np. numeru IP, maski, serwera DNS i przydzielenie ich komputerom wpiętym w sieć. W roku 1993 został zastąpiony przez nowszy protokół DHCP (Dynamic Host Configuration Protocol).
Bps (bit per second) – bit na sekundę, jednostka natężenia strumienia danych w medium transmisyjnym oraz jednostka przepustowości, czyli maksymalnej ilości danych transmitowanych przez modem lub łącze w jednostce czasu.
Bramka – program lub niezależne urządzenie łączące różne sieci. Odpowiada za przesyłanie danych i ich rozdział wewnątrz sieci lokalnej.
Cache (pamięć podręczna) – dodatkowa bardzo szybka pamięć pośrednicząca w przesyłaniu informacji. Może stanowić miejsce na dysku komputera, w którym przechowywane są np. oglądane strony WWW, aby w przyszłości przy ich powtórnym otworzeniu przyśpieszyć dostęp do tych stron. Cache jest elementem właściwie wszystkich systemów.
Click Through Ratio (CTR) – wskaźnik pozwalający na szybkie oszacowanie jak skuteczny jest banner reklamowy. Definiowany jako stosunek liczby kliknięć w banner do ilości wszystkich odsłon tego bannera.
CMS (Content Management System – System Zarządzania Treścią) - czyli oprogramowanie pozwalające na zarządzanie i modyfikowanie dokumentami. Odbywa się to za pomocą prostych w obsłudze interfejsów użytkownika, zazwyczaj w postaci stron WWW zawierających rozbudowane formularze i formuły.
Content - zawartość stron/witryn internetowych.
Cookies - "ciasteczka", wspólna nazwa plików zapamiętywanych na twardym dysku przez przeglądarkę WWW, która przechowuje informacje o odwiedzanych stronach, grupach dyskusyjnych, itp. Ciasteczka są stosowane najczęściej w przypadku liczników, sond, sklepów internetowych czy stron wymagających logowania.
Cost Per Click (CPC) – określa koszt jednostkowego kliknięcia w banner reklamowy.
CSS - kaskadowe arkusze stylów (Cascading Style Sheets), to język służący do opisu sposobu renderowania strony WWW, dając ich twórcom dużo większą kontrolę wyglądu strony, niż miało to miejsce przy użyciu klasycznych elementów języka HTML. Styl może być definiowany w jednym pliku dołączonym do wielu stron WWW; jego modyfikacja szybko zmienia wygląd całego serwisu.
Datagram - podstawowa jednostka nośnika informacji w sieciach telekomunikacyjnych.
DHCP - protokół dynamicznie ustalający konfigurację hosta (Dynamic Host Configuration Protocol) umożliwia automatyczne pobranie różnych danych konfiguracyjnych (np. numeru IP, maski, serwera DNS) i przydzielenie ich komputerom wpiętym w sieć. Wszystko po to, aby uprościć administrację siecią komputerową i zapobiec konieczności ręcznego przydzielania ustawień.
Dial-up (połączenie dodzwaniane) - podłączenie do Internetu za pomocą modemu przez zwykłą linię telefoniczną.
DNS (Domain Name Server) - serwer, który zajmuje się gromadzeniem nazw w postaci domen i tłumaczeniem ich na adresy IP.
Domena - element adresu DNS, nazwa umożliwiająca identyfikację serwera znajdującego się w Internecie.
E-book - treść (np. książka) zapisana w formacie elektronicznym.
EDI (Electronic Data Interchange) - elektroniczna wymiana danych w sieciach komputerowych.
Edytor HTML - program umożliwiający tworzenie dokumentów internetowych w standardzie HTML. Może być wyposażony w opcje wspomagające tworzenie stron internetowych.
E-kartki - elektroniczna forma pocztówki, wysyłana za pośrednictwem stron WWW lub wiadomości e-mail.
Ekstranet - rozwiązanie sieciowe obejmujące dwie lub większą ilość sieci intranet, np. między oddziałami firmy.
E-mail (electronic mail) - system umożliwiający przesyłanie danych w postaci listów elektronicznych między użytkownikami sieci komputerowej.
Ethernet - standard wykorzystywany w budowie lokalnych sieci komputerowych, opracowany przez Xerox w 1975r.
FAQ (Frequently Asked Questions) - zbiór zawierający wszystkie najczęściej zadawane pytania i odpowiedzi na nie. Tworzony w celu uniknięcia udzielania odpowiedzi użytkownikom wciąż na te same pytania.
Firewall - program komputerowy lub urządzenie fizyczne, tzw. zapora sieciowa, chroniąca wewnętrzną sieć przed atakami z zewnątrz.
FLASH - technologia tworzenia animacji opierająca się na grafice wektorowej. Pozwala tworzyć interaktywne reklamy i prezentacje na strony WWW.
FTP (File Transfer Protocol) - protokół umożliwiający przesyłanie plików między z i na serwer.
GIF (*.gif) (Graphics Interchange Format) - to format pliku graficznego. Charakteryzują się niewielkimi rozmiarami I możliwością tworzenia animacji.
Gopher - system dostępu do informacji tekstowej w Internecie (głównie kampusowe systemy informacyjne).
Home page (Strona domowa) - główna strona witryny internetowej, także pierwsza strona ładująca się automatycznie po uruchomieniu przeglądarki. Także potoczne określenie prywatnej strony WWW.
Hosting - usługa polegająca na oddaniu do dyspozycji określonej przestrzeni dysku twardego na której można przechowywać strony WWW. Wysokiej jakości usługi hostingowe charakteryzują się przede wszystkim małą awaryjnością, co zapewnia stały dostęp i ciągłe działanie strony internetowej.
HTML (HyperText Markup Language) - hipertekstowy język znaczników. Jest to język stosowany do tworzenia stron WWW. Wywodzi się z języka SGML.
IMAP (Internet Message Access Protocol) - Internetowy protokół udostępniania poczty. Protokół sposób dostępu do poczty email. Pozwala na przeszukiwanie skrzynki pocztowej, ściąganie nagłówków, zarządzanie pocztą elektroniczną. Następca POP3.
Internet - ogólnoświatowy zbiór wzajemnie połączonych ze sobą sieci. Transmisja oparta jest o protokół TCP/IP.
Interstitial - rodzaj reklamy internetowej, która pojawia się w osobnym okienku przeglądarki przed załadowaniem właściwej strony WWW.
Intranet - wewnętrzna, zwykle zamknięta sieć komputerowa np. w firmie lub organizacji. Wykorzystuje takie same protokoły transmisji i zasady funkcjonowania jak sieć Internet.
IP (Internet Protocol Address) - indywidualny numer identyfikacyjny przyporządkowany urządzeniom sieci komputerowej. Adres IP ma postać czterech pakietów w postaci dziesiętnej oddzielonych od siebie kropkami.
IPSec (Internet Protocol Security) - skrótowo jest to protokół mający za zadanie bezpieczne przesyłanie pakietów IP.
IRC (Internet Relay Chat) - system pozwalający wielu użytkownikom Internetu na rozmowę w czasie rzeczywistym na tematycznych lub towarzyskich kanałach komunikacyjnych, a także na prowadzenie prywatnej rozmowy z wybranym użytkownikiem.
ISP (Internet Service Provider) - firma oferująca dostęp do Internetu oraz inne usługi, takie jak konta poczty email czy serwery WWW.
JavaScript – skryptowy język programowania stworzony przez Sun Microsystems, służący do tworzenia apletów, które mogą być uruchamiane i kompilowane na różnych systemach operacyjnych. Udostępniany w kilku odmianach, najczęściej stosowany na stronach WWW.
jpg (*.jpg, *.jpeg) - format skompresowanego pliku graficznego, umożliwiający uzyskanie bardzo dużej kompresji obrazu, niestety często kosztem utraty pewnych szczegółów, na ogół niezauważalnych.
Kafejka internetowa - inaczej kawiarenka internetowa, miejsce, w którym można odpłatnie skorzystać z komputera z Internetu.
Katalog stron WWW - sposób na organizację i uszeregowanie wg kategorii tematycznych adresów stron internetowych.
Klient FTP - program komputerowy korzystający z protokołu FTP, realizujący przesyłanie plików poprzez serwer FTP.
Kod źródłowy (Source code) – program komputerowy zapisany w wybranym języku programowania prezentowany w postaci najczęściej tekstowej, ale także jako inne dane (symbole, liczby). Taka forma jest czytelna dla człowieka posiadającego wiedzę programistyczną.
Komunikator internetowy (Instant Messenger) - program pozwalający na prowadzenie konwersacji poprzez przesyłanie krótkich wiadomości czy komunikatów, także w czasie rzeczywistym, pomiędzy dwoma lub więcej użytkownikami sieci komputerowej, zazwyczaj przez Internet.
Księga gości - element strony internetowej, na którym odwiedzający mogą zostawić krótki komentarz na temat odwiedzanej strony.
LAN (Local Area Network) - sieć lokalna, najmniej rozległa sieć komputerowa, obejmująca zazwyczaj biuro, budynek lub sieć pobliskich budynków.
Licznik odwiedzin - element strony WWW, zliczający ilość odwiedzin na stronie.
Lista dyskusyjna - umożliwia utworzenie tzw. grupy dyskusyjnej, która polega na automatycznym rozsyłaniu wiadomości email na konkretny temat osobom, które zadeklarowały swoją przynależność do grupy poprzez zapisanie się na listę.
Link - odnośnik na stronie, który po kliknięciu umożliwia dostęp do innych dokumentów (także stron WWW), bądź przenosi do innego miejsca na tej samej stronie.
Logo - znak graficzny pełniący rolę marketingowo-informacyjną, najczęściej w postaci symbolu. Logo powinno być kojarzone z firmą i nawiązywać do jej działalności. Może zawierać w sobie logotyp, czyli stylizację literową.
MAC, adres fizyczny MAC - w teorii jest to unikalny numer identyfikujący każde urządzenie sieciowe takie jak karta sieciowa, router, switch. Adres składa się z sześciu par liczb zapisanych w systemie szesnastkowym np. 12-AD-7E-32-45-0B. W praktyce adresy MAC można zmieniać poprzez rozwiązania programowe.
Mailing (Direct mail) - forma reklamy opierająca się na przesyłaniu przesyłek reklamowych (elektronicznych listów, ulotek, katalogów produktów, formularzy zamówień) do użytkowników darmowych kont pocztowych.
Martwy link - link, który nie odnosi się do żadnego dokumentu ani miejsca.
MIME (Multipurpose Internet Mail Extensions) - standard umożliwiający przesyłanie pocztą elektroniczną załączników w postaci np. programów, dźwięków, grafiki, filmów, tekstu.
Mobilna przeglądarka - przeglądarka internetowa pisana najczęściej w języku Java, stworzona dla urządzeń przenośnych takich jak np. telefon komórkowy.
Modem - urządzenie elektroniczne przekształcające dane cyfrowe na analogowe sygnały elektryczne i odwrotnie po to, by mogły być przesyłane poprzez linię telefoniczną.
Moderator - osoba oceniająca komentarze pozostawiane przez użytkowników sieci na stronach internetowych, forach, grupach dyskusyjnych, kanałach IRC pod względem nadużycia i przestrzegania zasad netykiety. Czasem także pod względem poprawności stylistycznej i ortograficznej.
NAT (Network Address Translation - tłumaczenie adresów sieciowych) - sposób adresowania, w którym adresy IP sieci wewnętrznej (lokalnej) są ukrywane przed siecią zewnętrzną, poprzez nadanie im jednego zewnętrznego numeru.
Netykieta - zbiór zasad etycznego zachowania się w Internecie, dotyczący w szczególności umieszczanych na stronach treści. Inaczej: internetowy savoir – vivre.
Newsletter - elektroniczna forma biuletynu - czasopisma przesyłana okresowo za pomocą poczty elektronicznej do prenumeratorów, którzy wyrazili chęć otrzymywania takich wiadomości.
Nick (nickname - pseudonim, przezwisko) - forma nazwy, identyfikatora określanego przez użytkownika. Ta forma podpisu używana jest najczęściej na forach dyskusyjnych, księgach gości, kanałach IRC itp.
Off-line - znaczy tyle co odłączenie od sieci komputerowej, brak dostępu do zasobów sieci.
On-line - podłączenie do sieci komputerowej z możliwością korzystania z jej zasobów.
Okno dialogowe - okienko, które pojawia się w celu wpisania jakiejś wartości czy dokonania wyboru z możliwości już podanych.
Opera - jedna z najlepszych przeglądarek stron WWW.
Outlook Express - klient pocztowy firmy Microsoft zawarty w pakiecie systemu operacyjnego Windows.
Pakiet - jest podstawową jednostką nośnika informacji w sieciach. Każdy pakiet zawiera pewną ilość danych, adres źródła i adres docelowy. Po dotarciu do wyznaczonego celu, z wielu pakietów składana jest pożądana informacja.
Password - kombinacja liter, cyfr i znaków stanowiąca hasło dostępu do określonych zasobów.
Panel administracyjny - miejsce, z którego administrator danego serwisu może wprowadzać zmiany dotyczące działania serwisu.
Peer - użytkownik pobierający i jednocześnie udostępniający dany plik.
Peer-to-peer - p2p, bezpośrednie połączenie dwóch komputerów gwarantujące każdej ze stron równorzędne prawa. Połączenie wykorzystywane do wymiany plików bezpośrednio między użytkownikami.
PHP - skryptowy język programowania, za pomocą którego można tworzyć interaktywne serwisy WWW.
Piksel - najmniejszy możliwy element graficzny widoczny na ekranie monitora.
Podpis elektroniczny - dane personalne lub znacznik dołączany do elektronicznego listu lub dokumentu w celu weryfikacji jego źródła.
Połączenie dodzwaniane - sposób łączenia z Internetem opierający się na wdzwanianiu się w węzeł dostawy internetowego przy użyciu modemu.
POP3 (Post Office Protocol version 3) - jest protokołem pozwalającym na odbiór poczty elektronicznej z serwera.
Portal - rozbudowana witryna ze strukturalnie uporządkowanymi informacjami. Portale publiczne zawierają dużą liczbę skatalogowanych linków. Zwykle oferuje dodatkowo darmową pocztę, strony WWW, e-sklepy. Cechą charakterystyczną portalu jest zgromadzenie w jednym miejscu dostępu do różnorodnych usług i informacji.
Pozycjoner - prawidłowa nazwa konsultant ds. pozycjonowania stron WWW/SEO.
Pozycjonowanie stron (Search engine optimization) - działania mające na celu wypromowanie serwisu internetowego na możliwie jak najwyższe pozycje w wyszukiwarkach internetowych.
PPP (Point-to-point Protocol) - protokół, który określa sposób połączenia komputera użytkownika z dostawcą usług internetowych, używany najczęściej przy połączeniach przez modem.
PR (PageRank) - algorytm wykorzystywany przez wyszukiwarkę internetową Google, na podstawie którego obliczana jest pewna wartość liczbowa, określająca jakość znalezionych stron dla każdego zapytania.
Protokół - zbiór zasad i reguł według których programy i urządzenia wymieniają między sobą informacje, przesyłają dane, nawiązują połączenia z innymi komputerami.
Proxy - specjalistyczny serwer, poprzez który następuje połączenie serwer – klient. Pozwala na przechowywanie plików pobranych z odległych serwerów, co umożliwia szybszy do nich dostęp. To z kolei wpływa na przyśpieszenie transferu plików i odciążenie ruchu w sieci.
Przeglądarka - program umożliwiający przeglądanie stron WWW, a także plików multimedialnych. Najpopularniejsze przeglądarki to Internet Explorer, Mozilla Firefox, Opera, Netscape, Safari.
Reinstalacja - ponowne zainstalowanie programu lub systemu.
Rejestr - plik systemowy, w którym zawarte są wszystkie informacje na temat konfiguracji systemu i instalowanych programów.
Robak komputerowy - rodzaj szkodliwego programu komputerowego, rozprzestrzeniający się we wszystkich sieciach podłączonych pod zarażony komputer. Może wykonywać takie czynności jak: samoreplika, niszczenie plików, wysyłanie niechcianej poczty.
Robot internetowy - program automatycznie przeszukujący zasoby Internetu, wykonujący takie czynności jak np. indeksowanie stron WWW.
Router - urządzenie sieciowe ze specjalnym oprogramowaniem, który zarządza połączeniami pomiędzy poszczególnymi fragmentami sieci i przekazuje dane pomiędzy nimi uprzednio wybierając jak najlepszą drogę do przesłania sygnału.
Rozdzielczość - maksymalna ilość pikseli w pionie i poziomie.
Serwer FTP – określenie to dotyczy komputera udostępniającego swoje zasoby użytkownikom korzystającym z tzw. klienta FTP. Umożliwia on za pośrednictwem protokołu FTP ściągać z serwera pliki, a w niektórych przypadkach nawet je tam umieszczać.
Serwer internetowy - to inaczej komputer świadczący pewne usługi np. udostępnianie wiadomości e-mail lub określonej strony WWW. Nazwa ta tyczy się również oprogramowania uruchomionego na tymże sprzęcie, np. serwer FTP.
Serwer pocztowy - komputer lub oprogramowanie, którego zadaniem jest odbieranie, przesyłanie i przechowywanie poczty elektronicznej użytkowników sieci.
Serwer WWW - program działający na serwerze internetowym, służący do obsługi żadania protokołu HTTP.
SERP (Search Engine Results Position) - strona internetowa, na której wyświetlane są wyniki wyszukiwania za pomocą wyszukiwarki internetowej.
Słowo kluczowe (keyword) - słowo, które w określonym kontekście ma szczególne znaczenie i po których chcemy, aby nasza strona była odnajdywana.
SMTP (Simple Mail Transfer Protocol) - protokół określający sposób przesyłania elektronicznych wiadomości w sieci Internet.
Spam - to niechciane elektroniczne wiadomości rozsyłane, zwykle w sposób masowy, do osób, które ich nie oczekują.
SSL (Secure Socket Layer) - protokół zaprojektowany przez Netscape Communications, umożliwiający bezpieczną transmisję danych w Internecie.
Strona WWW - dokument stworzony przy pomocy odpowiedniego języka (np. HTML), jaki widzi użytkownik w oknie wybranej przeglądarki po wprowadzeniu jej adresu.
TCP/IP (Transmission Control Protocol/Internet Protocol) - pakiet protokołów komunikacyjnych warstwy transportowej i sieciowej. Określa sposób komunikacji i przesyłania danych między komputerami poprzez sieć Internet.
Terminal - komputer, za pomocą którego można dokonać połączenia z serwerem. Trial version – tzw. wersja testowa programu, może być w wersji okrojonej, czasowej lub pełnej dla przetestowania programu przed zakupem.
Ulubione - zakładka w przeglądarce stron WWW, w której można przechowywać adresy najczęściej odwiedzanych witryn.
Unicode - komputerowy, uniwersalny zestaw znaków zawierający wszystkie znaki narodowe.
Update - uaktualnienie informacji zawartych na stronie WWW.
Upgrade - modyfikacja sprzętu komputerowego lub oprogramowania mająca na celu jego unowocześnienie.
URL (Uniform Resource Locator) - metoda adresowania stron internetowych. Pozwala na jednoznaczną identyfikację wszystkich dokumentów zawartych w Internecie.
Usenet (USEr NETwork - sieć użytkowników) - ogólnoświatowy system grup dyskusyjnych podzielonych tematycznie. Wiadomości wyglądające podobnie do zwykłych wiadomości email wysyłane są przez użytkowników do specjalnych serwerów, które to z kolei rozsyłają je potem między sobą.
VAN (Value Added Network) - sieć zapewniająca dostęp do dodatkowych usług ogólnie niedostępnych. Dostęp posiadać mogą jedynie pracownicy firmy czy też płatni użytkownicy.
VoIP (Voice Over Internet Protocol) - protokół wykorzystujący Internet lub dedykowane sieci korzystające z protokołu IP do przesyłania digitalizowanych danych głosowych. Pozwala to na znaczne obniżenie kosztów.
Vortal (Wortal) - portal lub duży serwis internetowy - branżowy lub tematyczny.
VPN (Virtual Private Network) - wydzielona sieć prywatna, zwykle szyfrowana, która pozwala na dostęp jedynie osób ku temu uprawnionym (np. pracownicy firmy, klienci banku).
WAN (Wide Area Network) - system sieci połączeń komputerów na dużym obszarze (np. kraj, kontynent, świat).
Webdesign - projektowanie stron WWW.
WWW (World Wide Web) - usługa pozwalająca na przeglądanie dokumentów WWW (zarówno tekstowych jak i graficznych, multimedialnych) przez program przeglądarki.
Wyszukiwarka internetowa (search engine) - narzędzie do wyszukiwania informacji w Internecie. W wyniku otrzymuje się listę stron, na której występuje poszukiwany wyraz, zdanie lub fraza. Ma to ułatwić wyszukiwanie informacji w Internecie.
Załącznik (attachment) - plik dołączany do listu elektronicznego.
Zielona lista - lista adresów pocztowych, z których odbiorca wyraził zgodę na otrzymywanie przesyłek. Utworzenie takiej listy pozwala na uniknięcie dostawania spamu.
Polecam www.flashartstudio.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Lip 27, 2008 14:57    Temat postu: Najnowsze trendy w pozycjonowaniu Odpowiedz z cytatem

Chcemy wyprzedzić konkurencję? Mark Buckingham przedstawia najnowsze narzędzia i techniki ze świata pozycjonowania i przygląda się niektórym dużym graczom na rynku wyszukiwarek.

Czy jesteśmy zadowoleni z tego, w jaki sposób wyszukiwarka obsługuje naszą witrynę? Czy też nasz serwis miota się w mętnej wodzie stron z rezultatami wyświetlanymi przez wyszukiwarki daleko za znającą się na rzeczy konkurencją? Na szczęście pomoc jest na wyciągnięcie ręki. Do dyspozycji mamy więcej narzędzi i zasobów, niż kiedykolwiek wcześniej – pomogą nam one pokonać trudności na ciernistej drodze pozycjonowania.

Tylko nieliczni byliby w stanie wyobrazić sobie ewolucję wyszukiwania, która nastąpiła w ostatniej dekadzie. Spersonalizowane i zlokalizowane wyszukiwanie, nie wspominając o sieciach społecznościowych, zmusza osoby zajmujące się marketingiem wyszukiwania do ciągłych korekt i ulepszania swojej strategii działania.

Na dzisiaj Google ma zindeksowanych 10 razy więcej stron, niż miało w 2000 roku, i nadal dominuje w branży. Według danych Nielsen Online, w Wielkiej Brytanii w listopadzie 2007 zadano 1,73 miliarda zapytań, z czego 80% przeszło przez Google. Drugie było Yahoo z wynikiem 6,3%. Raz nasycone branże są teraz drenowane w pozytywnym znaczeniu – na znaczeniu zyskały wyszukiwania wertykalne (lub specjalistyczne).

Jakie błędy popełniają więc firmy? Chewy Trewhella, inżynier rozwiązań klienckich w Google, który obsługuje dużych reklamodawców, mówi:

– Wiele problemów występujących w dużych serwisach można też spotkać w małych. To mogą być zupełnie proste sprawy, jak np. upewnienie się czy strona jest poświęcona pojedynczemu tematowi – to naprawdę nagminnie pojawiająca się kwestia.

Z tą opinią zgadza się Danny Sullivan, wydawca Search Engine Land.

– Kwestie takie jak dobre znaczniki tytułu często są pomijane, a ich znaczenie nadal może być duże – w wielu serwisach wystarczyło zmienić właśnie ten element, by wszystko zaczęło dobrze działać. Także linki dobrej jakości nadal odgrywają dużą rolę.

Wszystkie te kwestie związane są z podstawami pozycjonowania – dobrą zawartością.

– Jeśli chcemy, by wszystko działało dobrze, musimy mieć wyjątkowy serwis – mówi Jill Whalen, dyrektor zarządzający High Rankings. – Nie można po prostu przygotować serwisu, dołożyć kilka słów kluczowych w tytule i tekście, i oczekiwać wysokiej pozycji w rankingu. Dzisiaj konieczna jest umiejętność stworzenia odrobiny szumu wokół witryny. Zawdzięczamy go kreatywnej treści i do pewnego stopnia wiralnemu marketingowi.

Polecam http://czasopisma.magazynyinternetowe.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Lip 27, 2008 14:57    Temat postu: Każde słowo ma swoją wartość Odpowiedz z cytatem

W świecie marketingu internetowego można się natknąć na usługę ukrytą pod nazwą "pozycjonowanie" lub kryptonimem SEO. Spora grupa firm zajmujących się promocją i reklamą w wirtualnym świecie ma już w swojej ofercie tę, dla niektórych tajemniczo brzmiącą propozycję. Czy jest to skuteczna forma promocji i czy warto w nią inwestować?

Najprostszą definicją opisującą pozycjonowanie stron internetowych (SEO – ang. Search Engine Optimization) jest stwierdzenie, że są to działania mające na celu wypromowanie serwisu internetowego, by ten po wpisaniu odpowiednich słów kluczowych zajmował jak najwyższe miejsce w naturalnych wynikach wyszukiwania wyszukiwarek. Pod pojęciem naturalnych wyników wyszukiwania rozumiemy te wyniki, które wyszukiwarka zwraca w oparciu o swój algorytm indeksowania (oceniania) stron WWW, nie zaś te, za które płacą reklamodawcy (a które są oznaczone jako linki sponsorowane).
Audytor na stronie WWW

Działania związane z pozycjonowaniem serwisu powinny się rozpocząć od przeprowadzenia dokładnego audytu strony WWW, której dotyczą. Ma on na celu umożliwienie przygotowania listy słów kluczowych, które w jak najdokładniejszym stopniu będą oddawały ducha witryny poddanej zabiegowi pozycjonowania. Użyte słowa kluczowe powinny łączyć się z jej treścią i pokrywać ze słowami i frazami znajdującymi się w tekstach na kolejnych podstronach serwisu.
Wielkie przekręty

Wzrost znaczenia pozycjonowania zbiegł się w czasie z monopolizowaniem rynku wyszukiwarek internetowych przez Google. Wcześniej opracowanie strony w sposób zapewniający jej pojawianie się na szczytowych pozycjach w rankingach nie stanowiło wielkiego wyzwania. Ranking serwisu opierał się głównie na podanych przez projektanta strony słowach kluczowych w nagłówku. Sytuacja ta powodowała, że wielu właścicieli serwisów internetowych ulegało pokusie i manipulowało wynikami wyszukiwania poprzez odpowiedni dobór haseł, które często nie miały nic wspólnego z rzeczywistą tematyką witryny.

Ponieważ proceder ten stał się w końcu powszechny i wpływał bardzo negatywnie na sieć (zarówno z punktu widzenia zwykłych użytkowników, jak i legalnie działających przedsiębiorstw), podjęto próby ucywilizowania zasad związanych z SEO, co doprowadziło do oparcia działania wyszukiwarek o zliczającą linki analizę topologii sieci (przykładem jest tutaj Google). Zabieg ten znacznie podniósł poziom trudności pozycjonowania stron internetowych. Skuteczność na polu SEO nie była już w zasięgu ręki przeciętnego internauty, lecz grupy osób mających odpowiednią wiedzę, które zaczęły specjalizować się w pozycjonowaniu serwisów WWW.

Polecam http://czasopisma.magazynyinternetowe.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Lip 27, 2008 14:58    Temat postu: Podstawy pozycjonowania i optymalizacji Odpowiedz z cytatem

Większość ludzi uważa, że pozycjonowanie stron internetowych wymaga bardzo dużej wiedzy. Jest to jednak pojęcie błędne, gdyż pozycjonowanie większości stron internetowych nie jest takie trudne, o ile nie mamy doczynienia z bardzo kompetytywnym hasłem. Poniżej podam podstawy pozycjonowania, które powinny wystarczyć większości.

<title></title>

Dobrze sformułowany tytuł strony jest bardzo ważny. Służy nie tylko rankingowi, ale również jest tym co większośc ludzi czyta przed wejściem na stronę z wyników wyszukiwania.
Tytuł powinien zawierać nasze słowa kluczowe, najlepiej na samym początku. Powinien jednak mieć sens. Warto poświęcić trochę czasu na zastanowienie się nad nim.
"Witajcie na mojej super fajnej stronie - www.mojastrona.com" nie jest wartościowym tytułem. Słowa zawarte w nim mają małe szanse bycia wyszukiwanymi tak jak adres (url) domeny.

<meta name="description" content="blablabla">

Jest to jeden z niwielu meta tagów, który jeszcze ma znaczenie. Powinien zawierać dobrze sformułowany opis strony przy użyciu słów kluczowych. W niektórych wyszukiwarkach to jest opis, który pokazuje się w wynikach, więc powinien również zachęcić do wejścia na stronę.

<meta name="keywords" content="blablalba">

Nie wykorzystywany przez większośc wyszukiwarek ale nie można o nim zapomnieć, gdyż jest to najczęściej traktowane jak tekst na stronie. Trochę pracy też trzeba w to włożyć. Nie należy natomiast powtarzać swoich słów kluczowych wielokrotnie (2 razy wystarczy) i nie powinien być za długi.

<h1><h2><h3><h4><h5><h6>

Są to "heading tags", czyli nagłówki. Numery od 1 do 6 określają wielkość tekstu, przy czym 1 jest największy. Przy używaniu tych tagów trzeba sobie wyobrazić stronę z gazety. Główny tytuł jest największy więc użyjemy <h1>Nasz tekst</h1> i powinien występować tylko raz na stronie. Podtytuły mają już mniejszy tekst i mogą być użyte więcej razy. Tekst zawarty w tych tagach powinien nie być za długi, mieć sens i zawierać słowa kluczowe.

<b><u><i>

<b> - tłusty druk
<u> - podkreślony
<i> - kursywa

Te tagi służą do dadania wartości danym słowom. Powinny być używane na naszych słowach kluczowych.

<img src="*.jpg" alt="blablabla">

Obrazki na stronie internetowej poinny zawierać alt(tekst alternatywny). Powinno się używać w nim słów kluczowych. Trzeba również pamiętać, że jest to wykorzystywane przez czytniki stron dla niewidomych, więc poprawia używalność naszej strony i powinno mieć sens oprócz słów kluczowych.

Tekst na stronie

Należy używać często słów kluczowych, ale w taki sposób, żeby nie wystraszyć odwiedzających. Na początku tekstu jest też dobrze zawrzeć słowa kluczowe, pamiętając o używanie <b><u><i>.

<a href="http://mojastrona.com">Słowa kluczowe</a>

Tekst pod linkami jest jednym z najważniejszych czynników pozycjonowania. Tekst zawarty w linku powinien zawierać słowa kluczowe.

Struktura linków

Każda strona powinna być dostępna conajwyżej w dwóch kliknięciach od strony głównej. Roboty skaczą z linka na link, więc muszą każdą stronę z łatwością znaleźć.

Mapa witryny

Mapa witryny jest stroną na której zawarte są linki do wszystkich ważnych stron naszej witryny. Trzeba pamiętać o używaniu odpowiedniego tekstu pod tymi linkami. Roboty uwielbiają mapy, więc należy włożyć w to trochę pracy. Przy dużych witrynach jest to również pomocne dla odwiedzających.

Polecam www.forum.optymalizacja.com
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Lip 27, 2008 19:56    Temat postu: Pozycjonowanie jest dla każdego Odpowiedz z cytatem

Nieprawdą jest, że pojedynczy człowiek bez zaplecza nie jest w stanie wypozycjonować swojej własnej strony

Otóż jak najbardziej jest w stanie to zrobić sam. I nie dotyczy to wyłącznie najlżejszych haseł typu „wypas owiec w Bieszczadach”, ale dotyczy również fraz uznawanych za średnio trudno, a czasami i trudne.

Pozycjonowane, o czym pisano już wielokrotnie, to nie tylko ustawienie frazy w google. To raczej cały procesem promocji witryny; wykorzystujący jednak przede wszystkim poprawianie pozycji w wyszukiwarkach (co by nie pisać bez dobrego miejsca w wyszukiwarkach choćby na lekkie frazy jest ciężko ).

Przy pozycjonowaniu oprócz „sztucznego” napędzania wyników niebagatelne znaczenie mają efekty „naturalne”. Część z nich mogą uzyskać osoby nieposiadające żadnej „świadomości SEO”, dążące jednak do promocji swojej strony. Mogą to być to wpisy w katalogach typu Onet, Webwweb czy DMOZ, linki z for, czy stary dobry USENET (grupy dyskusyjne), które doczekały się wielu kopii na WWW. Już sama promocja strony bez znajomości SEO powinna zapewnić jej w ciągu kilku miesięcy kilkanaście – kilkadziesiąt (a nawet więcej) linków.

Kolejny „bonus” dostaną osoby, które z założenia wykonują swoją pracę starannie. Takie osoby przy tworzeniu serwisu często dbają o jakość umieszczonych na nich tekstów, będą też pisać same, co daje unikalną treść serwisu. Pozostając w zgodzie zaleceniami dobrego pisania i tworzenia stron mogą posługiwać się prawidłową „hierarchią nagłówków” (h1,h2 itd.), nadadzą każdej podstronie odrębny tytuł i opis zgodny z jej zawartością. To oczywiście przypadek wyidealizowany każdy pojedynczy element pozostaje nie bez znaczenia przy pozycjonowaniu.

Kolejna zaletą „pozycjonowania bez świadomości” jest odporność na zmiany algorytmów wyszukiwarek. Metatagi czy treść, nie ustawiona wyłącznie pod jeden algorytm wyszukiwarki obroni się przy praktycznie każdej zmianie algorytmu. Nie będzie zaskoczenia, jakiego kiedyś doznali „keywords spamerzy” czy w każdej chwili mogą dostać „ukrywacze treści”.

Wracajmy jednak bliżej pozycjonowania właściwego. Nie da się ukryć, że każdy dbający o oglądalność swojej witryny szybko napotka hasło „pozycjonowanie” i z niemałym prawdopodobieństwem trafi na to forum lub inne miejsce traktujące o tematyce SEO. Po lepszym lub gorszym poznaniu tematu z pewnością zacznie stosować „poprawianie wyników”.

I właściwie po wstępnym zapoznaniu się z SEO przychodzi najtrudniejszy moment decydujący często o przyszłości człowieka i jego strony. Można by wyodrębnić trzy ogólne typy zachowań. Pierwszym będzie grupa ludzi, którzy stwierdzą, że to całe SEŁO to nie dla nich i albo przestaną zajmować się stroną, albo (szczególnie, jeżeli osiągają z niej realne korzyści) będą szukać płatnej usługi. Takie zachowanie jest logiczne i konsekwentne (nie robię tego, co nie rozumiem), jednak czasami nie trzeba dużo by posunąć się krok dalej, a całkowity brak znajmości tematu może skończyć się na zatrudnieniu osób niekompetentnych.

Druga grupa ludzi (przyznam, że tych szanuję najbardziej), w miarę możliwości będzie poznawała techniki SEO i wdrażała je w swoim serwisie. Pamiętając jednak, ze priorytetem jest serwis, jego zawartość, użytkownicy lub klienci, a nie pozycja w Google. Taki człowiek nie wrzuci 3 systemów do stopki na całym serwisie i nie podłączy DMOZA do subdomeny. Postępując nawet nieco zachowawczo w konsekwencji i dłuższej perspektywie czasowej zyska względem kolejnej grupy, (która opiszę poniżej).

Np.: czytając to forum nie pozna jednoznacznej opinii dot. systemów wymiany linków, jednak może dojść do wniosku, że coś w tym jest. Co może zrobić? Na przykład przeznaczyć pod linki np.: forum na subdomenie – jeden system ze stopki z pewnością nie zaszkodzi, a mniejszy niż u konkurencji udział linków z systemu może okazać się zbawienny przy czkawce systemu czy zmianach algo. Postępując spokojnie i konsekwentnie po 12-24 miesiącach będzie mógł spokojnie gonić czołówkę nawet tę pozycjonowaną za niemałe pieniądze. Nie spiesząc się lepiej dobierze frazy i nie zapełni 1800 QLWebów idiotyczną frazą. A więc i katalogowanie jak najbardziej tak, ale w rozsądnym tempie.

Trzecia grupa (niestety chyba najliczniejsza), co tylko pozna, lub uzna, że poznała, jakiś element rzuci się na niego i „pożre w całości”. Pomijając konsekwencje filtrów i sandboxów, pozycjonującym „na szybko” i całą energią może przydarzyć się milion przygód między innymi takich jak: brak miejsca na nowe linki (np.: wspomniane wcześniej QLWeby wypełnione hasłem nieprzynoszącym ruchu), znaczny spadek pozycji (abstrahując od filtrów) w wyniku osłabienia sytemu linkującego, znacznego zmniejszenia przyrostu linków, wrzucenia mod_rewrita bez przekierowani starych adresów, zoptymalizowania „na siłę” całej treści wyłącznie pod SEO itp. Oczywiście taki ktoś może mieć szczęście i przebrnąć przez to wszystko bez szkody dla serwisu – wtedy staje się „niebezpiecznym dla otoczenia" pseudo-ekspertem.

Podsumowując dotychczasowe moje dotychczasowe rozważania. Osoba, która dba o rozwój serwisu i stosuje z umiarem, rozsądkiem a przede wszystkim zrozumieniem, podstawowe zasady jest w stanie naprawdę nieźle wypozycjonować jeden serwis nawet bez dodatkowego zaplecza. Można to nawet ująć w punktach:
1) Optymalizacja treści dla użytkowników, a przy okazji „pod SEO”
2) Wprowadzanie nowych informacji, dbanie o życie serwisu i jego jakość
3) Naturalne metody promocji (fora, usenet)
4) Badanie statystyk, żródeł ruchu, konkurencji.
5) Dobór optymalnych fraz.
6) Spokojne dodawanie do katalogów, serwisów branżowych, spisów. Nawet z tych bez lików bezpośrednich, jeżeli są odpowiedniej jakości „idzie ruch”.
7) Bardzo umiarkowane korzystanie z systemów wymiany linków
Cool Wymiana linków „ze znajomymi” (polecałbym bardziej linki ze specjalnej podstrony typu „przyjaciele” niż z głównej).
0) Małe Public Relations (jeżeli tylko potrafimy coś ciekawego napisać)

Najważniejszym jednak elementem jest cierpliwość, praca i czas. Nawet nie mając pełnej wiedzy, nie wdrażając wszystkich elementów a postępując cierpliwe przez 2 lata można zyskać przewagę nad „ekspresami do nikąd”.

I tutaj być może u wielu czytelników zacznie działać wewnętrzny kalkulatorek i zdrowy rozsądek. Zaczną sobie zadawać pytania” Czy zajmując się samemu SEO nie tracę czasu, który mógłbym poświęcić serwisowi? Czy zamiast dodawać codziennie do katalogów nie lepiej byłoby powiększyć listę sprzedawanych towarów?. Ile warta jest godzina mojej pracy?
Na te pytania nie ma jednoznacznej odpowiedzi. Zależy to, bowiem od specyfiki branży, siły konkurencji, własnych zdolności i szacunku dla swojego czasu wolnego.

Trudno również ocenić ile czasu przyjdzie spędzić nam na pozycjonowaniu swojej strony. Uwzględniając czas potrzebny na przyswojenie wiedzy i prawidłowe jej wdrożenie oraz zwykłe czynności „pozycjonerskie” dla serwisu ze średnio-trudnej tematyki może to być od godziny nawet do trzech, czterech dziennie. Jeżeli komuś wszystko idzie sprawnie i faktycznie „opędzi” SEO w 60 minut, a godzinę swojej pracy ceni poniżej 10zł to nie widzę potrzeby wynajmowania przez taki serwis/osobę kogokolwiek z zewnątrz do pomocy. Jeżeli jednak wychodzą z tego 2-3 godzinne wieczorne „posiedzenia”, a przychody kształtują się (lub rokują nadzieję) powyżej 2-3 000 zł może się okazać, ze ukryte (bo nie widoczne na pierwszy rzut oka) koszty samodzielnego SEO spokojnie przekraczają 1000 zł miesięcznie, a jest to kwota przy której spokojnie można znaleźć dobre SEO.

W pewnych przypadkach konkurencja „zawodowców” jest tak spora, że zabawa samemu raczej rzadko może dać pierwszą dziesiątkę wyników np.: sprzedaż biletów lotniczych, aparatów cyfrowych, projektów domów, bielizny, usług finansowych itp. Pchając się w tematyką dobrze „obstawioną” należy albo powierzyć to fachowcom z zapleczem, albo samemu zostać fachowcem i stworzyć zaplecze.

Dlatego też rynek Usług SEO rośnie i rosnąć będzie. Natomiast „świadomi użytkownicy” stanowią de facto najlepszą grupę klientów. Co prawda z jednej strony są w stanie dosyć krytycznie ocenić działania firmy, ale z drugiej strony łatwiej ominą złe oferty.
Zadbane przez nich serwisy, przyzwoicie podlinkowane (często z PR4-5) nie muszą pół roku czekać na efekty pozycjonowania. A na pozycjonowanie zewnętrzne decydują się zazwyczaj wtedy, kiedy koszty pozycjonowania stanowią tylko cześć spodziewanych dodatkowych zysków.

Może powstać wtedy całkiem fajny układ, który nazywam „grą do jednej bramki” wspólnie z klientem. Dzieje się tak na przykład wtedy, kiedy za każdą otrzymaną za pozycjonowanie od klienta złotówką stoją trzy które wpadły do jego kieszeni. Czego zarówno pozycjonującym jak i pozycjonowanym szczerze życzę.

Polecam www.forum.optymalizacja.com
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Lip 27, 2008 20:01    Temat postu: Słownik Małego Pozycjonera Odpowiedz z cytatem

* Bot/Robot - Mechanizm wyszukiwarek który ma za zadanie przeglądać strony i zbierać potrzebne informacje w celu określenia pozycji na odpowiednie frazy.
* Link - Nazywamy tak odnośnik/hiperłącze znajdujące sie na stronie.
* PR/PageRank - Nazwa algorytmu google który oblicza wartość strony. W tej chwili nie ma bezpośredniego wpływu na wyniki w wyszukiwarce. Zakres PR określa się w skali 0-10
* BL/BackLink/Linki przychodzące/Link popularity - Ilość linków prowadzących do wybranej strony. By sprawdzić rzeczywistą ilość linków można skorzystać z polecenia "linkdomain:domena.pl" w wyszukiwarce yahoo lub"link:domena.pl" w msn. W google używa się “link:domena.pl" niestety wyszukiwarka wyświetla tylko próbkę wszystkich linków.
* Linki wychodzące - Ilość linków prowadzących z Twojej witryny do innych stron nie powiązanych z Twoją domeną. Zwykle każdy dodatkowy link wychodzący osłabia wartość strony.
* Fresh Site Bonus / FSB - Algorytm google który promuje na pewien okres młode strony. Długość tego okresu zależy od konkurencyjności fraz.
* UserAgent - Nazwa którą przedstawiają się roboty i przeglądarki np. Googlebot/2.1 (+http://www.google.com/bot.html)
* Cloacking - Sztuczka polegająca na przedstawieniu innej strony robotom i użytkownikom. Zazwyczaj dokonuje sie tego na podstawie UserAgenta.
* mod_rewrite / przyjazne urle - Technika pozwalające zamienić 'brzydkie' adresy ( index.php?param1=value1&param2=value2 ) na 'ładne' ( index.html/param1/value1/param2/value2.html ) w celu zwiększenia szybkości indeksowania strony.
* DC/DataCenter – Nazwa określająca bazy danych wyszukiwarek. Zazwyczaj każda baza reprezentuje inne wyniki dla jednej frazy której szukamy. Dlatego niektórzy widzą inną pozycje w google niż Ty.
* Katalog SEO - Przyjęło się że jest to katalog stron który zastosował przyjazne urle.
* Spam – Technika która ma sztucznie podwyższyć pozycje strony na frazy nie powiązane ze stroną.
* Filtr – Jest to mechanizm obniżający pozycje strony na daną frazę za przewinienia np. spam, cloacking
* Sandbox – Mityczny filtr który znacznie obniża pozycje strony pod wiele fraz.
* Ban – Wyrzucenie całej strony z wyszukiwarki. By sprawdzić czy domena nie została zbanowana np. w google wpisujemy 'site:domena.pl'. Jeżeli nie będzie żadnego wyniku to strona wyleciała z wyszukiwarki.
* Zaplecze – Zbiór stron na których pozycjoner umieszcza odnośniki do pozycjonowanych stron.
* Sitemaps/Mapa stron – Jest to specjalnie spreparowana podstrona na której znajdują się odnośniki do innych podstron w serwisie. Pomaga to w szybkości indeksacji stron
* Content – Treść zawarta na stronie
* TrustRank/TR – Rewolucyjny algorytm który w przyszłości ma zastąpić PageRank. Jego głównym założeniem jest szybkie odzielenie stron spamujących z całego zbioru i ich zbanowanie.
* SEO/Search Engine Optimization – Angielska nazwa określająca pozycjonowanie stron
* SERP/Search Engine Results Page – Wyniki wyszukiwania.
* tPR/Toolbar PageRank – PageRank wyświetlany przez skrypty na stronach internetowych i toolbarach.
* rPR/Real PageRank – Takim skrótem określa się realny PageRank strony. Gdyż Google dla siebie wykonuje updaty PR cały czas(rPR), a wyniki pokazuje nam średnio raz na kwartał( tPR )
* Duplicate Content – Powielenie jednej treści na wielu stronach. Gdy poziom podobieństwa obu treści jest wysoki to google banuje strone która skopiowała treść.
* Redirect – Przekierowanie użytkownika/robota na inną strony
* Redirect 301/R301 – Rodzaj przekierowania który przenosi użytkownik/robota na nową strone wraz z pozycją w wyszukiwarce i PR.
* Anchor – Nazwa pod którą wyświetla się link. Anchor
* GoogleBomb – Technika masowego linkowania do strony z jednym Anchorem. Przykładem mogą być akcje: kretyn, ptasia grypa, siedziba szatana.
* Invisible text – Tak sie określa elementy na stronie nie widoczne dla użytkownika, ale widoczne dla wyszukiwarek( manipulacja CSS-em i JS-em )
* Googlebot – Tak sie przedstawia robot wyszukiwarki Google.
* Link pośredni – Link który kieruje na inną strone przez przekierowanie np. 301/302 ( nie przydatne przy pozycjonowaniu ).
* Link bezpośredni – Link o największej wartości dla pozycjonera. Kieruje on bezpośrednio na strone. Bez żadnych przekierowań.
* Link nofollow – Określa się tak linki z atrybutem rel="nofollow"( wartość 'nofollow' została wymyślona przez Google ). Linki z takim parametrem nie mają żadnej wartości, chodź googlebot chodzi za takim linkiem.
* Różnica pomiędzy adresem z www i bez www – www.domena.pl jest innym adresem niż domena.pl. Dlatego PR dla obu domen jest inny. Jest tak dlatego gdyż www. jest traktowana jako subdomena od domena.pl. Najlepszym wyjściem jest ustawienie R301 z www.domena.pl na domena.pl lub odwrotnie. I linkowanie tylko do wybranej domeny.
* Alt – Atrybut dla obrazków. Jeżeli obrazek jest linkiem to wartość ALT staje sie Anchorem.
* Oszukany PR – Błąd w algorytmie obliczającym PR pozwala na uzyskanie fałszywej wartości. By sprawdzić czy PR jest prawidziwy, trzeba sprawdzić wygląd strony(cache) poleceniem "cache:domena.p" w google. Jeżeli pojawi się kopia innej strony, to oznacza to jest to oszukany PageRank.
* Katalog stron – Dla niektórych osób jedyne miejsce zdobywania linków. Jeżeli linki chcesz oprzeć tylko na katalogach to staraj się wybierać tylko te z linkami bezpośrednimi i zaindeksowanymi w google( site:katalog_stron.pl )
* AnchorPR - Wartość PR jaką przekazuje link.
* Suplement result/Wynik uzupełniający - Osobny index stron w wyszukiwarce Google. Strony zaklasyfikowane do tego indeksu zawszę znajdują się na końcowych pozycjach. Jedna z metod walki Google ze spamem.
* Linkowanie wewnętrzne - Linkowanie w ramach tej samej domeny.
* Różnica pomiędzy stronami z WWW i bez WWW - Różnica pomiędzy adresem z www i bez www - www.domena.pl jest innym adresem niż domena.pl. Dlatego PR dla obu domen jest inny. Jest tak dlatego gdyż www. jest traktowana jako subdomena od domena.pl. Aktualnie możemy ustawić jednakowe traktowanie domen z subdomeną WWW, wystarczy ustawić odpowiednią opcje w panelu webmastera Google.
* Penalty 31/ -30 - Nowy filtr obniżający pozycje o 30 miejsc. Głównie z pierwszego na 31 pozycje.
* AdSense - Program partnerski Google umożliwiający zarabianie na stronach.
* GoogleBomb - Technika masowego linkowania do strony z jednym Anchorem. Przykładem mogą być akcje: kretyn, ptasia grypa, siedziba szatana.. Google zabezpieczyło się przed tą zabawą.
* Naturalne linkowanie - Metoda umieszczania linków zgodnie z odwzorowaniem linkowania nowej nie pozycjonowanej strony.
* Spamdexign - Masowe umieszczanie odnośników na różnych stronach( księgi gości, fora, itp… ) - nie mylić z GoogleBomb
* Farmy linków - Strony powstałe do masowego umieszczania linków do pozycjonowanych (pod)stron
Polecam www.forum.optymalizacja.com
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Nie Sie 10, 2008 14:48    Temat postu: Słowniczek internetowy Odpowiedz z cytatem

Adres E-mail
Zob. E-mail.
Adres IP (ang. IP address)
Unikatowy adres maszyny w sieci internet. Format adresu to cztery jednobajtowe liczby oddzielone kropkami, np. 148.81.83.98.
Algorytm DES (ang. DES Encrypt)
Standard szyfrowania, algorytm służący m.in. do szyfrowania załączników w poczcie elektronicznej.
Anonimowy ftp (ang. Anonymous FTP)
Anonimowy FTP pozwala na skorzystanie z ogromnych zasobów sieciowych rozmieszczonych na serwerach na całym świecie. Do takiego sewera można się zalogować używając klienta ftp, na konto użytkownika Anonymous, jako hasło podając swój adres E-mail.
Aplet (ang. Applet)
Krótki program (mała aplikacja, "aplikacyjka"), stanowiący część dokumentu internetowego. Pojęcie applet jest odnoszone w Internecie do małych programów (skryptów) napisanych za pomocą języka programowania Java, firmy Sun. Applet wykonuje jakieś zadanie, np. pozwala wyświetlać animację. Applety Javy są interpretowane (akceptowane) przez przeglądarkę Netscape Navigator 2.0.
Archie
Sieć baz danych zawierających listy wszystkich plików dostępnych w internecie poprzez anonimowego ftp. Aby odnaleźć żądany plik trzeba podłączyć się do tzw. archie serwera i zadać pytanie o plik.
Artykuł (ang. article)
List lub wiadomość konkretnego użytkownika przeznaczona dla grupy dyskusyjnej.
Attachment
Zob. Załącznik



Baza danych (ang. database)
Uporządkowany zbiór danych, dający się łatwo przeszukiwać. W szczególności w internecie bazą danych może być zbiór artykułów list dyskusyjnych, spis użytkowników danej sieci, interaktywne bazy danych dostępne przez WWW itp.
BBS (ang. Bulletin Board System)
Elektroniczna "tablica ogłoszeniowa", system komputerowy, w którym użytkownicy mogą wymieniać między sobą informacje i pliki, prowadzić rozmowy, wysyłać i odbierać pocztę. Niektóre systemy oferują bardziej zaawansowane usługi, m.in. dostęp do Inernetu (np. Maloka BBS w Warszawie).
Bod (ang. baud)
Jednostka miary szybkości transmisji danych.
Bookmark
Zob. Zakładka.
Bramka
Zob. Gateway.
Browser
Zob. Przeglądarka WWW
Brydż (ang. bridge)
Zob. Most.
Bundle
Zob. Zestaw internetowy



Cache
Specjalny katalog w przeglądarce WWW, gromadzący grafikę wczytywaną w trakcie przeglądania zasobów sieci. Gdy po raz kolejny sięgamy do tej samej strony, przeglądarka wczytuje na ekran grafikę z cache'a, a nie z Internetu, co znacznie przyspiesza wczytanie całej strony i oszczędza czas. Im większy cache, tym większa możliwość magazynowania grafiki. Optymalna wielkość powinna sięgać 10-15 megabajtów.
COM
Zob. Port szeregowy.
Czcionka fizyczna
Atrybut czcionki zmieniający jej wygląd w przeglądarce WWW, np. czcionka pochylona, pogrubiona, podkreślona, powiększona, zmniejszona, superskrypt, subskrypt itp.
Czcionka logiczna
Atrybut czcionki, zmieniający jej wygląd w przeglądarce WWW, związany z jej zastosowaniem, np. kod, zmienna, cytat, akronim. Do poszczególnych atrybutów są zwyczajowo przypisane style fizyczne, które są generowane w przeglądarce. Niektóre przeglądarki pozwalają użytownikowi samodzielnie zmienić atrybuty fizyczne przypisane poszczególnym czcionkom logicznym.



Demon (ang. Daemon)
Program serwera usług, pracujący zazwyczaj w tle na serwerze Unixowym i obsługujący zapytania klientów. Przykłady to demon ftp, demon http, demon irc itp.
Dial-up
Połączenie z internetem realizowane przez modem podłączony do komputera domowego i dzwoniący do usługodawcy internetowego.
DNS (ang. Domain Name Service)
System nazewnictwa domen w sieci internet. Pozwala nadawać komputerom nazwy zrozumiałe dla człowieka i tłumaczy je na numery IP.
Dokument źródłowy lub źródło dokumentu (ang. source document)
Oryginalna postać dokumentu internetowego, zapisana w kodach języka HTML. Zaawansowane preglądarki pozwalają obejrzeć postać źródłową oglądanego dokumentu, co pozwala użytkownikowi zorientować się w konstrukcji wybranych elementów, jeśli z jakichś powodów interesuje go sposób przedstawienia danych.
Domena (ang. domain)
Nazwa podsieci, czyli też część nazwy adresu e-mail. Niektóre domeny posiadają poddomeny. Np. domeną jest .pl, .ch, .su, itp. Poddomena to np. .edu, .gov, .mil. Przykładowy adres składa się z nazwy użytkownika i domeny z poddomenami, np. chris@ia.pw.edu.pl.
Download
Pobieranie pliku z innego komputera.



E-mail (ang. Electronic Mail)
Poczta elektroniczna. Usługa pozwalająca na przesyłanie w internecie listów. Każdy list musi być zaadresowany wg. schematu nazwa_użytkownia@adres_maszyny. Przykładowo użytkownik Jacek Kowalski posiadający konto w firmie xyz w Polsce mógłby mieć adres: JKowalski@xyz.com.pl. Do czytania i pisania listów służą specjalne programy takie jak np. PMail dla DOS-u i Windows, Elm lub Pine dla Unixa i inne. Poza tekstami można przesyłać pocztą elektroniczną, także pliki binarne odpowiednio przetworzone na format tekstowy. Do tego celu służą programy uuencode/uudecode.
Edytor HTML
Program służący do tworzenia dokumentów internetowych w standardzie HTML. Chociaż jest możliwe zbudowanie dokumentu internetowego za pomocą każdego, nawet najprostszego edytora tekstów, edytory HTML są tworzone, aby przyspieszać i automatyzować proces konstruowania stron WWW, uwalniając użytkownika od ręcznego wprowadzania poleceń HTML. Więkoszść edytorów pracuje w trybie "tekstowym", wyświetlając wszystkie znaki sterujące (polecenia) HTML, niektóre pozwalają tworzyć dokumenty w trybie "graficznym", masując kody języka, a stosowane są też edytory pozwalające wprowadzać poszczególne elementy w sposób całkowicie zautomatyzowany, za pomocą zestawiania "klocków".
Emoticon
Zob. Smiley.
Ethernet
Jeden ze standardów sieci lokalnych. Wykorzystuje metodę dostępu CSMA/CD (and. Carrier Sense Multiple Access/Collision Detection) polegającą na dostępie wielostacyjnym i detekcji kolizji. Użytkownik sieci nadaje tylko wtedy kiedy nikt więcej nie nadaje. Jeżeli wykryta zostanie kolizja (czyli zacznie nadawać dwóch lub więcej użytkowników) to transmisja jest wznawiana po losowym odstępie czasu. Prędkość w sieci ethernet wynosi 10 lub 100 Mbps (tzw. Fast Ethernet).
Extensions
Zob. Rozszerzenia.



FAQ (ang. Frequently Asked Questions)
Pliki tekstowe krążące w sieci internet, a zawierające wszystkie odpowiedzi na najczęściej zadawane pytania z danej dziedziny. Każda lista dyskusyjna ma swój własny FAQ. Akronim celowo kojarzy się z wulgarnym wyrazem z języka angielskiego.
FDDI (ang. Fiber Distributed Data Interface)
Standard sieci lokalnych i miejskich. Wykorzystuje metodę dostępu polegającą na przekazywaniu tokena. Nadawać może jedynie stacja posiadająca token, ale zaraz po nadaniu powinna wysłać token w sieć, aby umożliwić nadawanie innej stacji. Do transmisji używa się światłowodu, a prędkość wynosi 100 Mbps. Całość tworzy podwójna pętla światłowodowa. W przypadku poprawnej pracy sieci wykorzystywany jest tylko jeden kabel, natomiast w razie awarii jednego z urządzeń, sieć dalej działa, gdyż z dwóch pierścieni automatycznie tworzy się jeden omijający uszkodzone urządzenie.
Filtr (ang. filter)
Klucz pozwalający ignorować na liście dyskusyjnej, artykuły na dany temat lub pochodzące od danej osoby.
Finger
Usługa pozwalająca stwierdzić, kto w danej chwili jest zalgowany na danym serwerze. lub zebrać informacje o użytkowniku danego serwera. Przykładowo: finger @ia.pw.edu.pl podaje listę, zalogowanych na serwerze o tym adresie, użytkowników. Natomiast finger chris@ia.pw.edu.pl, podaje informacje o użytkowniku chris na serwerze ia.pw.edu.pl.
Flame
Obraźliwa wiadomość w poczcie elektronicznej lub na liście dyskusyjnej.
Flamer
Osoba generująca obraźliwe wiadmości.
Folder
Kontener zawierający np. zbiór listów. Użytkownik może przerzucać swoją pocztę do definiowanych przez siebie folderów. Każdy użytkownik na serwerze ma też swój folder, w którym umieszczane są przychodzące do niego listy.
Formularz
Dokument internetowy, który pozwala czytelnikowi strony w interakcyjny sposób pobierać lub przesyłać informacje. Przykładem formularza może być ankieta prowadzona przez autora strony, który zbiera od czytelników informacje pewnego typu (np. wiek, płeć, wykonywany zawód, posiadany sprzęt itp.). Formularzem jest strona Ankieta w niniejszym kursie, która zawiera pola wyboru i pola tekstowe.
Forum
Odpowiednik listy dyskusyjnej.
FTP (ang. File Transfer Protocol)
Protokół transmisji plików. Zazwyczaj usługa ftp służy do kopiowania plików z odległej maszyny do lokalnej lub odwrotnie. Działa na zasadzie klient-serwer i przeważnie z usługi korzystamy przy użyciu interaktywnej aplikacji. Zapewnia ochronę przy użyciu haseł dostępu.



Gateway
Komputer lub urządzenie tłumaczące komunikaty przesyłane między dwoma systemami (sieciami) korzystającymi z różnych sposobów kodowania lub formatu danych, czy też protokołów komunikacyjnych. Także: komputer pośredniczący w wysyłaniu zapytań w sieci Internet. Dostawcy usług internetowych stosują często osobne bramki dla przeglądarek WWW, poczty elektronicznej i list dyskusyjnych.
Gopher
System oparty o menu wspomagający poszukiwanie informacji w internecie. Jest to poprzednik WWW, gdyż w chwili obecnej wszelkie możliwości gophera zostały wbudowane w przeglądarki WWW. Z hostami typu gopher można się bez problemów łączyć klientem WWW i czytać je analogicznie do klienta gopher.
GIF
Format graficzny powszechnie stosowany w Internecie. Pliki w formacie GIF są w wysokim stopniu skomprymowane, dzięki czemu zajmują mało miejsca i są szybciej transmitowane w trakcie przeglądania dokumentów WWW, co oszczędza czas i koszt połączeń.
Grupa dyskusyjna (ang. newsgroup)
(Zob. też: Listy dyskusyjne) wyodrębnione formalnie miejsce w którym można wymieniać z innymi osobami informacje i poglądy na określone tematy, zdefiniowane przez zawartość grupy dyskusyjnej. Grupą dyskusyjną nazywamy także osoby urzestniczące w tej wymianie, które dokonały subskrypcji.
Grupa (lista) moderowana
Grupa (lista) dyskusyjna lub lista wysyłkowa kontrolowana przez określoną osobę decydującą jakie informacje mogą być udostępniane użytkownikom.



Hasło (ang. password)
Ciąg znaków znanych posiadaczowi konta, służący do jego autoryzacji przy wchodzeniu do systemu. Znajomość hasła jest niezbędna, aby odpowiedzieć na pytanie o nie np. przy procedurze logowania się.
Hipertekst (ang. hypertext)
System połączeń między dokumentami, pozwalający za pomocą kliknięcia myszką na zaznaczonym obszarze przenosić się w inne miejsce dokumentu lub w ogóle do innego dokumentu.
Home page
Dokument WWW wyświetlany jako pierwszy po połączeniu się pod żądany adres. Także: własna strona użytkownika, strona macierzysta.
Host
Maszyna w sieci posiadająca własny adres IP, nazwę i należąca do domeny. Często także: komputer podłączony do bezpośrednio do Internetu, pozwalający świadczyć usługi internetowe klientom.
Host lokalny (ang. local host)
Nazwa określa komputer z którego łączymy się z inna maszyną - tzw. hostem odległym. Pojęcie to jest względne i zależy od tego, z której strony danego połączenia się znajdujemy.
Host odległy (ang. remote host)
Nazwa określa odległy komputer z którym ustaliliśmy połączenie.
HTML (ang. HyperText MarkUp Language)
Język hipertekstowy używany do tworzenia dokumentów używanych przez WWW. Polecenia tekstowe pozwalają na realizację tzw. linków (odsyłaczy), wyświetlanie różnych fontów, grafiki itp. itd. Obowiązującym standardem jest HTML 2, natomiast w trakcie dyskusji znajduje się standard HTML 3, powszechnie jednak używany i coraz częściej interpretowany przez przeglądarki WWW.
HTTP (ang. HyperText Transfer Protocol)
Jeden z protokołów internetowych, używany do transferu stron WWW.



Internet
Ogólnoświatowa sieć komputerowa, łącząca większość podłączonych do jakiejkolwiek sieci komputerów. Skupia tysiące sieci lokalnych, setki miejskich, miliony komputerów i użytkowników (w 1999 roku jest ich już ponad 1000 mln). W sieci udostępnione są ogromne zasoby do których między innymi należą spisy literatury, kopie obrazów, treści książek, utwory muzyczne, kursy HTML Smile, informacje na dowolne tematy itp. itd. Poza tym możliwe jest porozumiewanie się pomiędzy użytkownikami za pomocą poczty elektronicznej oraz programów typu IRC. Dostęp do sieci uzyskuje się łącząc się modmem do lokalnego usłgodwacy internetowego (ang. internet provider), który oferuje dostęp do całej reszty świata lepszymi niż modem łączami.
Internet Provider
Zob. Usługodawca internetowy.
Intranet
Wewnętrzna, wydzielona sieć firmy oparta na rozwiązaniach Internetu.
IP (ang. Internet Protocol)
Protokół dzięki, któremu działa sieć.
IRC (ang. Internet Relay Chat)
Program typu klient-serwer, dzięki któremu osoby z dowolnego miejsca na świecie mogą porozmawiać w czasie rzeczywistym ze sobą. W tym celu łączą się z tzw. IRC Serwerem i dołączają do kanału na którym chcą dyskutować. Możliwe jest również przesyłanie plików pomiędzy rozmówcami.



JavaScript
Język skryptowy obsługujący strony WWW i pozwalający im nadać cechy niedostępne w tradycyjnym HTML, np. reakcje na pewne zdarzenia. JavaScript jest odczytywany przez przeglądarki internetowe dzięki wbudowanemu interpreterowi. Język pełni taką samą rolę jak języki skryptów (czy makropoleceń) w edytorach tekstów - jest narzędziem dedykowanym dla konkretnych zastosowań i poza nimi nie ma racji bytu.
jpg - JPEG
Format graficzny stosowany w Internecie - Zob. GIF.



Katalog
Zob. Folder.
Katalog poczty nadchodzącej (ang. incoming mail folder)
Katalog zawierający pocztę elektroniczną otrzymywaną od innych użytkowników sieci.
Katalog poczty skasowanej (ang. deleted mail folder)
Katalog zawierający tymczasowo (do momentu ostatecznego usunięcia - ręcznego lub automatycznego) skasowane listy elektroniczne.
Katalog poczty wychodzącej (ang. outgoing mail folder)
Katalog zawierający listy elektroniczne przygotowane do wysłania, ale jeszcze nie wysłane.
Katalog poczty wysłanej
Katalog zawierający kopię wysłanej do innych użytkowników poczty elektronicznej.
Klient-serwer (ang. client/server)
Architektura systemu komputerowego, umożliwiająca korzystanie z serwerów baz danych, czy aplikacji. Serwer służy do przetrzymywania danych, przyjmowania zgłoszeń od klientów i świadczenia usług na ich rzecz. Klienci zgłaszają się do serwera z konkretnym zapytaniem i oczekują na odpowiedź. Ułatwiają użytkownikowi sieci zadanie, jeżeli są wyposażone w interfejs graficzny użytkownika. Zasadniczą zaletą architektury klient-serwer jest to, że przez sieć biegną jedynie konkretne odpowiedzi na konkretne pytania, a nie całe pliki, czy aplikacje do wykonania lokalnego, jak to miało miejsce w dawnych architekturach serwerowych.
Kompresja (ang. compression)
Metoda redukcji liczby danych. Istnieją metody kompresji plików "w locie", tzn. przed transmisją plik się komprymuje, a z drugiej strony, przesłany plik, dekomprymuje się. Pozwala to zaoszczędzić na czasie i kosztach transmisji, gdyż jak wiadomo mniej danych przesyła się szybciej. Powszechnie znane i stosowane metody kompresji to ZIP i ARJ.
Konto (ang. account)
Każdy sieciowy system operacyjny pozwala na zakładanie kont użytkownikom. Na definicje konta składa się nazwa użytkownika, hasło, dane o użytkowniku i jego prawa dostępu. Użytkownik nie posiadający konta w danym systemie nie może się do niego dostać, chyba, że korzysta z usługi FTP i przewidziano anonimowego użytkownika.
Kopia poczty elektronicznej (ang. carbon copy)
Kopia listu, wysłana do innej osoby niż odbiorca. Odbiorca listu wie do jakich innych osób zostały wysłane kopie.
Książka adresowa (ang. address book)
Katalog lub lista stron internetowych osób i instytucji w poczcie elektronicznej lub programie wspomagającym nawigację w Internecie.



LAN (ang. Local Area Network)
Sieć lokalna. Grupa komputerów rozmieszczona w niewielkiej odległości od siebie.
Linia dzierżawiona (ang. leased line)
Stałe połączenie telekomunikacyjne pomiędzy dwoma odległymi punktami. Linia taka może mieć różną przepustowość i w zależności od niej cenę. Cena zależy również od długości takiej linii, natomiast nie ma znaczenia liczba przesłanych danych.
Link
Zob. Odsyłacz
Lista
Zob. Wykaz.
Lista subskrypcyjna (ang. subscription list)
Lista osób, które zapisały się do danej listy dyskusyjnej pocztowej.
Lista wysyłkowa (ang. mailing list)
Lista użytkowników sieci, do których ma być wysłana poczta elektroniczna lub artykuł.
Listy dyskusyjne
Coraz bardziej powszechny sposób prowadzenia publicznych rozmów w internecie. Istnieją dwa rodzaje list dyskusyjnych, tzw. Usenet News oraz listy pocztowe. Listy pocztowe działają tak, że osoba, która chce brać udział w dyskusji zapisuje się do listy wysyłając zgłoszenie pod pewien adres i otrzymuje wszystkie teksty przysłane na listę. Jej odpowiedzi są odsyłane do wszystkich uczestników listy. Do list typu Usenet podłączamy się korzystając ze specjalnego programu klienta (newsreadera).
Listserwer (ang. listserver)
Zautomatyzowany system dystrybucji poczty dla potrzeb list dyskusyjnych.
Logowanie (ang. login, logon)
Wejście do sieciowego systemu operacyjnego. Logowanie zazwyczaj polega na podaniu nazwy użytkownika i hasła celem identyfikacji. Hasło powinno być tajne, natomiast nazwa użytkownika może być powszechnie znana.



MAN (ang. Metropolitan Area Network)
Sieć miejska. Łączy sieci lokalne w obrębie miasta. Oparta jest zazwyczaj o główne łącze dużej przepustowości do którego podłączani są klienci.
Marquee
Specjalna animacja, wprowadzona przez Microsoft do języka HTML i interpretowana jedynie przez Microsoft Internet Explorer 2.0. Polecenie Marquee, wraz z parametrami, pozwala wprowadzać do dokumentu "pływający" w poprzek ekranu tekst.
Microsoft Extensions
Zob. Rozszerzenia
MIME (ang. Multi Purpose Internet Mail Extension)
Metoda łączenia kodu binarnego w poczcie elektronicznej.
Modem (ang. MOdulator/DEModulator)
Urządzenie pozwalające na transmisje danych z komputera poprzez linie telefoniczną do drugiego modemu. Modem może być urządzeniem wewnętrznym (w postaci karty) lub zewnętrznym podłączanym kablem do interfejsu w komputerze.
Most (ang. bridge)
Urządzenie sieciowe służące do łączenia segmentów danej sieci. Potrafi filtrować adresy i przepuszczać tylko te pakiety, które są przeznaczone do segmentu po drugiej stronie mostu. Takie działanie odciąża sieć. Ponadto most działa w warstwie łącza danych (ang. data link) modelu ISO/OSI, a więc możliwe jest dzięki niemu połączenie ze sobą sieci w różnych architekturach, np. Ethernet i Token Ring.
MUD (ang. Multi User Dungeon)
Gra rozgrywana poprzez internet. Biorą w niej udział żywi ludzie i to właśnie oni są bohaterami gry. Mogą ze sobą rozmawiać, przekazywać sobie przedmioty, zabijać się itp. itd. Całość przebiega w trybie tekstowym i od gier typu Role Playing różni się tylko tym, że gracze nie widzą się nawzajem, reszta jest podobna.



Nagłówek (ang. header)
Część listu elektronicznego lub artykułu w grupie dyskusyjnej, zawierająca podstawowe informacje o liście (artykule), nadawcy, dacie, temacie, itp.
W dokumencie HTML jest to wyróżniony fragment tekstu, wprowadzany za pomocą specjalnego polecenia, interpretowany przez przeglądarkę za pomocą innej czcionki, zazwyczaj bezszeryfowej. Istnieje sześć stopni nagłówków, różniących się od siebie stopniem pisma. Nagłowków nie należy mylić z tytułem strony, który pojawia się w listwie tytułowej przeglądarki i jest wprowadzany odrębnym poleceniem TITLE.
Nazwa użytkownika (ang. username)
Nazwa użytkownika na serwerze. Nazwa użytkownika jest unikatowa w skali serwera i niezbędna do założenia konta.
Netscape Extensions
Zob. Rozszerzenia
Netiquette
Kodeks dobrych obyczajów, zbiór grzecznościowych zasad postępowania (etykieta sieciowa) w sieci Internet, szczególnie istotny w przypadku grup dyskusyjnych.
NewsSerwer
Komputer obsługujący listy dyskusyjne Usenet News. Do tego celu używa się specjalnego protokołu NNTP.
Numer IP (ang. IP number)
Unikatowy numer identyfikacyjny każdej maszyny podłączonej do internetu. Format numeru IP to cztery ośmiobitowe liczby rozdzielone kropkami. Przykładowy adres IP może wyglądać tak: 148.81.83.98.



Odpowiedź (ang. reply)
Wiadomość elektroniczna wysłana w odpowiedzi na czyjść artykuł lub list, bezpośrednio i wyłącznie do nadawcy.
Odsyłacz (ang. link)
Polecenie, które pozwala czytelnikowi dokumentu hipertekstowego przenieść się do miejsca wskazanego przez punkt docelowy odsyłacza. Odsyłacz jest zazwyczaj sygnalizowany niebieskim kolorem i podkreśleniem. Kliknięcie na nim spowoduje skok do innego miejsca na tej samej stronie, do innej strony WWW, do serwera FTP, wywoła moduł poczty elektronicznej itp.



Pakiet (ang. packet)
Najmniejsza porcja danych przesyłanych w sieci. W protokole TCP/IP dane grupuje się w pakiety, aby ułatwić i przyśpieszyć przesyłanie informacji.
Parser
Specjalny serwis w Internecie, który sprawdza poprawność składniową dokumentu HTML i jego zgodność z oficjalną specyfikacją języka HTML. Użytkownik podaje adres weryfikowanej strony, po czym parser przetwarza zawarte na niej informacje i wyświetla listę błędów wraz z komentarzem. Przykładem parsera jest specjalny serwis W3C, badający zgodność strony ze specyfikacją HTML 4.
Ping
Komenda pozwalająca sprawdzić połączenie internetowe poprzez wysłanie kontrolnego pakietu do i ze zdalnego hosta. Przy uzyskanym połączeniu istnieje możliwość pokazywania statystyk transmisji.
Plik ASCII (ang. ASCII file)
Typ pliku składającego się ze znaków ASCII (ang. American Standard Code for Information Interchange). Każdy znak ASCII jest zapisany za pomocą 7 bitów. Formatu pliku ASCII używa się do wysyłania poczty, artykułów na listach USENET itp.
Plik binarny (ang. binary file)
Typ pliku składającego się z ciągu bitów danych. Pliki tego typu to np. kody programów i zakodowane dane, bezpośrednio nieczytelne dla człowieka. Aby przesłać plik binarny używając e-maila należy go zakodować metodą uuencode, a aby go odczytać - zdekodować metodą uudecode.
Plug-in
Dosł. wtyczka. Program wspomagający przeglądarkę WWW, rozszerzający jej możliwości. Na przykład plug-in Adobe Acrobat Amber pozwala oglądać z poziomu Netscape Navigatora pliki publikacji elektronicznych Acrobata (PDF), czego nie potrafi zrobić sam Navigator. Obecnie istnieje już (w końcu marca br.) ok. 40 programów tego typu, głównie współpracujących z Navigatorem. Pojawiają się jednak także "wtyczki" dla Internet Explorera. Plug-iny pozwalają oglądać pliki animacji, wideo, 3D, virtual reality, dokumenty Worda, grafikę wektorową itd., zwalniając z konieczności posiadania oprogramowania natywnego dla danego typu pliku (np. Corela dla plików CMX czy Worda lub Word Viewera dla DOC) i bardzo wzbogacają możliwości przeglądarki.
Poczta elektroniczna
Zob. E-mail.
Pogawędka (ang. chat)
Bezpośrednia, prowadzona na bieżąco rozmowa dwóch lub więcej użytkowników, prowadzona za pomocą tekstu wpisywanego w specjalnym okienku. Zob. również IRC.
Połączenie (ang. connection)
Skomunikowanie się dwóch komputerów np. w sieci internet. Aby włączyć się do internetu, należy nawiązać połączenie z komputerem już obecnym w internecie.
Port szeregowy (ang. serial port)
Interfejs w komputerze, służący podłączeniu modemu lub drukarki. Zazwyczaj rozróżnia się porty nazwami COM1, COM2, itp.
PPP (ang. Point to Point Protocol)
Internetowy protokół komunikacyjny umożliwiający przesyłanie pakietów danych różnych formatów dzięki pakowaniu ich do postaci PPP. Podobnie jak SLIP także PPP działa poprzez łącze szeregowe. Protokół doskonale nadaje się do pracy z modemem.
Preferencje (ang. preferences)
Zestaw ustawień, pozwalający zdefiniować sposób zachowania programu, np. przeglądarki WWW czy edytora HTML. Zaawansowane przeglądarki pozwalają zdefiniować kilkanaście różnych parametrów, np. stronę początkową, domyślne kolory czcionki i odsyłaczy, wielkość cache'a, częstotliwość odświeżania danych, czcionki dla poszczególnych elementów tekstowych (ważne dla polskiego użytkownika), sposób wczytywania grafiki, aplikacje zewnętrzne obsługujące pewne rodzaje sesji (np. Telnet), aplikacje wspmagające, które są uruchamiane przy napotkaniu w Internecie pliku o nietypowym formacie, język, adresy serwerów poczty elektronicznej i grup dyskusyjnych, hasło, adres zwrotny poczty użytkownika, hasło.
Projekt (ang. project)
W edytorze HTML, zestaw powiązanych ze sobą stron, które będą tworzyć witrynę internetową lub jej fragment. Objęcie grupy stron ramą w postaci projektu ułatwia zarządzanie nimi, przyspiesza ich otwieranie, upraszcza wyszukiwanie informacji i weryfikowanie odsyłaczy, posyłanie na serwer.
Protokół (ang. protocol)
Zbiór sygnałów używanych przez grupę komputerów podczas wymiany danych (wysyłania, odbierania i kontroli poprawności informacji). Komputer może używać kilku protokołów. Np. jednego do komunikacji z jedym systemem, a drugiego z innym. W internecie mamy do czynienia z wieloma protokołami, a najważniejsze z nich to TCP/IP, SLIP, PPP.
Provider
Zob. Usługodawca internetowy.
Przeglądarka WWW (ang. browser)
Program pozwalający przeglądać strony w World Wide Web, w trybie tekstowym lub graficznym. Najpopularniejszym programem jest obecnie Netscape Navigator. Przeglądarki różnią się zakresem interpretowanych znaczników języka HTML i szeregiem dodatkowym możliwości - obsługa dodatkowych aplikacji, nawigacja, konfigurowanie itp.



Ramka (ang. frame)
Specjalny element dokumentu internetowego, wprowadzony w ramach Netscape Extensions i interpretowany jedynie przez Netscape Navigatora (wiadomo też, że będą one widoczne w Internet Explorerze 3.0). Użycie ramek pozwala dzielić ekran dokumentu na kilka odrębnych okienek, zwykle powiązanych ze sobą odsyłaczami, co ułatwia nawigowanie w skomplikowanych konstrukcyjnie dokumentach. Przykładem użycia ramek jest niniejszy kurs - stale widoczna ramka ze spisem treści pozwala szybko sięgać do różnych stron całego kursu, wprowadzanych za pomocą odsyłaczy do drugiej ramki. Użycie ramek nie pozbawia użytkowników innych przeglądarek możliwości czytania dokumentu, dzięki konstrukcji NOFRAMES, która zawiera "lustrzane" odbicie treści ramek.
Repeater
Urządzenie sieciowe pracujące w warstwie fizycznej modelu ISO/OSI. Pozwala na wzmocnienie sygnału w kablu sieciowym, a więc przedłużenie segmentu.
Rlogin (ang. remote login)
Zdalne logowanie się do innego komputera na którym mamy konto, bez konieczności podawania hasła.
Router
Urządzenie działające w warstwie sieciowej modelu ISO/OSI. Pozwala na kierowanie pakietów zgodnie z zawartą w nich informacją adresową. Urządzenie stosuje się do łączenia sieci LAN i sieci rozległych.
RFC (ang. Request for Comment)
Dokumenty opisujące wszelkie standardy związane z internetem. Ich zbiór można znaleźć na wielu serwerach, również w Polsce.
Rozszerzenia (ang. extensions)
Zestawy poleceń wprowadzone do języka HTML przez firmy Netscape i Microsoft (można tutaj także dodać najnowsze rozszerzenia Javy), wykraczające poza standardy HTML 2 i 3. Rozszerzenia obejmują polecenia, realizujące przede wszystkim specjalne efekty, np. kolory komórek i obramowania tabeli, animacja Marquee, migający tekst, ramki, dźwięk w tle, indeksowanie strony, wybór czcionki, applety Javy itd. Rozszerzenia są coraz powszechniej interpretowane przez przeglądarki, a ich tworzenie wspomagane przez coraz większą liczbę edytorów HTML. Rozszerzenia są częściowo wprowadzane do specyfikacji HTML 4.



Serwer
Dedykowany system komputerowy wydzielony z sieci w celu realizowania usług na rzecz innych. Przykładowo mogą to być usługi typu podawanie plików, obsługa drukarek, archiwizacja danych, translacja protokołów, itp.
Shell
Interpreter poleceń. Po zalogowaniu się do systemu zazwyczaj nasze działania nadzoruje proces shella. W zależności od tego jaki to shell, możemy stosować różne polecenia.
Sieć (ang. network)
Grupa komputerów połączona ze sobą w sposób umożliwiający wymianę informacji. Przykładem największej sieci jest internet.
Sieć lokalna
Zob. LAN.
Sieć miejska
Zob. MAN.
Sieć rozległa
Zob. WAN.
Site
Dowolny komputer z którym można się skontaktować w sieci Internet.
Site name
Nazwa komputera w sieci Internet.
Skrypt logowania (ang. login script)
Automatyczna procedura wykonująca uruchamiana podczas logowania się użytkownika do sieci.
Skrzynka pocztowa (ang. mailbox)
Plik w którym są przetrzymywane wszystkie otrzymane, kopie wysyłanych, jeszcze nie wysłane oraz usunięte listy.
SLIP (ang. Serial Line Interface Protocol)
Protokół transmisji poprzez łącze szeregowe. Protokół uzupełnia TCP/IP tak, aby można było przesyłać dane poprzez łącza szeregowe.
Smiley
Także emoticon, specjalny symbol, używany w poczcie elektronicznej oraz irc i listach dyskusyjnych, reprezentujący stan emocjonalny osoby przekazującej wiadomość. Symbol składa się ze znaków dostępnych bezpośrednio z klawiatury.
SNMP (ang. Simple Network Management Protocol)
Protokół zarządzania sieciami komputerowymi. Pozwala na zdalne, aczkolwiek ograniczone, monitorowanie sieci i zdalną konfigurację pewnych elementów.
Strona macierzysta
Zob. Home page.
Strona WWW (ang. Web page)
Dokument zapisany w formacie HTML, dostępny do powszechnego użytku w sieci Internet poprzez przeglądarki WWW.
Strona początkowa
Strona automatycznie wczytywana po uruchomieniu przeglądarki WWW. Netscape Navigator pozwala ustalić stronę początkową (home page), ale jednocześnie uruchamiać przeglądarkę z pustą stroną, bez konieczności łączenia się z siecią. Jest to wygodne np. wtedy, gdy sami konstruujemy dokument internetowy i kontrolujemy jego wygląd w pracującej w tle przeglądarce.
Subskrypcja
Przyłączenie się (bezpłatne) do istniejącej grupy dyskusyjnej. Wymaga to wybrania odpowiedniego serwera (np. news.nask.org.pl), przejrzenia dostępnych tam grup dyskusyjnych i zaznaczenia tych, które zamierzamy regularnie czytać.
Suite
Zob. Zestaw internetowy
Sygnatura (and. signature)
Podpis użytkownika, wstawiany pod treścią listu lub artykułu; zawiera zazwyczaj imię i nazwisko, a niekiedy także dodatkowe informacje identyfikujące, np. adres elektroniczny, firmę, tytuł, stanowisko, itp.
System wyszukiwawczy
Narzędzie do wyszukiwania informacji w Inernecie, oparty na zindeksowanych danych; bardziej zaawansowane systemy pozwalają wykorzystywać warunki logiczne i ograniczające. Największymi i najszybszymi systemami w Internecie są HotBot i Alta Vista, indeksujące dane z kilkudziesięciu mln stron internetowych, dokonując "obrotu" w ciągu 1-2 tygodni. Inny duży system - Lycos - gromadzi dane z ponad 10 mln stron.
Istnieją też systemy off-line - przykładem jest uproszczona baza Lycos na dysku kompaktowym, dostarczana z programem Internet Mania firmy Corel, która zawiera indeks ok. 400 tys. ważniejszych stron internetowych. System taki pozwala wyszukiwać informacje bez konieczności łączenia się z siecią.
Szyfrowanie (ang. encrypting)
Przekształcanie informacji do postaci nieczytelnej, dla zapewnienia jej poufności. Szyfrowanie wymaga dostarczenia klucza do odszyfrowania informacji przez odbiorcę.
Ślepa kopia poczty elektronicznej (ang. blind carbon copy)
Kopia listu wysłana do innej osoby, niż odbiorca poczty. Odbiorca listu nie wie, do jakich innych osób zostały wysłane kopie.



Tabela
Element dokumentu internetowego, pozwalający wprowadzać informacje w bardziej usystematyzowany sposób. Tabela składa się z kolumn i wierszy (zwykle obramowanych), które tworzą sieć komórek. Do komórek wprowadza się zazwyczaj dane liczbowe lub krótkie informacje tekstowe. Tabele mogą także posłużyć do symulowania szpalt.
Tag
Zob. Znacznik
TAR (ang. Tape ARchive)
Format archiwizacji plików w systemach Unix.
TCP/IP
Protokół komunikacyjny używany przez wszystkie komputery podłączone do Internetu.
TELNET
Program pozwalający na zdalne logowanie się do innego komputera i emulowanie zawartości jego ekranu tekstowego na ekranie maszyny lokalnej.
Temat (ang. subject)
Część nagłówka listu elektronicznego lub artykułu, zawierająca informację o temacie listu lub arykułu. Temat pozwala odbiorcy szybko zorientować się w charakterze informacji.
Token Ring
Jeden ze standardów sieci lokalnych. Działa w oparciu o przesyłanie tokena w kablu w formie pierścienia. Pierwszy standard przewidywał przesyłanie z szybkością 4 Mb/s, natomiast w obecnych sieciach osiągana prędkość to 16 Mb/s.
Tytuł
W dokumencie HTML jest to ciąg znaków, który przeglądarka WWW wyświetla w swojej belce tytułowej (w naszym kursie jest to napis "Kurs języka HTML"). Tytułu nie należy mylić z nagłówkami, które są wprowadzane do treści dokumentu.



Unix
System operacyjny stosowany dawniej na komputerach typu mainframe, a teraz nawet na personal. Na początku internet bazował na systemach unixowych, ale w chwili obecnej do połączeń można używać nawet PC pracujący w DOS lub Windows czy też Macintosh.
Upload
Przesłanie pliku z komputera lokalnego na odległy.
URL (ang. Uniform Resource Locator)
Próba standaryzowania formatu zapisu adresów i lokacji w internecie. Najczęściej używany dla opisania stron WWW. Przykładowe URL-e to: ftp://ftp.funet.fi/, http://www.gazeta.pl/, news://news.nask.org.pl/, mailto:pawel.wimmer@lupus.waw.pl.
USENET, USENET NEWS
Listy dyskusyjne w internecie. Nie są to listy rozsyłane pocztą do wszystkich zainteresowanych użytkowników, ale usługa typu klient-serwer. Osoba, która chce dyskutować podłącza się do tzw. News Serwera i czyta żądane listy.
Usługodawca inernetowy (ang. internet provider)
Dostawca usług internetowych. Zazwyczaj firma posiadająca szybkie łącze ze światem i wiele podłączeń telefonicznych (numerów dostępowych). Modemem podłączamy się do takiej firmy i dzięki niej łączymy się z dowolnym miejscem na świecie za cenę połączenia lokalnego. Usługodawca internetowy zazwyczaj oferuje szeroką gamę usług za które pobiera odpowiednie opłaty, choć wiele z nich jest oferowanych niekiedy za darmo (np. konta pocztowe, liczniki, statystyki, książki gości itp.)
UUCP (ang. Unix-to-Unix Copy)
Protokół służący dawniej do przesyłania poczty przy pomocy połączeń modemowych typu dial-up. Co jakiś czas dane maszyny łączyły się ze sobą dzwoniąc i przekazując wzajemnie oczekującą pocztę.
Uudecode
Metoda dekodowania plików ASCII do postaci binarnych, jeżeli wcześniej zakodowano je poprzez uuencode.
Uuencode
Metoda kodowania plików binarnych do postaci plików ASCII. Używając tej metody możliwe jest przesyłanie plików binarnych za pomocą poczty elektronicznej.



W3=World Wide Web
Walidacja
Proces weryfikowania poprawności składniowej dokumentu HTML. Wyróżnia się sprawdzanie poprawności składniowej połączone z kontrolą zgodności z oficjalną specyfikacją HTML, oraz sprawdzanie wyłącznie poprawności składniowej, nawet jeśli użyte polecenia wykraczają poza oficjalny HTML. W pierwszym przypadku stosowane są zazwyczaj serwisy sieciowe (tzw. parsery), w drugim na ogół specjalne programy instalowane na dysku (np. CSE 3310 HTML Validator).
WAN (ang. Wide Area Network)
Sieć złożona z komputerów znajdujących się w dużych odległościach od siebie (np. sieć internet). Wymagane jest zaangażowanie publicznej sieci telekomunikacyjnej. Sieć rozległa łączy sieci lokalne i miejskie.
Wątek (ang. thread)
Część artykułów w grupie dyskusyjnej, dotycząca tego samego tematu.
Wtyczka
Zob. Plug-in.
WWW (ang. World Wide Web)
Światowa pajęczyna. Rodzaj usługi polegającej na łączeniu się z różnymi miejscami na świecie za pomocą interfejsu graficznego lub tekstowego i oglądaniu tak zwanych stron WWW. Główną zaletą usługi jest jej bardzo wygodny interfejs, a co za tym idzie prosty sposób poruszania się po sieci i znajdowania dowolnych informacji.
Wykaz
Element dokumentu internetowego, składający się z kolejnych wierszy (punktów wykazu), zazwyczaj równoważników zdań. Stosowane są wykazy uporządkowane (wiersze są numerowane) i nieuporządkowane (opatrzone znakiem graficznym - kółeczkiem, kwadratem). Wykazy są przydatne przy tworzeniu hipertekstowego spisu treści czy wyliczaniu jakichś elementów.



Zakładka (ang bookmark)
Oznakowanie miejsca w Internecie, do którego chcemy szybko sięgnąć w następnych sesjach. Kliknięcie na zakładce pozwala wykonać skok do jakiegoś miejsca, zwalniając z konieczności ręcznego wpisywania adresu lub przechodzenia do niego poprzez inne strony. Zakładki pełnią rolę podręcznej książki adresowej, a w codziennej pracy wystarcza zazwyczaj kilkanaście-kilkadziesiąt zakładek. Istnieją też programy wspomagające, które służą do budowania obszernych i bardzo wygodnych w obsłudze książek adresowych - przykładem jest SmartMarks, współpracujący ściśle z Netscape Navigatorem.
Załącznik (ang. attachment)
Przesyłka w postaci pliku, dołączana do poczty elektronicznej, wysyłana zwykle dla oszczędzenia czasu w postaci skomprymowanej.
Zestaw internetowy (ang. Internet suite)
Zintegrowany zestaw programów obsługujących Internet. Zestawem jest np. Microsoft Internet Suite, Netscape Communicator, Quarterdeck Internet Suite i Delrina Cyberjack, które zawierają programy do obsługi WWW, FTP, poczty elektronicznej, grup dyskusyjnych itp. Zestawy są na ogół programami znacznie większymi objętościowo od zwykłych przeglądarek WWW i mogą należeć do kategorii oprogramowania komercyjnego.
Znacznik (ang. tag)
Polecenie języka HTML, wstawiane do dokumentu internetowego, które jest następnie interpretowane we właściwy sposób przez przeglądarkę WWW. Na przykład polecenie <P> powoduje utworzenie nowego akapitu, oddzielonego od poprzedzającego go elementu (np. tekstu) interlinią, polecenie <HR> powoduje wstawienie do dokumentu poziomej linii itd. Przeglądarki WWW różnią się zakresem interpretowanych znaczników, a największe możliwości oferuje tutaj Netscape Navigator.
Znaki specjalne (ang. special characters)
W szerokim rozumieniu jest to zestaw znaków (na ogół niedostępnych bezpośrednio z klawiatury) wprowadzanych do dokumentu HTML w specjalny sposób (np. ", &, < >, £, §, ©, ®, µ, ¶), z użyciem ich kodów. Niektóre znaki (np. nawiasy ukośne) są kodami sterującymi w dokumentach HTML, a więc ich odzwierciedlenie w dokumencie wymaga innego sposobu wprowadzenia.
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Wto Wrz 16, 2008 13:46    Temat postu: Jak wybrać firmę pozycjonującą? Odpowiedz z cytatem

Pozycjonowanie stron WWW to proces długofalowy. Każdy, kto obiecuje natychmiastowe efekty, jest zwyczajnym oszustem. Ujawnimy jakie chwyty stosują "eksperci" od pozycjonowania.
Google i inne wyszukiwarki indeksują miliony stron WWW. Po wpisaniu słowa kluczowego internauta otrzymuje dziesiątki czy setki tysięcy wyników. Bardzo rzadko jednak przegląda więcej niż 5-10 z nich. Jeśli dana witryna - nawet bardzo dobra i profesjonalnie wykonana - nie znajduje się w tej grupie, ma małe szanse na pozyskanie odwiedzających. Dlatego większość webmasterów wykorzystuje techniki mające na celu znalezienie się jak najwyżej w wynikach wyszukiwania.

Wyniki badania firmy Enquiro Research (http://www.enquiroresearch.com) pokazują, na które obszary na stronach z wynikami wyszukiwarek użytkownicy zwracają najwięcej uwagi (żółty, pomarańczowy i czerwony) Wyniki badania firmy Enquiro Research (http://www.enquiroresearch.com) pokazują, na które obszary na stronach z wynikami wyszukiwarek użytkownicy zwracają najwięcej uwagi (żółty, pomarańczowy i czerwony) Całokształt tego procesu nazywa się Search Engine Optimization (SEO) lub pozycjonowanie. Właściciel witryny może wykonać tę pracę samodzielnie. W przypadku niewielkich witryn, dysponujących ograniczonym budżetem, takie "hobbystyczne" SEO to często jedyny wybór. Jednak większe serwisy decydują się zwykle na współpracę z firmami wyspecjalizowanymi w pozycjonowaniu. Usługi takie nie są tanie, ale ich efektywność jest duża - pod warunkiem, że współpracuje się z uczciwymi specjalistami od SEO.

Jak rozpoznać oszusta?
Oszuści w branży SEO bardzo często obiecują klientom szybkie efekty w postaci wysokich lokat w naturalnych (czyli niesponsorowanych) wynikach wyszukiwania. Tymczasem pozycjonowanie jest procesem długofalowym, który przynosi korzyści najszybciej po 2-3, a czasem nawet po 5-6 miesiącach. Wszystko zależy od tego, jak bardzo popularne są słowa kluczowe, które wiążą się z treścią witryny. Czasami wymagane jest także wielokrotne doprecyzowywanie wykorzystywanych zwrotów. Najszybciej reagują strony niszowe. Ale nawet w tym przypadku nie można spodziewać się cudów po kilku tygodniach.

Druga fałszywa obietnica dotyczy obecności na pierwszym miejscu w naturalnych wynikach wyszukiwania. Nawet bardzo rozbudowany pro-ces pozycjonowania, obejmujący wszystkie możliwe aspekty witryny, jest w stanie zagwarantować najwyżej obecność wśród pierwszych kilkunastu linków. Firma, która mówi o najwyższej lokacie (a nie zawiera tego zobowiązania w umowie) po prostu oszukuje. Wyznaje zasadę: "Jeśli odejdzie jeden klient, łatwo znajdziemy następnego. Po co więc się starać?".

Czasami winni są sami klienci. Naciskają na pozycjonerów, aby ci pracowali jak najszybciej. Specjaliści od SEO decydują się więc na stosowanie nielegalnych metod, aby nie tracić zleceń. A nawet jeśli pozostają przy dopuszczalnych środkach, zwiększają tempo kreowania linków i "wzbudzają podejrzenia" mechanizmów wyszukujących. Efektem jest obniżenie pozycji witryny, a nawet konieczność zmiany domeny.

Nieetyczne pozycjonowanie
Wiele firm składających obietnice bez pokrycia stara się za wszelką cenę choć częściowo zachować twarz i zadowolić klientów wynikami. W tym celu stosuje nieetyczne, niezgodne z re-gulaminami wyszukiwarek techniki pozycjonowania. Wśród nich można wymienić tak zwany keyword stuffing. Polega on na masowym powtarzaniu słów kluczowych w ramach serwisu - w sekcji HEAD (niewidocznej dla użytkownika) lub BODY (widocznej). W tym drugim przypadku stosuje się bardzo małą czcionkę, często tego samego koloru co tło. Mechanizm ma na celu oszukanie robotów indeksujących i sztuczne zawyżenie pozycji w wynikach wyszukiwania.

Odmianą keyword stuffingu jest technika polegająca na zapełnianiu strony wszelkimi możliwymi słowami kluczowymi, nawet niepowiązanymi z zawartością serwisu. Taktykę tę stosują firmy starające się wygenerować jak największą liczbę odsłon. Nie dbają w ogóle o jakość ruchu. Tymczasem przy pozyskiwaniu klientów lub czytelników liczą się tylko wejścia targetowane - od osób rzeczywiście zainteresowanych tematem, gotowych regularnie odwiedzać witrynę. Kontrowersyjnym narzędziem są także farmy linków. Firma pozycjonująca wkleja URL promowanego projektu w każde możliwe miejsce w sieci (fora i grupy dyskusyjne, księgi gości, blogi). Może on w ten sposób trafić na stronę zawierającą tylko niepowiązane ze sobą hiperłącza.

Są ich tam setki lub tysiące. Odmianę tej techniki stosuje się w tak zwanych doorway pages - zoptymalizowanych pod wyszukiwarki serwisach, które są wyłącznie "drzwiami" przenoszącymi internautę do innych witryn. Wykorzystywany jest w tym przypadku meta refresh tag, który wymusza błyskawiczne przekierowanie.

Inne zagrożenie to automatyczna wymiana linków - bardzo szybka wersja popularnego w sieci umieszczania na zaprzyjaźnionych stronach banerów czy buttonów. Jeśli odbywa się to za pośrednictwem komputerowego skryptu, prowadzi do sytuacji, gdy dana strona promowana jest w serwisach zupełnie z nią niepowiązanych i sama reklamuje u siebie takie witryny. Skuteczność zabiegu jest znikoma, bo zazwyczaj poleca się linki całkowicie bezużyteczne, śmieciowe. Jeszcze bardziej zaawansowany jest cloaking.

Firma pozycjonująca przygotowuje dwie wersje projektu: jedną dla zwykłych użytkowników, drugą dla robotów indeksujących. W momencie gdy strona jest wywoływana z serwera, mechanizm sprawdza IP klienta i ustala z kim ma do czynienia. Robot otrzymuje zupełnie inną zawartość niż człowiek. Rezultatem jest zafałszowanie wyników wyszukiwania - liczy się na to, że użytkownik (nawet jeśli wejdzie do serwisu, którego nie szukał) i tak zainteresuje się witryną (na przykład ze względu na zamieszczoną tam pornografię).

Najbardziej rozbudowaną nieetyczną techniką pozycjonowania jest tworzenie stron łudząco podobnych do tych, które - na przykład - ma konkurencja. Na pierwszy rzut oka nie można zauważyć różnic. Gubią się nie tylko ludzie, ale nawet roboty indeksujące. Konieczna jest w tym przypadku zewnętrzna ingerencja - najczęściej ze strony poszkodowanych firm, które zgłaszają nadużycia operatorom wyszukiwarek i ewentualnie decydują się na dochodzenie swoich praw w sądzie.

Stosowanie nieetycznych technik w SEO działa wyłącznie na krótką metę, w dłuższej perspektywie odstrasza zaawansowanych użytkowników i psuje opinię, może mieć także katastrofalne skutki dla pozycji na liście wyników. Wyszukiwarki zawierają zaawansowane mechanizmy, które potrafią wykryć większość nadużyć. Serwisy łamiące regulaminy są za karę przesuwane na bardzo niskie miejsca lub w ogóle usuwane z indeksu.

Szacunek dla klienta
Uczciwe firmy z branży SEO nigdy nie wykorzystują dwa razy tych samych zestawów słów kluczowych. Zdają sobie sprawę, że każde zlecenie jest inne, wymaga indywidualnego podejścia. Chodzenie na skróty i stosowanie gotowych szablonów daje najwyżej przeciętne efekty. Profesjonaliści cenią czas swoich klientów, są w stanie szybko przygotować fachowo wyglądającą ofertę, jasno wyjaśnić jakie będą koszty. Nie operują ogólnikami i niedopowiedzeniami, nie wykorzystują niewiedzy klienta. Informują go także o potencjalnym ryzyku związanym z SEO. Nie zawyżają liczby zleceń (np. kilka tysięcy w ciągu roku). Rozmawiają prostym językiem, unikają żargonu.

Fachowcy nie używają nachalnie na swoich stronach określeń "pozycjonowanie" czy "SEO". Ich własna wysoka lokata w wyszukiwarkach wynika z prawdziwego dorobku, a nie nadużywania słów kluczowych. Uczciwe firmy prezentują w swoim serwisie portfolio - linki do projektów wcześniejszych i obecnych klientów (jeśli zawarte z nimi umowy to dopuszczają). Z drugiej strony nie ujawniają dokumentacji danego partnera komuś innemu. Wiedzą, że poufność jest ważna.

Szukając specjalistów od SEO zawsze warto popytać znajomych webmasterów. Być może ktoś z nich korzystał już z usług tego rodzaju firm i będzie w stanie jakąś polecić. Druga metoda to przeczytanie jednego z dostępnych w sieci czy prasie poradników - choćby takiego, jak ten Wink. Bardziej czasochłonne jest samodzielne wyszukanie firm pozycjonujących, wysłanie im zapytań ofertowych i ocena ich pod kątem fachowości. Warto wtedy pytać przede wszystkim o ceny usług, główne założenia umowy, ale także delikatnie wysondować postawę wobec nieetycznych technik. No i zapytać o wydawałoby się tak oczywistą rzecz jak to, czy za usługi wystawiana jest faktura VAT.

Jeśli przedstawiciel firmy nie wie, co to jest Kodeks Etyczny SEO (patrz ramka), odpowiada po tygodniu albo i później, robi pełno literówek, nie chce umówić się na spotkanie, oferuje niepowiązane z usługą SEO produkty albo nie odnosi się do zadanych w mailu pytań, lepiej być ostrożnym. Ostrzegawcza lampka powinna zapalić się także wtedy, gdy dana oferta jest znacznie tańsza (np. o 50-70%) od pozostałych. Konkurencja w branży jest ostra, na rynku działa wielu poważnych graczy. Ale pozycjonowanie kosztuje. Niezależnie od tego, jak mocno firmy walczą o zlecenia, nie zejdą poniżej pewnego pułapu cenowego.

W umowie między witryną a partnerem SEO powinny znaleźć się przede wszystkim zapisy dotyczące wyceny. Najlepiej, gdy zapłata za usługę jest uzależniona od wyników kampanii (witryna płaci za efekty). Czasami formą płatności jest ryczałt (miesięczny "abonament"). Webmasterzy nie lubią jednak tej formy. Aby pozycjoner nie pracował przez dłuższy czas za darmo, często wynagrodzenie jest dwuczłonowe - składa się z niewielkiego ryczałtu oraz prowizji za wyniki. Ważny jest też zapis zakazujący stosowania po raz drugi tych samych zestawów słów kluczowych w celu promowania serwisu innego klienta.

Porozumienia między serwisami a firmami SEO zawierane są zazwyczaj na pół roku lub rok i cyklicznie odnawiane. Jeśli pozycjoner nalega na długoterminowy układ (dwa, trzy lata) należy bardzo dokładnie zapoznać się z warunkami rezygnacji. W ten sposób właściciel strony uniknie sytuacji, w której będzie trwale związany z nieuczciwą firmą, stosującą nieetyczne, ryzykowne praktyki. Jeśli w umowie są jakieś niejasne zapisy, a partner nie potrafi ich wyjaśnić, lepiej w ogóle zrezygnować ze współpracy.

Ile to kosztuje?
Koszty SEO można ocenić dopiero po przeanalizowaniu witryny, która ma być pozycjonowana. Na pewno wynoszą one więcej niż 9,90 za miesiąc (taka kwota pojawia się często w popularnych serwisach aukcyjnych). Wśród czynników wpływających na wycenę można wymienić:

* konkurencję panującą w wyszukiwarce na dane słowo kluczowe (liczba wyników, jakie wyrażenie zwraca),
* wiek domeny,
* historię domeny (czy była już pozycjonowana, czy serwis był karany za spam itp.),
* aktualne miejsce w wynikach wyszukiwania (Link Popularity, PageRank),
* technikę, w jakiej strona została wykonana,
* merytoryczną zawartość witryny,
* liczbę słów kluczowych, które mają być pozycjonowane (im jest ich więcej, tym niższa cena za każde wyrażenie),
* lokaty i jakość projektów konkurencyjnych.

Utrzymanie serwisu na szczycie listy wyników wyszukiwania kosztuje zwykle od 100 do nawet 1500 złotych miesięcznie za jedną frazę. W większości firm panuje zasada, że im więcej trafień zwraca dane słowo kluczowe, tym koszt jego pozycjonowania jest wyższy. Czasami prowadzi to do wypaczeń - wiele wyrażeń daje miliony wyników. Jednocześnie ich przydatność biznesowa jest ograniczona - niewielu klientów je wykorzystuje i dlatego łatwo je promować.

Ci specjaliści, którzy rozliczają się z klientami za pośrednictwem prowizji, stosują najczęściej zasadę: jeśli strony nie ma w top 10 wyników, wynagrodzenie nie jest pobierane (płacenie za niższe wyniki to i tak wyrzucanie pieniędzy w błoto).

Niektóre firmy oferują płaską stawkę, niezależnie od tego czy serwis jest na 1. miejscu czy na 10. Inne wykorzystują korzystniejszy dla klienta mechanizm - różnicują prowizję zależnie od konkretnej lokaty w ramach top 10. Ma to sens, bo różnice w klikalności między pierwszą a dziesiątą pozycją sięgają kilkuset procent.

Najlepsze polskie firmy SEO
W Polsce działa kilkaset firm zajmujących się - mniej lub bardziej profesjonalnie - pozycjonowaniem stron WWW. Przedstawienie wszystkich nie byłoby możliwe. Dlatego analizując rynek przeglądaliśmy te oferty, które znajdują się w pierwszej 50. wyników Google pod wyrażeniami powiązanymi z SEO. Wykluczyliśmy firmy, które nie podawały pełnych danych kontaktowych, utajniały swoje portfolio albo pomijały w serwisach inne kluczowe elementy. Nie uwzględnialiśmy także tych prowadzących jednoosobową działalność gospodarczą.

Wybraliśmy w ten sposób około dwudziestu rynkowych graczy - największych i najbardziej znanych.Wszyscy otrzymali maile z pytaniami dotyczącymi ich ofert oraz tydzień na odpowiedź. Około połowy firm odpisało w terminie. Niestety, nie wszystkie były wystarczająco otwarte, wobec niektórych pojawiły się wątpliwości w późniejszym czasie. Ostatecznie przez wszystkie szczeble selekcji przeszło siedem podmiotów - ich profile prezentujemy poniżej w kolejności alfabetycznej.

Art4Web
http://www.pierwszemiejsce.pl
Firma powstała w 1999 roku, branżą SEO zajmuje się od 2002 r. Założycielem i właścicielem jest Bartosz Kordyński. W 2007 roku Art4Web zrealizował około 200 zleceń w zakresie pozycjonowania. Obecnie zatrudnia trzech specjalistów. Najważniejsi klienci to: Netmedia, Money.pl i Oponeo.pl.

Za swój największy sukces firma uważa wypromowanie serwisu Mutinydesign.co.uk na 1. lokatę na Wyspach Brytyjskich pod słowem "web design". Pierwszemiejsce.pl znajduje się na szczycie wyników Google pod hasłem "pozycjonowanie". Firma rozlicza się z klientami w systemie abonenckim, ale opłata wnoszona jest tylko pod warunkiem osiągnięcia i utrzymania wysokich lokat. Minimalny czas trwania umowy to 6 miesięcy.

Artefakt
http://www.artefakt.pl
Istnieje od 2005 roku. Powstał wskutek wyodrębnienia się działu internetowego funkcjonującej od 1997 r. firmy DASH. Założycielem i właścicielem jest Marcin Deręgowski, który w latach 90. pracował w firmie Infonet (pierwszy komercyjny dostawca sieci na Dolnym Śląsku). Prezesem zarządu jest Błażej Miernikiewicz. Artefakt pozycjonuje obecnie około 200 witryn. W 2007 roku pozyskał 70 nowych. Zatrudnia sześciu specjalistów SEO.

Przykładowi klienci to: DobreDomy.pl, Polonia Transport oraz katalog e-sklepów Pinia. pl. Firma rozlicza się z klientami zarówno w formie ryczałtowej, jak i prowizyjnej (inna stawka za każde miejsce). Umowy zawierane są na czas nieokreślony z 2-miesięcznym terminem wypowiedzenia (ryczałt) lub na minimum 1 rok (prowizja).

GoldPosition
http://www.goldposition.pl
Istnieje od 2004 roku. Założycielem i właścicielem jest Cezary Lech. W 2007 roku firma zrealizowała kilkadziesiąt zleceń SEO. Zatrudnia dwóch specjalistów. Za swoich najważniejszych klientów uważa serwisy AutoCentrum.pl i KiteShop. pl. GoldPosition specjalizuje się w pozycjonowaniu metodą long tail. Polega ona na maksymalizowaniu wejść z wyszukiwarki poprzez dużą liczbę słów kluczowych - nie tylko tych najbardziej oczywistych dla danego projektu. Firma rozlicza się z klientami w systemie prowizyjnym, umowa zawierana jest na co najmniej 6 miesięcy. W 2008 roku Cezary Lech wraz dwoma partnerami zamierza stworzyć nową spółkę specjalizującą się w obsłudze dużych klientów.

Inhead
http://www.inhead.pl
Działa od 2005 roku. Zorientowana jest na dużych partnerów. Powstała z inicjatywy Tomasza Laberscheka (współorganizatora pierwszego w Polsce konkursu SEO), Wojciecha Pietrzaka i Pawła Bieńka. W 2007 roku firma zrealizowała około 20 zleceń SEO - od optymalizacji witryn korporacyjnych po szerokie pozycjonowanie na 2500 fraz. Zatrudnia trzech specjalistów. Przykładowi klienci to: Dom Maklerski IDM S A, MinisterstwoGadzetow.com i Trend Vision. Za swoje największe sukcesy Inhead uważa osiągnięcie 1. lokaty w Google dla fraz "okna" oraz "prezenty". Rozlicza się z klientami w systemie ryczałtowym, umowy zawiera zwykle na rok.

Mobile IT Group Poland
http://www.badzpierwszy.pl
Działa na rynku od 2004 roku. Założycielem i prezesem zarządu jest Wiktor W. Kammer. W portfelu klientów Mobile IT Group Poland znajduje się około 100 firm (najważniejsze: Neckermann Polska, Fotojoker, Giełda Samochodowa AdMoto. pl), pozycjonowanych jest ponad 600 słów kluczowych. Dla serwisu Bądźpierwszy.pl pracuje czterech specjalistów SEO. Mobile IT Group Poland rozlicza się wyłącznie za osiągnięte wyniki (nie ma miesięcznego ryczałtu). Klient płaci za miejsca od 1-10 w wyszukiwarce - inna stawka za każdą lokatę. Umowy zawierane są na 6 miesięcy i przedłużane na czas nieokreślony z 30-dniowym terminem wypowiedzenia.

Widzialni
http://www.widzialni.pl
Firma działa na rynku od 2006 roku. Powstała z inicjatywy Marcina Krzemińskiego, Marcina Pawlaka i Mateusza Zyguły. Zatrudnia czterech specjalistów. Obecnie właścicielem jest Mateusz Zyguła. W 2007 roku firma wykonała około 100 zleceń SEO.

Przykładowi klienci to: Indykpol SA, pwn.pl, Rohlig Poland, Semax SA. Za swój największy sukces firma uważa wprowadzenie na pierwsze miejsce serwisów m. in. dla takich fraz jak "implanty", "kosiarki", "księgarnia internetowa", "Tunezja". Widzialni.pl rozliczają się z klientami w systemie prowizyjnym (opłata za efekt). W przypadku szczególnie trudnych słów kluczowych obowiązuje model mieszany (z ryczałtem). Umowy zawierane są na 6-12 miesięcy.

Sunrise System
http://www.sunrisesystem.pl
Powstała w 2003 roku. Prezesem zarządu jest Janusz Bogaczyk. Firma obsłużyła w 2007 r. 1370 klientów, z czego 90% w ramach długoterminowych umów na pozycjonowanie. Sunrise System zatrudnia na stałe 8 specjalistów SEO. Najbardziej prestiżowi klienci to: JW Construction, Ricoh Polska, Press i Santander Consumer Bank. Za swój największy sukces firma uważa wypromowanie serwisu Fotostrada na 1. miejsce w Google pod trudną frazą "aparaty fotograficzne". Sunrise pobiera opłaty wyłącznie za osiągnięte wyniki (system prowizyjny). Umowy zawierane są na okres 15-45 miesięcy.

Polecam http://serwis.magazynyinternetowe.pl
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Tomasz



Dołączył: 18 Maj 2008
Posty: 413

PostWysłany: Wto Wrz 16, 2008 13:47    Temat postu: Kodeks etyczny SEO Odpowiedz z cytatem

Kodeks etyczny SEO

Dokument ten został opracowany przez Internet Advertising Bureau Polska. Jest zbiorem zaleceń, które określają standardy jakościowe i etyczne podczas pozycjonowania stron WWW. Najważniejsze zasady to:

1. Zakaz działania na szkodę klienta, czyli wykorzystywania nieetycznych technik.
2. Zakaz łamania regulaminów wyszukiwarek i katalogów WWW. (Choć zapisy np. w regulaminie Google praktycznie wykluczają jakiekolwiek pozycjonowanie – zabronione są wszystkie „sztuczne” linki.)
3. Zakaz wprowadzania w błąd, szkodzenia użytkownikom, obrażania ich – na przykład poprzez prezentację na stronie treści nieadekwatnych do zapytania.
4. Bezwzględny obowiązek przestrzegania wiążących przepisów, w szczególności w zakresie ochrony praw autorskich, zasad umieszczania znaków handlowych, marek itp.
5. Zakaz przywłaszczania sobie pracy innych osób. Do wykorzystania zewnętrznego projektu konieczna jest odpowiednia zgoda.
6. Obowiązek mówienia prawdy o własnych doświadczeniach zawodowych, sukcesach i porażkach, osiągnięciach, kwalifikacjach.
7. Obowiązek równorzędnego traktowania bezpośrednio konkurujących ze sobą klientów. Specjalista powinien oferować każdemu z nich najlepszy możliwy poziom usług.
8. Zakaz składania nierealnych obietnic – terminów, wyników kampanii.
9. Obowiązek ujawnienia metodologii pozycjonowania na życzenie klienta, który ma prawo do pełnej informacji na temat tego, co dzieje się na jego stronie.
10. Obowiązek ochrony prywatności i anonimowości klienta. Współpraca jest poufna, publikację wszelkich danych trzeba uzgodnić.
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Szymon



Dołączył: 15 Kwi 2008
Posty: 226

PostWysłany: Sob Mar 27, 2010 15:39    Temat postu: Reklama internetowa, optymalizacja stron i pozycjonowanie Odpowiedz z cytatem

Poniżej ogólne informacje w jaki sposób pozycjonujemy strony naszych klientów. W naszej ofercie znajdą Państwo pozycjonowanie stałe oraz pozycjonowanie jednorazowe.

Nie wszystkie hasła/frazy wymagają stałego pozycjonowania by utrzymać się w wyszukiwarkach na wysokich pozycjach (pozycje 1-10, 1-20). Wiele haseł mniej konkurencyjnych lub powiązanych z regionem działania firmy można wypozycjonować wysoko za opłatą jednorazową - pozycje 1-10, efekt utrzyma się bardzo długo. Przykładowe hasła które wypozycjonowaliśmy w ten sposób to: "dentysta Gdynia", "drzwi antywłamaniowe Warszawa", "rolety Gdynia", "pensjonat Jastrzębia Góra", "papier Gdynia", "agroturystyka Kaszuby", "Adblue" "nieruchomości Tychy", "agroturystyka Łeba", "transport Warszawa" i kilkaset innych.

Pozycjonowanie jednorazowe jest bardzo dobrym rozwiązaniem właśnie w przypadku haseł mniej konkurencyjnych, gdy firma dysponuje ograniczonym budżetem. Pozycjonowanie jednorazowe można odświeżyć raz na jakiś czas gdyż z biegiem czasu pozycje mogą nieznacznie spaść (spadki są przeważnie niewielkie) - za poprawę pozycjonowania płaci się wówczas już tylko POŁOWĘ aktualnej ceny nowego pozycjonowania jednorazowego. W przypadku prostszych haseł przeważnie nasi Klienci robią poprawę pozycjonowania raz na kilka miesięcy lub raz na rok, są także klienci którzy po 2-3 latach od pozycjonowania jednorazowego dalej mają czołowe pozycje - np. hasła typu: "budowa hal tenisowych" i "hale tenisowe". Ofertę na pozycjonowanie jednorazowe znajdą Państwo niżej.

Pozycjonowanie stałe w wyszukiwarce Google wskazane jest dla trudniejszych, bardziej konkurencyjnych haseł (z uwagi na coraz większą konkurencję to tego typu haseł będzie przybywać) lub w sytuacji gdy hasła niekoniecznie są bardzo konkurencyjne ale klientowi zależy na absolutnej czołówce.
Na przykład - jeden klient woli zapłacić tylko za pozycjonowanie jednorazowe (ewentualnie po jakimś czasie zrobić sobie poprawę pozycjonowania za połowę ceny) i zadowalają go pozycja np. 5-10 a innego klienta satysfakcjonuje tylko pozycja 1-2 i gotowy jest ponieść opłaty miesięczne za pozycjonowanie stałe.
Tak więc czy zdecydować się na stałe pozycjonowanie strony nawet w przypadku mniej konkurencyjnych haseł zależy od celu jaki ma być osiągnięty.
Przy pozycjonowaniu stałym w Google, opłata liczona jest co miesiąc za pozycjonowanie każdego hasła osobno. W ten sposób pozycjonować można jedno lub więcej haseł i bardzo duży wzrost pozycji można uzyskać już w ciągu ok 20 dni - jednak przed przystąpieniem do takiego pozycjonowania muszą być spełnione pewne warunki. Pozycjonowanie to możemy zrobić "od razu" dla stron które przynajmniej od kilku miesięcy są widoczne w wyszukiwarce Google i są już teraz po tych wybranych hasłach (które miały by być pozycjonowane) w granicach pozycji ok 1-80, 1-100. Wysokość opłaty uzależniona jest od trudności hasła - przeważnie od 50 do 500 zł netto/msc (ok 80% pozycjonowanych przez nas haseł/fraz mieści się w przedziale cenowym od 100-250 zł netto/msc).
Gdy hasła miały by mieć pozycjonowanie stałe ale strony nie ma po tych hasłach w granicach pozycji ok 1-80, 1-100 lub jest to zupełnie nowa strona to zalecane jest najpierw pozycjonowanie jednorazowe wg oferty poniżej i dopiero po tym jednorazowym pozycjonowaniu można zdecydować się na stałe pozycjonowanie za opłata miesięczna (już tylko dla tych wybranych haseł). Pozycjonowanie to nazywa się stałe ale Pańswto mogą z niego w dowolnym czasie zrezygnować - nie wiążą się Państwo z nami żadną długoterminowa umowa. W dowolnym miesiącu można ze stałego pozycjonowania zrezygnować - lub zamówić je sobie np. tylko w wybranych miesiącach, np w sezonie wiosenno letnim dla haseł sezonowych np. "kosiarki" lub "spływy kajakowe".

W praktyce pozycjonowanie odbywa się głównie wg 3 sposobów: 1. Klient decyduje się na pozycjonowanie jednorazowe na ok 8-10 haseł i w przypadku mniej konkurencyjnycyh haseł takie pozycjonowanie stron www wystarcza. Efekt końcowy pozycje 1-10, 1-20 na wszystkie lub wiekszość haseł. Na pozycjonowaniu jednorazowym klient zakańcza i jeżeli jest taka potrzeba to przypomina się np. raz na kilka miesięcy lub raz na rok w celu odświeżenia pozycjonowania gdyż z czasem pozycje troszeczkę mogą spaść - przy poprawie pozycjonowania płaci się połowę ceny nowego pozycjonowania.

2.. Klient decyduje się na pozycjonowanie jednorazowe na ok 8-10 haseł. Po tym jednorazowym pozycjonowaniu wybiera sobie np 1-4 najbardziej konkurencyjne lub najważniejsze dla niego hasła i na nie zleca takie dodatkowe stałe pozycjonowanie tak by pozycje były jak najwyższe przez cały czas. Płaci się wówczas opłatę miesięczna za każde z wybranych haseł.

3.. Klienta interesuje pozycjonoowanie stałe i hasła o które pyta należą do dosyć mocno konkurencyjnych. Wówczas proponujemy takie stałe pozycjonowanie (z którego dowolnym miesiącu można zrezygnować). W przypadku gdy strona już teraz jest po tych wybranych hasłach w granicach pozycji 1-50, 1-80 to można je zrobić od razu. W przypadku gdy to stosunkowo nowa strona i nie ma jej w granicach pozycji 1-100 to zalecane jest najpierw pozycjonowanie jednorazowe wg oferty poniżej a dopiero póżniej stałe dla wybranych haseł.
_________________
nauka na keyboardzie impresariat stroiciel agencja artystyczna nauka na pianinie stomatolog
Powrót do góry
Ogląda profil użytkownika Wyślij prywatną wiadomość
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum Moja Rekomendacja Strona Główna » Luźne rozmowy na każdy temat Wszystkie czasy w strefie EET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

Nauka gry na klarnecie w Częstochowie Stomatolog Częstochowa Impresariat Katalog branży artystycznej

Powered by phpBB © 2001, 2002 phpBB Group
iCGstation v1.0 Template By Ray © 2003, 2004 iOptional