praca dyplomooww - Metodyka Tworzenia Stron WWW, komputery, sieci komputerowe


ZACHODNIOPOMORSKA SZKOŁA BIZNESU W SZCZECINIE

WYDZIAŁ ZARZĄDZANIA I MARKETINGU

KIERUNEK: INFORMATYKA I EKONOMETRIA

Metody i techniki tworzenia stron WWW

Praca licencjacka

napisana pod kierunkiem

prof. dr hab. ..................

SZCZECIN 2002

Oświadczam, że pracę niniejszą przygotowałem samodzielnie. Wszystkie dane, istotne myśli i sformułowania pochodzące z literatury (przytoczone dosłownie lub niedosłownie) są opatrzone odpowiednimi odsyłaczami. Praca ta nie była w części, w tej ani podobnej formie przez nikogo przedłożona do żadnej oceny i nie była publikowana.

Szczecin......................... Podpis

Spis treści

Wstęp

1.Geneza Internetu i WWW

1.1. Historia i geneza internetu

1.1.1. Geneza

1.1.2. Arpanet

1.1.3. Era TCP/IP

1.1.4. Czasy dzisiejsze

1.1.5. Rozwój

1.1.6. Zawartość

1.2. Historia WWW

1.2.1. Powstanie stron internetowych

1.2.2. Budowa strony

1.3. Programy do przeglądania WWW

1.3.1.Internet Explorer

1.3.2.Netscape

2.Języki tworzenia stron

2.1. Wstęp

2.2. HTML

2.3. DHTML

2.4. XML

2.5. Postscript

2.6. Perl

2.7. Java

2.8. CGI

2.9. ASP

3.Programy do tworzenia stron WWW

3.1. Edytory WYSIWYG

3.1.1. Dreamweaver 4

3.1.2.Adobe GoLive

3.1.3. Microsoft FrontPage

3.2. Edytory tekstowe

3.2.1. Pajączek

3.2.2. Homesite

3.2.3. HotDog Professional

3.2.4. HotMetal Pro

3.3. Edytory graficzne

3.3.1. Adobe Photoshop

3.3.2. Paint Shop Pro

3.3.3. Gimp

4.Serwery kont internetowych

5.Reklama strony WWW

5.1. Banner i button

5.2. Domeny internetowe

5.3. Wyszukiwarki internetowe

5.4. Webring

5.5. Konkursy

5.6. Kampania promocyjna

5.6.1. Reklama

5.6.2. Reklamy w odsłonach czy na czas ?

5.6.3. Formaty

5.6.4. Sieci reklamowe

5.6.5. Sponsor

5.6.6. Treść

5.6.7. Inkubatory i fundusze podwyższonego ryzyka

5.6.8. Giełda

6. Błędy i porady

6.1. Siedem grzechów głównych

6.2. Etykieta webmastera

6.3. Uwagi techniczne

Zakończenie

Bibliografia

Wstęp

Wielu z nas spędza przed ekranem monitora wiele godzin serfując po stronach WWW. Na ekarnie co chwilę pojawiają się migoczące grafiką i animacją witryny, zawierające potrzebne dla nas informacje. Przegladamy je , analizujemy , znajdujemy dane. Po pewnym czasie na pewno każdy z nas zastanawia się jak zbudowana jest strona WWW od strony technicznej. Od tego pomysłu do chęci wykonania swojej własnej witryny już tylko krok.W mojej pracy postanowilem przybliżyć podstawowe informacje na temat budowy strony WWW.

W pierwszym rozdziale przedstawiłem historię i genezę internetu , czyli informacje o początkach sieci światowej - jej rozwoju i przyszłosci. Umieściłem również historię stron WWW, informacje o ich początku , oraz podstawowe składniki strony. Oczywiście nie mogłem pominąć programów za pomocą których możemy ogladać witrynę internetową.

Rozdział drugi w całości poświęcony jest jezykom w jakich możemy utworzyć nasz projekt. Języki dla profesjalistów , i jezyki dla początkujacych webmasterów , chcących stworzyć prostą witrynę.

Rozdział trzeci to już przegląd programów do tworzenia stron. Edytory WYSIWYG , edytory tekstowe i oczywiście edytory graficzne , które ubarwiają i upiekszają naszą witrynę.

Ważny jest równiez czwarty rozdział w którym przedstawiam ofertę providerów polskich, którzy udostepniają na swoich stronach miejsce na wykonaną przez nas stronę. Ich regulamin należy przestrzegać - a zalety i wady w całosci wypełniają ten rozdział.

Piąty rodział poświęcony jest reklamie stron WWW. Wszystkie składniki reklamy czyli , banner, buton , wyszukiwarki, konkursy sa szczegółowo opisane , wraz z potrzebnymi wnioskami dla webmasterów. Ważnym punktem są domeny internetowe w których zawarłem zbiór wszystkich większych światowych organizajcji w których możemy wykupić domenę.

Ostatni rozdział czyli szósty to już esencja pracy , czyli błędy i porady dla webmasterów. Warto zwrócić uwagę na siedem grzechów głównych webmasterów i starać się ich nie popełniać. Bardzo ważną rzeczą jest też przestrzeganie etykiety webmastera, szczególnie praw autorskich.

Mam nadzieję że materialy zawarte w mojej pracy pomogą na rozwiazanie wielu problemów na które napotyka każdy podczas projektowania własnej strony www.

Rozdział 1

Historia Internetu i WWW

Strony WWW są obecnie najpopularniejszą w Internecie metodą udostępniania informacji. Większość użytkowników sieci myśląc "Internet" ma na myśli właśnie WWW. Sieć WWW jest niejako nałożonym na internetowe struktury przesyłania danych interfejsem, umożliwiającym łatwe poruszanie się wśród milionów połączonych ze sobą za pomocą łączy hipertekstowych dokumentów.

1.1. Historia i geneza internetu

1.1.1. Geneza

Najprawdopodobniej jednym z pierwszych wydarzeń jakie miało wpływ na powstanie internetu było wystrzelenie przez ZSRR w 1957r. Sputnika, pierwszego sztucznego satelity Ziemi. Świat znajdował się wtedy w okowach tzw. „Zimnej wojny” i fakt ten spowodował niemałe zamieszanie w Departamencie Obrony USA. Dlatego też powołano agencję ARPA (Advanced Research Projects Agency), której działania miały zapewnić USA przodującą pozycję w militarnych zastosowaniach nauki i techniki. Instytucja ta miała bardzo szeroki zakres działalności. Departament obrony był wówczas największym użytkownikiem komputerów w USA, więc w nadchodzących latach w polu zainteresowania ARPA znalazły się różne dziedziny informatyki, w tym również sieci komputerowe.


Na początku lat 60. w RAND Corporation, innej amerykańskiej instytucji zajmującej się problemami bezpieczeństwa narodowego, zaczęto rozważać problem funkcjonowania władz i dowództwa armii USA w wypadku wojny nuklearnej. W 1962r. RAND opublikowała raport Paula Barana, naukowca na kontrakcie sił powietrznych USA, zatytułowany "On Distributed Communications Networks", w którym przedyskutowany został sposób ochrony wojskowego systemu komunikacyjnego w wypadku zmasowanego ataku. Została w nim naszkicowana idea systemu komunikacyjnego, który byłby w stanie funkcjonować nawet mimo zniszczenia dużej części węzłów i łączy. System taki miałby być pozbawiony centralnego punktu kontroli i dowodzenia, a ilość połączeń pomiędzy węzłami byłaby na tyle duża, że w przypadku zniszczenia niektórych z nich, sieć nadal by funkcjonowała dzięki pozostałym połączeniom, na które automatycznie byłby kierowany ruch. Jedna z propozycji autora zakładała podjęcie prac nad stworzeniem narodowego systemu, analogicznego do istniejącej sieci łączy telefonicznych, umożliwiającego transport danych komputerowych pomiędzy dużymi grupami użytkowników.
System taki mógłby zostać wprowadzony dzięki wykorzystaniu sieci technologii pakietowych (packet-switching) opracowanej w latach 60. Jej podstawą było fragmentowanie informacji w pakiety i kierowanie ich w odpowiednie miejsca docelowe, gdzie były składane w jedną całość. Miało to wiele zalet: umożliwiało współkorzystanie wielu użytkowników jednocześnie z tego samego łącza, w przypadku błędu transmisji wystarczy przesłać ponownie tylko błędny pakiet, a nie całą informację. Pakiety mogły być szyfrowane, czy kompresowane, albo zawierać informacje o samych sobie. Sieć pakietową cechuje równorzędność znajdujących się w niej komputerów. (Pierwsza tego typu sieć powstała w 1969r. w National Physical Laboratories w Wielkiej Brytanii.)


Praca Barana była punktem wyjściowym planu stworzenia sieci komputerowej bez centralnego ośrodka, która mogłaby funkcjonować nawet będąc w części zniszczona. Wszystkie węzły sieci miały być równorzędne, a każdy z nich miał mieć prawo do nadawania, przekazywania dalej i odbierania wiadomości rozbijanych na pakiety, dla których istotne były tylko miejsca pochodzenia i przeznaczenia - trasa ich wędrówki byłaby warunkowana aktualnym stanem połączeń, co zapewniłoby automatyczną zmianę drogi w przypadku zaniku funkcjonowania części sieci. Idea Barana zainteresowała innych naukowców m.in. pracującego nad relacjami człowiek - komputer J.C.R. Licklidera. Został on pierwszym szefem IPTO (Information Processing Technology Office), biura w ARPA, które zajmowało się m.in. sieciami komputerowymi. Jego zasługą było otwarcie ARPA na różne projekty z dziedziny informatyki oraz nawiązanie współpracy z naukowcami ze środowisk akademickich.

1.1.2. Arpanet

W latach 1966-67 Departament Obrony USA sfinansował prace nad eksperymentalnym łączeniem odległych od siebie komputerów. Wykorzystano w nich wcześniejsze doświadczenia z systemami wielodostępnymi (timesharing), w których przyłączono wiele terminali do jednego komputera (hosta). Okazało się, że nie było problemów z łączeniem komputerów różnych typów, kłopoty sprawiały jedynie używane linie telefoniczne, gdyż były one wolne i zawodne.


W tym samym czasie ARPA wyłożyła fundusze na ośrodki komputerowe na wybranych uniwersytetach i instytucjach naukowych. Wkrótce zaproponowano połączenie ich za pomocą sieci pakietowej. Plan sieci ARPANET został zaprezentowany w 1967r. Na początek wybrano cztery centra: Uniwersytet Kalifornii w Los Angeles (UCLA), Stanford Research Istitute (SRI), Uniwersytet Kalifornii w Santa Barbara (UCSB) i Uniwersytet Utah (UU). W każdym z nich do dużego komputera klasy mainframe miał zostać dołączony minikomputer pełniący funkcję węzła przełączającego, określany mianem IMP (interface message processor). W odróżnieniu od systemów wielodostępnych, opartych na strukturze klient - serwer, miała to być sieć komputerów równorzędnych (peer-to-peer). Kontrakt na dostawę tych maszyn dostała firma BBS, a zostały one połączone łączami o przepustowości 50 Kbps, dostarczonymi przez AT&T.
W celu umożliwienia porozumiewania się różnych typów komputerów, należało uzgodnić pewne konwencje dotyczące transmisji blokowej, sprawdzania błędów, retransmisji oraz identyfikacji komputerów - hostów i użytkowników, określone mianem "protokołów". Zajął się tym zespół nazwany Network Working Group (NWG), który efekty swoich prac opublikował w postaci ogólnodostępnych dokumentów "Request For Comments", do dzisiaj będących podstawową formą dokumentowania standardów obowiązujących w Internecie.


Przed końcem 1969r. funkcjonowały już połączenia sieciowe pomiędzy pierwszymi czterema węzłami. Sieć ARPANET zaczęła pracować, można więc było zastosować opracowane teoretycznie protokoły. W ciągu kilku miesięcy ostatecznie opracowano symetryczny protokół komunikacyjny pomiędzy hostami nazwany Network Control Protocol (NCP). Wkrótce dodano też najprostsze usługi: zdalne logowanie do komputerów (Telnet) i kopiowanie plików pomiędzy hostami (FTP). Sieć zaczęła się rozwijać i w kwietniu 1971r. były już 23 hosty w 15 węzłach.
W październiku 1972r. podczas pierwszej międzynarodowej konferencji poświęconej komunikacji komputerowej zademonstrowano działanie węzła ARPANET-u z 40 terminalami. Przedstawiciele projektów sieciowych z kilku krajów dyskutowali o potrzebie uzgodnienia protokołów. W tym celu powołano InterNetwork Working Group. Można zaryzykować stwierdzenie, że były to początki idei Internetu, gdyż rozważano wówczas podstawy architektury międzynarodowego połączenia wielu sieci (interconnection of networks).


Sieć sukcesywnie rozrastała się. W 1972r. po raz pierwszy wykorzystano łącze satelitarne do przyłączenia węzła na Hawajach. Wraz ze wzrostem liczby łącz i transmitowanych pakietów, pojawiły się pewne problemy z niezawodnością podsieci, które trzeba było usunąć. We wrześniu 1973r. podłączonych było 40 węzłów, w tym pierwsze dwa spoza USA - z Wielkiej Brytanii i Norwegii. W 1977r. w sieci znajdowało się 111 hostów.


W 1972r. Ray Tomlinson stworzył pierwszy program do wysyłania wiadomości poprzez sieć (e-mail). Okazało się później, że taka metoda wymiany informacji ma wiele zalet w porównaniu do przesyłania listów na papierze lub telegramów. Wydawała się byś mniej formalna, szybsza i nie wymagała aktywności nadawcy i odbiorcy, nie potrzebowała pośrednich instytucji (poczty). Wszystko to ułatwiało kontakty międzyludzkie i wspólną pracę nad dokumentami. Był tylko krok do wynalezienia elektronicznych list dystrybucyjnych umożliwiających wysłanie tej samej wiadomości do większego grona użytkowników sieci. Szybko popularne stały się też grupy dyskusyjne (pierwszymi były grupy miłośników science-fiction). Administratorzy wielu hostów niechętnie odnosili się do tych inicjatyw, gdyż nie były one zgodne z pierwotnym, naukowo-badawczym przeznaczeniem ARPANET-u, ale nie byli w stanie ich powstrzymać. Sieć ta jest nieograniczona i niekontrolowana a jej zawartość zależy od użytkowników.


W 1974r. firma BBN udostępniła pierwszą publiczną sieć pakietową Telenet, która miała być komercyjną odmianą ARPANET-u. W 1975r. zarządzanie ARPANET-em przeszło w gestię Defence Communicators Agency (DCA), ponieważ uznano, że sieć ta wyszła poza stadium eksperymentów i stała się na tyle stabilna, że opuściła obszar bezpośredniego zainteresowania ARPA. W 1980 ARPANET obejmuje już 400 serwerów na uniwersytetach, w rządzie i armii Stanów Zjednoczonych, szacuje się, że dostęp do sieci ma 10 tysięcy ludzi. W 1983r. dochodzi do rozdziału sieci ARPANET na część militarną: MILNET i cywilną: ARPANET, która zyskuje miano Internetu. Powstaje też EARN (European Academic and Research Network) - europejska akademicka i badawcza sieć komputerowa. W 1984r. liczba komputerów w sieci przekracza liczbę 1000. Dalsze dzieje tej sieci, to era TCP/IP i stopniowe ewoluowanie w kierunku dzisiejszej postaci internetu. ARPANET oficjalnie przestała funkcjonować w 1990r., kiedy to jego rolę całkowicie przejęła sieć NSFNET.

Z dzisiejszego punktu widzenia, ARPANET był siecią bardzo prymitywną, ale na ówczesne warunki było to szczytowe osiągnięcie techniki komputerowej. Pomimo tego, że u jego podstaw leżała idea stworzenia militarnej infrastruktury dowodzenia i kontroli zdolnej przetrwać atak nuklearny. ARPANET stał się prototypem globalnej sieci komunikacji międzyludzkiej o zdecentralizowanej strukturze i zastosowaniach zupełnie odmiennych od pierwotnie zakładanych.

1.1.3. Era TCP/IP

Równolegle z ARPANET-em powstawały i rozwijały się inne sieci komputerowe. Były to jednak przeważnie projekty eksperymentalne stosowane na niewielką skalę. Do obsługi sieci próbowano wykorzystywać m.in. radio i łącza satelitarne. Formułowano problemy "międzysieci" (internet przez małe 'i'). W 1974r. opublikowano pracę "A Protocol for Packet Network Intercommunication", w której wyspecyfikowano projekt protokołu TCP (Transmission Control Protocol).


Rok 1976 to kolejne standardy: sieć pakietowa X.25 opracowana w CCITT (International Telegraph and Telephone Consultation Committee) oraz protokół UUCP (Unix to Unix Copy Protocol) z AT&T Bell Labs, który rok później dołączono do oprogramowania maszyn DEC PDP-11/44 wraz z pierwszą implementacją TCP. Trwają też pierwsze próby połączeń sieciowych drogą radiową i satelitarną. Kolejne lata to rozwój usług sieciowych, pojawia się USENET i MUD (Multi User Dungeon) - pierwsza gra sieciowa, oparta o świat fantasy.
W lipcu 1977r. w Londynie odbyła się pierwsza demonstracja "międzysieci" ARPANET-u, radia pakietowego i łącz satelitarnych.


W pierwotnej wersji protokołu nie było rozróżnienia na TCP i IP (Internet Protocol). W trakcie eksperymentów nad przesyłaniem zakodowanego i skompresowanego głosu okazało się, że retransmisje błędnych pakietów powodowały przerwy w odtwarzaniu dźwięku. W efekcie doszło do oddzielenia protokołu IP, odpowiedzialnego za adresowanie, od TCP, odpowiedzialnego za podział informacji na pakiety, dostarczenie i złożenie w całość.
Technologia TCP/IP poważnie zainteresowała przedstawicieli sił zbrojnych, a w 1980r. zadecydowano, że TCP/IP będzie preferowanym protokołem do zastosowań militarnych. W 1982r. Departament Obrony uznał go swoim standardem, a DRPA (ARPA została bowiem przemianowana na Defence...) podjęła decyzję o przejściu wszystkich systemów w sieci ARPANET na tenże protokół.


W miejsce wielodostępnych systemów komputerowych zaczęły powstawać lokalne sieci stacji roboczych, oparte o TCP/IP, przyłączone do ARPANET-u za pomocą specjalnych komputerów (tzw. gateway'e, dziś używa się nazwy router). Każdy nowy komputer w sieci otrzymywał unikalny numer IP, a jego nazwa i parametry były rejestrowane przez Network Information Center (NIC) w specjalnym pliku hosts.txt. Plik ten był co jakiś czas był kopiowany na wszystkie hosty. Taki proces był jednak bardzo uciążliwy z powodu wzrastającej liczby hostów. Problem rozwiązano wprowadzając hierarchiczny system nazw domenowych i protokół DNS (Domain Name System). Rolę pliku hosts.txt przejęła rozproszona baza danych o zasobach w poszczególnych domenach, z których każda musiała być zarejestrowana na jednym z tzw. nameserverów. Wprowadzenie DNS-u pozwoliło każdej organizacji swobodnie zarządzać swoim fragmentem sieci. Umożliwiono też rejestrowanie w DNS nieinternetowych systemów poczty elektronicznej oraz bramek do nich, co stworzyło wspólną z Internetem przestrzeń adresową. Jest to bowiem usługa, dzięki której trudno zapamiętywalne adresy cyfrowe zostają zastąpione nazwami literowymi złożonymi z kilku członów, w których przykładowo ostatnia część może określać przynależność narodową (.pl - Polska, .uk - Wielka Brytania) lub charakter serwera (.mil - wojskowy, .com - komercyjny, .edu - ośrodek edukacyjny, .org - organizacja itd.).

Od 1982r. TCP/IP stale zapewnia komunikację w coraz większym zbiorze połączonych ze sobą sieci komputerowych tworzących Internet. Na początku lat 80. ta sieć była jeszcze bardzo uboga w porównaniu z okresem eksplozji jej popularności w latach 90., zarówno jeśli chodzi o ilość hostów jak i zakres oraz jakość dostępnych usług. Moment przejścia z NCP na TCP/IP należy uznać za początek właściwego Internetu, gdyż właśnie wtedy położone zostały techniczne podwaliny jego działania, które w swoim podstawowym zakresie funkcjonują do dziś. Na bazie TCP/IP opracowano szereg innych protokołów realizujących wszelakie usługi sieciowe. Chociaż oficjalnie czasami mówi się o Internecie jako o sieci wieloprotokołowej, to jednak TCP/IP jest faktycznie obowiązującym standardem, uniwersalnym językiem rozumianym przez komputery wielu typów.

1.1.4. Czasy dzisiejsze

Przełomowym momentem jest stworzenie nowej idei topologii sieci. W 1986r. w USA powstaje NSFNET (National Science Foundation NET) "backbone" - czyli ogólnokrajowa sieć szkieletowa o przepustowości 56 Kbps łącząca regionalne sieci o mniejszej przepustowości połączone z "kręgosłupem" - specjalnym komputerem, zwanym routerem. Jest to początek prawdziwej eksplozji Internetu. Rozwija się USENET i tzw. newsgroups - grupy dyskusyjne, na których wymieniane są poglądy i informację na wszelkie możliwe tematy. Student z Finlandii opracowuje IRC (Internet Relay Chat), usługę, pozwalającą na prowadzenie rozmów na żywo, w czasie rzeczywistym.


W 1989r. liczba komputerów w Internecie przekroczyła już liczbę 100.000, NSFNET ma przepustowość 1,5 Mbps i dołączają do niego kolejne kraje, m.in. Kanada, Finlandia, Niemcy.
Jednocześnie pojawia się inny aspekt zaistnienia ogólnoświatowej sieci - bezpieczeństwo danych. 1 listopada 1988r. Robert Morris za pomocą swego programu o wdzięcznej nazwie Internetowy Robak (Internet Worm) zaraża 6 tys. komputerów - 10 procent ogólnej liczby. Rodzi się legenda hackera, człowieka o ponadprzeciętnej wiedzy, zdolnego do dotarcia do najgłębiej strzeżonych informacji. W odpowiedzi DARPA powołuje CERT (Computer Emergency Response Team), organizację odpowiedzialną za bezpieczeństwo w sieci.

W 1990r. kończy działalność ARPANET - nadal natomiast rozwija się NSFNET, wkrótce osiąga przepustowość 44 Mbps . Podłączane są kolejne kraje, w tym również Polska w 1991r. Pojawiają się zupełnie nowe usługi: Archie - wyszukiwanie plików, serwery informacyjne WAIS, Gopher czy wreszcie najpopularniejszy dzisiaj WWW (World-Wide Web), oparty o ideę hypertekstu (odnośników do informacji rozsianych po całym świecie) opracowaną przez Tima Berners-Lee z CERN.

W 1992r. przekroczona zostaje liczba 1.000.000 komputerów w Internecie. Pojawiają się usługi komercyjne: do sieci zostaja dołączone banki, domy towarowe, biblioteki, księgarnie, sklepy płytowe. W sieci oprócz tekstu przesyłany jest obraz, dźwięk, filmy, muzyka, internetowe radio "na żywo", rozmowy telefoniczne (co powoduje nawet żądania ze strony korporacji telekomunikacyjnych USA od Kongresu, aby zahamować rozwój tej technologii), można przeczytać gazety, zamówić pizzę i przeprowadzić wideokonferencję. W 1994r. ruch w sieci NSFNET przekracza 10 trylionów bajtów/miesiąc.

W 1995r. NSFNET przekształca się w sieć badawczą, a cały ruch w sieci szkieletowej jest teraz przekazywany pomiędzy regionalnymi dostawcami sieci. W tym samym roku do sieci dołączają amerykańskie sieci typu "dial-up" (Prodigy, Delphi, Compuserve, America On-Line). W 1996r. do sieci dołączają kolejne instytucje, rozwija się WWW: system przeszukiwarek sieci (Lycos, Yahoo), opracowana przez Sun idea języka niezależnego od platformy sprzętowej Java, pojawia się język modelowania przestrzennego VRML (Virtual Reality Modelling Language). Trwa wyścig pomiędzy najpopularniejszymi graficznymi przeglądarkami WWW: Microsoft Internet Explorer i Netscape Navigator.


Wg danych Network Wizards na styczeń 1998r. w sieci znajduje się ponad 29,6 mln komputerów. W Polsce mamy ponad 102 tys. stacji (kwiecień 1998), tj. ponad 0,3 procent ogólnej liczby hostów. Największą domeną na świecie jest .com - ponad 8,2 miliona stacji.
Wszystko wskazuje na to, że największe niespodzianki i "złote czasy" Internetu są jeszcze przed nami. Prognozowane szacunki mówią o 100 milionach komputerów w sieci po roku 2000.

Oznacza to, że sieć będzie tak powszechną jak radio czy telewizja, ale jej możliwości będą większe.

1.1.5. Rozwój

Przez ostatnich pięć lat Internet rozwijał się w ogromnym tempie . Z narzędzia używanego w kręgach uniwersyteckich oraz handlowych stał się popularnym , ogólno dostępnym medium rywalizującym z gazetami oraz innymi środkami masowego przekazu .
Większość z użytkowników korzysta z dostępu do Internetu przez linie telefoniczne . Łącza się oni najpierw z Dostawcą Usług Internetowych , którego komputery - serwery są na stałe podłączone do sieci za pomocą łączy światowych . Większość połączeń z siecią realizuje się za pomocą tradycyjnej analogowej sieci telefonicznej . W komputerach użytkowników instalowane są modemy które przekształcają cyfrowe sygnały zrozumiałe dla komputera na analogowe , wykorzystywane podczas transmisji telefonicznej i na odwrót .Konieczność konwersji cyfrowo analogowej wyznacza górną granicę prędkości połączenia modemowego . Szybszym rozwiązaniem jest użycie łącza cyfrowego w którym nie ma konieczności przekształcenia cyfrowego sygnału z komputera na sygnał analogowy . Takie łącza , zwane są ISDN , pozwalające na znacznie szybszą komunikację , lecz i w tym wypadku istnieją ograniczenia prędkości transmisji - maksymalna wynosi 128 kilobajtów na sekundę .

Do niedawna jedyną możliwością pokonania tego ograniczenia było zainstalowanie kosztownego stałego połączenia światłowodowego z Internetem albo przez telewizję kablową , albo bezpośrednio światłowodem Internetowego huba - światłowodowej centrali . Obie metody były jednak kosztowne .

1.1.6. Zawartość

Kolejnym powodem wzrostu popularności Internetu jest zwiększenie się jego zawartości . z początków sieci dostępne były usługi e-mail , grupy dyskusyjne oraz przesyłanie plików . Na początku lat 90 pojawiła się WWW , która umożliwiła każdemu stworzenie własnych stron internetowych zawierających tekst , obrazy , a później także dźwięki . Pojawił się system aktywnych połączeń na stronach WWW , dzięki którym jednym kliknięciem przenosimy się na inna stronę sieci .


Dziś Internet oferuje jeszcze więcej różnych możliwości . Język używany do tworzenia stron WWW - HTML - staje się coraz bardziej zaawansowany . Do użytku w sieci stworzono wyspecjalizowane języki programowania jednym z nich jest Java , który umożliwia integracje programów ze stronami WWW . program taki uruchamiany jest po otwarciu danej strony i nie ma konieczności pobierania go na twardy dysk użytkownika .

1.2. Historia WWW

1.2.1. Powstanie stron internetowych

World-Wide Web, "światowa pajęczyna" a jeszcze dokładniej "pajęczyna rozciągająca się na cały świat", została wynaleziona przez Tima Bernersa-Lee. Dziś w czasach walki o Internet wielkich korporacji informatycznych, mało kto o tym pamięta, a jeszcze mniej wiadomo o szczegółach powstania systemu, który zmienił Internet, a z nim cały świat komputerów. Dzięki tej zmianie uczynił Internet łatwiejszym i dostępnym dla milionów ludzi.

Tim Berners-Lee urodził się w 1955 roku w East Sheen, niedaleko Londynu. Ukończył fizykę na Oksfordzie, po czym pracował kilka lat jako programista, najpierw w firmie Plessey Communications, a później jako samodzielny konsultant. Jego praca wiązała się z przetwarzaniem tekstu i oprogramowaniem komunikacyjnym w czasie rzeczywistym. W roku 1980 trafił na krótko do CERN, europejskiego ośrodka badawczego zajmującego się fizyką wysokich energii, mieszczącego się w Genewie, w Szwajcarii. Berners-Lee napisał dla własnych potrzeb program używający hipertekstu, nazwał Enquire Within. Program powstał po to, by było można "śledzić wszystko, co się dzieje, kto zna kogo, kto co napisał, co potrzebuje...", jak mówi o tym sam Berners-Lee, miał więc więcej wspólnego z dzisiejszymi organizatorami osobistymi niż z Internetem. Program pozwalał dołączyć kilka informacji do dokumentu, na którym trwały prace. Informacje te mogły zostać przywołane i zmienione przy pomocy jednej kombinacji klawiszy. Można było w ten sposób utworzyć zależności między informacjami, na przykład między nazwami firm i nazwiskami ich pracowników. Zależności te miały postać połączenia hipertekstowego. Gdy Berners-Lee w roku 1984 wraca już na stałe do CERN, ciągle używa swojego programu. Uważa, że warto go upowszechnić wśród naukowców szwajcarskiego ośrodka, używać nie tylko na pojedynczych komputerach, ale i w sieci lokalnej, tak by połączenia hipertekstowe mogły wiązać ze sobą informacje wprowadzane przez wiele osób. Jego pierwsze podejście nie było udane gdyż napisał wersję programu na system operacyjny NeXTstep pracujący na komputerach NeXT, a naukowcy w większości używali systemu Unix i środowiska graficznego X Motif.

Jeżeli połączenia czy też odnośniki hipertekstowe mogą działać w sieci lokalnej, to dlaczego by nie mogły działać w Internecie? Internet był już wtedy dość znany w środowisku naukowym i akademickim, trafiał powoli do Europy, ale ciągle był trudny w użyciu i niezbyt bogaty w możliwości, co poważnie ograniczało jego rozwój.

Tim Berners-Lee zna już wtedy zarówno stronę techniczną Internetu - architekturę i protokoły telekomunikacyjne - jak i społeczną, opierającą się na współpracy i swobodnej wymianie informacji. Wraz z Robertem Caillou z CERN tworzy pierwszą specyfikację tego, co później stanie się "pajęczyną". Miał powstać system, który połączeniami między dokumentami, zbudowanymi przy pomocy hipertekstu, rozprzestrzeni się na cały świat. System dostępu do informacji. Pierwsza propozycja takiego systemu pojawia się w październiku 1990 roku; wybrana zostaje dla niej nazwa World Wide Web.

Pierwsza przeglądarka World-Wide Web, pracująca w trybie tekstowym na systemie Unix, powstała w roku 1991. Pojawili się naśladowcy, tworzący kolejne przeglądarki w ramach badań akademickich. Jednym z nich był Marc Andreessen z amerykańskiego ośrodka badawczego NCSA (National Centre for Supercomputing Appliations). Jego zespół w lutym 1993 roku stworzył program Mosaic. NCSA Mosaic odniósł ogromny sukces, zyskując w ciągu roku dwa miliony użytkowników. Miał jedną zaletę: pozwalał korzystać z Internetu równie łatwo, jak można pisać listy w dzisiejszych edytorach tekstu. World-Wide Web zaczęła podbijać świat.

World-Wide Web rozsławiła CERN bardziej niż działalność naukowa tego ośrodka i zbudowany tam wielki akcelerator, gdzie w tunelu liczącym 27 km cząstki rozpędzane są niemal do prędkości światła. Tim Berners-Lee opuszcza Europę i przenosi się do Stanów, by tam dalej rozwijać swoją ideę. Działa w W3 Organisation i jej komercyjnej części W3 Consortium, założonym w MIT (Massachusetts Institute of Technology) w Bostonie. Jej celem jest przedstawienie idei World-Wide Web przemysłowi informatycznemu, wypracowanie dróg rozwoju i standardów.

"W pewnym stopniu... definiujemy przyszłe społeczeństwo", mówi Berners-Lee, "Pajęczyna pozwala ludziom szukać i odkrywać, decydować samemu, jakie informacje będą im potrzebne w przeciwieństwie do zalewu informacji, które uderzają w nich, ale nad którymi nie mają kontroli. Myślę, że będzie to naprawdę bogate źródło".

1.2.2. Budowa strony

Składnia adresu internetowego na przykładzie adresu : http://www.Wp.pl


Http - Hyper Text Transport Protocol- protokół ten definiuje sposób, w jaki klient Web ma zgłaszać prośbę i odbierać informacje z serwera WWW , zapytanie to jest opisane w formie adresu czyli inaczej URL - Uniform Resource Locator.


WWW - to nazwa sieci

WP.pl - to plik startujący dane wejście do przeglądarki.

Html - Hyper Text Markup Language - jest to specjalny język programowania stron WWW .

World Wide Web - jest obejmującym cały świat system hipermedialnym. Pozwala on na tworzenie w dowolnym miejscu dokumentu, linków do innych źródeł. Powszechnie znanym przykładem lokalnego systemu hypertekstowego jest pomoc online - (czyli podczas pobytu w sieci , w przeciwieństwie do offline - poza siecią), w MS Windows. Strony WWW mogą zawierać nie tylko tekst, lecz również grafikę i elementy dialogowe. Dzięki odsyłaczom do zewnętrznych plików można oprócz tego korzystać z praktycznie nieograniczonych zasobów informacji dźwiękowych i wizualnych. Najbardziej znanymi przeglądarkami są w tej chwili Microsoft Internet Explorer i Netscape Navigator. Przeglądarki te rywalizują między sobą , raz to jedna prześciga drugą w popularności to znowu sytuacja się odwraca. Powołując się na sierpniowy numer magazynu internetowego „WWW” można stwierdzić, że :
„Od pewnego czasu regularnie prowadzone są badanie dotyczące popularności owych dwóch przeglądarek.Badania te dość wyraźnie wskazywały na dominację produktu Microsoft'u, pomimo faktu, że przeglądarka Netscape'a na rynku istniała o wiele dłużej”
Okazało się jednak, że popularna jest bardziej MSIE, ale lepszą według sondażu Netscape .
Oprócz dwóch przeglądarkowych tytanów wymienionych powyżej występują jeszcze inne do, których zaliczyć możemy Lynxa i Operę.

1.3. Programy do przeglądania WWW

Przeglądarka WWW to podstawowe narzędzie każdego Internauty. Produkt, który nazywamy przeglądarką WWW, jest w tej chwili prawdziwym uniwersalnym kombajnem internetowym. Oprócz narzędzia do przeglądania dokumentów HTML, pakiet przeglądarki zawiera program do obsługi poczty elektronicznej, grup dyskusyjnych, książkę adresową i wiele innych dodatków . Internet Explorer i Netscape to obecnie najpopularniejsze przeglądarki wśród użytkowników Internetu.

1.3.1.Internet Explorer

Na rynku jest dostępna nowa wersja przeglądarki Internet Explorer 6.0. Wygląd przeglądarki nie różni się od wersji 5.5, autorzy postawili tutaj na treść - czyli odpowienie pluginy.


Dominacja Windows na rynku systemów operacyjnych oraz rosnąca popularność Internetu sprawiają, że Internet Explorer jest obecnie jedną z najważniejszych aplikacji. Podobnie, sama firma Microsoft do programu tego przykłada szczególną wagę. Jednym z elementów prowadzonej przez Microsoft polityki promocyjnej była decyzja udostępniania Explorera za darmo, włączenie go do systemu operacyjnego Windows 98 oraz w wersji 5.0 - do najnowszej rodziny systemów Windows 2000 oraz do znanego pakietu biurowego Office 2000. Ta strategia w połączeniu z ciągłym doskonaleniem produktu przyczyniła się do zdobycia przez Internet Explorera miana najbardziej popularnego zestawu narzędzi internetowych .Wymagania dotyczące poprawnej pracy przeglądarki to co najmniej system Windows 98. Niewielkie są natomiast wymagania sprzętowe - według producenta wystarczy komputer wyposażony w 16 MB RAM oraz procesor 486/66 MHz (rekomendowany Pentium). Do zainstalowania pełnej wersji przeglądarki niezbędne jest jeszcze 26 MB (Windows 98/98SE), 11,6 MB (Windows Me) lub 75 MB (Windows NT/2000) wolnego miejsca ma twardym dysku.

Więcej informacji na temat przeglądarki Internet Explorer można znaleźć na następującej stronie: www.windows.com/products/ie/

1.3.2.Netscape

Nowa wersja przeglądarki była długo oczekiwana, zastosowano w niej mechanizm Gecko, który nie różni się niczym w wersji Windows, Linux czy Macintosh. Ma wsparcie dla wielu języków i zestawów czcionek, dzięki czemu łatwe staje się przystosowanie przeglądarki do warunków i systemu operacyjnego w środowisku jakim pracuje (np.win 98, Win ME, Win XP).Pełny plik instalacyjny Netscape'a zajmuje około 24 MB przy instalacji samej przeglądarki 7,5 MB). W pakiecie instalowany jest program pocztowy, który zajmuje tylko 1 MB.
Nową wersje przeglądarki wyposażono moduł kontrolujący zapisywanie na dysku lokalnym pliki - ciasteczka. Użytkownicy mogą dowolnie zmieniać interfejs przeglądarki poprzez modyfikacje odpowiednich plików.

Więcej informacji na temat przeglądarki Netscape można znaleźć na następującej stronie:

www.netscape.com

Rozdział 2

Języki tworzenia stron

2.1. Wstęp

Chociaż cała kwestia wygląda z pozoru bardzo tajemniczo, jednak w praktyce nie jest wcale tak skomplikowana. Aby wyjaśnić wszystkie wątpliwości, musimy najpierw sięgnąć do historii języka HTML. Już przed wieloma laty naukowcy z firmy IBM rozpoczęli prace zmierzające do rozwiązania problemu transmisji danych, które zostały zakodowane w różny sposób. Każdy z nas zna z pewnością podobną sytuację, gdy z powodu istnienia niezgodnych ze sobą formatów danych nie można otworzyć i poprawić tekstu otrzymanego od kolegi. Jako +rezultat prac IBM-a opracowany został język umożliwiający opisywanie poszczególnych formatów, plików (języków pochodnych). Ten nadrzędny wobec innych język (czyli tzw. metajęzyk) nosi nazwę SGML (Standard Generalized Markup Language). Słowo "standard" oznacza w tym przypadku, że definicja języka jest ogólnie obowiązująca, natomiast "generalized" informuje, że sam SGML nie zawiera żadnych instrukcji formatujących.

W praktyce każdy język (zarówno komputerowy, jak i klasyczny) wyróżnia się wśród innych ustalonym zbiorem zasad, które określają sposób komunikowania się. W metajęzyku SGML zostały zatem zdefiniowane reguły umożliwiające zdefiniowanie nowych języków podrzędnych, które z kolei można wykorzystać do tworzenia ostatecznych dokumentów.
W języku SGML zostały najpierw opisane reguły języka HTML (każdej wersji HTML musi odpowiadać oddzielny zestaw reguł). Wśród tych definicji znajduje się dokładna informacja o tym, które znaczniki (tags) należą do języka HTML oraz w jaki sposób mogą być stosowane. Przy projektowaniu poszczególnych stron należy więc przestrzegać tych zasad, które zostały zdefiniowane dla języka HTML. Wszystkie tak określone polecenia są następnie interpretowane przez przeglądarkę wyświetlającą daną stronę. Znaczniki HTML są odsyłaczami do poszczególnych instrukcji tego języka zapisanych w zbiorze reguł HTML (jest on integralną częścią przeglądarki).


Żaden projektant stron WWW nie musi (ani nie może) jednak tworzyć reguł sam, gdyż zostały one już dawno określone przez konsorcjum W3C (World Wide Web Consortium). Rozwiązanie takie pozwala zaoszczędzić wiele czasu, lecz ma jedną wadę; polega na tym , że znormalizowana definicja języka jest sztywno określona i nie może być modyfikowana. Projektant stron internetowych nie wie, z jakiego systemu operacyjnego i jakiej przeglądarki będzie korzystał potencjalny użytkownik, stąd nie może np. użyć na stronie dowolnego kroju pisma.


Z tego też względu cała zawartość strony jest konstruowana przy użyciu języka opisu stron, a więc w postaci niezależnej od konkretnych urządzeń i systemów operacyjnych. Język ten został zdefiniowany przez międzynarodowe konsorcjum W3C (World Wide Web Consortium), a jego reguły obowiązują wszystkich projektantów stron. W języku HTML (Hypertext Markup Language) można określić, jakie teksty, zdjęcia i przyciski mają znaleźć się na danej stronie oraz jaka czynność powinna być wykonana po kliknięciu wybranego przycisku lub odsyłacza.

2.2. HTML

HTML - to skrót od wyrazów HyperText Markup Language, co w przełożeniu na język polski znaczy w przybliżeniu hipertekstowy język adiustacji. HTML to po prostu język, rozwinięty z SGML; język tworzenia stron WWW, czyli tego zgrabnego połączenia tekstu i grafiki, który opanował i zdominował dziś prawie cały internet. Przez połączenie tekstu z grafiką możemy rozumieć zamieszczenie tekstu wraz z opisem jego prezentacji [typ czcionki, jej wielkość, itp...] wewnątrz odpowiedniego pliku tekstowego w języku HTML oraz wprowadzenie odwołań do grafiki, która umieszczana jest w osobnych plikach. Między poszczególnymi stronami mogą być ustanowione zależności, tzw. łącza hipertekstowe, które po kliknięciu zmuszają przeglądarkę do przejścia do określonej strony i wyświetlenia jej zawartości.

Każdy plik HTML ma rozszerzenie *.html lub *.htm . Pierwszy typ jest stosowany częściej, drugi tylko w systemach ograniczających rozszerzenie do trzech liter [np. w DOSie]. Pliki graficzne to tylko pliki z rozszerzeniem *.gif , *.jpg , *.png oraz dopiero wchodzący na rynek format *.djvu .

Bezwzględnie każdy plik HTML to czyste ASCII, czyli po prostu tekst. Tekst, zawierający polecenia języka HTML - informacje o ułożeniu elementów strony, o wstawieniu grafiki lub animacji. Okazuje się, że kod HTML można pisać nawet w windowsowym Notatniku, nawet w dosowskim edytorze EDIT! Jest to jednak dość mozolna robota, dlatego istnieje szereg edytorów HTML, edytorów zwykłego tekstu, wraz z zaimplementowanymi ułatwieniami dla programisty [żeby wymienić kilka: Tiger 98, Pajączek, HTMLowiec, EZHtml - wszystkie polskie i Homesite, Arachnophilia, KoolHTML, HoTMetaL - zagraniczne]. Są również edytory wizualne, np. Microsoft Frontpage,

2.3. DHTML

Dynamic HTML - składa się z czterech elementów: HTML, języków skryptowych oraz styli kaskadowych i Document Object Model.

Tłumaczenie z języka angielskiego - obiektowy model dokumentu - nie wyjaśnia zbyt wiele. Przez twórców standardu DOM jest określany jako interfejs (API) pozwalający programom i skryptom napisanym w dowolnym języku na dynamiczny dostęp do zawartości, struktury i stylów dokumentów oraz ich modyfikację. Mimo iż to sformułowanie zawiera wiele niedopowiedzeń (nie wiemy, o jakie dokumenty, programy czy skrypty chodzi), w nich kryje się siła standardu, gdyż powinien być on tak powszechny i niezależny od rozwiązań sprzętowych i systemowych jak Internet.

2.4. XML

Stanowiący nieodłączną część WWW język opisu stron HTML osiągnął już zaawansowany wiek i wymaga pilnej modyfikacji. Nowa formuła języka prezentacji danych w Internecie nosi nazwę - XMLi wyróżnia się przede wszystkim swoją modularną strukturą.

Możliwość swobodnej rozbudowy, której nie ma standard HTML, jest natomiast główną zaletą nowego języka, zatwierdzonego przez międzynarodowe konsorcjum normalizacyjne W3C (World Wide Web Consortium). Technika ta otrzymała nazwę XML (Extensible Markup Language), która może być nieco myląca, gdyż nowy język nie jest w żadnym wypadku następcą HTML. W tym przypadku każdy projektant stron WWW może samodzielnie określić, jakie możliwości ma mieć stosowany przez niego język.

Aby dostrzec zalety języka XML, należy poznać trochę szczegółów na temat funkcjonowania dotychczasowego rozwiązania. HTML nie jest bowiem oddzielnym, zupełnie niezależnym standardem, lecz "tylko" pewnym elementem nadrzędnego i bardziej skomplikowanego języka.

W tym właśnie miejscu otwiera się pole zastosowania formatu XML. Ten nowy standard powinien zastąpić sędziwy już metajęzyk SGML, stanowiący bazę dla języka HTML. Przy projektowaniu standardu XML zrezygnowano z całego szeregu zbyt skomplikowanych instrukcji SGML. To właśnie złożoność tego metajęzyka była bowiem główną przeszkodą w rozbudowie standardu HTML. Dzięki nowemu, znacznie prostszemu w obsłudze metajęzykowi każdy projektant stron WWW będzie teraz mógł precyzyjnie definiować kolejne reguły, a więc swobodnie rozszerzać możliwości języka XML.


W rzeczywistości jednak rozszerzalny (extensible) nie jest sam standard XML, lecz język opisu dokumentów utworzony za pomocą XML. Gdy bowiem kolejne dokumenty będą definiowane nie według starych reguł opartych na SGML-u, lecz przy użyciu zmodyfikowanych reguł XML, to można w nich wykorzystać zupełnie nowe funkcje.

HTML jest pierwszym, ale nie jedynym językiem, który został przystosowany do współpracy z XML-em. Z uwagi na fakt, że XML jest tzw. metajęzykiem, za jego pośrednictwem można projektować zupełnie nowe języki. Przykładem takiego rozwiązania może być SMIL (Standardized Multimedia Integration Language). Jest to język autorski, za pomocą którego na stronach WWW można w zupełnie nowy sposób wstawiać elementy multimedialne. SMIL stanowi więc praktyczne połączenie pomiędzy Internetem a systemami autorskimi, które może być wykorzystywane np. przy produkcji encyklopedii multimedialnych.
Format XML nie stwarza także żadnych "międzynarodowych" problemów. Podobnie jak ma to miejsce w przypadku Javy, także XML korzysta z uniwersalnego zestawu znaków Unicode, w którym zdefiniowane są wszystkie najważniejsze języki świata.

XML może stać się główną metodą przesyłania, przetwarzania i prezentowania informacji w:

2.5. Postscript

Pierwszą wersję PostScriptu datuje się z roku 1982, gdy John Warnock i Chuck Geschke założyli firmę Adobe System Inc. Język miał sporo czasu aby dojrzeć, a bieżący numer wersji przekroczył 52. Dzięki rygorystycznej polityce firmy Adobe, PostScript jest dziś dobrze znormalizowany. Język PostScript wniósł do programowania drukarek kilka rewolucyjnych cech. Po pierwsze, jest normalnym językiem proceduralnym ze strukturami właściwymi dla języków wysokiego poziomu: skoki, pętle, instrukcje warunkowe i procedury. Pozwala też na tworzenie struktur danych. Z tą ostatnią własnocią wiąże się drugi ważny element: skalowana czcionka, definiowana nie jako mapa bitowa, lecz jako kontur uzupełniony wskazówkami jego wypełnienia. Czcionka opisana w ten sposób, tak jak inne elementy graficzne, może podlegać identycznym transformacjom geometrycznym. Kolejną przełomową cechą PostScriptu była niezależność języka od urządzenia drukującego. Urządzenie nie otrzymuje danych do druku, otrzymuje program wydruku. O tym, jak ten program zostanie zrealizowany decyduje wewnętrzny komputer (procesor) urządzenia drukującego, który oczywiście uwzględnia już jego fizyczne możliwości. W konfiguracji komputer - drukarka postscriptowa, ta ostatnia dysponuje najczęściej dużo większą mocą obliczeniową.

Znaczenie języka PostScript wykracza daleko poza programowanie drukarek laserowych. PostScript nadaje się do programowania dowolnych urządzeń graficznych, jak np. nawietlarek, inteligentnych terminali i monitorów graficznych. Niewykluczone, że w przyszło ci PostScript, albo jego następca stanie się uniwersalnym językiem wyjściowym komputerów. Znikną wówczas odrębne gniazda dla drukarek, ploterów, monitorów i innych zewnętrznych urządzeń graficznych. Pojawią się uniwersalne gniazda postscriptowe, do których można przyłączyć monitor, drukarkę lub syntezator sygnału wideo... . PostScript może być też uniwersalnym językiem do wymiany danych graficznych.

2.6. Perl

Perl to skrót od słów Practical Extraction and Report Language - w nieco potocznym tłumaczeniu 'język praktycznej ekstrakcji i prezentacji [danych]'. Powstał już dość dawno i już od dość dawna jest używany do ożywiania stron WWW.

Korzystając z Internetu można się spotkać ze stronami, na których widnieje aktualna data lub okresowo zmienia się jakiś tekst lub obrazek. Te strony nie są statyczne - ich treść ulega ciągłym zmianom, aktualizacjom. Na potrzeby tych aktualizacji zaprzęgnięto do pracy właśnie Perl - język skryptowy. I choć część tych zadań można byłoby wykonać w znacznie łatwiejszym JavaScripcie, jednak Perl stwarza o wiele większe możliwości.

Perl należy do kategorii języków kompilowanych. Programy w Perl przechowywane są w postaci kodu źródłowego i kompilowane przez interpreter w momencie uruchomienia - jednak te dwa procesy są od siebie wyraźnie oddzielone. Jest to bardzo wygodne, bowiem z barków programisty spada tak czasochłonna nieraz ręczna kompilacja programu [vide C++]. Umożliwa to też poprawki na gorąco w kodzie; jednak nie ma róży bez kolców. Programy w Perl są zwykle [prawie zawsze] mniej wydajne od programów w C++. Perl gorzej gospodaruje zasobami systemowymi, bowiem by wykonać program trzeba przedtem załadować interpreter. Jednak w przypadku tak potężnych maszyn, jak serwery WWW, na których przecież uruchamia się skrypty Perl, nie ma to aż tak wielkiego znaczenia.

Perl jest najpopularniejszym językiem pisania programów CGI. CGI to skrót od Common Gateway Interface - 'wspólny interfejs bramy' w dosłownym tłumaczeniu; jest to po prosty interfejs pisania programów internetowych. Perl jest wykorzystywany w CGI ze względu na swoje niezwykłe właściwości, uzyskane niekiedy poprzez zapożyczenia z innych języków programowania:

Pierwsza zaleta dotyczy tego, do czego Perl był stworzony - do przetwarzania tekstów i prezentacji wyników. A że większość danych przetwarzanych przez programy CGI to tekst - wybór wydaje się oczywisty. Drugą zaletą jest szybkość - choć nie jest oszałamiająca, jednak zupełnie wystarczająca. I ostatnia zaleta - łatwość w nauce. Perl ma kilka niespotykanych cech - lecz gdy się je pozna, programowanie staje się przyjemnością. Tym większą, że tworzone aplikacje mogą być zarówno ogromne, kilkusetliniowe, jak i proste, kilkuliniowe.

Choć Perl ma kilku konkurentów, np. technologia ASP Microsoftu, ColdFusion firmy Allaire czy PHP/FI, jego pozycja wydaje się być niezachwiana. Perl jest po prostu dobrym, darmowym, ogólnodostępnym, łatwym i powszechnym językiem.

2.7. Java

Java - język, który pozwala na pisanie dowolnych aplikacji, programów i apletów - został zaprojektowany i zaimplementowany przez małą grupę ludzi prowadzoną przez Jamesa Goslinga w laboratoriach Sun Microsystems w Mountin View, California. Nie jest to jednak dobry język do tworzenia programów jedno- stanowiskowych, lub też programów wykonujących jakieś skomplikowane obliczenia. Sprawa jednak ukazuje się w innym świetle jeżeli tworzymy aplikacje wielosystemowe i obsługiwane przez kilka procesorów, lub uruchamiane na serwerze. Java jak na razie pod tym względem nie ma konkurentów, jest językiem specjalnie stworzonym do pisania programów jak i aplikacji działających w sieci, do pisania popularnych apletów działających na wielu stronach WWW.

Java ma jeszcze jedną dużą zaletę, można uruchamiać programy napisane w Javie na każdym komputerze, niezależnie od typu procesora jaki i systemu jaki jest na nim zainstalowany. Java jako język sieciowy tworzony była z myślą o bezpieczeństwie, dlatego też programy uruchamiane nie mogą nic zniszczyć, a problem wirusów nie istnieje.. Jest też wiele innych zalet Javy które można by wymienić, lecz mogą one być niezrozumiałe dla początkujących programistów, a doświadczeni programiści sami zauważą jego zalety.


Oczywiście są też wady tego języka, jedną z nich jest to iż nie jest on dość wydajny w obliczeniach itp. Inne kompilatory oferują dużo lepszą wydajność.

2.8. CGI

Standard CGI (Common Gateway Interface) - wbrew temu, co się czasami sądzi - nie jest powiązany z żadnym konkretnym językiem programowania. CGI definiuje jedynie sposób, w jaki dowolny program wykonywalny może współpracować z serwerem WWW. Programy (skrypty) CGI mogą być zatem pisane w dowolnym języku możliwym do zastosowania w systemie, w którym działa serwer: począwszy od skryptów shella Unixa, poprzez bardzo chętnie stosowany w zastosowaniach CGI język Perl, aż po klasyczne języki programowania generujące pliki binarne, takie jak C czy Pascal.

Choć specyfikacja CGI jest już dość stara - istnieje niemal od początku istnienia WWW - wciąż cieszy się dużą popularnością. Jednym ze źródeł tej popularności jest niewątpliwie uniwersalność; podczas gdy inne rozwiązania umożliwiające tworzenie skryptów serwerowych związane są na ogół z konkretnymi platformami serwerowymi - np. język PHP3 jest dość mocno związany z serwerem Apache, zaś ASP działa na platformie MS Internet Information Server - możliwość uruchamiania skryptów CGI ma każdy program serwera WWW, w każdym systemie operacyjnym. Ponadto, ponieważ CGI umożliwia uruchamianie na serwerze całkowicie dowolnych programów, praktycznie nie ma ograniczeń możliwości zastosowań tej techniki. Począwszy od najbardziej klasycznych, takich jak licznik odwiedzin strony czy wyszukiwarka, poprzez zmianę hasła do konta pocztowego z poziomu strony WWW, książkę gości, rozmaite ankiety i głosowania, wysyłanie ze strony WWW faksów czy SMS-ów, aż po sklepy internetowe i systemy elektronicznej bankowości - wszystko to zazwyczaj realizowane jest z mniejszym lub większym udziałem skryptów CGI.

Tworzenie stron wykorzystujących skrypty CGI jest jednak dosyć złożone. W przeciwieństwie do JavaScriptu, a nawet PHP3 czy ASP, gdzie polecenia skryptu wpisujemy wprost w treść pliku HTML, skrypt CGI jest całkowicie osobnym programem, którego wynik działania musi albo stanowić kompletną stronę HTML, albo być przygotowany do włączenia w treść strony za pomocą mechanizmu SSI (Server Side Includes), wykorzystywanego często jako uzupełnienie CGI. Program taki trzeba napisać w odpowiednim języku programowania, ewentualnie - jeżeli jest to język kompilowany - skompilować do postaci wykonywalnej, a następnie - w zależności od konfiguracji serwera - może być potrzebne umieszczenie go w specjalnym katalogu bądź nadanie mu jakiejś określonej nazwy, aby serwer rozpoznawał go jako skrypt CGI i uruchamiał go, a nie wysyłał do przeglądarki jego zawartości. "Sposób użycia" skryptów CGI może być inny na każdym serwerze i w każdym przypadku przed przystąpieniem do tworzenia takich skryptów trzeba skonsultować się z lokalnym administratorem.

Warto zauważyć, że nie każdy serwer w ogóle umożliwia użytkownikom korzystanie ze skryptów CGI, ze względów bezpieczeństwa - jak wspomniałem wcześniej, CGI może mieć praktycznie nieograniczone zastosowania, w tym także szkodliwe dla innych użytkowników... Generalnie, chcąc korzystać ze skryptów CGI, trzeba zapomnieć o serwerach darmowych kont typu Polbox czy Onet; na żadnym takim serwerze uruchamianie skryptów CGI nie jest możliwe. Trzeba wykupić sobie konto płatne, dokładnie sprawdzając przy tym cennik danego providera; często bywa bowiem, że za możliwość uruchamiania na naszym koncie skryptów CGI musimy dodatkowo dopłacić.

2.9. ASP

Active Server Pages, czyli "aktywne strony serwera", to technologia firmy Microsoft, stanowiąca część komercyjnego serwera WWW - Internet Information Servera. Możliwe jest również używanie ASP z Personal Web Serverem, darmowym serwerem WWW Microsoftu, możliwym do uruchomienia nawet na komputerze z MS Windows 95.

ASP stanowi alternatywę dla CGI. Tu nie jest tworzony żaden nowy proces - napisany program jest przetwarzany przez serwer WWW, a dokładnie jeden z jego modułów, stale obecny w pamięci. Wystarczy dodać, że dobrze napisane w ASP programy są od dwóch do czterech razy szybsze niż CGI napisane np. w C.

Twórcy ASP jako jeden z podstawowych problemów obecnych przy pisaniu programów dla WWW określili niemożność jednoznacznej identyfikacji użytkowników. Nie wiemy, czy osoba, która odczytała jakąś stronę, właśnie od niej zaczęła wędrówkę po naszym serwerze, czy też przebywa tu od godziny. Oczywiście w CGI da się to jakoś sprawdzić, ale wymaga to sporego nakładu pracy. ASP dostarcza nam gotowe rozwiązanie - sesje i aplikacje.
Jeśli ktoś wchodzi na nasz serwer, otrzymuje ciastko (cookie), które później pozwala na jednoznaczną jego identyfikację. Sesja to specjalny obiekt, który nie ginie pomiędzy odczytami różnych stron - zostanie on usunięty dopiero, gdy przez określony czas (domyślnie 20 minut) użytkownik nie pobierze z naszego serwera żadnego pliku. Najważniejsze korzyści, jakie daje nam sesja, to możliwość uchwycenia momentu wejścia na serwer oraz przechowywania informacji pomiędzy dostępami do różnych stron serwisu internetowego.

Aplikacja zaś to obiekt, który jest tworzony w momencie uruchomienia serwera i trwający aż do zakończenia jego pracy. Istnieje specjalny plik, global.asa, znajdujący się w głównym katalogu serwera, który obsługuje obiekt aplikacji. Można tam umieścić specjalne procedury, wywoływane w momencie uruchomienia aplikacji lub sesji. Pozwala to na przykład na ustawienie niektórych ważnych zmiennych, które nie powinny dostać się w niepowołane ręce.

Programy napisane w ASP mogą naprawdę wiele. Oto skrócona lista ich możliwości:

W ASP istnieją dwie grupy obiektów - podstawowe, wbudowane w ASP, oraz dodatkowe, które możemy doinstalować. Pierwsze umożliwiają podstawowe operacje - obsługę aplikacji, sesji, odbieranie danych z formularzy, wysyłanie odpowiedzi oraz manipulowanie serwerem. Reszta to bardziej zaawansowane obiekty i ich kolekcje pozwalające na obsługę poczty, baz danych, liczników, systemu reklam, plików i wiele innych czynności. Jeżeli i to nam nie wystarcza, możemy w C++, VBasicu lub Javie napisać własny komponent i dołączyć go do Active Server Pages. Active Server Pages to potężne narzędzie, którego dodatkową zaletą jest prostota użycia.

Rozdział 3

Programy do tworzenia stron WWW

3.1. Edytory WYSIWYG

Rozwój współczesnych narzędzi do tworzenia i edycji stron internetowych poszedł w dwóch kierunkach: część produktów umożliwia łatwe i intuicyjne projektowanie dokumentów w trybie wizualnym, pozostałe opierają się na tekstowej edycji kodu HTML, wspomagając użytkownika zaawansowanymi narzędziami do sprawdzania składnii optymalizacji kodu. Wszystkie programy oferują całe spektrum pomocnych funkcji do zarządzania złożonymi projektami, analizy kodu czy usprawniania najczęściej wykonywanych operacji podczas tworzenia stron internetowych.


Wybór optymalnego narzędzia do tworzenia stron WWW, który spełni nasze oczekiwania może nie być łatwy. Opisane edytory graficzne zawierają minimum podstawowych funkcji, lecz różnią się bardzo zarówno pod względem funkcjonalności i łatwości obsługi, jak i ceny.
Wspólną cechą edytorów graficznych jest tworzenie stron w trybie WYSIWYG (What You See Is What You Get) pozwalające praktycznie stworzyć stronę całkowicie metodą "przenieść i upuść", bez pisania kodu. Do nich zaliczamy Macromedia Dreamweaver, Adobe GoLive, Microsoft FrontPage.

3.1.1. Dreamweaver 4

Deklaracja What You See Is What You Get, czyli w wolnym tłumaczeniu: "Otrzymasz to, co widzisz", w przypadku edytorów HTML długo była jedynie pobożnym życzeniem marketingowych szamanów. Znaczące różnice między popularnymi przeglądarkami oraz niedociągnięcia edytorów sprawiły, że lepiej opisywało ich pracę niewesołe stwierdzenie: "To, co widzisz, zobaczą nieliczni". Jednak najnowsze wersje kilku popularnych programów tego typu mają już zdecydowanie więcej zalet niż wad i na pewno znajdą zasłużone miejsce w arsenale niejednego webmastera jako przydatne narzędzie w pracy przy tworzeniu stron WWW.

Dreamweaver od dawna jest uważany za jeden z najlepszych (jeśli nie najlepszy) edytor HTML WYSIWYG. Poprzednia, trzecia wersja ustawiła konkurentom poprzeczkę bardzo wysoko. Najnowsza edycja Dreamweavera podnosi ją jeszcze wyżej... W "czwórce" każdy znajdzie dla siebie coś ciekawego. Początkującym webmasterom ułatwi pracę nowe narzędzie do tworzenia i formatowania tabel (Table Layout View). Zaawansowanym - zwolennikom pracy w kodzie - zapewne spodoba się nowy, wbudowany edytor tekstowy, zawierający kilka funkcji obecnych dotychczas jedynie w wyspecjalizowanych edytorach tekstowych, takich jak HomeSite.

Interfejs na pierwszy rzut oka nie zmienił się znacząco. Zresztą po co zmieniać coś co jest po prostu dobre. Dreamweaver wcześniej już zyskał miano edytora najbardziej dopracowanego pod tym względem, głównie z powodu elastyczności i możliwości wszechstronnej konfiguracji. Właściwie każdy jego element: polecenia menu, skróty klawiaturowe, wygląd palet można zmienić i dostosować do własnych upodobań. W tym celu należy dokonać zmian w plikach xml w katalogu Configuration. Ułatwiono konfigurację skrótów klawiaturowych. Służy do tego celu polecenie Keyboard Shortcuts w menu Edit, uaktywniające odpowiednie okno dialogowe. Dzięki temu możemy zmusić program do poprawnego wpisywania polskich znaków diakrytycznych. Przy standardowej konfiguracji jest to utrudnione z powodu konfliktu skrótów klawiaturowych wykorzystujących prawy klawisz Alt. Paleta obiektów wzbogaciła się w nowe przyciski Standard View/Layout View i Draw Layout Cell/Draw Layout Table. Pierwsza para powoduje zmianę trybu wyświetlania tworzonej strony. W trybie Layout uaktywniają się dwa następne przyciski, umożliwiające tworzenie tabel i pojedynczych komórek za pomocą jedynie myszki. Na pierwszy rzut oka to nic specjalnie nowego (podobne rozwiązania pojawiły się wcześniej w innych edytorach), lecz już w trakcie tworzenia najprostszych tabel przekonacie się jak świetne są to narzędzia. Sposób definiowania tabeli przypomina rozwiązanie zastosowane w tekstowym edytorze Word 2000 z tą różnicą, że w rezultacie otrzymujemy najczystszy możliwy kod HTML, bez żadnych zbędnych tagów i zmiennych. Nawet skomplikowane tabele nie stanowią problemu.
Dreamweaver natomiast zrobi to za nas w mgnieniu oka. To jedna z najciekawszych i najefektowniejszych nowości tej wersji!

Dreamweaver to edytor WYSIWYG. W wersji czwartejtego programubezpośrednia edycja kodu ulegla poprawie. Na belce pod menu pojawiły się nowe przyciski, pozwalające zmieniać tryb edycji z wizualnego na tekstowy lub oba naraz. W trybie tekstowym każdy tag może być wyświetlony w dowolnie wybranym kolorze. Standardowo jednak niemal wszystkie kolorowane są tak samo. Chcąc ułatwić sobie pracę w kodzie, trzeba samodzielnie skonfigurować edytor. W trybie wyświetlającym jednocześnie kod i stronę obie części ekranu są dynamiczne, co oznacza, że jakiekolwiek zmiany dokonane w kodzie lub na którejkolwiek z palet od razu zmieniają wygląd strony w oknie Design View, i na odwrót. W praktyce na słabszych komputerach dzieje się to z niewielkim opóźnieniem.


Wbudowany edytor tekstowy umożliwia również edycję dowolnych plików tekstowych, dzięki czemu nie ma potrzeby posługiwania się dodatkowym programem podczas pisania zewnętrznych skryptów itp. Niestety w czasie pracy nad plikiem o rozszerzeniu innym niż html czy htm, paleta Historii jest nieaktywna i uniemożliwia wykorzystanie tej pożytecznej funkcji Dreamweavera. Dużym udogodnieniem jest rozbudowane polecenie Szukaj/Zmień (Find & Replace). Dzięki niemu możliwa jest zmiana poszczególnych wyrazów lub fragmentów kodu w wybranym dokumencie, całym serwisie lub tylko plikach znajdujących się w wybranym folderze. Ponadto Dreamweaver umożliwia warunkowe wyszukiwanie tagów o określonych właściwościach i ich dowolne modyfikowanie. To bardzo przydatna funkcja, zwłaszcza gdy chęć zmiany jakiegoś elementu przyjdzie nam do głowy po stworzeniu całego, wielostronicowego serwisu.

Mimo wielu udogodnień, moduł edycji tekstowej wciąż pozostaje jednym z najsłabszych elementów programu. Na oczekiwane w tej kwestii rewolucyjne zmiany przyjdzie jeszcze poczekać. Szkoda, bo ich wprowadzenie w aktualnej wersji programu mogłoby zdystansować konkurentów. Prawdopodobnie jednak programiści Macromedii wiedzieli wcześniej coś, o czym świat dowiedział się dopiero w połowie stycznia tego roku. Macromedia i Allaire (producent m.in. programu HomeSite, jednego z najlepszych tekstowych narzędzi do edycji HTML-a)połączyły się w jedną firmę. Teraz wystarczy scalić doświadczenie obu zespołów, zgrać ze sobą gotowe fragmenty kodu, a mariaż najlepszych cech obu programów może zaowocować

świetnym produktem.

Obecna wersja Dreamweavera zawiera kilka ciekawych nowości. Jedną z nich jest możliwość tworzenia bezpośrednio w edytorze animowanych flashowych przycisków. W programie umieszczono kilkadziesiąt gotowych do wykorzystania szablonów, w których można umieścić dowolnie sformatowany tekst przycisku. Oddano do dyspozycji kilkanaście przycisków nawigacyjnych, rozmaitych strzałek itp. Posiadacze programu Flash mogą tę kolekcję wzbogacić we własne propozycje, natomiast pozostali użytkownicy mają możliwość skopiowania ze strony Macromedia Exchange dodatkowych, gotowych przycisków.

Flashowe przyciski, atrakcyjne i efektowne, a przy tym niezwykle proste do utworzenia mają jedną poważną wadę. Wyglądające identycznie pliki graficzne umieszczone na stronie z wykorzystaniem efektu rollover będą po prostu "ważyć" mniej kilobajtów. Przewagę wektorowej grafiki widać wyraźnie w przypadku dużych graficznych elementów strony, ale w odniesieniu do niewielkich przycisków stare GIF-y sprawdzają się zdecydowanie lepiej.
Zaawansowanych webmasterów zainteresuje jeszcze jedna nowość, a mianowicie umieszczony w tej wersji odpluskwiacz (debugger) JavaScript. W specjalnym oknie Debuggera można śledzić wartość każdej zmiennej uruchomionego skryptu. Dzięki możliwości definiowania breakpointów oraz obserwowania działania skryptu krok po kroku łatwiej jest odnaleźć błędy w kodzie. Dreamweaver pozwala także na osobne debuggowanie skryptu w Internet Explorerze i przeglądarce Netscape, co - mając na uwadze różnice w interpretowaniu przez nie tych samych funkcji - jest bardzo rozsądnym rozwiązaniem. Kolejnym usprawnieniem, mającym na celu tropienie różnych błędów, których trudno ustrzec się podczas tworzenia rozbudowanych serwisów, są generowane przez program raporty. Dzięki nim w kilka sekund uzyskamy informacje o zbędnych lub brakujących znacznikach we wszystkich dokumentach tworzonego serwisu. Dreamweaver wytropi wszystkie strony pozbawione tytułu, wskaże pliki graficzne, których zapomnieliśmy opisać za pomocą zmiennej Alt. Wszystkie wyszukane przez program niedociągnięcia są umieszczane w jednym oknie wraz z krótkim opisem. Podwójne kliknięcie powoduje otwarcie danego dokumentu i podświetlenie wątpliwego fragmentu kodu. Do użytkownika należy wprowadzenie sugerowanych zmian. Program, niestety, nie umożliwia przeprowadzenia automatycznej korekty. Najnowsza edycja Dreamweavera potwierdza mocną pozycję tego edytora na rynku, jednak posiadacze poprzednich wersji zapewne wstrzymają się z wydatkiem na efekt powstały z połączenia Macromedii z firmą Allaire


Plusy i minusy programu Dreamweaver:
1) plusy
+ bardzo rozbudowane i przejrzyste menu,
+ szybkość działania programu,
+ dbałość o poprawność generowanego kodu HTML,
+ narzędzia do zarządzania i kontrolowania projektowanego serwisu,
+ łatwość w tworzeniu tabel i ramek,
+ podzielony podgląd pozwalający na jednoczesny podgląd kodu i wyglądu strony.
2) minusy
- dynamiczna baza odnośników zapisuje tylko w technologii ASP (Active Server Pages),
- brak sprawdzania polskiej pisowni,
- brak polskiej wersji programu.

3.1.2.Adobe GoLive

W styczniu 1999 r. firma Adobe zakupiła od CyberStudio prawa do przeznaczonego dla komputerów Mac edytora HTML GoLive. To rozbudowane narzędzie, służące do tworzenia serwisów internetowych, miało wypełnić lukę w ofercie Adobe, której nie potrafił sprostać niezbyt udany PageMill. Wersja oznaczona numerem 4 była jedynie adaptacją programu do systemu Windows. Ostatnia, piąta wersja GoLive, zawierająca wiele zmian i nowych rozwiązań, jest wyraźnym wyzwaniem dla najpoważniejszego obecnie konkurenta Adobe - firmy Macromedia.

Najbardziej widoczną zmianą jest niemal całkowite przebudowanie interfejsu. W tej wersji przypomina on inne aplikacje Adobe, takie jak Photoshop i Illustrator. Pojawiły się znane palety z zakładkami, w których umieszczono niemal wszystkie obecne w programie narzędzia. Jest ich tak dużo, że z początku trudno się zorientować. Na szczęście programiści umożliwili użytkownikowi dostosowanie ich do własnych potrzeb. Poszczególne zakładki można przeciągać z jednej palety do innej i stworzyć własny zestaw najczęściej używanych narzędzi. Podobnej elastyczności pozbawiony jest niestety pasek narzędzi, umieszczony standardowo tuż pod menu. Można go jedynie przenieść w dowolne miejsce na ekranie. Poniżej znajduje się główne okno edytora, które może prezentować edytowany dokument na pięć różnych sposobów. Pierwsza zakładka to Layout, podstawowy tryb projektowania strony. Dodawanie poszczególnych części strony w tym trybie sprowadza się do przeciągania ich z odpowiednie palety. Nie wszystkie elementy wyglądają w trybie Layout tak jak później w przeglądarce. Na przykład strony zawierające ramki (frames) będą w tym trybie wyświetlane osobno. Do ich projektowania służy drugi tryb Frames. Dwukrotne kliknięcie ramki w tym trybie otwiera oddzielne okno, dzięki czemu każdą z nich można edytować osobno. Kolejna zakładka Source prezentuje wygenerowany przez program kod html, który można modyfikować, a wprowadzone zmiany od razu widać w trybie podglądu Preview. To piąty z kolei tryb wyświetlania tworzonej strony. Czwarta, niezwykle interesująca zakładka Outline umożliwia nietypowy podgląd dokumentu HTML. W tym trybie wszystkie znaczniki są wyświetlane jako przyciski. Pozwala to na łatwe manipulowanie nimi bez zagłębiania się w źródło i bez troski o poprawność składni. Tagi mogą być wyświetlane w formie skróconej lub z pełnym opisem.


Podstawowa paleta narzędzi zawiera 9 zakładek, w których pogrupowane są obiekty. Obiekty te można dodać do tworzonej strony. Pierwsza zakładka zawiera elementy podstawowe, takie jak formularze, tabele, elementy graficzne, pliki Flash, aplety Java, linie rozdzielające itd. Druga przechowuje obiekty nazwane przez programistów SmartLinks, integrujące edytor z innymi produktami firmy Adobe. To bardzo ciekawe rozwiązanie umożliwia wstawianie do tworzonych stron plików graficznych lub animacji bezpośrednio z plików Photoshopa, Illustratora (tylko wersji 9) i LiveMotion. Pozwala to na ich późniejszą, prostą modyfikację, gdy zajdzie taka potrzeba. Dwukrotne kliknięcie umieszczonego w ten sposób pliku graficznego spowoduje uruchomienie odpowiedniej aplikacji. Pliki zewnętrzne umieszczone na stronie można w każdej chwili skonwertować do formatu aprobowanego przez przeglądarki internetowe za pomocą znanego z programów graficznych Adobe polecenia: "optimize for the web". Umożliwia ono podgląd pliku w czterech różnych stopniach kompresji, co ułatwia wybór kompromisu między jakością a wielkością pliku wynikowego.

Trzecia zakładka palety narzędzi zawiera wszystkie elementy konieczne do tworzenia formularzy, takie jak przyciski, pola wyboru, pola tekstowe itp. Czwarta pozwala łatwo modyfikować zawartość nagłówka strony <head>. W piątej znajdują się podstawowe narzędzia do definiowania ramek z kilkoma predefiniowanymi framesetami. W następnej znajdują się elementy, dzięki którym umieszczenie na stronie plików w formacie QuickTime jest łatwe i przyjemne. GoLive 5 jest w tym momencie jedynym edytorem HTML, oferującym tego typu funkcje. Umieszczone na stronie filmy QuickTime można nawet edytować bez używania dodatkowych narzędzi. Do dyspozycji webmastera oddano prosty edytor, który umożliwia modyfikowanie ścieżek i zdarzeń (events). Jedną z najczęściej używanych palet programu na pewno stanie się Inspector: odpowiednik palety Properties (Właściwości) w Dreamweaverze. W palecie tej pojawiają się wszystkie opcje i ustawienia zaznaczonego, w głównym oknie programu, elementu strony. Dzięki niej można również definiować dynamiczne efekty DHTML, rollover itp. Bardzo praktycznym i wygodnym dodatkiem wersji piątej jest paleta Historia, w której podobnie jak w innych produktach Adobe w trakcie pracy tworzy się listę wykonanych czynności, dzięki której można bez problemów poprawić błędy. To rozwiązanie znacznie wygodniejsze niż standardowe poleceniu Undo (Cofnij).

Piąta wersja GoLive posiada tak wiele nowych funkcji, że trudno w niej rozpoznać pierwotny program. Z tego względu na pewno warto rozważyć możliwość upgrade starszej wersji. Jest to z pewnością jeden z najbogatszych w funkcje dostępnych edytorów HTML. W znakomity sposób integruje różne aspekty tworzenia całego serwisu od podstaw, dzięki czemu znacznie oszczędza czas pracy projektantów. GoLive w krótkim czasie stał się bardzo poważnym konkurentem dla innych edytorów, a tempo, w jakim rozwija się ta aplikacja, jest rzeczywiście imponujące.

Oferowany jest w wersji 5.0 w cenie 381 $ + vat. Oficjalna strona programu znajduje się pod następującym adresem:http://www.abobe.com/.

Program przeznaczony jest przede wszystkim dla projektantów, pracujących zespołowo.

Plusy i minusy programu GoLive:
1) plusy
+ ścisła integracja z innymi produktami Adobe,
+ podzielony podgląd pozwalający na jednoczesny podgląd kodu i wyglądu strony.
2) minusy
- dynamiczna baza odnośników zapisuje tylko w technologii ASP (Active Server Pages

3.1.3. Microsoft FrontPage

Pierwszym i obecnie jednym z najbardziej rozbudowanych programów tego typu jest produkt Microsoftu o nazwie FrontPage. Po wielu udoskonaleniach dostępny jest w wersji 2000. Jest w pełni zintegrowany z programami rodziny MS Office. To bardzo istotne, ponieważ w pracy webmasterskiej często można się spotkać z materiałami źródłowymi pochodzącymi z jednej z tych aplikacji. MS FrontPage znakomicie ułatwia ich konwersję oraz dalszą obróbkę. FrontPage zapewnia generowanie zdarzeń dynamicznego HTML (DHTML) - za pomocą okien i menu możemy ustalać parametry ruchu dynamicznych elementów, a wygenerowany kod pozostanie zgodny z przeglądarkami zarówno samego Microsoftu (IE), jak i Netscape'a od wersji 4 wzwyż. W tym miejscu warto wspomnieć o MS Vizact, który jest specjalizowanym narzędziem do tworzenia dynamicznego HTML, jednak ze względu na ścisłą zgodność z Internet Explorerem jest przeznaczony przede wszystkim do budowania dokumentów funkcjonujących w zakładowych intranetach.

Ważną zaletą programu jest również możliwość importowania oraz edycji stron z osadzonym kodem ASP, a także opcja przejścia do trybu edycji samego kodu HTML, co pozwala ręcznie nanieść drobne poprawki. Dużym ułatwieniem jest udostępnienie trzech widoków strony, a więc podstawowego, w trybie WYSIWYG z obiektami, których właściwości można edytować przy użyciu myszki, dodatkowego podglądu znaczników otaczających obiekty oraz finalnego podglądu strony we wbudowanej przeglądarce.

Oddzielną i bardzo rozbudowaną kategorię instrumentów MS FP stanowią narzędzia umożliwiające zarządzanie projektami (przede wszystkim łatwa zmiana struktury witryny i kontrola poprawności powiązań) oraz pracę grupową (m.in. raportowanie, listy "do zrobienia", ustalane widoki). Ciekawą funkcją jest wybór wersji docelowych przeglądarek, na których oglądać będziemy rezultaty naszej pracy - po dokonaniu wyboru FP sam zablokuje niedostępne dla danych klientów funkcje, uniemożliwiając tym samym zbudowanie witryny nie działającej z danym typem przeglądarki. Na stronie Microsoftu możemy się zaopatrzyć w bezpłatną, 45-dniową wersję próbną.

Ten flagowy edytor HTML Microsoftu został dołączony do pakietu MS Office. Kosztuje obecnie 690 zł + vat, a oficjalna strona producenta mieści się pod adresem: http://www.microsoft.com/.

Do niewątpliwych zalet programu należy świetny moduł zarządzania witrynami. W najnowszej wersji edytora zintegrowany z narzędziami edycyjnymi, dzięki czemu w prosty i intuicyjny sposób można analizować i zmieniać wiele dokumentów jednocześnie.

Plusy i minusy programu FrontPage:
1) plusy
+ dobre narzędzia do zarządzania serwisami,
+ chroni kod zgodnie ze specyfikacją użytkownika,
+ integracja z innymi narzędziami MS Office.
2) minusy
- słaba kontrola nad kodem HTML.

3.2. Edytory tekstowe

Edytory tekstowe wymagają od osoby tworzącej stronę wyobraźni w jaki sposób strona będzie widoczna w przeglądarce internetowej. Jednak większość edytorów tekstowych posiada opcję podglądu dokumentu, bądź to w postaci wbudowanego podglądu strony lub za pomocą zainstalowanej w systemie przeglądarki. Od osób korzystających z edytorów tekstowych wymagana jest dobra znajomość języka HTML, ponieważ tylko od danej osoby zależy poprawność tworzonego kodu HTML.

3.2.1. Pajączek

Historia tego programu sięga roku 1996, kiedy to Pajączek był prostym programem do tworzenia stron WWW działającym jak kreator. Dzisiaj Pajączek jest jednym z najlepszych polskich edytorów, służących do projektowania stron WWW. Ponadto jego autor wraz z kolejnymi wersjami programu z powodzeniem wprowadza w życie własną koncepcję tego typu narzędzi. Na pierwszy rzut oka widać podobieństwo do edytora HomeSite, ale w przypadku tak doskonałego wzorca jest ono nie tylko usprawiedliwione, ale i mile widziane.


Jak przystało na dobry polski program, Pajączek doskonale wspomaga tworzenie dokumentów kodowanych w standardzie ISO-8859-2. Właściwie jest jedynym z opisywanych tu programów, który na twarzy polskiego webmastera powinien wywołać szeroki uśmiech. Trudno w dziedzinie obsługi polskich znaków cokolwiek Pajączkowi zarzucić. Wbudowany konwerter polskich znaków samodzielnie rozpoznaje standard kodowania strony i zmienia go na ISO88592,

Unicode lub Windows CP-1250. W program wbudowano kilka narzędzi, dzięki którym wiele dodatkowych czynności, potrzebnych podczas projektowania strony można wykonać bez opuszczania edytora. Są to edytor mapy odsyłaczy, doskonałe narzędzie służące do publikowania gotowej strony w Internecie (które mniej wymagającym może nawet służyć jako prosty klient FTP), dynamiczny podgląd strony, narzędzie wyszukiwania/zamiany w dokumencie lub grupie dokumentów używające wyrażeń regularnych, rozbudowane informacje o dokumencie, weryfikator odnośników i kilka użytecznych generatorów. Na uwagę zasługuje funkcja kolorowania składni, która działa poprawnie nawet w przypadku plików o mieszanej zawartości (np. kod HTML, skrypty PHP i Java w jednym pliku), z czym nie radzą sobie inne opisywane tu edytory. Funkcja ta, podobnie jak większość innych w Pajączku, jest w pełni konfigurowalna. Przystosowanie jej do specyficznych celów nie stwarza żadnych problemów. Edytor pozwala na dołączanie zewnętrznego arkusza stylów. Ma proste narzędzie do tworzenia i edytowania stylów dla znacznika lub całego dokumentu. Nie pozwala on wprawdzie na tworzenie zbyt rozbudowanych stylów, ale wystarcza do większości zastosowań, a dynamiczny podgląd i możliwość "ręcznej" edycji arkusza stylów zwiększają jego funkcjonalność. W analizie i poruszaniu się po rozbudowanym serwisie pomaga "Nawigator dokumentów". Wyświetla on strukturę edytowanych dokumentów w postaci drzewa, dzięki czemu w przejrzystej formie prezentuje elementy (znaczniki), z jakich składa się strona, i pozwala szybko przenieść się do wybranego miejsca w edytowanym dokumencie. W czasie pracy nad dużymi projektami równie przydatna jest możliwość ustawiania w tekście różnego typu zakładek, których położenie jest zapamiętywane podczas zapisu dokumentu na dysku.

Pajączek pozwala sprawdzać poprawność pisowni w dokumencie w kilku językach, używając słowników zainstalowanych w systemie. Trzeba przyznać, że robi to bardzo inteligentnie, ignorując np. wyrazy znajdujące się wewnątrz znaczników HTML czy w komentarzach Duża liczba gotowych szablonów, które użytkownik może uzupełniać, ułatwia tworzenie stron składających się z typowych elementów, a generatory ramek, grafik czy formularzy w znaczącym stopniu usprawniają pracę nad projektowaniem tego typu elementów strony. Pajączek jest programem bardzo rozbudowanym, ale z powodzeniem mogą z niego korzystać również mniej doświadczeni użytkownicy. Gotowe szablony, kreatory i dobry system pomocy ułatwiają pracę osobom początkującym, a bogate możliwości edycyjne i konfiguracyjne zadowolą bardziej doświadczonych twórców. Mankamentem programu jest brak możliwości sprawdzania poprawności składni dokumentu HTML. Należy mieć jednak nadzieję, że firma Cream Software jeszcze nie powiedziała ostatniego słowa.

Obecnie program dostępny jest w wersji 4.8.1. Kosztuje 99 zł na jedno stanowisko pracy, a oficjalna strona producenta mieści się pod adresem: http://www.creamsoft.com.pl/.

Plusy i minusy programu Pajączek:
1) plusy
+ pełna 32-bitowość, obsługa długich nazw plików, znaczne przyśpieszenie działania, lepsze wykorzystanie zasobów komputera, m.in. możliwość wczytywania dowolnie dużych dokumentów,
+ posiada wbudowany kurs HTML,
+ złożone kolorowanie kodu,
+ sprawdzanie poprawności pisowni.
2) minusy
- bardzo złożone menu.


Więcej o zaletach programu można przeczytać na stronie producenta: http://www.creamsoft.com.pl/pajaczek/index.html.

3.2.2. Homesite

HomeSite4.5.2

W rozmowach projektantów stron internetowych o używanych przez nich narzędziach na pewno padnie nazwa tego programu. Dla wielu webmasterów HomeSite był pierwszym edytorem, z jakim się zetknęli, a inne są - ich zdaniem - podobne (i słusznie!) właśnie do tego "pierwowzoru". Choć w najnowszej wersji 4.5.2 programu autorzy postanowili uzupełnić edytor funkcją graficznego projektowania strony (zakładka Design w głównym oknie programu, działa tylko w wersji IE 4.0 lub wyższej), to podstawowe zadanie - wspomaganie pracy projektanta stron WWW na poziomie tekstu źródłowego - HomeSite spełnia doskonale.

Edytor ma wszystkie standardowe funkcje spotykane w tego typu programach: może doskonale kolorować składnię tekstu źródłowego, ma wbudowaną pomoc kontekstową dla znaczników (nie tylko HTML, ale także CFML, VTML, WML, HDML, SMIL, JSP, JAVA, PHP), potrafi ustawiać w tekście źródłowym zakładki, zwijać duże fragmenty tekstu w bloki (ułatwia to nawigację po rozbudowanym źródle), przeszukiwać i zamieniać tekst w wielu plikach jednocześnie. Mniej doświadczonym projektantom przyda się zapewne funkcja natychmiastowego podglądu zmian, jakie dokonuje się w tekście źródłowym strony. Ekran edytora można podzielić na części: edycyjną i wyświetlającą "na żywo" efekt naszej pracy. Zarówno mniej doświadczeni, jak i profesjonalni webmasterzy zapewne docenią wbudowaną w program pomoc kontekstową języka HTML, JavaScript i VisualBasic. Mimo drobnej wady - jej tekst jest wyświetlany w oknie, który normalnie służy do podglądu efektu pracy - przełączanie się z trybu edycji na podgląd pomocy jest nieco uciążliwe.

Przydatną funkcją programu jest automatyczne zamykanie wpisywanych znaczników oraz funkcje "Tag Insight" i "Function Insight", dzięki którym edytor przedstawia w małym, przewijanym okienku wszystkie możliwe do wpisania w danej chwili znaczniki lub parametry

funkcji JavaScript, VisualBasic, PHP i innych. Jako jeden z nielicznych HomeSite doskonale radzi sobie z edycją tekstu źródłowego w przypadku stron mieszanych. Jeśli jest edytowany plik z rozszerzeniem PHP, w którym przewijają się znaczniki HTML, to edytor bez trudu poprawnie je zaznaczy i umożliwi stosowanie typowych dla nich narzędzi (autouzupełnianie, pomoc kontekstowa, Tag Insight itp.).Przydatną funkcją programu, ułatwiającą projektowanie i aktualizowanie dużych, rozbudowanych serwisów, jest weryfikacja odsyłaczy i Deployment Wizard, dzięki któremu do wysłania efektów pracy na odległy serwer WWW wystarczy kilka kliknięć myszką. Możliwości konfiguracji i przystosowania programu do własnych potrzeb są ogromne. Prawie każdą funkcję wspomagającą tworzenie stron można dostosować do indywidualnych upodobań (pasek narzędzi, skróty klawiszowe, definicje znaczników).
Wraz z właściwym edytorem HomeSite użytkownik otrzymuje doskonały edytor stylów TopStyle Lite 1.5 i Tidy Codesweeper, będący programem służącym do czyszczenia i formatowania tekstu źródłowego strony. Choć ten drugi czasami zbyt agresywnie ingeruje w kod, to oba wraz ze zintegrowanym z edytorem modułem sprawdzania poprawności kodu

stanowią doskonałe i potrzebne dodatki.

Dla polskiego użytkownika cenną funkcją jest możliwość korzystania ze słowników ortograficznych instalowanych wraz z pakietem Office (co najmniej wersji 95), sprawdzanie poprawności pisowni w języku polskim nie stwarza więc problemu.
Integracja ze słownikiem MS Word to niestety jedyna dobra wiadomość dla polskiego użytkownika programu. Program nie obsługuje bowiem kodowania polskich znaków w standardzie ISO-8859-2, dlatego przed zamieszczeniem przygotowanego tekstu w Internecie należy go poddać konwersji za pomocą jednego z dostępnych programów do konwersji znaków (np. Ogonki97).

Obecnie program dostępny jest w wersji 4.5.2. Kosztuje 89 $ zł, a oficjalna strona producenta mieści się pod adresem: http://www.allaire.com/products/homesite.

Plusy i minusy programu HomeSite:
1) plusy
+ przejrzyste i przyjazne menu,
+ kreatory ramek i tabel,
+ opcja zarządzania projektem,
+ częste aktualizacja programu.
2) minusy
- czasami nie stabilna praca programu,
- brak wspomagania kodowania ISO-8859-2.

3.2.3. HotDog Professional

Wyglądem przypomina pozostałe opisywane tu programy: główne okno składa się z konfigurowalnego paska narzędziowego, okna zasobów i głównego okna edytora.

Praca w tego typu programach opiera się głównie na edycji tekstu, toteż może nieco zdziwić brak w HotDogu rozbudowanych funkcji edycyjnych. Program oferuje jedynie wygodne narzędzie "zwijające" większe partie kodu w zgrabne pasemka, słownik języka angielskiego, tezaurus i bardzo proste narzędzie Szukaj/Zamień. O braku wspomagania kodowania ISO-8859-2 nie trzeba wspominać, do tego anglojęzyczne programy zdążyły nas już przyzwyczaić.

Podobnie ubogo przedstawiają się możliwości edytora w pracy z plikami różnych typów. Poza standardowymi znacznikami HTML, HotDog rozumie i poprawnie koloruje składnię jedynie dla CSS, JavaScript, VBScript i ASP, nie radząc sobie z plikami, w których jednocześnie występują elementy charakterystyczne dla kilku tych języków (np. kod HTML, gdzie pojawiają się funkcje JavaScript lub PHP). Sytuacja z narzędziami automatyzującymi pracę projektanta przedstawia się nieco lepiej, choć i tutaj HodDog nie zachwyca bogactwem funkcji.
Na uwagę zasługują kreatory ramek, tabeli i formularza, z których zachwyceni będą zapewne wszyscy rozpoczynający przygodę z HTML. Korzystanie z nich, jak zwykle w tego typu rozwiązaniach, polega na udzieleniu odpowiedzi na kilka pytań dotyczących kolorów, rozmiaru czcionki czy - w przypadku kreatora formularza - liczby i rodzaju pól. Spełnienie tego wymogu powoduje, iż program tworzy gotowy kod HTML. Raczej jako ciekawostkę należy potraktować jedną z możliwości, jakie zapewnia kreator tabel - automatyczne tworzenie... kalendarza na dowolny rok! Do funkcji programu wartych wzmianki należy zaliczyć ciekawie rozwiązany sposób prezentacji struktury strony WWW. Okno "HTML Navigation View" przedstawia w postaci typowego windowsowego drzewa szkielet tworzonej strony, dzięki czemu zwinięcie w tekście źródłowym całej tabelki do postaci jednolinijkowej wiąże się tylko z jednym kliknięciem. Analizowanie i przemieszczanie się po tak "zwiniętym" kodzie trwa krótko i jest wygodne. Ponadto taki widok umożliwia łatwe znalezienie błędów w kodzie strony (np. przestarzałe lub

nie zamknięte prawidłowo znaczniki HTML).

W obecnej postaci HotDog nie jest raczej programem ani dla profesjonalistów (problemy z kolorowaniem kodu, brak kontroli poprawności składni, prymitywna obsługa stylów i języków skryptowych), ani dla początkujących (stanowczo zbyt mało tak modnych obecnie różnorodnych kreatorów). HotDog sprawia wrażenie programu, który ma dopiero stać się profesjonalnym edytorem HTML.

3.2.4. HotMetal Pro

HoTMetaL Pro jest jednym z pierwszych edytorów HTML. To znakomite narzędzie przeszło długą ewolucję od prostego edytora tekstowego, aż po rozbudowane graficzne środowisko wyposażone w wiele oryginalnych funkcji. Program jest łatwym do dostosowania środowiskiem HTML z obsługą najnowszych standardów w edycji, zarządzania i publikacji. Główny nacisk położono na udoskonalenie edycji kodu i wsparcia procesu twórczego

Pełna wersja programu zawiera wiele dodatków i produktów innych firm. Podczas instalacji można wybrać te, które - naszym zdaniem - przydadzą się podczas pracy nad stroną. Najciekawsza jest specjalna edycja programu PhotoImpact firmy Ulead - pełna wersja edytora graficznego. Warto również przejrzeć umieszczone na płycie gotowe zasoby stron (Assets), ponieważ część z nich nie jest wymieniona ani w pliku pomocy, ani w innym miejscu programu.
Pracę nad nową stroną można rozpocząć od zastosowania wbudowanego generatora serwisów - SiteMaker. Mamy do wyboru gotowe szablony stron firmowych zewnętrznych (business) i wewnętrznych (intranet) oraz domowych (personal). SiteMaker stworzy wszystkie potrzebne dokumenty, zawierające podstawowe linki, łączące strony w logiczną hierarchię. Użytkownik ma możliwość wyboru spośród 18 różnych projektów stron. Wystarczy jedynie zmienić logo i tekst, by strony były gotowe do umieszczenia ich w Internecie. Przygotowany w ten sposób serwis będzie jednak sztampowy i nudny. Ponadto istnieje prawdopodobieństwo, że podobna strona już gdzieś w sieci istnieje. Takie rozwiązanie jest przeznaczone głównie dla początkujących twórców stron WWW. HoTMetaL Pro 6 ma jednak funkcje przeznaczone również dla zaawansowanych użyt-kowników. Podstawowe okno programu pozwala wyświetlać dokument na kilka sposobów, podobnie jak w innych edytorach. Jest więc HTML Source View, czyli tekstowy tryb pracy w samym kodzie. Źródło może być kolorowane zgodnie z preferencjami użytkownika. Pod tym względem HoTMetaL Pro nie jest jednak tak elastyczny, jak chociażby ostatnia wersja Dreamweavera, gdyż umożliwia zdefiniowanie tylko jednego koloru do wyświetlania wszystkich tagów. Można jedynie zróżnicować kolorystycznie ich początek i koniec. Tryb WYSIWYG nie byłby godny tego miana, gdyby nie obsługiwał stylów CSS. HoTMetaL pozwala obejrzeć niemal wszystkie efekty zastosowania stylów. Ma wbudowany specjalny edytor, pozwalający tworzyć je na poziomie dokumentu lub serwisu. Tak tworzone pliki można następnie umieścić w zasobach (Assets) i wykorzystywać w pracy nad kolejnymi projektami. Zasoby strony (Assets) to dostępny dzięki zakładce w lewym oknie aplikacji jeden z najciekawszych elementów HoTMetaL Pro. Od razu po instalacji programu znajdziemy tam kilkadziesiąt folderów, w których pogrupowane są różne narzędzia i elementy przydatne w pracy nad stroną - od gotowych skryptów, fragmentów kodu, poprzez generatory znaczników META i formularzy, na gotowych przyciskach kończąc. Umieszczenie ich na stronie ogranicza się w praktyce do przeciągnięcia myszką np. wybranego przycisku w konkretne miejsce na stronie wyświetlanej w trybie Tags On. W zasobach znajduje się kilkanaście zautomatyzowanych kreatorów, umożliwiających np. stworzenie graficznych przycisków w kilku wersjach, gotowych do wykorzystania w efektach rollover. Po prawej stronie ekranu jest umieszczony tzw. Attribute Inspector - miejsce, w którym można edytować właściwości poszczególnych elementów strony. Pojawiają się tu np. atrybuty zaznaczonego tagu, dzięki czemu łatwiej je zmieniać bez poszukiwania ich w źródle dokumentu. W najnowszej wersji HoTMetaL Pro można korzystać z Inspectora w każdym trybie wyświetlania strony. Poniżej znajduje się okno, w którym jest dynamicznie zmieniająca się lista tagów możliwych do umieszczenia w danym miejscu strony.

Edytor dostępny jest w wersji 6.0 za 99 $, a oficjalna strona producenta mieści się pod adresem: http://www.hotmetalpro.com/.

HoTMetaL Pro 6 z pewnością zasługuje na uwagę zarówno początkujących, jak i zaawansowanych webmasterów. Nie zapewnia tak wielu funkcji i możliwości jak opisani wcześ- niej konkurenci, ale fakt ten ma korzystny oddźwięk w cenie programu


Plusy i minusy programu HoTMetal:
1) plusy
+ kolorowanie kodu,
+ trzy tryby pracy,
+ rozległe środowisko edycji i udoskonalone zarządzanie mediami.
2) minusy
- interfejs miejscami zagmatwany.

3.3. Edytory graficzne

Do stworzenia witryny WWW potrzeba nie tylko edytora HTML, ale również programu graficznego. Przede wszystkim do zoptymalizowania pod względem wielkości umieszczonych na stronach plików bitmapowych. Aplikacje graficzne służą projektantom WWW do tworzenia przycisków, bannerów lub ikon. Aktualnie producenci dużych programów graficznych biorą już pod uwagę fakt, że ich narzędzia wykorzystywane są bardzo często do tworzenia grafiki na strony WWW. Objawia się to faktem, że nowe wersje oprogramowania mają coraz więcej udoskonaleń wspomagających pracę projektantów witryn internetowych

3.3.1. Adobe Photoshop

Program graficzny amerykańskiej firmy Adobe. Jedna z najpopularniejszych aplikacji tego rodzaju, często wykorzystywana do projektowania wizualnej oprawy stron WWW. Aktualna wersja 6.0 kosztuje 4300 zł (z podatkiem VAT), a oficjalna strona programu to: http://www.adobe.com/.
Szósta wersja programu znacznie wykracza poza obszar dotychczasowych zastosowań. Zwiększono liczbę narzędzi przeznaczonych do obsługi grafiki wektorowej. W znaczny sposób udoskonalono narzędzia do tworzenia grafiki na stronach WWW

Plusy i minusy programu Photoshop:
1) plusy
+ dobrze zorganizowane i przejrzyste menu,
+ duża ilość dodatków (filtry, efekty, narzędzia wspomagające pracę),
+ obsługa większości popularnych formatów graficznych.
2) minusy
- wysoka cena.

3.3.2. Paint Shop Pro

Najbardziej znany obok Photoshopa program graficzny. Program oferuje zestaw wszystkich narzędzi, zarówno edycyjnych, jak i korekcyjnych .Program oferowany jest w dwóch wersjach: tańszej (99 $) - dostępnej w postaci pliku instalacyjnego na stronie producenta (http://www.jasc.com/), oraz droższej (109 $) - składającej się z płyty CD i dwóch podręczników obsługi programu

Udostępnia użytkownikom 11 kategorii zbiorów efektów specjalnych. Najnowsza wersja rozprowadzana jest z modułem do tworzenia animacji. Jest to szczególnie przydatne podczas tworzenia ruchomych bannerów, ikon czy kursorów.

Plusy i minusy programu Paint Shop Pro:
1) plusy
+ wygodny układ menu,
+ wbudowany edytor animowanych gif-ów,
+ często wydawane nowe wersje programu,
+ narzędzia do optymalizacji grafiki internetowej.
2) minusy
- małe możliwości w stosunku do programów komercyjnych.

3.3.3. Gimp

Gimp jest programem rozprowadzanym bezpłatnie. Aktualna wersja 1.2 dostępna jest na stronie producenta: http://www.gimp.org/.


Cecha charakterystyczną programu jest dość skromne menu główne programu - większość opcji znajdziemy w przebogatej kolekcji menu kontekstowych, które otwierają są po kliknięciu prawym przyciskiem myszy obrabianego obrazka

Plusy i minusy programu Gimp:
1) plusy
+ duża ilość opcji w menu kontekstowych,
+ rozpowszechniany jest bezpłatnie,
+ jest dostępny w wersji polskiej.
2) minusy
- duża ilość okien w programie.

Rozdział 4

Serwery kont internetowych

Na uwagę zasługują darmowe konta na własną stronę WWW znajdujących się na serwerach w Polsce. Serwisy zagraniczne oferują zazwyczaj wiele więcej miejsca i konto o większej przepustowości i wiele innych zainstalowanych już skryptów takich jak na przykład księgi gości, ale należy pamiętać, że większość tych serwerów znajduje się w USA lub w bardzo dalekiej odległości od Polski.

Tworząc stronę tworzymy ją w narodowym języku, a więc z myślą o ludziach z naszego kraju, którzy tutaj korzystają z Internetu i to tutaj będzie ściągana strona. Wszyscy wiemy, że Internet jest zapchany, a obciążenie łącz ciągle rośnie. Chcąc ściągnąć taką stronę z zagranicznego serwera trzeba będzie poczekać nieco dłużej niż w przypadku ściągania takiej strony z serwera na terenie Polski

Wirtualna Polska [http://www.strony.wp.pl/] - dostajemy Konto na stronę WWW o pojemności 5 MB i jednocześnie konto e-mail o pojemności 15 MB. Aby założyć bezpłatne konto WWW na serwerze Wirtualna Polska należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny. Można zamieszczać zarówno strony komercyjne jak i nie komercyjne.Adres strony założonej przez użytkownika ma postać http://strony.wp.pl/wp/nazwa_strony. Na stronie nie trzeba zamieszczać żadnych reklam. Dodatkowo mamy zainstalowane na koncie skrypty takie jak księga gości i licznik.

Republika WWW [http://portal.republika.pl/] - serwis ten należy do portalu Onet.pl. Otrzymujemy konto WWW o pojemności 6 MB i konto e-mail. Pojemność konta na stronę możemy powiększyć jeżeli nasza strona jest ciekawa, bierze udziały w konkursach Republiki, a jej autor udziela się w społeczności Republiki WWW. Aby założyć bezpłatne konto WWW na serwerze Republika.pl należy zapoznać się z regulaminem, a następnie wypełnić formularz rejestracyjny.
Stronę należy dopisać do katalogu stron Republiki. Do miesiąca od założenia konta należy umieścić na serwerze stronę, w przeciwnym razie konto zostanie usunięte. Jeżeli na stronie nie dokonamy zmian przez okres 6 miesięcy strona może zostać usunięta.
Republika zastrzega sobie prawo do wykorzystania strony w celach komercyjnych i reklamowych. Jak na razie otwiera się dodatkowe okienko z prośbą o ocenę strony. Otrzymujemy konto o adresie http://nazwa_strony.republika.pl.

Miasto WWW [http://miasto.interia.pl/] - serwis ten należy do portalu Interia.pl. Na tym serwerze dostaniemy do dyspozycji 12 MB na stronę WWW. Wraz z zakładaniem konta na WWW automatycznie dostajemy konto e-mail o takiej samej nazwie, więc dobrze jest się zapoznać także z regulaminem kont e-mail. Aby założyć bezpłatne konto WWW na serwerze Miasto WWW należy zapoznać się z regulaminem, a następnie wypełnić poprawnie formularz rejestracyjny. Pojemność konta można zwiększyć po przesłaniu na adres miasto@firma.interia.pl listu z prośbą o rozszerzenie objętości konta oraz uzasadnienia takiej potrzeby.
Adres strony, który jest przydzielony na serwerze Miasto WWW, po założeniu konta, ma postać: http://nazwa_strony.w.interia.pl plus dodatkowy alias do strony o adresie http://miasto.interia.pl/w/nazwa_strony lub http://uzytkownik.fm.interia.pl plus dodatkowy alias do strony http://miasto.interia.pl/fm/uzytkownik. Można zamieszczać strony komercyjne i nie komercyjne. Przy wywoływaniu strony może być dołączanie reklam zlokalizowanych w dodatkowym okienku, jednak na razie jest to prośba o ocenę strony.
Stronę należy dopisać do katalogu Miasta WWW w przeciągu miesiąca, inaczej zostanie ona usunięta. Dodatkowo na koncie mamy do wyboru zainstalowany licznik, księgę gości i Staterie.

OF.pl [http://free.of.pl/] - dostajemy konto o pojemności 15 MB. Konto takie może być normalnym kontem na stronę WWW, albo kontem na stronę WAP. Aby założyć bezpłatne konto WWW na serwerze OF.pl należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny. Adresy naszych stron to: http://wap.of.pl/x/nazwa_strony - dla konta WAP i http://free.of.pl/x/nazwa_strony - dla konta WWW (x to pierwsza litera naszego identyfikatora). Konta, z których nikt nie skorzysta przez okres 30 dni będą automatycznie usuwane. W przypadku gdy użytkownik założy sobie konto na WWW i przez 7 dni od daty założenia konta nie utworzy swojej strony, konto także zostanie skasowane.
OF.PL zastrzega sobie prawo do umieszczenia na wybranych stronach WWW użytkowników dodatkowych reklam.

HG.pl [http://www.hg.pl/] - należy do portalu HOGA.pl. Dostajemy konto o pojemności 25 MB, ale tylko 6 MB możemy przeznaczyć na pliki multimedialne. Aby założyć bezpłatne konto WWW na serwerze HOGA.pl należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny. Dodatkowo zainstalowane są już statystyki dla naszego konta. Otrzymujemy konto o adresie http://www.nazwa_strony.hg.pl . Z jednego adresu IP może zostać założone tylko jedno konto dziennie. Aktywacja konta zostanie dokonana po okresie 20 minut od jego założenia. Na stronie należy wstawić baner reklamowy.

PHG [http://www.phg.pl/] - należy do portalu HOGA.pl. Otrzymujemy konto o pojemności 10 MB, ale tylko 5 MB możemy przeznaczyć na pliki multimedialne. Aby założyć bezpłatne konto WWW na serwerze PHG należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny.Dodatkowo zainstalowany jest już skrypt statystyk dla naszego konta. Na serwerze możemy zamieszczać skrypty i programy CGI, PHP i SSI. Otrzymujemy konto o adresie http://www.nazwa_strony.phg.pl . Z jednego adresu IP może zostać założone tylko jedno stronie należy wstawić baner reklamowy.

Obywatel [http://www.obywatel.pl/] - otrzymujemy konto o pojemności 30 MB. Aby założyć bezpłatne konto WWW na serwerze Obywatel należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny.Adres strony, którą otrzymujemy to http://www.nazwa_strony.obywatel.pl. Na koncie możemy opublikować stronę WAP. Liczba kont na serwerze jest ograniczona do 16 000 co ma zapewnić stabilność usługi.

Free.net.pl [http://www.free.net.pl/] - oferuje nam darmowe konta e-mail i www z dostępem do shell'a . Dostajemy konto o pojemności 30 MB do podziału na dwa konta jedno na stronę WWW a drugie na skrzynkę e-mail. By założyć swoje własne konto należy zapoznać się regulaminem i poprawnie wypełnić formularz znajdujący się na stronie głównej. Strona może mieć charakter komercyjny i nie komercyjny. Każdy z użytkowników serwera obowiązany jest umieścić odpowiedni kod HTML na swojej stronie WWW. Uaktywni to nowe okno z banerem reklamowym. Strony nie zawierające baneera zostaną skasowane.

SilesiaNET [http://www.silesianet.pl/] - przy rejestracji otrzymujemy konto WWW o pojemności 25 MB i konto e-mail o pojemności 25 MB. Możemy zamieszczać strony zarówno komercyjne jak i nie komercyjne. Aby założyć bezpłatne konto WWW na serwerze SilesiaNET należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny.
Aktywacja konta nastąpi w przeciągu 8 godzin od momentu weryfikacji danych podanych przy zakładaniu konta. Jeżeli nie zalogujemy się na konto w przeciągu 60 dni zostanie ono usunięte. Jeżeli w przeciągu 7 dni od daty założenia konta nie zostanie umieszczona na nim strona konto także zostanie usunięte. Adres strony który otrzymujemy to http://nazwa_strony.silesianet.pl. SilesiaNet nie zgadza się na umieszczanie na stronach reklam innych firm oprócz swoich własnych oraz zastrzega sobie prawo do umieszczenia na wybranych stronach WWW użytkowników dodatkowych reklam. Strona WWW użytkownika nie może zawierać tagu <META Name="keywords"> niezgodnego z jej rzeczywistą zawartością. Na każdej stronie musi zostać zamieszczona stopka reklamowa.

KKI [http://www.kki.net.pl/] - czyli Krakowski Komercyjny Internet. Dostajemy konto na stronę WWW o pojemności 3MB i konto pocztowe o pojemności 3 MB. Aby założyć bezpłatne konto WWW na serwerze KKI należy zapoznać się z regulaminem, a następnie prawidłowo wypełnić formularz rejestracyjny. Jeżeli nie zalogujemy się na konto w przeciągu 120 dni zostanie ono skasowane. Na stronie głównej należy umieścić odpowiedni kod HTML w dowolnym miejscu.
Adres strony to http://www.kki.net.pl/~nazwa_strony.

Free.polbox.pl [http://free.polbox.pl/] - aby założyć konto należy zapoznać się z regulaminem i prawidłowo wypełnić formularz rejestracyjny. Konto WWW zakłada się dopiero po założeniu konta e-mail. Adres strony który otrzymujemy to http://free.polbox.pl/x/nazwa_strony ( x to nasz identyfikator). Dostajemy konto o pojemności 2 MB. Jeżeli przez 7 dni od założenia konta nie zamieścimy strony to konto zostanie skasowane. Jeżeli przez 60 dni nie zalogujemy się na konto e-mail konto także zostanie skasowane. W formularzu rejestracyjnym należy określić czy strona jest komercyjna. Polbox nie zgadza się na umieszczanie reklam oraz zastrzega sobie prawo do umieszczenia na wybranych stronach WWW użytkowników dodatkowych reklam. Strona WWW użytkownika nie może zawierać tagu <META Name="keywords"> niezgodnego z jej rzeczywistą zawartością. Na stronie głównej należy umieścić stopkę reklamową. Jeżeli posiadasz stronę komercyjną musisz dokleić do kodu jeszcze jedną reklamę.

W Polsce do najpopularniejszych serwisów z PHP można zaliczyć właściwie dwa;

Free Komrel [http://www.free.komrel.net/] i Boo [http://www.boo.pl/]. Pierwszy z nich obsługuje nawet CGI i ASP, ma 50 MB na stronę i możliwość "nałożenia" na serwis domeny, którą sami możemy zarejestrować.

Natomiast boo.pl oferuje :

"Konta posiadają: - Własną subdomene www.twojanazwa.boo.pl. - Możliwość instalacji własnej strony WWW w katalogu public_html. - Możliwość wysyłania i odbierania poczty z wybranej przez siebie domeny. - Możliwość instalowania maksymalnie 2 aliasów. - Możliwość przekierowywania poczty na inny adres. - Możliwość uruchamiania autorespondera. - Możliwość uruchomienia powiadamiania o nowej poczcie na telefon GSM w formie SMS. - Możliwość zmieniania hasła. - Możliwość przechowywania plików do 20MB. - Możliwość instalowania stron WWW wykonanej w technologii PHP. - Możliwość zarządzania kontem z adresu http://booadmin.boo.pl" Administrator BOO.pl, news z 1.01.2002.

Rozdział 5

Reklama strony WWW

5.1.Banner i button

Banner, to tradycyjna forma reklamy on-line. Banner tradycyjny przez wielu uznawany jest za anachronizm, wciąż stanowi on podstawę reklamy on-line. Jego skuteczność nie zależy wyłącznie od dobrej lokalizacji lecz również od właściwego zaprojektowania i wykonania.

Skuteczny banner przez wielu webmasterów uważany jest za najlepszy sposób promowania stron WWW. W praktyce jednak tak nie jest , statystyki mówią, iż na sto wyświetleń naszego banera tylko jedna osoba kliknie na niego. Reklama bannerowa z uwagi na swoja specyfikę kieruje się własnymi prawami i zasadami które należy znać kreując nowy banner i oczekując od niego wysokiej efektywności. Przede wszystkim warto pamiętać, iż banner ma formę prostokąta i trzeba wykorzystać to w odpowiedni sposób. W części środkowej zazwyczaj umieszcza się tekst reklamowy zaś po stronie prawej lub lewej - logo lub dodatkowy element graficzny. Jest to klasyczny układ stosowany w większości statycznych i animowanych bannerów reklamowych. Banner jest bardzo ważnym elementem w promowaniu strony. Bo przecież od promocji i to promocji skutecznej, zależy oglądalność serwisu. Sposobów na to jest bardzo wiele; rejestratory, katalogi i wspomniane bannery.

W Internecie przyjęły się na stałe normy tych reklam, oto najpopularniejsze rozmiary;

468 x60 pix

400 x 50 pix

392 x 72 pix

Można zuważyć z pewnością także małe reklamy. To po prostu mniejsze odpowiedniki bannerów, zwane często buttonami. Do takich zalicza się wymiary:

120 x 60 pix

120 x 40 pix

88 x 31 pix

Bannery mogą przyjąć różną postać: być statyczne, animowane, czarno białe... Istnieje wiele koncepcji budowania bannera. Do zdecydowanie najpopularniejszych formatów należy GIF, który może być animowany. Ostatnio wybuchła moda na fascynujący FLASH. Pliki .SWF są mniejsze objętościowo, ale ma duże możliwości. Od dawna wiadomo , że im banner efektowniejszy, tym równie efektownie przyciąga uwagę widza. Reklama taka nie może zawierać błędów ortograficznych. Powinna być elastycznie wykonana, z odpowiednio dobraną kolorystyką, najlepiej w barwach własnego serwisu. W dobrym tonie byłoby umieścić na niej logo. Na naszej reklamie powinny być krótkie informacje, co właściwie reklamujemy. Przykładowo może to być 5 słów kluczowych (keywords): dla serwisu webmasterskiego: PHP CGI SKRYPTY KURSY PORADY.

Im większe wymiary bannera tym częściej jest on klikany lecz banner lądujący się w nieskończoność to najgorsze co może spotkać reklamodawcę. Dlatego, warto zwrócić uwagę na objętość bannera. Według Infoseek, najoptymalniejsza objętość to 10K do 15K. Celem reklamodawcy powinno być zmuszenie oglądającego banner reklamowy do jego kliknięcia i przeniesienia się na stronę reklamodawcy a więc do wywołanie określonego działania. Niekiedy, oglądający samoistnie klika w banner, niekiedy jednak warto lub trzeba dodatkowo go do tego nakłonić. Standardowy zwrot "Kliknij Tu" umieszczony na bannerze w bardzo dużym stopniu wpływa na jego skuteczność. Ponadto, utwierdza oglądającego banner w przekonaniu ,że nie jest to tylko element graficzny strony ( a to się zdarza!) lecz odnośnik. Innym zabiegiem mającym na celu wymuszenie na oglądającym kliknięcie bannera jest sprecyzowanie kilku zagadnień i obietnica uzyskania na nie wyczerpującej informacji (po kliknięciu w banner). Zabieg ten stosowany jest zazwyczaj przy użyciu bannerów HTML.

Na rynku informatycznym istnieje wiele firm oferujących przeróżne aplikacje i kombajny graficzne. I choć banner można stworzyć w MS Paint, to wielu grafików, nawet tych początkujących wybiera znacznie ciekawsze propozycje. Do najbardziej używanych edytorów zaliczymy z pewnością Paint Shop Pro 7 firmy Jasc Software i Photosop 6 Adobe. To wielkie maszyny, za pomocą których stworzenie atrakcyjnego bannera jest nie tylko łatwe, ale i przyjemne. Dodatkową atrakcją PSP jest Animation Shop 3 dołączany jako dodatek. Dobry program, który w dziecinnie prosty sposób poskłada nasze klatki.

Banner gotowy, czas pochwalić się min światu.

A gdy już wykonasz banner... Przeprowadź krótki test. Przyjrzyj się swojej reklamie i odpowiedz na pytania:

  1. Czy przyciąga uwagę?

  1. Czy odznacza się na tle innych reklam?

  2. Czy elementy graficzne wzmacniają przekaz?

  3. Czy grafika nawiązuje do treści?

  4. Czy grafika nie przeszkadza w odbiorze reklamy?

  5. Czy reklama zachęca do działania?

  6. Czy łatwo zapamiętać informacje główną?

  7. Czy reklama w prosty sposób przekazuje informację?

  8. Czy wiadomo czyja jest to reklama?

  9. Czy uniknąłeś błędów gramatycznych?

Od promocji naszego bannera zależy żywot naszej stronki w sieci. Zdecydowanie najlepszą i najbardziej sprawdzalną metodą promocji naszego bannera jest wymiana go z innymi serwisami. I to serwisami tematycznie podobnymi do naszego. Najlepiej największymi, bo owe są najchętniej odwiedzane. Trzeba zająć się pisaniem emiali autorów WWW. Tym razem przysłowie "im więcej tym lepiej" pasuje znakomicie, bo im więcej reklam, tym więcej na liczniku.

Zapewne każdy słyszał o systemach bannerowych. Schemat działania takiego serwisu jest bardzo prosty. Po zarejestrowaniu się każdy użytkownik otrzymuje kod, który musi wkleić na swoją stronę. Jest to nic innego jak banner innego użytkownika tego samego systemu. W zamian za wyświetlanie reklamy, nasz banner będzie widywany na innych witrynach. Oczywiście wszystkie odsłony i kliknięcia są liczone, więc jest to sprawiedliwe. Przystępując do takiego serwisu należy najpierw zastanowić, z którego z nich wyniesiemy jak największe korzyści np. czy zapiszemy się do systemu o takiej samej tematyce jak nasza strona czy zaś baner ma się wyświetlać na witrynach o różnej tematyce. Czy system ma być dla witryn z oglądalnością powyżej np. 50 osób dziennie lub też "open" czyli dla wszystkich. Musimy sobie odpowiedzieć na te pytania nim zaczniemy wybierać z pośród gąszczu systemów. Pamiętajmy także, aby wybrać solidną firmę tzn. taką, która istnieje na rynku od kilku lat, a klienci jej są zadowoleni. Często, bowiem spotkać można systemy, które niedawno powstały a już upadają, brak im odpowiedniego zaplecza finansowego, co pociąga za sobą konsekwencje.

Dlatego też polecam sprawdzone firmy, które to pozwolą zaoszczędzić nam trochę zdrowia. Jeżeli jednak przy przystąpieniu do dobrego systemu, wyświetlenia banerów na naszej stronie są sporadyczne, co oznacza, iż nasz baner na innych stronach też rzadko będzie się wyświetlał, pozostaje nam tylko wykupienie wyświetleń. Oznacza to, że jeżeli wykupimy np. tysiąc wyświetleń, nasz baner wyświetli się tysiąc razy na stronach uczestników systemu. Jest to dobre rozwiązanie dla stron, które dopiero powstały i mają małą ilość odwiedzin. Po za tym przystępując, do któregokolwiek z systemu wymiany banerów otrzymujemy tzw. na zachętę parę set a nawet kilkaset darmowych wyświetleń naszego banerka. Jeżeli cały ten system wymiany banerów do nas nie przemawia warto wtedy zainteresować się zleceniem kampanii banerowej. Firmy, które zajmują się takimi przedsięwzięciami umiejętnie dobiorą nam strony, z odpowiednią oglądalnością i tematyką, aby frekwencja kliknięć na nasz baner była jak największa.

Najlepsze systemy wymiany banerów :


Bannermania - http://www.bm.net.pl
Banner za Banner - http://bannery.chmurka.pl
Banner Power - http://www.bannerpower.cis.com.pl
Magic Banner - http://magic.koti.com.pl
Ban4u - http://banner.canpol.pl

Warto też zawiązać współpracę z serwisem o podobnej tematyce jak nasz, poprzez wymianę owych banerów. Czy jest to dobre rozwiązanie trudno powiedzieć, na pewno powinno przynieść nam jakieś korzyści, a w razie braku takowych możemy przecież zerwać współpracę. Nie zapomnijmy jednak, aby oba serwisy nasz jak i naszego partnera miały podobną oglądalność, w innym przypadku nasz system nie będzie działał na równych prawach. Przecież nie chodzi nam o oszustwo, jednej ze stron.

Możemy także przystąpić do jednego z systemów wymiany butonów. Ideologia jest taka sama jak w przypadku systemów wymiany banerów.

Systemy wymiany butonów :


http://www.cgi.team.pl
http://insiderpress.pl/bp
http://netbanner.w.interia.pl/button
http://small.bannery.pl
http://www.wyszukaj.banner.prv.pl

5.2. Domeny internetowe

Adres internetowy - domena jest jednym z bardziej znaczących elementów serwisu internetowego. Dla szanujących się firm domena internetowa staje się obecnie "elektroniczną wizytówką". Trudno mówić o otwarciu na świat i nowoczesnych technologiach, jeżeli ignoruje się medium, które rewolucyjnie zmienia sposoby przekazywania informacji. Niebawem firma bez "dobrego" adresu internetowego będzie traktowana tak, jak dzisiaj przedsiębiorca, którego nie stać na porządne biuro.

Każdy komputer, podłączony do Internetu, posiada unikatowy numer, zwany adresem IP. Jest to ciąg czterech liczb z zakresu od zera do 255, oddzielonych kropkami (na przykład 195.205.24.94). Pierwszy człon takiego adresu to oznaczenie kraju, druga liczba określa zwykle sieć miejską, trzecia jest kodem firmy przyłączonej bezpośrednio do sieci (np. usługodawcy internetowego), a ostatnia wskazuje na konkretny serwer. Takie ciągi cyfr są bardzo praktyczne w komunikacji między maszynami, ale trudne do zapamiętania dla ludzi. Dlatego właśnie opracowano tzw. Domain Name System (DNS), czyli system nazewnictwa w Internecie, pozwalający posługiwać się adresami w czytelnej postaci typu www.centertel.pl.
Nie istnieje nigdzie jedna, centralnie zarządzana lista nazw domen adresowych i przyporządkowanych im adresów IP (bo przecież są ich miliony). "Tłumaczeniem" nazw na zrozumiałe dla komputerów adresy IP zajmują się rozsiane po sieci tzw. serwery DNS. Kiedy w oknie przeglądarki wpisujemy jakikolwiek adres, nasz komputer wysyła najpierw zapytanie do najbliższego serwera DNS. Jeśli nie otrzyma od razu odpowiedzi, zapytanie zostaje kierowane do innego serwera obsługującego nazwy z podanej domeny. Dopiero po otrzymaniu poszukiwanego ciągu cyfr łączymy się bezpośrednio z wybranym miejscem w sieci.

Domena jest często taka sama jak nazwa strony - obie muszą być oryginalne i odpowiednio opracowane. W przypadku domen polskich sprawa jest jeszcze stosunkowo prosta. Znajdujesz jakieś słowo, jak najwięcej mówiące o tematyce twojej witryny, zgłaszasz chęć rejestracji domeny u providera i najczęściej dostajesz to, czego chcesz. Choć niektóre, bardziej chwytliwe domeny są już zarejestrowane.

Domeny.com (http://www.domeny.com/)


Najbardziej rozbudowany polski serwis pozwalający zarejestrować domeny. Do wyboru mamy ich ponad 300. Są to: domeny globalne (takie jak np.: .com, .net), nowe domeny globalne (.biz i .info), polska domena narodowa .pl, polskie domeny funkcjonalne (takie jak np.: .com.pl, .net.pl, .biz.pl czy .info.pl), polskie domeny regionalne (takie jak np.: .warszawa.pl, .gdansk.pl czy .wroc.pl), domeny serwisu (takie jak np.: .nr.pl, .od.pl czy .advert.pl), oraz domeny narodowe poza Polską (takie jak np.: .fm, .tv, czy .as). Witryna została zaopatrzona w mechanizm przeszukujący który bardzo szybko potrafi określić czy dany adres jest już wykupiony czy też nie. Na stronie znajdziemy także odpowiedzi na najczęściej zadawane pytania takie jak np.: "Czym właściwie jest domena", "Jaką nazwę domeny wybrać" i wiele innych które nurtują osoby chcące zarejestrować swoją własną domenę. Domenę można także wystawić na Aukcję domen. Jednakże cena za umieszczenie wpisu jednej domeny na okres 1 roku to 49,95 zł netto. Każdy z nas może kupić, sprzedać lub wydzierżawić ciekawy adres internetowy - lecz nie jest to zbytnio tanie. Serwis oferuje również utrzymanie serwisu na swoim serwerze, jest to oczywiście dodatkowo płatne ale zaoszczędza czas który spędzilibyśmy szukając odpowiedniego Providera Internetowego. Konta podzielono na kilka wariantów tak aby każdy mógł znaleźć odpowiednie warunki dla swojego serwisu internetowego.

NASK - DNS (http://www.dns.pl/)


Serwis Naukowej i Akademickiej Sieci Komputerowej jest podmiotem zarządzającym rejestrem domen w domenie .pl. Serwis jest najtańszym w Polsce oferującym rejestracje polskich domen. Aby w NASKu zarejestrować domenę wystarczy tylko wypełnić i wysłać elektroniczny wniosek, następnie trzeba go wydrukować, podpisać i wysłać faxem do firmy. Domena zostanie zarejestrowana w ciągu 5 dni roboczych od dostarczenia faxu.Do dyspozycji mamy również wyszukiwarkę domen oraz wyszukiwarkę WHOIS. Ta ostatnia pozwala nam dowiedzieć się kiedy dany adres został zarejestrowany oraz pokazuje serwery nazw, dzięki niej możemy np.: sprawdzić kiedy został wykupiony adres www.webhelp.pl wystarczy jedynie wpisać adres w pole formularza i wcisnąć 'szukaj w bazie WHOIS'.

Domena.pl (http://www.domena.pl/)


Domena.pl jest wysoko rozwiniętym serwisem rejestrującym domeny oraz prowadzącym ich aukcje. W serwisie mamy dostęp do rejestracji polskiej domeny narodowej, polskich domen funkcjonalnych oraz do polskich domen regionalnych podobnie jak w NASK oraz dodatkowo możemy również rejestrować domeny globalne a także w domenie serwisu czyli .domena.pl. Ciekawym elementem serwisu jest na pewno Aukcja. Jest tak około 500 ciekawych domen które można odkupić, zostały one podzielone w kilka kategorii (takich jak np.: Sport czy Turystyka) firma pobiera 20% wysokości transakcji. Witryna zawiera również odpowiedzi na najczęściej zadawanie pytania (Czym jest właściwie domena, Kto może zarejestrować domenę, Co można zrobić z domeną itd...). Domena.pl oferuje również utrzymanie serwisu na swoim własnym serwerze, jest to oczywiście dodatkowo płatne ale zaoszczędza nam czas który spędzilibyśmy szukając odpowiedniego Providera Internetowego. Usługi podzielono na dwie główne kategorie "Dla biznesu", oraz "Dla każdego". Rejestracja domeny i wykupienie miejsca na serwerze jest bardzo łatwe sprowadza się jedynie do wypełnienia kilku formularzy i wysłania faxu.

7 sekretów domeny (http://www.names.pl/)


Serwis Names.pl oferuje rejestrację wyłącznie domen globalnych (.com, .net, .org), oczywiście na stronie mamy do dyspozycji wyszukiwarkę domen. Ciekawym jest dział 7 sekretów w którym znajdziemy porady przydatne przy rejestracji domeny - czyli: jak nie dać się oszukać kupując domeny. Oczywiście w serwisie znajdziemy także FAQ czyli odpowiedzi na najczęstsze wątpliwości kupujących. Serwis zawiera także Giełdę domen w której oferowane są domeny do dzierżawy jak i na sprzedaż. Interesujące jest że serwis nie pobiera żadnych opłat za wystawienie domeny na Giełdę - wystarczy jedynie wysłać email i już domena znajdzie się na aukcji.

NetNames Polska (http://www.netnames.pl/)


NetNames - Międzynarodowy Rejestr Domen Internetowych rejestruje domeny globalne, polską domenę narodową, polskie domeny funkcjonalne oraz domeny w ponad 200 państwach na świecie. Firma jest największym przeciwnikiem "monopolu" NASK w rejestracji Polskich domen internetowych.

Domenki.pl (http://www.domenki.pl/)


Dobrze rozwinięty serwis rejestrujący domeny .com, .net, .org. Jak podaje firma posiada najniższe ceny w kraju. Co ciekawe serwis oferuje przeniesienie domeny za darmo. Serwis udostępnia darmową Giełdę domen i co ważniejsze umożliwia nam również po rejestracji samodzielną administrację domeną. Na stronie znajdziemy także odpowiedzi na najczęściej zadawane pytania. Domenę rejestruje się szybko i łatwo. Po 48 godzinach domena jest już zarejestrowana.

Rejestracja domen (http://www.domeny.gr.pl/)


Poprzez ten serwis można zarejestrować domeny: .com, .net, .org, .info, .biz, .co.uk, .org.uk, .cc oraz .tv. Serwis oferuje wyszukiwarkę domen poprzez którą można łatwo sprawdzić czy dana domena już istnieje czy nie. Rejestracja domeny jest stosunkowo prosta i nie zajmie nam dużo czasu. Ważną cechą tego serwisu jest możliwość samodzielnego zmieniania ustawień domeny. Wystarczy zalogować się do systemu i natychmiast można zmienić wszystkie informacje o właścicielu domeny, nazwy DNS. Można także nadać prawa innym użytkownikom do zmiany pewnych danych.

Domeny.org (http://www.domeny.org/)


Domeny.org zajmuje się rejestracją domen .com, .net, .org, .info oraz .biz. Oferuje wyszukiwarkę domen oraz co ciekawe dodatkowo, wraz z każdą zarejestrowaną u nich domeną otrzymujemy komercyjny serwer wirtualny o pojemności 20MB (10MB na strony www oraz 10MB na email). Serwer ma udostępnioną obsługę CGI, PHP, SSI, a po wniesieniu dodatkowej opłaty udostępniają również dostęp do bazy MySQL. Dodatkowo na swoim koncie można tworzyć nieograniczoną liczbę subdomen, po prostu przez tworzenie nowych katalogów. Skrzynka email natomiast wyposażona została w funkcję "catch all", dzięki której korzystać można z nieograniczonej liczby aliasów. Każdy email dotrze niezależnie od tego co zostanie wpisane przed @twoja-nazwa.com. Serwer zostaje udostępniony na taki czas na jaki zostaje zarejestrowana domena. Zgłoszoną domenę rejestrują w czasie 48 godzin.

Twoja domena (http://www.twoja-domena.com/)


Serwis rejestruje domeny .com, .net oraz .org. Do każdej zarejestrowanej domeny dodają za darmo pakiet usług składający się z utrzymania domeny na ich serwerach dns oraz z 10 subdomen we własnej domenie. Na stronie znajduje się również spis odpowiedzi na najczęściej zadawane pytania oraz oczywiście wyszukiwarka domen. W FAQ znajdziemy odpowiedzi na pytania takie jak: "Dlaczego tak tanio, inni sprzedają domeny po 200 - 600zł ?", "Czy będę pełnoprawnym właścicielem domeny?", "Co to jest DNS?". Domena jest rejestrowana w przeciągu 48 godzin od złożenia zamówienia.

Domeny.Online.PL (http://domeny.online.pl/)


Rozbudowany serwis pozwalający rejestrować polską domenę narodową, polskie domeny regionalne oraz polskie domeny funkcjonalne. W serwisie znajdziemy oczywiście wyszukiwarkę domen oraz FAQ w których są odpowiedzi na takie pytania jak: "Co to jest domena i dla czego warto ją mieć", "Czy na domenach można zarobić", "Jakie rozszerzenie domeny wybrać" itd... Ciekawym rozwiązaniem zastosowanym w tym serwisie jest możliwość sprawdzenia DNSu, oraz IP. Dzięki temu możemy się dowiedzieć jaki serwer ukrywa się pod danym IP oraz który dostawca usług obsługuje interesujący nas serwer WWW. Jeśli zarejestrujemy domenę w tym serwisie, zamówimy usługę serwera WWW, firma za darmo wyemituje 30 tysięcy bannerów reklamujących daną stronę. Witryna oferuje nam również wyjaśnienie rozszerzeń domenowych - dowiemy się że np.: edu.pl to instytucje edukacyjne (status szkoły wyższej) oraz placówki naukowe. Proces rejestracji domeny trwa przez 7 dni roboczych.

Domeny.sauron (http://domeny.sauron.pl/)


Serwis oferuje rejestrację domen globalnych, polskiej domeny narodowej, polskich domen regionalnych oraz polskich domen funkcjonalnych. Do dyspozycji mamy oczywiście wyszukiwarkę domen oraz dział Pomoc. W tym dziale znajdziemy odpowiedzi na najczęściej zadawane pytania. Do każdej zarejestrowanej domeny dostajemy za darmo utrzymanie domeny na ich serwerach oraz umieszczenie pod zarejestrowanym adresem strony "under construction" lub wizytówki firmy. Ewentualnie możemy jeszcze wybrać przekierowanie wywołania WWW na serwis firmowy. Poprzez serwis można także administrować samodzielnie wykupioną domeną.

Register.com (http://www.register.com/)


Zagraniczny serwis oferujący rejestrację 38 różnych domen. Po zarejestrowaniu domeny serwis oferuje np.: forwarodawanie z domeny na wskazany adres, rejestrację strony w 400 wyszukiwarkach oraz pomoc online. Ciekawy jest dział w którym można sprzedać swoją domenę. Umieszczając domenę w tym serwisie można sprzedać ją za kilkaset-kilka tysięcy lub kilka milionów dolarów. Rejestracja domeny poprzez ten serwis nie jest już taka łatwa jak przez poprzednie choćby dlatego że cały serwis jest w języku angielskim (nie polecam rejestrować domeny osobom słabo znającym ten język). Witryna posiada dobrze rozbudowany dział Help (pomoc). Po wykupieniu domeny można nią administrować poprzez stronę WWW. Za domenę można płacić kartą kredytową a proces rejestracji trwa od 24 do 48 godzin.

RegisterSite.com (http://www.registersite.com/)


Serwis oferuje rejestrację w ponad 60 różnych domenach. Po rejestracji domeny za darmo firma oferuje: parkowanie domeny, serwery DNS, umieszczenie strony "under construction", nielimitowaną liczbę aliasów pocztowych, przekierowanie na wybraną stronę. Oprócz tego domeną możemy samodzielnie zarządzać z poziomu strony WWW. Na stronie znajdziemy oczywiście FAQ i wyszukiwarkę domen. Za rejestrację możemy zapłacić kartą, proces rejestracji trwa do 48 godzin.

5.3. Wyszukiwarki internetowe

Jednym z najlepszych sposobów, które posłużą nam do promocji witryny to dodanie jej do wyszukiwarek. Ponoć 80% ruchu na witrynach zawdzięczamy właśnie im.

Jednak jak przystąpić do dodawania strony do tak dużej ilości wyszukiwarek? Istnieje na ten problem kilka sposobów. Możemy zainteresować się usługą zwaną web positioningiem, lub skorzystać z programów, które to automatycznie wypełniają na raz tysiące wyszukiwarek, jak także próbować własnoręcznie wypełnić wszystkie formularze. Usługi z tytułu web positioningu są płatne, ceny wahają się w granicach od 500 - 10 tys. złotych. Usługa, którą on oferuje to nie tylko dodanie naszej strony do paru wyszukiwarek, to przede wszystkim optymalizacja witryny pod kątem meta tagów, doborem odpowiednich słów kluczowych, zastosowanie technik wspomagających. W Polsce owa usługa dopiero rozpościera swe skrzydła jednak warto się nią zainteresować, a korzyści, które z niej przyjdą mogą być niebagatelne.

Firmy oferujące web positioning :


WJX marketing - http://www.esukces.com / http://www.wjxmarketing.com
Overnet - http://www.overnet.pl
SMI - http://www.supermedia.com.pl

Kolejną pozycją do rozpatrzenia są programy, które to ułatwią nam wypełnienie setek formularzy.

Programy rejestrujące naszą stronę w wyszukiwarkach i katalogach :


Submission Wizard - http://www.submission.com
Free Submitter Pro - http://www.data-village.com
WebPosition Gold - http://www.webposition.com
AddWeb - http://www.cyberspacehq.com
SubmitWolf Pro - http://www.trellian.com
UVSubmit 20 - http://www.triosade.com

Jedyną wadą tych programów jest to, iż nie dodają one do Polskich katalogów czy wyszukiwarek, zaś do wyszukiwarek w USA. W przypadkach, kiedy jednak pragnelibyśmy zaistnienie w Polskich wyszukiwarkach, pozostaje nam wypełnienie rejestratora ze strony WWW. Rejestratory na stronach nie zgłaszają naszej strony do setek formularzy, lecz w najlepszym przypadku do kilkudziesięciu. Owymi rejestratorami możemy działać na rynku Polskim.

Sieciowe rejestratory stron w wyszukiwarkach :


http://www.webhelp.pl
http://start.net.pl/rejestrator.htm (35 wyszukiwarek)
http://www.netmagia.pl
http://www.start.com.pl
http://www.scrypty.com
http://www.webinside.org

Ostatnia metodą, jest nudna, pracochłonna i przynosi niewielkie korzyści, gdyż jest to po prostu ręczna rejestracja strony w wyszukiwarce (katalogach).Osób działających w ten sposób jest mało wszyscy przeważnie korzystają ze sposobów, które są prostsze i owocniejsze w pracy.

5.4 Webring

Jest to zamieszczenie specjalnego, butona który jest odnośnikiem do stron o tej samej tematyce. Niestety nie możemy wpłynąć na jego kształt czy kolor jedyne, co nam pozostaje to wybór miejsca, w którym go umieścimy na naszej stronie. Nie jest to nowa usługa, lecz chyba nie jest zbyt popularna a szkoda.

A przecież odnieść można spore korzyści, dlatego że cały system nie opiera się o ratio tylko odnośniki wyświetlane są za pomocą czystego zbiegu przypadku. Nigdy nie wiemy klikając na link, która ze stron się otworzy. Nie wiążą nas żadne limity gdyż nie ma znaczenia ile kliknięć było z danej strony jak to jest w stosowane w systemach wymiany banerów, nasz odnośnik zawsze będzie wyświetlany.

Najpopularniejszym, webringiem według mnie jest ten, który prowadzi Republika (http://www.republika.pl).

5.5 Konkursy

Czasami, zdarza się, że strona istnieje parę dni czy miesięcy w sieci a możemy na niej spostrzec, że organizuje różnorakie konkursy przeważnie konkurs na stronę miesiąca. Nagrodą jest wyświetlanie, banera na stronie, która organizuje owy konkurs. Zastanawiające jest to, że przecież strona jest młoda i zazwyczaj jeszcze niedokończona a już organizuje konkurs na najlepszą stronę miesiąca? Jest to chwyt, który ma polepszyć oglądalność witryny, która zorganizowała konkurs. Jest ona, bowiem promowana poprzez zamieszczanie butonów na stronie biorącego udział w konkursie.

Rzecz w tym, że trzeba mieć sponsora a w dzisiejszych czasach o niego trudno, chyba, że nasz serwis cieszy się, co najmniej tysięczną oglądalnością dziennie. Znam serwisu, które postawiły na ten sposób reklamy i po paru miesiącach cieszyły się wysoką oglądalnością. Sposobów na promocję strony w sieci jest mnóstwo. Do promocji można użyć formularzy. Warto jest zamieszczać ogłoszenia w gazetach (np. Magazyn Internet umożliwia zamieszczenie takowych ogłoszeń), telegazecie (str.380) w telewizji, jeżeli tylko kogoś na to stać, ogłosić na specjalnie przygotowanej do tego celu grupie dyskusyjnej (pl.comp.www, pl.comp.www.nowe-strony), lub też wypełniać ogłoszenia na różnych stronach WWW (jest to chyba najmniej skuteczny sposób).

Popularne systemy ogłoszeniowe


http://www.info.net.pl/
http://www.chmurka.pl/ogloszenia/
http://tablica.web-factory.pl/
http://www.ktogdzie.com/
http://www.news.com.pl/Tablica_Ogloszen/
http://www.kurier.net.pl/twojeog.asp
http://www.on-line.pl/ogloszenia/
http://www.witryna.pl/
http://ogloszenia.gery.pl/
http://www.ogloszenia.telvinet.pl/TitlesList.epl
http://www.neta.com.pl/
http://www.witryna.pl/
http://www.ogloszenie.cjb.net/
http://www.tablica.com/
http://www.reporter.pl/

5.6. Kampania promocyjna

Nawet najbardziej atrakcyjna witryna nie utrzyma się długo, jeśli jej właściciel nie będzie dysponował odpowiednimi środkami. Istnieje kilka możliwości zdobycia tych środków, można z nich skorzystać w zależności od typu serwisu i liczby osób odwiedzających go.
Aby odnieść sukces w Sieci należy nacisk położyć na przeprowadzenie skutecznej i kompleksowej kampanii reklamowej. Działania te najlepiej powierzyć wyspecjalizowanej firmie reklamowej, która powinna:

Kampanię promocyjną może przeprowadzić też dział reklamy firmy zleceniodawcy lub webmaster

5.6.1 Reklama

Sprzedaż reklam należy poprzedzić analizą, dotyczącą poziomu oglądalności i profilu osób, które wchodzą na stronę. Oglądalność, zwłaszcza na potrzeby reklamy, jest podawana w odsłonach (liczba dokumentów umieszczonych na serwerze WWW, otwartych przez internautów). Na rynku dostępna jest pokaźna liczba amatorskich i profesjonalnych programów, służących do prowadzenia statystyki odsłon. Im bardziej profesjonalny program, tym bardziej wyrafinowane informacje można uzyskać na temat osób odwiedzających konkretne strony.

Najprostsze bezpłatne rozwiązania typu Stat4You pozwalają na przeprowadzenie prostych wyliczeń statystycznych, dotyczących np. liczby odsłon (impressions, page views), wizyt (visits, sessions), gości (unique visitors) itp. Bardziej wyrafinowane aplikacje, typu Webtrends czy Net Tracker, umożliwiają dokładne badanie użytkowników za pomocą plików cookie i szerokiej gamy predefiniowanych raportów. Dzięki nim będzie możliwe uzyskanie danych o liczbie użytkowników, którzy korzystają z serwisu np. raz w miesiącu, czasie ich pobytu, a także o stronach, na których są dowiązania do docelowego serwisu, ścieżkach poruszania się internautów po witrynie. W epoce reklamy targetowanej (ukierunkowanej) ważne jest, by jak najwięcej wiedzieć o użytkowniku, gdyż pozwoli to na precyzyjne kierowanie reklamy, dzięki czemu będzie ona bardziej skuteczna, a w niektórych przypadkach nawet przydatna internaucie. Reklamy będą bowiem emitowane zgodnie z zainteresowaniami konkretnych osób, dzięki czemu nie zdarzy się sytuacja, gdy np. piętnastolatek będzie zasypywany reklamami Mercedesa, a prezes banku - informacjami o nowych grach komputerowych.

Dla dużych serwisów i firm potrzebujących wnikliwej analizy najlepszym rozwiązaniem wydaje się hurtownia danych. W tym przypadku wszystkie informacje o ruchu na serwisie są zapamiętywane w rozbudowanej bazie danych. Informacje z bazy danych możemy uzyskać zadając pytania za pomocą wyspecjalizowanych narzędzi np. służących do rapor-towania obiektowego. Taki system oferuje największe możliwości, lecz ze względu na koszty jest

rozwiązaniem dla bogatych.


5.6.2. Reklamy w odsłonach czy na czas


Istnieją dwie opcje sprzedaży reklam w Internecie: na podstawie liczby odsłon bądź określając przedział czasowy (np. 10 tys. odsłon banera lub 2 tygodnie jego wyświetlania). Wybór zależy od statystyki odwiedzin strony. Gdy ruch na niej większy, bardziej opłacalna jest sprzedaż liczby odsłon. Specjaliści twierdzą, że już od poziomu 100 tys. odsłon miesięcznie należy zrezygnować ze sprzedaży reklam na określony czas ich wyświetlania. Ta opcja bowiem uniemożliwia sprzedaż większej liczby reklam, zwłaszcza wtedy, gdy liczba odsłanianych stron zwiększa się (co świadczy o reakcji internautów na modyfikowanie zawartości czy zmiany funkcjonalności serwisu, kampanie reklamowe i promocje itd.). Działania mające na celu zwiększanie liczby odsłon zależą w znacznej mierze od autorów witryny. A wzrost oglądalności strony wiąże się z perspektywą osiągania zysków w przyszłości

5.6.3 Formaty

Istotną sprawą jest wybór formatu reklam, które mają się pojawiać na stronie. Standa-ryzacją formatów reklamowych zajmuje się organizacja Internet Advertising Bureau (www.iab.net), która tworzy i rekomenduje standardy banerów i innych form reklamy on-line. Na stronach tej organizacji (jest także jej polska filia pod adresem www.iab.org.pl) znajdują się wszystkie aktualnie rekomendowane formaty. Oprócz tradycyjnego banera 468 x 60 pikseli czy przycisku 120 x 60 pikseli są tam formaty pop-upów czy skyscraperów. Choć działalność organizacji wzbudza kontrowersje (w efekcie witryna musi się dostosować do reklamy, a nie odwrotnie), to trzeba przyznać, że stworzenie uniwersalnych formatów reklam internetowych to idea zasługująca na poparcie. Standaryzacja umożliwia łatwe porównywanie skuteczności reklamy na różnych witrynach, a duże, sieciowe systemy emisji reklam (ad serwery) mogą zamieszczać reklamy praktycznie wszędzie bez konieczności zmiany formatu. Przyjęcie standardów IAB nie spowoduje, że nagle reklama przyniesie olbrzymie dochody, ale na pewno ułatwi ich osiąganie.


5.6.4. Sieci reklamowe

Inną istotną kwestią jest sposób emitowania reklam. Istnieją różne programy, opracowane na potrzeby konkretnych witryn, umożliwiające emitowanie reklam. W większości przypadków jednak nie oferują one tylu zaawansowanych funkcji, co rozwiązania komercyjne, czyli ad serwery (aplikacje zarządzające, obsługujące emisję oraz raportujące wyświetlanie kampanii reklamowych). Na zakup rozwiązań profesjonalnych jednak mogą sobie pozwolić największe portale. Użytkownicy mniej zasobni finansowo mogą natomiast skorzystać z oferty firm, które dysponują oprogramowaniem do emitowania, raportowania i targetowania reklamy. Za korzystanie z tych usług sieci reklamowe pobierają prowizję od wpływów lub miesięczną opłatę. Duże sieci korzystają ze specjalistycznego, kosztownego oprogramowania firm DoubleClick czy Engage, w przypadku Polski jest to ad serwer Grendel. Sieci reklamowe utrzymują kontakty z brokerami lub agencjami reklamowymi, związanie się z tego typu firmą powinno więc przynieść korzyść. Sieci są również zainteresowane pozyskaniem jak największej liczby witryn, wówczas bowiem będą emitować reklamy do wielu odbiorców o różnych preferencjach.


5.6.5. Sponsor

Dobrym pomysłem, zwłaszcza dla małego serwisu, jest znalezienie sponsora dla witryny, który w zamian za zamieszczenie w widocznym miejscu informacji o sobie, sfinansuje utrzymanie strony. Firmy często stosują ten sposób promocji na witrynach, które informują o dystrybuowanych przez nie produktach czy prowadzą kluby hobbystyczne lub tzw. lojalnościowe. Strony o telefonach komórkowych, filmach, grach to świetne miejsce dla sponsoringu. Sponsorami w większości przypadków są duże firmy, dlatego poszukiwanie swego rodzaju mecenasa należy rozpocząć właśnie wśród tuzów rynku. Oczywiście redakcja serwisu musi zachować pewną samodzielność i obiektywizm, nie podporządkowując w 100% treści witryny wymogom sponsora. Jeśli jego wpływ na zawartość serwisu nie zostanie wyraźnie określony, może to spowodować stratę i odwiedzających, i sponsora.


5.6.6. Treść

Sprzedaż treści jest ciekawym rozwiązaniem dla tych serwisów, za którymi stoją potężne zespoły redakcyjne. Właściwie można pokusić się o stwierdzenie, że jest to sposób na zarabianie pieniędzy wyłącznie w przypadku wydawnictw lub wyspecjalizowanych agencji informacyjnych. Warto jednak przeanalizować ten rynek, gdyż są jeszcze kategorie informacji, które można z dużym zyskiem sprzedać. Dużym portalom wciąż brakuje atrakcyjnej zawartości i na pewno z chęcią taką pozyskają. Model kupowania treści od wyspecjalizowanych wydawców jest kluczem do sukcesu wielu portali, które dzięki temu nie muszą tworzyć rozbudowanego

zespołu redakcyjnego.

5.6.7. Inkubatory i fundusze podwyższonego ryzyka

Inkubator czy venture capital to propozycja dla witryn rozpoczynających działalność, zwłaszcza tych na etapie pomysłu i tworzenia biznes-planu. Czasami wystarczy właściwie przedstawiony pomysł, który zainteresuje decydentów z inkubatora lub funduszu. Wiele dobrych projektów nie przechodzi w fazę realizacji, ponieważ często prezentacja pomysłu osobom, które mają sfinansować to przedsięwzięcie, nie została przeprowadzona profesjonalnie. Zarządzający funduszami wysokiego ryzyka to ludzie zdecydowani i dobrze znający rynek. Inwestując w przedsięwzięcia na wczesnym etapie rozwoju, biorą pod uwagę wiele zagrożeń, które mogą spowodować jego fiasko. Wysoki udział w potencjalnych zyskach oraz możliwość wpływu na rozwój inkubowanego serwisu rekompensują funduszowi straty w innym obszarze.


5.6.8. Giełda

Wejście na giełdę jest celem dla tych przedsięwzięć, które mają już solidne podstawy finansowe. Tej drogi jednak nie można polecić firmom początkującym, lecz tym, które już okrzepły na rynku i potrzebują pieniędzy na dalszą ekspansję. Obecność na giełdzie wiąże się z prestiżem i ogromnymi możliwościami finansowania przedsięwzięć. Lata giełdowej prosperity spowodowały, że amerykańska gospodarka osiągnęła tak wysoki poziom. Bez finansowania giełdowego, czyli pozyskiwania funduszy z rynku, wiele przedsięwzięć byłoby skazanych na porażkę. Obecnie spora część analityków rynku twierdzi, że hossa internetowa była wywołana

sztucznie, dlatego teraz musi przyjść kryzys.


Wybór sposobu finansowania zależy od indywidualnych przypadków. Ważne jest określenie poziomu rozwoju przedsięwzięcia i możliwości pozyskiwania kapitału. Skorzystanie z pomocy inkubatora czy funduszu wysokiego ryzyka z jednej strony oznacza dzielenie się z nim pokaźną częścią zysku, z drugiej jednak ryzyko ponoszą właśnie inwestorzy. Należy też zdawać sobie sprawę, że by osiągać zysk, najpierw trzeba zainwestować kapitał.

Rozdzial 6

Błędy i porady

6.1. Siedem grzechów głównych

1.Optymalizacja kodu.

Tworząc stronę WWW, należy kierować się poprawnością pisanego kodu, a nie tym, co widać w okienku przeglądarki. Dlatego powinny być stosowane edytory tekstowe HTML, które pozwalają na znacznie większą kontrolę nad kodem niż edytory graficzne. W przypadku edytora graficznego, pracującego w trybie WYSIWYG, warto zwrócić uwagę na to, czy umożliwia on wprowadzanie na bieżąco poprawek optymalizacyjnych bezpośrednio w kodzie HTML. Do sprawdzenia poprawności kodu strony warto posłużyć się specjalizowanymi narzędziami, zwanymi walidatory, typu CSE HTML Validator (www.htmlvalidator.com) czy polski Tagik 3000 (http://ezhtml.byd-net.com.pl/doklejki.html#tagik). Z pomocą mogą też przyjść usługi online'owe, takie jak Validator W3 Org - http://validator.w3.org, BluePage - http://bluepages.atelier.pl/html.shtml. Można również poddać weryfikacji arkusze styli kaskadowych, w czym przydatny okaże się CSS Validator - http://jigsaw.w3.org/css-validator/. Powszechny grzech webmasterów polega na tworzeniu strony, której kod jest poprawnie interpretowany wyłącznie przez jedną przeglądarkę - zazwyczaj Internet Explorer. Niemal monopolistyczna pozycja przeglądarki firmy Microsoft sprawiła, że wiele osób traktuje HTML nie jak język opisu stron webowych, lecz jako język do tworzenia stron pod kątem IE. Niezgodność stworzonych stron z pozostałymi przeglądarkami, np. Netscape Navigator lub Opera, są częstym błędem webmasterów. A przecież HTML to ponadplatformowy język, umożliwiający przekazywanie informacji, które można przeczytać niezależnie od rodzaju przeglądarki i platformy systemowej. W większości przypadków można zbudować stronę w taki sposób, by była ona poprawnie wyświetlana przez różne przeglądarki (choć czasami mogą występować pewne różnice w wizualizacji niektórych elementów).

Netscape Navigator i Internet Explorer z różnych przyczyn przedstawiają te same znaczniki w nieco odmienny sposób, dlatego obowiązkiem profesjonalnego webmastera jest oglądanie strony w trakcie jej tworzenia pod co najmniej tymi dwiema aplikacjami. Mimo że Navigator działa nieco wolniej w rysowaniu stron niż Explorer, to jednak jego niewątpliwą zaletą jest rygorystyczne przestrzeganie składni kodu, co ma pozytywny wpływ na jego jakość (każde potknięcie, np. nie zamknięcie znacznika, może spowodować błędy podczas rysowania strony lub jej nie wyświetlenie). Należy mieć również świadomość tego, że przeglądarka tego samego producenta, np. MS Internet Explorer, funkcjonuje nieco inaczej w zależności od tego, czy jest to wersja działająca na komputerze PC czy Macintosh. W prawdzie różnice są niewielkie, przede wszystkim w obsłudze warstw (layers), ale mogą zniszczyć misternie "tkaną" stronę. Rozdzielczość ekranu w systemie Mac OS wynosi 72 ppi (pixel per inch - piksel na cal) i różni się od rozdzielczości w systemie Windows, która domyślnie wynosi 96 ppi. Oznacza to, że 12-punktowa czcionka na Macintoshu ma 12 pikseli, w Windows już 16 pikseli. Różnica ta powoduje, że to, co jest małe i zgrabne w Windows, na Macu nie będzie możliwe do odczytania. Rozwiązaniem jest używanie rozmiarów czcionek w pikselach (pozwalają na to style kaskadowe CSS), ponieważ niezależnie od wersji systemu, platformy, rozdzielczości ekranu czy przeglądarki, piksele zawsze pozostają pikselami. Aby dowiedzieć się więcej o arkuszach styli, warto odwiedzić serwis konsorcjum World Wide Web, zatwierdzającego standardy języka opisu stron webowych - www.w3.org i www.w3.org/style/css. Należy też pamiętać, że ustawienia nasycenia kolorów są inne w tych systemach. W przypadku komputera Macintosh gamma ma wartość domyślną 1,8 i daje jaśniejszy obraz niż standardowe ustawienia Windows. Jeśli ta kwestia nie zostanie uwzględniona na etapie projektowania strony, to ładne i kontrastowe obrazki będą na Macu widziane jako wyblakłe i nijakie. I na odwrót - delikatne kolory "ziemi" widziane w systemie Mac OS pod Windows okażą się brudne. Aby temu zaradzić, należy posłużyć się takimi programami, jak Adobe Photoshop czy Macromedia Fireworks. Zawierają one specjalne mechanizmy dopasowywania kolorystyki do międzysystemowych różnic w ustawieniach gammy kolorów. Istotne może być także obejrzenie projektu strony na kilku różnych monitorach, w tym co najmniej jednym analogowym i jednym ciekłokrystalicznym. Różne rodzaje ekranów także dają różne efekty wyświetlania tego samego obrazu.


2. Dobór odpowiedniej grafiki na strone internetową.

W tym celu można posłużyć się obszernym zestawem programów graficznych np. Adobe Photoshop (www.adobe.com), Corel Photo-Paint (www.corel.com), Macromedia Fireworks (www.macromedia.com), Micrografx Publisher (www.micrografx.com). Jednak oprócz kosztownych aplikacji istnieje też możliwość skorzystania z tańszych, sharewarowych narzędzi, takich jak JASC Paint Shop Pro 7.0 (www.pc-world.com.pl/ftp/pc/programy/0469.html). Programy te mają również opcję cięcia (slice) graficznego projektu strony, a niektóre z nich (np. Adobe Image Ready - edytor grafiki sieciowej dystrybuowany razem z Adobe Photoshop oraz Paint Shop Pro 7.0) natychmiast tworzą odpowiedni kod HTML.

W trakcie tworzenia elementów graficznych, które znajdą się na stronie, należy pamiętać o optymalizacji zapisywanych plików. Choć przeglądarki webowe obsługują trzy formaty graficzne - GIF, JPG i PNG - to wciąż najbardziej popularne są dwa pierwsze. Format GIF powinno się stosować przede wszystkich do zapisywania małych obrazków i grafik, zarówno statycznych, jak i animowanych, w maksymalnie 256 kolorach, oraz grafiki z dużymi obszarami jednolitego koloru. Aby upewnić się, że grafika zostanie wyświetlona poprawnie przez przeglądarki dominujące na rynku: Netscape Navigator i Internet Explorer niezależnie od platformy (PC czy Mac), należy podczas tworzenia i zapisu używać tzw. bezpiecznej palety (web safe palette), która składa się z 216 kolorów. Do optymalizacji obrazków w formacie GIF można użyć standardowych programów graficznych i dedykowanych aplikacji Absolute GIF Optimizer (www.pcworld.com.pl/ftp/pc/programy/0687.html) SuperGIF i PhotoGif (www.boxtopsoft.com) oraz usług online, np. GIF Cruncher (www.spin-wave.com).


Do prezentowania na stronach WWW fotografii i grafiki, zawierającej płynne przejścia tonalne, można wykorzystać format JPG. Wprawdzie paleta barw obsługiwana przez JPG wynosi 16 mln kolorów (24 bity), to jednak dzięki odpowiedniej optymalizacji, przy zachowaniu jakości, skutecznie (nawet kilkakrotnie) można zmniejszyć wielkość wynikową pliku. Do zoptymalizowania rozmiarów plików w tym formacie w większości przypadków wystarczą opcje, w które są wyposażone programy graficzne. Nic nie stoi też na przeszkodzie, by posłużyć się wyspecjalizowanymi programami, np. ProJPEG (www.boxtop-soft.com).


Istotną sprawą podczas projektowania strony jest zestaw kolorów, jaki ma być użyty. Niewłaściwe zestawienie koloru czcionki i tła może irytować odbiorcę, który zostanie zmuszony do wpatrywania się w niewyraźny tekst. Zestawienie jaskrawozielonego tła z żółtymi literami przyniesie znacząco gorszy efekt niż białego tła z granatowymi znakami. Należy sobie uświadomić, że barwy dopełniające (np. czerwony i zielony) nie współgrają ze sobą, podobnie jest w przypadku gdy kolory są w zbliżonej tonacji. Wybrana gama kolorystyczna powinna być stosowana konsekwentnie na wszystkich stronach serwisu.

3. Animacje flashowe.

Od dawno panuje moda na budowanie stron WWW w technologii Flash. Są one wprawdzie bardziej widowiskowe i lepiej skalują się w oknie przeglądarki dostosowując się do rozdzielczości ekranu, jednak wadą ich jest stosunkowo długi czas potrzebny na pobranie strony. Ponadto przeglądarki, które nie mają odpowiednich wtyczek (plug-inów) umożliwiających obsługę tego formatu, albo wyświetlają komunikat o potrzebie pobrania odpowiedniego plug-inu, albo nie pokazują nic. Dlatego w przypadku tworzenia serwisu we Flashu należy przygotować wersję witryny, wykonaną w HTML-u, by każdy internauta miał możliwość wejścia na stronę. Jednocześnie używając animacji flashowych do przyozdobienia strony, zalecane jest wykonanie ich odpowiedników w formacie .gif, aby - niezależnie od stosowanego programu - internauta ujrzał pełną stronę, bez "dziur" po nie załadowanych grafikach (reguła ta dotyczy także banerów).

4. Przestrzeganie standartów.

W polskim Interencie przyjęło się używanie polskich znaków w stronie kodowej ISO-8859-2 ( ISO Latin 2 ). W nagłówku meta trzeba wpisać: „charset= ISO-8859-2".Wpis ten poprawi wyświetlanie strony, pojawią się polskie litery. Autor strony nie może wybrać kodowania - zastosowanie innego jest po prostu błędem i będzie prowadzić do niepoprawnego wyświetlania polskich znaków przynajmniej u części odwiedzających. Trzeba też pamiętać o umieszczeniu odpowiedniej informacji o zestawie znaków w nagłówku strony. Jeżeli ktoś używa nieformalnego standardu Windows-1250, koniecznie trzeba podać deklarację strony kodowej w nagłówku dokumentu, tak samo zresztą, jak w przypadku standardu ISO. Jeśli strony zostały opracowane wczesniej w standardzie Windows, można je przekonwertować - na rynku jest kilka dobrych polskich narzędzi, np. Ogonki 97.

5. Języki skryptowe

JavaScript jest językiem o sporych możliwościach, ale powinien być wykorzystywany inteligentnie. Nie jest konieczne wstawianie na stronę skryptu z zegarkiem czy alertem "Witaj na moich stronach", natomiast z całą pewnością warto zastosować takie skrypty, jak ostrzeganie czytelnika, że dana strona jest tylko ramką w szerszej całości, albo uwalnianie swojej strony z cudzych ramek. Równie przydatny może być skrypt kierujący użytkownika na stronę dostosowaną do posiadanej przez niego przeglądarki, jeśli decydujemy się na takie rozwiązanie. Stosowanie języka VB Script należy ograniczyć do tych witryn, które są przeznaczone dla posiadaczy Internet Explorera. Sytuacja taka ma miejsce np. w zakładowych intranetach, gdy pracownicy firmy są z czysto praktycznych przyczyn wyposażeni w przeglądarkę Microsoftu. Oczywiście rośnie znaczenie języków skryptowych typu server-side, które automatyzują szereg działań. Do klasycznego CGI dołączyły w ostatnich latach takie rozwiązania, jak np. ColdFusion, Active Server Pages, PHP czy Java Server Pages. Przegląd typowych rozwiązań publikowaliśmy w kilku ostatnich numerach PCkuriera. W zastosowaniach biznesowych są to rozwiązania nie tylko zalecane, ale w większości przypadków wręcz konieczne.

6. Ramki

Jednym z najbardziej dyskusyjnych rozwiązań technicznych stron WWW są ramki, które zostały wprowadzone przez firmę Netscape w jej Navigatorze, a potem sukcesywnie akceptowane przez wszystkie liczące się przeglądarki. Nawet tekstowy Lynx dostrzega istnienie ramek, choć realizuje je w nieco odmienny sposób, podsuwając listę dokumentów do wczytania.

Sama idea ramek jest słuszna. Ich celem jest stworzenie układu, który służyłby przede wszystkim systemowi nawigacyjnemu oraz celom prezentacyjnym. W pierwszym przypadku mamy wygodny dostęp do niezmiennego spisu treści witryny, który steruje wyświetlaniem zawartości w głównej ramce serwisu, w drugim - możemy wykorzystać ramkę jako miejsce dla stale widocznego logo i podstawowych informacji, względnie bannerów reklamowych. Krytycy ramek podkreślali zawsze, że jest to element trudny w konstrukcji i powoduje częste zamieszanie na stronach. Argument ten wydaje się tracić na znaczeniu, gdyż coraz rzadziej spotyka się błędy. Większe znaczenie przypisać można raczej ich nie zawsze poprawnemu działaniu w żywej Sieci - nierzadko przeglądarka "nie dociąga" ramek, zwłaszcza przy wykorzystaniu narzędzi nawigacyjnych samego programu. Jest to szczególnie widoczne, gdy na stronie jest kilka ramek, wyświetlane w nich strony są "ciężkie", a ruch na łączach duży. W grę wchodzi także dominująca estetyka. W ostatnich dwóch latach w modę weszły strony o układzie gazetowym, oparte na tabelach, w których ramki w zasadzie nie mają racji bytu. Po okresie fascynacji ramkami następuje wyraźny odwrót od nich. Jestem daleki od zniechęcania do nich i twierdzę, że ramki sprawdzają się doskonale jako narzędzie nawigacji, ale zalecałbym ich stosowanie na stronach stosunkowo prostych i niezbyt dużych objętościowo, z ograniczeniem liczby ramek do dwóch.

7. Nawigacja

Przy projektowaniu witryny należy zadbać o to, by nawigowanie po serwisie było intuicyjne i nie wymagało od odwiedzającego ponadprzeciętnego ilorazu System nawigacji musi odpowiadać tematyce witryny, twórcy serwisów artystycznych mogą sobie pozwolić na więcej niż autorzy site'ów biznesowych. Spójny i jednorodny system nawigacji zdecydowanie wpływa na komfort korzystania z serwisu. Przyciski nawigacyjne i informacyjne muszą być takie same na każdej podstronie, by odwiedzający mógł łatwo zorientować się co do tego, jak poruszać się po stronie. Należy więc tak opracować witrynę, aby przyciski bądź tekstowe linki nawigacyjne były dostępne z każdej podstrony - prowadząc do głównych sekcji czy kolejnych podstron. Nie można zapomnieć o umożliwieniu użytkownikom powrotu do strony głównej z każdego miejsca serwisu. Planując stworzenie obszernej witryny o rozbudowanej strukturze, wskazane jest zamieszczenie, choćby najprostszej tekstowej, mapy serwisu. Tu przydatne okazują się wyspecjalizowane programy typu Wisebot Pro 2.0 (www.pcworld.com.pl/ftp/pc/programy/0288.html). Do weryfikacji poprawności połączeń stron i zminimalizowania możliwości wystąpienia tzw. martwych linków zarówno w obrębie tworzonego serwisu, jak i dowiązań do zewnętrznych witryn, warto skorzystać z opcji udostępnianych przez edytory HTML, np. Allaire HomeSite 4.5 (www.pcworld.com.pl/ftp/pc/programy/0173.html), Macromedia Dreamweaver (www.macromedia.com) lub niezależnych programów Linkbot Pro 5.5 (www.pcworld.com.pl/ftp/pc/programy/0287.html).

6.2. Etykieta webmastera

Tworzenie serwisu internetowego może być fascynującą zabawą. Dla jednych jest po prostu przyjemnością sam akt tworzenia. Dla innych najważniejsza jest nagroda, czyli pokazanie strony w Internecie. Dzisiejszy świat jest już zupełnie inny niż jeszcze dziesięć lat temu. Komputer osobisty, Internet i swoboda wyrażania opinii, których było pozbawione poprzednie pokolenie, są szerokim oknem na świat, które trzeba jak najlepiej wykorzystać.

Tworzenie stron WWW nie jest wcale trudne i w zasadzie po tygodniu nauki można pokazać w Sieci zupełnie dobrze wyglądającą stronę. Należy trzymać się jednak kilku podstawowych zasad.

Na początku należy uważnie przeczytać zbiór zasad, opracowany przez usługodawcę internetowego. Należy je zaakceptować w momencie zawarcia umowy. Jeśli Ci nie odpowiadają, pójdź do innego. Rozsądnie jest założyć, że "internet provider" jest poważną instytucją i lepiej od nas wie, jakie są zasady publicznego zaistnienia w Internecie.

Bardzo ważną rzeczą jest honorowanie praw autorskich. Serwis początkującego webmastera składa się czeęsto z informacji o nim samym i odsyłaczy (hiperłączy, zgodnie z ustaloną terminologią Microsoftu) do cudzych stron, które z jakichś powodów uznał za interesujące. Nie jest to w żadnej mierze naruszenie niczyich praw. Wręcz przeciwnie - to bezpłatna reklama. Należy wystrzegać się natomiast kopiowania innych stron i wstawiania ich do swojego serwisu.

Nie należy się bać konkurencji. Tematów są tysiące, a stron miliony, więc prawie na pewno w Sieci znajdą się inni, którzy zajmują się tym samym tematem. World Wide Web jest wielkim puzzlem, pracowicie układanym przez niezliczone rzesze webmasterów. Jest rzeczą oczywistą, że Microsoft nie będzie dawać odsyłacza do Netscape'a, a i ten ostatni nie będzie zbyt łaskawy dla swojego konkurenta. Ale te dwie firmy walczą o dominację na rynku. Większość stron w Internecie to jednak dzieła amatorskie, których autorzy nie muszą ze sobą konkurować. Informacyjna wartość strony zależy nie tylko od tego, co sam autor zechce na niej napisać, ale i od starannie dobranego zestawu odsyłaczy.

Ważna jest również poprawność językowa. Webmasterzy to na ogół ludzie młodzi, często ze szkół średnich, którzy dorastali w ostatnich latach, w dobie wielkiej ekspansji nowoczesnych mediów. Mają często wiedzę techniczną, ale zabrakło im jednej bardzo ważnej rzeczy - oczytania, którego doświadczyło poprzednie pokolenie, nie bombardowane telewizją kablową i wideo. Wielokrotnie spotykamy w Sieci strony, których autorzy są najwyraźniej na bakier z ortografią ojczystego języka.

Istotną kwestią jest odpowiedzialność za swoją stronę. Jeśli chce się zainteresować swoich gości, należy nie tylko zachować poprawność techniczną, ale i aktualność.Należy sprawdzić, czy starannie zebrane hiperłącza są aktualne.

Można korzystać z wielu programów darmowych, shareware'owych czy komercyjnych i starannie wybierać najlepszy dla siebie zestaw. Ze swojej praktyki mogę polecić m.in. dobre edytory tekstowe (polskie Pajączek, Tiger95 i Hedit, amerykańskie HomeSite, HotDog, WebEdit) i graficzne (FrontPage 98, FrontPage Express, CorelWebMaster Suite, NetObjetcs Fusion).

6.3. Uwagi techniczne

Doświadczeni projektanci wiedzą, że na wstępnym etapie prac nic nie zastąpi kartki papieru i ołówka. Pozwalają szybko naszkicować schemat graficzny stron i określić, jakie strony pojawią się w pierwszej odsłonie witryny. Podstawą musi być w miarę precyzyjne rozeznanie kręgu odbiorców - jest oczywiste, że konstrukcja i wygląd witryny są inne, gdy kierujemy ją do szerszej publiczności, a inne, gdy odbiorcami są np. wyłącznie firmy - nasi kontrahenci. W ciągu kilku pierwszych lat rozwoju World Wide Web badania jej demograficznej struktury były skromne i sprowadzały się do przyczynków. Wejście biznesu wymusza solidniejsze badania, gdyż firmom rozważającym możliwość wprowadzenia własnej witryny w kategoriach opłacalności nie jest obojętne, jaki jest rozkład płci, wieku, wykształcenia i wielu innych wyznaczników potencjalnych odbiorców. Wiele informacji można uzyskać z ogólnie dostępnych źródeł, ale za dokładniejsze, bardziej ukierunkowane badania trzeba zazwyczaj zapłacić. W przypadku firm sięgających po rynki zagraniczne (a ma to miejsce coraz częściej), zasadne jest uwzględnienie m.in. języka - jednym ze skutków jest przynajmniej konieczność opublikowania podstawowych informacji o firmie w jednym z języków kongresowych - jest nim zazwyczaj język angielski. Warto śledzić informacje statystyczne, w tym i demograficzne, udostępniane przez zajmujące się tym serwisy (ramka). Dobrym źródłem informacji mogą być też ankiety, do których wypełniania trzeba jednak w jakiś sposób zachęcić, gdyż czytelnicy stron na ogół stronią od podawania informacji o sobie, jeśli nie wiąże się to z uzyskaniem jakichś korzyści, choćby interesujących informacji.

Przed przystąpieniem do tworzenia strony WWW, którą będą oglądać tysiące internautów, potrzebny jest dobry pomysł i plan działania. Dlatego zanim zostanie uruchomiony ulubiony edytor HTML, warto zastanowić się nad tym, co i jak ma być pokazane w sieci. Na pewno muszą to być aktualne, interesująco zredagowane informacje. Fantazyjna oprawa graficzna strony może zachęcić internautów do jej oglądania, lecz witryna pozbawiona oryginalnej treści na pewno na dłużej ich nie zatrzyma. Warto więc przyjrzeć się witrynom o podobnej tematyce, istniejącym w Internecie. Wiedza ta będzie przydatna w poznaniu poziomu prezentowanego przez innych twórców i przygotowaniu serwisu co najmniej tak dobrego, a nawet lepszego. Przed rozpoczęciem zasadniczej webmasterskiej pracy wskazane jest wykonanie makiety przyszłego serwisu, która pomoże zaplanować funkcjonalność witryny. Wówczas znacznie łatwiej dostrzec pewne uchybienia czy niedociągnięcia, takie jak braki w systemie nawigacji lub niezrozumiały podział witryny na sekcje. Makietę serwisu możne wykonać zarówno za pomocą edytora tekstu, np. Microsoft Word (http://www.microsoft.com) czy Corel Word Perfect (http://www.corel.com), który obsługuje hipertekst, jak i kartki papieru. Bardziej zaawansowani użytkownicy mogą w tym celu posłużyć się programami do tworzenia elektronicznych prezentacji, np. Microsoft Power Point lub Corel Presentations. Wstępne zaplanowanie najistotniejszych sekcji przyszłej witryny oraz rozmieszczenia elementów na każdej z nich jest etapem często bagatelizowanym i przez amatorów, i profesjonalistów. Makieta jest jednak nieoceniona podczas tworzenia serwisu, często też jest wymagana do zatwierdzenia projektu przez zleceniodawcę.


Nawet najciekawsze pod względem graficznym strony, lecz pozbawione treści nie są w stanie na dłużej zatrzymać internauty. Podobnie jako interesująca zawartość zaprezentowana na nudnym, szarym tle również zniechęci odbiorców. Należy więc dokładnie przemyśleć wygląd (design) strony i przy użyciu programów graficznych wykonać jej oprawę graficzną (layout) wraz ze wszystkimi, nawet najdrobniejszymi składnikami, tj. elementami typu: przyciski, logotypy, grafiki nawigacyjne i informacyjne itd.

Dobrym zwyczajem jest uprzedzanie - przy odsyłaczu do innej strony, pliku programu lub zarchiwizowanego dokumentu czy obrazka - jak wiele kodu (w kilobajtach) trzeba będzie wczytać. W przypadku bardzo długich dokumentów umieszczonych na jednej stronie, które ciągną się niemal w nieskończoność, warto zastosować paginację czy podział tekstu na mniejsze, w miarę równe części. Sprawia to, że dokument staje się bardziej czytelny i przejrzysty, a ponowne zlokalizowanie interesującego fragmentu jest znacznie prostsze. Należy przy tym pamiętać o udostępnieniu również jego nie pociętej wersji, którą jest łatwiej wydrukować lub przesłać.

Pliki graficzne, animacje i dźwięk znacznie zwiększają objętość stron, więc bez wyraźnej potrzeby nie trzeba ich stosować. Jest to błąd początkujących (i nie tylko) webmasterów, którzy braki w treści starają się zamaskować fantazyjną oprawą multimedialną, mającą zwabić na ich strony czytelników. Odwiedzający strony szukają na nich przede wszystkim treści, a nie fantasmagorii w True Colorze. Przykładem umiaru były zawsze witryny akademickie, których oprawa graficzna bywa na ogół wprost spartańsko skromna - w tym środowisku wręcz nie wypada epatować użytkownika multimediami, a barokowy przepych strony jest traktowany jak objaw złego gustu. Oczywiście trudno całkowicie zrezygnować z grafik, gdyż wchodzą one do kanonu estetyki, ale sugeruję raczej stosowanie małych ikonek, jak spotykane często wizerunki drukarek, poczty elektronicznej czy dyskietki. Umiar jest ze wszech miar zalecany i grafika powinna mieć charakter jak najbardziej funkcjonalny i informacyjny, a nie ozdobny. Odsyłacze powinny mieć charakter tekstowy, a jeśli już stosujemy graficzne, niech będą jak najmniejsze.

Zalecane jest także stosowanie miniatur plików graficznych, będących odsyłaczami do ich pełnych wersji, szczególnie wtedy, gdy grafiki są informacją, a nie ornamentem. Decyzję o wczytaniu podejmuje wtedy samodzielnie czytelnik strony, którego nie zmusza się do wczytywania megabajtów niechcianych informacji.

Interesujące dla webmasterów dane oferuje stały serwis StatMarket, który zbiera dane z milionów stron zawierających narzędzie HitBox Tracker. Niestety, do niedawna serwis ten oferował pełny i darmowy przegląd wyników, natomiast od kilku tygodni usługa ta jest płatna. Pojawiają się jedynie przykładowe informacje zachęcające do subskrypcji. Tym niemniej dane pochodzące jeszcze z ostatniego kwartału 1999 roku są wystarczająco aktualne, aby na ich podstawie wyrobić sobie ogólne pojęcie o realiach Internetu. Informacje tego rodzaju mogą rzutować na założenia przyjmowane przy budowaniu stron, na techniczną charakterystykę projektu. Wśród przeglądarek internetowych zdecydowanie przoduje Internet Explorer, mający 76,4 proc. udziału, gdy Navigator ma już tylko 22,8 proc. Wersja MSIE 4.x ma 37,2 proc., MSIE 5.x 35 proc., natomiast Netscape 4.x ma 20,9 proc. JavaScript 1.2 i wyżej obsługuje 85,10 proc. przeglądarek, a co najmniej 85 proc. przeglądarek ma włączoną obsługę JS. Dominuje także system operacyjny Windows - 94,1 proc, przed Macintoshem - 2,9 proc. Windows 98 jest zdecydowanie na czele stawki, z udziałem 54,3 proc.

Jeśli chodzi o rozdzielczość ekranu, przeważa 800x600, dysponuje nią 53,9 proc. użytkowników, podczas gdy rozdzielczość 1024x768 ma obecnie tylko 28,1 proc. Zaskakuje wysoki udział 16-, 24- i 32-bitowego koloru na ekranach użytkowników - aż 90,1 proc., podczas gdy 256 kolorów ma jedynie 9,8 proc. Brakuje precyzyjnych danych dotyczących rynku polskiego. Konieczne jest wykorzystywanie cząstkowych danych statystycznych, szczególnie dotyczących wielkich serwisów, legitymujących się dużym ruchem, jak choćby portale.

Zakończenie

W dzisiejszych czasach technika, szczególnie komputerowa rozwija się w niewyobrażalnym tempie. W obliczu takiej sytuacji , nasuwa się pytanie, czy kiedykolwiek Polska nadąży w tej dziedzinie za Europą Zachodnią i Stanami Zjednoczonymi.
Informatyki nie można w żaden sposób porównać z innymi dyscyplinami nauki. Żadna inna dziedzina w historii ludzkości nie zmienia się w takim krótkim czasie i nie sprawia, iż poprzednie wynalazki błyskawicznie się starzeją. W sklepach nieustannie pojawiają się nowe wynalazki, które w taki czy inny sposób mają ułatwić życie człowiekowi. Poza tym unowocześniane są znane nam urządzenia takie jak drukarki, skanery, monitory i wiele innych. Ponadto komputeryzacja pojawia się w sprzętach, w których trudno jest nam sobie ją wyobrazić np. w sprzętach AGD. Wiele prywatnych firm i przedsiębiorstw powoli przystosowuje się do najnowszych wymogów światowych, zakupując sprzęt najwyższej klasy za dziesiątki tysięcy złotych. Jednak państwowe instytucje nadal kuleją w rozwoju informatycznym, czego przykładem może być ZUS, który od kilku lat męczy się z skomputeryzowaniem swojego zakładu. Niestety Polski jeszcze bardzo długo nie będzie stać na uzdrowienie tej chorej sytuacji, zważywszy na kłopoty z jakimi boryka się nasza gospodarka. Nadal , mimo nieustannych obietnic, nie wszystkie szkoły otrzymały nowoczesny sprzęt komputerowy do swoich pracowni. Kolejną ogromną przeszkodą, stojącą na drodze konsumentom w naszym kraju, są stosunkowo wysokie ceny zarówno komputerów osobistych, jego części, jak i oprogramowania. Dlatego wielu ludzi decyduje się na zakup tych rzeczy w nielegalnych źródłach, narażając się na grzywnę lub więzienie. Jednak wydaje się, iż policji wcale nie zależy na przeciwdziałaniu piratom i fałszerzom. Polska należy do nielicznych krajów na świecie, będących prawdziwym „El Dorado” dla ludzi zajmujących się tą branżą. Chyba największym kłopotem, z jakim muszą się uporać Polacy jest Internet. Mimo wielkiego powodzenia, jakim cieszy się globalna sieć w naszym kraju, ceny zarówno podłączenia, jak i użytkowania są jednymi z najwyższych. Nadal wiele osób zmuszona jest korzystać z łączy telefonicznych, jednak coraz częstsze są lokalne sieci internetowe tworzone przez małe społeczności. Sieci kablowe oraz dostawcy energii zapowiadają wykorzystanie ich okablowania do użytku Internetu, jednak nadal ich plany widnieją zazwyczaj tylko na papierze. Tak więc poprawy w branży Internetowej raczej szybko się nie można spodziewać. Informatyka, jako dziedzina wiedzy z pewnością w dużym stopniu będzie się rozwijać w Polsce, gdyż wśród nas wielu jest ambitnych i zafascynowanych komputerami młodych ludzi, którzy dążyć będą do osiągnięcia czegoś nowego. Jednak wszystko jak zwykle zależy od pieniędzy, spodziewać się można, że jak dotąd najnowszy sprzęt znajdziemy jedynie w prywatnych rękach.

We współczesnym świecie coraz ważniejszym narzędziem pracy staje się Internet. Ludzie na całym świecie za jego pośrednictwem pracują, dokonują zakupów, zarządzają swoimi kontami bankowymi, uczestniczą w aukcjach oraz komunikują się. Aby to wszystko mogła sprawnie funkcjonować nie wystarczy tylko strona WWW, zrobiona W HTMLu. Obecnie aby stworzyć firmę internetową potrzeba w pełni interaktywnej strony WWW. Do tego nie wystarczy sam HTML. Potrzeba również języków takich jak ASP, PHP, CGI, Java, zastosowanie baz danych. Do tego należy wszystko ładnie oprawić, wykorzystując np. posiadającą ogromne możliwości technologie Flash. Jednak strony WWW to nie wszystko. Aby móc bezpiecznie dokonywać transakcji w Internecie np. przelewów bankowych potrzeba czegoś co zapewniło by nam bezpieczeństwo, czegoś co uniemożliwiłoby otrzymanie ważnych informacje przez niepowołanego człowiek. W tym celu wynaleziono bezpieczne protokoły internetowe jak SSH czy SLL. Każda z tych technologii jest bezpośrednio lub pośrednio związana z techniką, gdyż aby mogły one działać potrzeba odpowiedniego sprzętu lub oprogramowania, które wymaga odpowiedniego sprzętu.

Jak widać w Internecie wykorzystywane są bardzo zaawansowane technologie, gdyż bez nich nie dałoby się po prostu wielu rzeczy udostępnić. Znowu okazało się, iż potrzeba jest matka wynalazku, gdyż na początku pojawiła się potrzeba, a potem ktoś stworzył narzędzie, które mogło zaspokoić tę potrzebę. Jednak trzeba być świadomym, iż opisane tu technologie za kilka lat (a może nawet miesięcy?) staną się przestarzałe, ponieważ ktoś wymyśli coś znacznie lepszego i bardzie funkcjonalnego.


Internet rozrasta się w tempie którego nikt nie przewidywał . Jest on siecią międzynarodową i dlatego nie jest przez nikogo sterowany ani kontrolowany rządy wielu państw starają się w różny sposób osiągnąć pewien stopień kontroli nad siecią w swoich własnych krajach , a główne koncerny medialne próbują zdominować rynek . Akacje kompanii Internetowych idą w górę , jednak należy pamiętać , że zaledwie kilku z tych organizacji działalność w Internecie przynosi dochód . Wielkie koncerny medialne są zirytowane sieciową demokracją - każdy może założyć sobie stronę WWW , a nawet zarejestrować swoją własną nazwę domeny za niewielką cenę . W ten sposób każdy staje się potencjalnym dostawcą informacji , co zagraża pozycji telewizji , radia i prasy jako monopolistów medialnych nie zależnie od tego jednak zawsze będzie w sieci zapotrzebowanie na odpowiedzialnych i rzetelnych dostawców informacji . Internet co prawda daje dostęp do „największej biblioteki świata” , jednak ogromna część zawartych to informacji jest nierzetelna , bądź nieprawdziwa . W ciągu ostatnich dziesięciu lat Internet przeszedł olbrzymie zmiany i powoli wychodzi z okresu burzliwego dzieciństwa . Nikt nie potrafi powiedzieć , jak będzie wyglądał na progu dorosłości .

Bibliografia

Mark Perrow ; „ Funkcjonalność stron internetowych ” Helion , 2002

Krzysztof Pikoń ; „ ABC Internetu.Wydanie III ” Helion , 2000

Tomasz Trejderowski ; „ Po prostu Internet. Techniki zaawansowane” Helion , 2002

Tammy Sachs; Gary R. McClain ; „ Podstawy projektowania stron internetowych ” Helion , 2002

Krzysztof Pikoń ; „ Po prostu tworzenie stron WWW ” . Helion , 2002

Jonathan Price, Lisa Price ; „ Profesjonalny serwis WWW ” Helion , 2002

David Crowder, Rhoda Crowder ; „Tworzenie stron WWW. Biblia ” Helion , 2002

Jennifer Niederst ; „Tworzenie stron WWW. Almanach ” Helion , 2002

Paweł Wimmer ; „ Zostań webmasterem ” Helion , 2002

Jarosław Zieliński ; http://www.winter.pl - Historia Internetu

Jarosław Rafa ; http://www.wsp.krakow.pl/papers/- Internet ależ to proste
Michał Szulowski , Paweł Pilarczyk , Artur Wyrzykowski , Maciej Koziński ; http://www.pckurier.pl

Adam Krasowski, Szymon Kurek ; http://www.webinside.net/


Źródło : Krzysztof Pikoń ; „ ABC Internetu.Wydanie III ” Helion , 2000

Michał Szulowski , Paweł Pilarczyk , Artur Wyrzykowski , Maciej Koziński ; http://www.pckurier.pl

Jarosław Rafa ; http://www.wsp.krakow.pl/papers/- Internet ależ to proste

Adam Krasowski, Szymon Kurek ; http://www.webinside.net/

Adam Krasowski, Szymon Kurek ; http://www.webinside.net/

Źródło: http:// www.windows.com/products/ie/

Źródło: http:// www.netscape.com

Źródło : Paweł Wimmer ; „ Zostań webmasterem ” Helion , 2002

Tammy Sachs; Gary R. McClain ; „ Podstawy projektowania stron internetowych ” Helion , 2002

Tomasz Trejderowski ; „ Po prostu Internet. Techniki zaawansowane” Helion , 2002

Jennifer Niederst ; „Tworzenie stron WWW. Almanach ” Helion , 2002

Źródło : Jennifer Niederst ; „Tworzenie stron WWW. Almanach ” Helion , 2002

http://www.macromedia.com/

Źródło: http://www.abobe.com/.

Jennifer Niederst ; „Tworzenie stron WWW. Almanach ” Helion , 2002

Jonathan Price, Lisa Price ; „ Profesjonalny serwis WWW ” Helion , 2002

http://www.microsoft.com/.

Źródło : http://www.creamsoft.com.pl/.

Źródło : http://www.allaire.com/products/homesite


Źródło : http://www.hotmetalpro.com/.

Źródło : http://www.adobe.com/

Źródło : http://www.jasc.com/

Źródło: http://www.gimp.org/.

Źródło : Tomasz Trejderowski ; „ Po prostu Internet. Techniki zaawansowane” Helion , 2002

Jonathan Price, Lisa Price ; „ Profesjonalny serwis WWW ” Helion , 2002

Źródło : Mark Perrow ; „ Funkcjonalność stron internetowych ” Helion , 2002

Źródło : Adam Krasowski, Szymon Kurek ; http://www.webinside.net/

Źródło :Jarosław Zieliński ; http://www.winter.pl - Historia Internetu

564

25



Wyszukiwarka