TS wyciag z Commera t 1

  1. Wprowadzenie

    1. Uzasadnienie potrzeby pracy w intersieciach.

Przesyłanie danych to podstawowe zadanie komputera. W świecie nauki sieci mają zasadnicze znaczenie, gdyż umożliwiają naukowcom przesyłanie programów i danych do odległych superkomputerów w celu ich przetworzenia oraz umożliwiają wymianę informacji z kolegami. Niestety większość sieci to niezależne twory, mające służyć określonej grupie użytkowników. Użytkownicy ci wybierają sprzęt stosowny do swoich problemów komunikacyjnych.

Przez ostatnich 15 lal technika na tyle się rozwinęła, że umożliwia połączenie wielu różnych sieci fizycznych, tak żeby funkcjonowały jako skoordynowana całość. Praca w intersieci (ang. internetworking) polega na przystosowaniu do siebie różnych, odmiennych bazowych rozwiązań sprzętowych, udostępniając sposób łączenia niejednorodnych sieci oraz zbiór konwencji komunikacyjnych. Technika intersieci „zasłania" szczegóły budowy i działania sprzętu sieciowego oraz pozwala komputerom na komunikowanie się (wymianę danych i informacji) niezależnie od fizycznych połączeń sieciowych.

(..) wszystko to było tak zaprojektowane, żeby zapewnić możliwość połączenia między maszynami o różnej architekturze, żeby było możliwe użycie prawie dowolnego sprzętu działającego na zasadzie komutacji pakietów oraz żeby mogły współpracować różne systemy operacyjne.

    1. Internetowe protokoły TCP/IP

W niniejszej książce rozważamy podstawowe zasady i pomysły, na których opiera się metodyka pracy w sieci złożonej, będące wynikiem działań wspieranych przez Advanced Research Project Agency ARPA)'. Organizacja ta zaproponowała zbiór standardów sieciowych, które określają szczegóły komunikacji między komputerami, oraz zbiór konwencji dotyczących łączenia sieci i wyboru trasy w sieci. Oficjalna nazwa brzmi: TCP/IP Internet Protocol Suite, a powszechnie jest określana jako TCP/IP (zgodnie z tym, jak nazywają się jej dwa główne protokoły). Rodzina protokołów TCP/IP może być używana do komunikacji w dowolnym zbiorze połączonych ze sobą sieci.

  1. Usługi w intersieciach

Duża część naszych rozważań na temat usług będzie skupiać się na standardach zwanych protokolarni. Protokoły, takie jak TCP i IP, ustalają zasady komunikacji. Opisują one szczegóły formatu komunikatów, sposób odpowiadania na otrzymany komunikat, określają też, jak komputer ma obsługiwać błędy lub inne nienormalne sytuacje. Najważniejsze tutaj jest to, że umożliwiają one rozpatrywanie zagadnień dotyczących komunikacji niezależnie od dowolnego sprzętu sieciowego. W pewnym sensie protokoły są tym dla komunikacji, czym algorytmy dla obliczeń. Algorytm umożliwia wyjaśnienie i zrozumienie wykonywanych obliczeń bez wkraczania w szczegóły zestawu instrukcji danego procesora. Podobnie protokół komunikacyjny pozwala na wyjaśnienie i zrozumienie systemu przesyłania danych bez zakładania szczegółowej wiedzy na temat danego sprzętu sieciowego.

Usługi w intersieciach na poziomie programu użytkowego

Z punktu widzenia użytkownika intersieć TCP/IP wygląda jak zbiór programów użytkowych, które wykorzystują sieć jako nośnik dla zadań komunikacyjnych. Na określenie zdolności różnych systemów do współpracy przy rozwiązywaniu problemów obliczeniowych używamy terminu współoperatywność (ang. interoperabiłity). Intersieciowe programy użytkowe reprezentują wysoki stopień współoperatywności.

Na poziomie sieci intersieć udostępnia dwa typy usług wykorzystywane przez wszystkie programy użytkowe.

Istnieje wiele standardów protokołów komunikacyjnych. Wiele z nich jest starszych niż Internet, pojawia się więc pytanie; „Dlaczego twórcy Internetu wymyślali nowe protokoły, skoro tak wiele międzynarodowych standardów już istniało?" Odpowiedź jest złożona, ale wynika z prostej zasady:

TCP/IP Internet Protocol Suite nie miał ignorować czy unikać istniejących standardów. Zaistniał on jedynie dlatego, że żaden z istniejących protokołów nie zaspokajał potrzeby współoperatywnego intersieciowego systemu komunikacyjnego.

  1. Przegląd bazowych technik sieciowych

    1. Dwa podejścia do komunikacji sieciowej

Sieci, niezależnie od lego, czy służą do łączenia miedzy sobą komputerów, czy też łączą komputery i terminale, można podzielić na dwa podstawowe rodzaje: sieci z komutacją obwodów (ang. circuit-swiiched) (czasami nazywane sieciami zorientowanymi na połączenie (ang. conneclion oriented) i sieci z wymianą pakietów (ang. packet-swisched) czasami nazywane sieciami nie korzystającymi z połączeń (ang. connectionless).

Działanie sieci z komutacją obwodów polega na tworzeniu dedykowanych połączeń (obwodów) miedzy dwoma punktami. Ta metoda jest np. wykorzystywana przez sieć telefoniczną USA. Zaletą metody komutacji obwodów jest gwarancja przepustowości łącza: po utworzeniu obwodu działanie sieci nie może spowodować zmniejszenia jego wydajności. Jedną z wad tej metody jest jej koszt: koszt istnienia obwodu jest stały, bez względu na ilość przesyłanych informacji. Oznacza to np., że za połączenie płacimy tyle samo niezależnie od tego, czy naprawdę rozmawiamy czy milczymy.

Sieci z wymianą pakietów, które są zwykle stosowane do łączenia komputerów, działają na zupełnie innej zasadzie. W takiej sieci dane, które trzeba przesłać, dzieli się na małe porcje nazywane pakietami i przesyła się je za pośrednictwem multipleksowanych szybkich łączy między komputerami. Pakiet, który zwykle przenosi jedynie kilkaset bajtów danych, zawiera informację identyfikacyjną, dzięki której sprzęt sieciowy wie, jak dostarczyć dany pakiet pod wskazany adres. Duży plik przesyłany między komputerami musi być podzielony na wiele pakietów, które są pojedynczo przesyłane przez sieć. Sprzęt sieciowy dostarcza pakiety pod wskazany adres, gdzie oprogramowanie składa je ponownie w jeden plik. Zasadniczą zaletą wymiany pakietów jest możliwość równoczesnej obsługi wielu połączeń między komputerami- a łącza są współdzielone przez wszystkie pary porozumiewających się komputerów. Oczywistą wadą jest natomiast zmniejszanie się przepustowości połączenia między każdymi dwiema maszynami wraz ze wzrostem obciążenia sieci. Oznacza to, że gdy sieć z wymianą pakietów ulega przeciążeniu, to korzystające z niej komputery muszą czekać przed wysłaniem kolejnych pakietów.

Sieci z wymianą pakietów zyskały ogromną popularność. Powody, dla których tak się stało, to mały koszt i dobra wydajność. Sprzęt sieciowy może być wykorzystywany przez wiele maszyn jednocześnie, potrzeba też mniej połączeń, co zmniejsza koszty. Inżynierowie opracowują coraz szybszy sprzęt sieciowy, przepustowość jest więc zwykle wystarczająca. Tak wiele sieci korzysta z wymiany pakietów, że w dalszej części tej książki, używając słowa sieć, będziemy zawsze mieć na myśli sieć z wymianą pakietów.

    1. Rodzaje sieci komputerowych

Sieci pakietowe, obejmujące swoim zasięgiem znaczne obszary geograficzne (np. USA), różnią się zasadniczo od sieci o małym zasięgu (np. pojedynczego pokoju). Aby ułatwić opis różnic w przepustowości i przeznaczeniu, sieci działające z wymianą pakietów dzieli się często na dwie kategorie: sieci rozległe (WAN) i sieci lokalne (LAN). Nie ma jednak formalnych definicji sieci rozległych i lokalnych, producenci sprzętu i oprogramowania stosują te pojęcia w sposób nieformalny, aby pomóc klientom w odróżnianiu technik.

Sieci WAN, nazywane czasami sieciami dalekosiężnymi (ang. long-haul network), zapewniają łączność na duże odległości. Sieci WAN są zwykle wolniejsze od sieci LAN i mają znacznie większe opóźnienia między połączeniami.

Technika LAN zapewnia najszybszą łączność między komputerami, ale nie umożliwia łączenia ze sobą odległych maszyn (typowo: jeden budynek lub niewielki campus). Dzięki małemu zasięgowi sieci te mają znacznie mniejsze opóźnienia niż sieci WAN.

W przypadku sieci LAN każdy komputer jest zwykle wyposażony w interfejs sieciowy, który łączy komputer bezpośrednio „z nośnikiem informacji" (kablem miedzianym lub przewodem koncentrycznym). Często sama sieć jest pasywna, a sygnały elektryczne są generowane i odbierane przez interfejsy sieciowe w połączonych komputerach.

W przypadku techniki WAN sieć składa się zwykle z szeregu skomplikowanych komputerów nazywanych jednostkami wymiany pakietów, połączonych za pomocą łączy komunikacyjnych i modemów. Rozmiar sieci można powiększać, dodając nowe jednostki wymiany pakietów i linie komunikacyjne. Przyłączenie komputera użytkownika do takiej sieci polega na dołączeniu go do jednej z jednostek wymiany pakietów. Każda taka jednostka występująca wzdłuż linii sieci wprowadza własne opóźnienie przy odbieraniu pakietu i wysyłaniu go do następnej jednostki. Wobec tego im większa jest sieć WAN, tym wolniej są w niej przesyłane informacje.

Adresy sprzętowe

W każdej technice sieciowej jest określony mechanizm adresowania, którego używają komputery w celu określenia miejsca, do którego należy dostarczyć dany pakiet. Każdy komputer przyłączony do sieci ma własny unikatowy adres, który jest zwykle liczbą naturalną. W każdym pakiecie przesyłanym przez sieć jest pole adresu docelowego, które zawiera adres odbiorcy. Adres docelowy w każdym pakiecie znajduje się w tym samym miejscu, dzięki czemu sprzęt sieciowy ma do niego łatwy dostęp. Nadawca musi znać adres odbiorcy i musi go umieścić w polu adresu docelowego, zanim pakiet zostanie wysłany.

Każda technika sprzętowa określa sposób przydzielenia adresów komputerom. Od rodzaju sprzętu zależy np, liczba bitów adresu oraz położenie pola adresu docelowego w pakiecie. Niektóre techniki mają zgodne ze sobą sposoby adresowania, jednak dla wielu z nich różnią się one bardzo między sobą.

Ethernet

Ethernet to nazwa popularnego rodzaju sieci LAN z wymianą pakietów, opracowanego w laboratoriach Xerox PARC na początku lat siedemdziesiątych. W 1978 r. Xerox Corporation, Intel Corporation i Digital Equipment Corporation opracowały standard Ethernetu. Został on opublikowany jako standard IEEE o numerze 802.3.

Oryginalny projekt Ethernetu zakładał wykorzystanie kabli koncentrycznych, jak na rys. 2.1. Kabel taki. nazywany eterem, jest całkowicie pasywny, wszelkie urządzenia elektroniczne zapewniające działanie sieci są związane z włączonymi do sieci komputerami.

Każde połączenie z Ethernetem składa się z dwu zasadniczych części. Pierwszą jest nadajnik-odbiornik, połączony z przewodem centralnym i metalowym ekranem. Służy on do nadawania i odbierania sygnałów z eteru-ośrodka'". Drugą częścią jest interfejs komputera (albo adapter komputera), który łączy magistralę komputera (znajdującą się zwykle na płycie głównej) z transceiverem (nadajnik-odbiornik).

Nadajnik-odbiornik jest niewielkim urządzeniem elektronicznym, zwykle umieszczonym blisko eteru-ośrodka. Zawiera on układy analogowe, które służą do nadawania i odbierania sygnałów z eteru oraz układy cyfrowe umożliwiające komunikację z komputerem. Nadajnik-odbiornik może wykryć, kiedy eter .Jest zajęty" oraz może tłumaczyć sygnały analogowe z eteru na postać cyfrową i odwrotnie.

Cienki Ethernet

Niektóre składowe oryginalnej techniki Ethernetu mają niepożądane własności:

  1. nadajnik-odbiornik, zawierający układy elektroniczne, stanowi zauważalny koszt,

  2. nadajniki-odbiorniki są umieszczone w pobliżu kabla, a nie przy komputerze, mogą więc być trudno dostępne (co jest istotne np. w razie awarii),

  3. kabel koncentryczny stanowiący eter-ośrodek może być trudny do zainstalowania

W celu zmniejszenia kosztu instalacji w takich miejscach jak biura, gdzie poziom zakłóceń elektromagnetycznych jest niski, zostało opracowane alternatywne rozwiązanie okablowania sieci Ethernet, zwane cienko-kablowym Ethernetem lub cienkim Ethernetem. W tym rozwiązaniu kabel koncentryczny jest cieńszy, tańszy, bardziej elastyczny. Niestety, cienki Ethernet ma kilka wad. Sieci takiej nie można instalować blisko urządzeń elektrycznych dużej mocy. np. w fabrykach, gdyż nic zapewnia dostatecznej ochrony przed zakłóceniami. Co więcej, cienki Ethernet umożliwia połączenia na nieco mniejsze odległości i mniejszej liczby komputerów, niż gruby Ethernet.

W celu dalszego zmniejszenia kosztów cienkiego Ethernetu kosztowne transceivery zastąpiono przez specjalne szybkie układy cyfrowe oraz zastosowano bezpośrednie połączenie komputerów z eterem. W przypadku cienkiego Ethernetu komputer zawiera zarówno interfejs, jak i obwody służące do połączenia z kablem. Producenci małych komputerów i stacji roboczych uważają takie rozwiązanie za szczególnie atrakcyjne, gdyż umożliwia ono zastosowanie układów Ethernetu w komputerach jednopłytowych i montowanie przyłączy bezpośrednio z tylu obudowy komputera.

Cienki Ethernet łączy komputery bezpośrednio, można więc go wykorzystać do połączenia wielu komputerów znajdujących się w jednym pomieszczeniu. Kabel biegnie bezpośrednio od jednego komputera do następnego - dodanie nowego komputera wymaga jedynie włączenia go w łańcuch. Na rysunku 2.5 widać sposób łączenia komputerów przy użyciu cienkiego Ethernetu.

Cienki Ethernet zaprojektowano z myślą o łatwości łączenia i rozłączania komputerów. Wykorzystuje on złącza BNC. które nie wymagają używania żadnych narzędzi przy podłączaniu kabla do komputera. Dzięki temu użytkownik może przyłączyć komputer do sieci bez pomocy specjalisty. Oczywiście, manipulowanie kablem (eterem) przez użytkownika ma też swoje wady: jeśli użytkownik rozłączy kabel, to zerwie komunikację wszystkich maszyn dołączonych do sieci. Jednak w wielu sytuacjach zalety tego rozwiązania przewyższają jego wady.

Skrętka

Postęp techniczny umożliwił opracowanie Ethernetu. który nic wymaga elektromagnetycznej izolacji kabla koncentrycznego. Technika ta, zwana skrętką (Ethernetem opartym na skrętce), pozwala na łączenie komputera z siecią Ethernet za pomocą pary zwykłych, nieizolowanych przewodów miedzianych, podobnych do przewodów telefonicznych. Zaletą skrętki jest dalsze zmniejszenie kosztów i ochrona sieci przed przypadkowym odłączeniem komputera przez użytkownika. W niektórych przypadkach skrętka umożliwia zbudowanie sieci Ethernet nawet z wykorzystaniem istniejącego okablowania telefonicznego, bez konieczności kładzenia nowego okablowania.

W tym systemie, znanym jako 10Base-T, każdy komputer jest przyłączony za pomocą skrętki do koncentratora Etliemetu (ang. hub), jak na rys. 2.6.

Koncentrator jest urządzeniem elektronicznym, które symuluje sygnały w kablu Ethernetu. Fizycznie koncentrator jest niewielką skrzynką, zazwyczaj umieszczoną w szafie z okablowaniem. Odległości między poszczególnymi komputerami a koncentratorem (a w zasadzie długość łączącego je kabla) nie mogą przekraczać 100 m. Koncentrator wymaga zasilania. Może też umożliwiać kontrolę jego pracy przez sieć (przez upoważniony personel). Dla interfejsu komputera, połączenie z koncentratorem działa tak samo jak połączenie z trasceiverem. Znaczy to, że sieć Ethernet zainstalowana z wykorzystaniem skrętki i koncentratora zapewnia takie same możliwości pracy w sieci jak cienki lub gruby Ethernet. Jedyna różnica polega na innym sposobie okablowania.

Własności Ethernetu

Ethernet jest siecią z magistrala, (ang. bus technology) o szybkości rozsyłania danych 10 Mb/s, z semantyką przenoszenia przy użyciu dostępnych możliwości (ang. best-effort delivery) i z rozproszoną kontrolą dostępu, Jest to sieć z magistralą, gdyż wszystkie komputery wykorzystują wspólnie ten sam kanał komunikacyjny. Rozsyłanie oznacza, że wszystkie transceivery odbierają wszystkie nadawane informacje. Metody służące do kierowania wysyłanych pakietów do jednego określonego komputera (lub ich grupy) omówimy później. Na razie trzeba tylko zapamiętać, że transceivery nie rozróżniają rodzaju transmisji - transceiver przekazuje wszystkie pakiety z kabla do interfejsu komputera, który wybiera spośród nich te, które dany komputer powinien otrzymać, a wszystkie pozostałe odfiltrowuje. Ethernet jest nazywany siecią z przenoszeniem przy użyciu dostępnych możliwości, gdyż sprzęt nie informuje nadawcy o tym, czy pakiet został dostarczony. Gdy komputer-adresat jest np. wyłączony, to pakiety wysłane do niego będą gubione, a nadawca nie zostanie o tym poinformowany. Dowiemy się później, jak protokoły TCP/IP radzą sobie ze sprzętem tego rodzaju.

Kontrola dostępu w Ethernecie jest rozproszona, gdyż inaczej niż w niektórych innych technikach, nie ma tu centralnego ośrodka przyznającego dostęp do eteru. Wykorzystywany przez Ethernet sposób kontroli dostępu nazywa się dostępem wielokrotnym z wykrywaniem fali nośnej i wykrywaniem kolizji (ang. Carrier Sense Multiple Access with Collision Detect (CSMA/CD)). CSMA oznacza, że wiele maszyn może na raz korzystać z Ethernetu, a każda maszyna sprawdza, czy eter jest wolny, wykrywając obecność fali nośnej. Gdy interfejs komputera ma do wysłania pakiet, wówczas sprawdza, czy w eterze jest przesyłany komunikat (czyli sprawdza istnienie fali nośnej). Jeśli nie odbywa się żadna transmisja, interfejs zaczyna nadawanie. Czas trwania każdej transmisji jest ograniczony (gdyż jest określony maksymalny rozmiar pakietu). Co więcej, sprzęt musi zapewniać minimalny czas jałowy między transmisjami, co oznacza, że żadne dwa komputery, które przesyłają między sobą dane, nie zajmą sieci bez dania innym komputerom szansy przesiania danych.

Adresy sprzętowe Ethernetu

Ethernet wykorzystuje adresy 48-bitowe. Każdy komputer przyłączony do sieci Ethernet dostaje unikatowy 4K-bitowy numer nazywany adresem eternetowym. W celu określenia tego adresu producenci sprzętu eternetowego kupują zakresy adresów eternetowych i przypisują je po kolei kolejnym egzemplarzom kart Ethernetu. Dzięki temu żadne dwie karty interfejsu nie mają tego samego adresu etemetowego.

Zwykle adres eternetowy jest trwale zapisany (w postaci czytelnej dla maszyny) w interfejsie komputera. Adresy eternetowe są związane ze sprzętem, dlatego czasami są nazywane adresami sprzętowymi lub adresami fizycznymi. Oto jedna z ważnych własności adresów sprzętowych Ethernetu:

Wiedząc o tym, że adresy sprzętowe Ethernetu mogą ulec zmianie, możemy zrozumieć dlaczego wyższe warstwy oprogramowania sieciowego są przystosowane do takich zmian.

Interfejs komputera analizuje pakiety i określa, które z nich powinny trafić do danego komputera. Przypomnijmy, że każdy interfejs otrzymuje wszystkie pakiety posłane do sieci - także te adresowane do innych komputerów. Interfejs odfiltrowuje pakiety, korzystając z pola adresu odbiorcy w pakiecie. Ignoruje on pakiety, które są adresowane do innych maszyn, przekazując do komputera tylko te, które są adresowane do niego. Mechanizm adresowania i filtr sprzętowy są konieczne, aby uniknąć przeciążenia komputera nadchodzącymi danymi. Co prawda procesor komputera mógłby sam sprawdzać, które pakiety są do niego adresowane, ale powierzenie tego zadania interfejsowi pozwala na uniknięcie spowolnienia działania wszystkich komputerów w sieci z powodu znacznego ruchu w eterze.

Adres składający się z 48 bitów można wykorzystać nie tylko do wskazania pojedynczego odbiorcy. Są trzy rodzaje adresów:

Adres rozgłaszania (same jedynki) jest zarezerwowany do wysyłania pakietu do wszystkich komputerów równocześnie. Adresy grupowe umożliwiają realizację ograniczonej formy rozgłaszania, przy której cześć komputerów w sieci oczekuje danych wysyłanych pod wskazanym adresem grupowym. Taki zbiór komputerów jest nazywany grupą rozsyłania grupowego (ang. multicast group). Aby dołączyć się do takiej grupy, komputer musi poinformować swój interfejs, że należy przyjmować pakiety adresowane do danej grupy rozsyłania. Zaleta rozsyłania grupowego polega na tym, że umożliwia ono ograniczenie rozgłaszania: wystarczy jedna transmisja, aby posłać pakiet do wszystkich komputerów w grupie, a komputery nie należące do grupy nie otrzymują pakietów wysyłanych do grupy.

Format ramki Ethernetu

Ethernet stanowi niskopoziomowe połączenie między komputerami. Dane przesyłane przez sieć Ethernet są dzielone na ramki (ang. frame). Ramki Ethernetu mają zmienną długość, przy czym nie mogą być krótsze niż 64 oktety, ani dłuższe niż 1518 oktetów (nagłówek, dane i CRC). Jak we wszystkich sieciach z wymianą pakietów, każda ramka Ethernetu zawiera pole, w którym znajduje sie adres odbiorcy. Na rysunku 2.8 widać, że ramka Ethernetu zawiera fizyczny adres nadawcy oraz adres odbiorcy.

Oprócz danych identyfikujących nadawcę i odbiorcę, każda ramka przesyłana przez Ethernet zawiera preambułę, pole typu, pole danych i pole CRC (ang. Cyclic Redundancy Check). Preambuła składa się z 64 bitów (zer i jedynek na przemian). co ułatwia synchronizację nadawcy i odbiorcy. Pole CRC (32-bilowe) ułatwia interfejsowi wykrywanie błędów w transmisji; nadawca oblicza CRC (zależy ono od danych znajdujących się w ramce), odbiorca również oblicza CRC i porównuje obie wartości, co umożliwia wykrycie przekłamań.

Pole typu ramki zawiera 16-bitową liczbę, która służy do określenia typu danych znajdujących się w danej ramce. Z punktu widzenia Internetu pole typu ma zasadnicze znaczenie, gdyż dzięki niemu ramki Ethernetu są samoopisujące się. Gdy komputer otrzymuje ramkę, system operacyjny na podstawie typu decyduje, do którego z modułów oprogramowania obsługi protokołów należy ją skierować. Podstawowa zaleta samoopisujących się ramek polega na tym, że umożliwiają one używanie przez jeden komputer wielu różnych protokołów i przesyłanie ramek wielu różnych protokołów przez tę samą siec bez wzajemnych zakłóceń. W ten sposób można np. korzystać jednocześnie z programu, który używa protokołów Internetu, oraz z oprogramowania, które korzysta z własnego eksperymentalnego protokołu. System operacyjny wykorzystuje pole typu przychodzących ramek do określenia, jak należy przetwarzać zawartość. Zobaczymy, że protokoły TCP/IP używają samoopisujacych się ramek do rozróżniania wielu różnych protokołów.

Rozszerzanie sieci Ethernet za pomocą wzmacniaków

Kabel Ethernetu ma określoną maksymalną długość, jednak sieć można rozszerzyć na dwa sposoby: używając wzmacniaków i mostów. Urządzenie nazywane wzmacniakiem (ang. repeater) służy do przenoszenia sygnałów elektrycznych między kablami. Jednak między dowolnymi dwiema maszynami mogą się znajdować tylko dwa wzmacniaki. a wiec łączna długość pojedynczej linii Ethernetu jest mała (trzy odcinki po 500 metrów). Typowe użycie wzmacniaków w biurowcu: pojedynczy kabel przebiega pionowo między piętrami budynku, a na każdym piętrze znajduje się wzmacniak łączący ten kabel z kablem danego piętru. Komputery są dołączane do kabli danego piętra.

Rozszerzanie sieci Ethernet za pomocą mostów

Mosty są lepsze od wzmacniaków. gdyż nie przenoszą one szumu, błędów ani niepoprawnych ramek. Most musi otrzymać poprawną ramkę, zanim prześle ją do kolejnego segmentu sieci. Co więcej, interfejsy mostów stosują zasady CSMA/CD Ethernetu, przez co kolizje i opóźnienia w poszczególnych kablach są od siebie izolowane. Dzięki temu mosty umożliwiają łączenie ze sobą dowolnej liczby sieci Ethernet. Oto ważna własność mostów:

Do łączenia się z komputerem przez most jest potrzebny dokładnie taki sam sprzęt, jak do łączenia się z komputerem w tym samym segmencie sieci.

  1. Idea intersieci i model jej architektury

    1. Pojęcie i własności intersieci

Połączenia na poziomie sieci udostępniają mechanizm, który umożliwia dostarczenie pakietów od nadawcy do ich końcowego odbiorcy w czasie rzeczywistym. Wymiana małych jednostek danych zamiast plików lub długich komunikatów ma wiele zalet. Po pierwsze, schemat daje się bezpośrednio odwzorować na bazowy sprzęt sieciowy, co sprawia, że jest on bardzo efektywny. Po drugie, połączenia na poziomie sieci oddzielają działania związane z przesyłaniem danych od programów użytkowych, co pozwala pośrednim komputerom na obsługiwanie danych przesyłanych w sieci bez wiedzy na temat programów, które je przesyłają. Po trzecie, używanie połączeń sieciowych czyni cały system elastycznym i pozwala na budowanie uniwersalnych udogodnień komunikacyjnych. Po czwarte, schemat ten umożliwia administratorom sieci dodawanie nowych technik sieciowych przez modyfikowanie albo dodawanie pojedynczego fragmentu nowego oprogramowania na poziomie sieci, podczas gdy programy użytkowe pozostają nie zmienione.

Kluczem do tworzenia jednolitych połączeń na poziomie sieci jest idea modelu systemu komunikacyjnego znana jako praca w intersieci. Pojęcie intersieci jest szczególnie użyteczne. Dzięki niemu, mówiąc o komunikacji sieciowej, możemy nie zajmować sie szczegółami bazowej techniki sieciowej, a użytkownik nie musi znać szczegółów niskopoziomowych. Co ważniejsze, jest ono podstawą wszystkich decyzji projektowych i wyjaśnia, jak obsługiwać adresy fizyczne i ścieżki.

Celem jest zbudowanie jednolitego, kooperatywnego połączenia sieci, które zapewnia uniwersalny mechanizm komunikacji. W ramach pojedynczej sieci komputery będą używały bazowych, zależnych od techniki mechanizmów komunikacyjnych, takich jak opisane w rozdziale 2. Nowe oprogramowanie, pośredniczące między zależnymi od techniki mechanizmami komunikacyjnymi i programami użytkowymi, spowoduje zasłonięcie niskopoziomowych szczegółów technicznych i pozwoli na korzystanie ze zbioru sieci tak, jakby tworzyły jedną sieć. Taki schemat połączeń jest zwany intersiecią.

Chcemy zasłonić przed użytkownikiem znajdującą się w tle architekturę intersieci. Nie chcemy od użytkowników czy programów użytkowych wymagać zrozumienia szczegółów połączeń sprzętowych. Nic chcemy też wymuszać stosowania żadnej konkretnej topologii połączeń międzysieciowych. W szczególności dodanie nowej sieci do intersieci nie powinno polegać na podłączaniu jej do żadnego centralnego węzła połączeniowego ani nie powinno oznaczać dodawania bezpośrednich fizycznych połączeń miedzy nową siecią i wszystkimi już połączonymi sieciami. Chcemy mieć możliwość przesyłania danych przez pośrednie sieci, nawet gdyby nic były one bezpośrednio przyłączone do maszyny nadającej lub odbierającej. Chcemy, żeby wszystkie komputery w intersieci korzystały z jednolitego zbioru identyfikatorów maszyn (o których można myśleć jak o nazwach albo adresach).

Nasze wyobrażenie jednolitej intersieci obejmuje też wymaganie niezależności interfejsu użytkownika od sieci. Oznacza to, że chcemy, aby zestaw operacji używanych do ustanowienia połączenia albo do przesyłania danych pozostawał niezależny od techniki sieciowej, na której się on opiera, oraz od komputera docelowego. Oczywiście tworzenie sieciowych programów użytkowych nie powinno wymagać zrozumienia topologii połączeń międzysieciowych.

Architektura intersieci

W jaki sposób sieci są połączone między sobą, aby tworzyły intersieć? Fizycznie dwie sieci mogą być połączone tylko poprzez komputer mający kontakt z nimi obiema. Fizyczne przyłączenie nie zapewnia połączenia, które mamy na myśli, gdyż samo przyłączenie nie gwarantuje, że dany komputer będzie współpracował z innymi maszynami, które chcą się porozumieć. Aby uzyskać działającą intersieć, potrzebne są nam komputery, które mogą „przerzucać" pakiety z jednej sieci do innej. Komputery, które łączą ze sobą dwie sieci i przekazują pakiety z jednej do drugiej, są nazywane bramkami intersieciowymi (ang. internet gateways) albo intersleciowymi ruterami (ang. internet routers).

Przyjrzyjmy się przykładowi pokazanemu na rys. 3.1; mamy tu do czynienia z dwiema sieciami fizycznymi. Ruter R łączy ze sobą sieci 1 i 2. Jeżeli R ma pracować jako ruter, to musi „wyłapywać" te pakiety z sieci 1 które mają trafić do maszyn z sieci 2 przesyłać je. Podobnie R musi „wyłapywać" i przesyłać z sieci 2 pakiety zaadresowane do maszyn w sieci 1.

Na rysunku tym chmurki zostały użyte w celu oznaczenia sieci fizycznych, gdyż rodzaj sprzętu, z którego są te sieci zbudowane, nie jest istotny. Każda z tych sieci może być zarówno siecią LAN. jak i WAN oraz każda może mieć mało lub dużo węzłów.

Połączenia międzysieciowe przy użyciu ruterów IP

Gdy połączenia w intersieci stają się bardziej złożone, każdy ruter musi mieć informacje na temat topologii intersieci, a nie tylko sieci, do których jest on sam bezpośrednio podłączony. Na rysunku 3.2 są pokazane trzy sieci połączone za pomocą dwóch ruterów.

W tym przykładzie ruter R, musi przesyłać z sieci 1 do sieci 2 wszystkie pakiety adresowane do maszyn zarówno w sieci 2, jak i w sieci 3. W przypadku dużych intersieci złożonych z wielu sieci zadanie rutera polegające na decydowaniu, gdzie przesłać pakiety, staje się bardziej skomplikowane.

Zasada działania rutera wydaje się być prosta, jest ona jednak ważna, gdyż dzięki niej można łączyć ze sobą sieci, a nie tylko maszyny. W rzeczywistości odkryliśmy już zasadę połączeń między sieciowych używaną w intersieciach:

Rutery używane w intersieciach TCP/IP są zwykle małymi komputerami. Często mają one małe dyski lub ich wcale nie mają, a ich pamięć operacyjna ma ograniczony rozmiar. Sztuczka umożliwiająca budowanie małych ruterów w intersieciach polega na następującym pomyśle:

Jeżeli wyznaczanie tras jest wykonywane na podstawie informacji o sieciach, to ilość potrzebnych informacji jest proporcjonalna do liczby sieci w intersieci, a nie do liczby komputerów.

Wszystkie sieci są równe

Z punktu widzenia intersieci każdy system komunikacyjny zdolny do przenoszenia pakietów liczy się jako pojedyncza sieć niezależnie od swoich parametrów: czasu oczekiwania, charakterystyk przepustowości, maksymalnego rozmiaru pakietów czy geograficznej rozległości. TCP/IP traktuje wszystkie fizyczne sieci jednakowo niezależnie od fizycznych różnic między nimi. Zasada tutaj jest następująca:

TCP/IP definiuje abstrakcyjne pojęcie„sieci", które ukrywa szczegóły fizycznych sieci - takie podejście zapewnia protokołom TCP/IP dużą elastyczność.

  1. Adresy w Internecie

    1. Jednolite identyfikatory

System komunikacyjny zapewnia powszechne usługi komunikacyjne, gdy umożliwia każdemu komputerowi połączenie się z dowolnym innym komputerem. W celu utworzenia powszechnego systemu komunikacyjnego trzeba określić globalnie stosowaną metodę identyfikacji każdego komputera przyłączonego do sieci.

Identyfikatory komputerów są często dzielone na nazwy, adresy i trasy. Według Shocha |126| nazwa służy do określenia czym jest obiekt, adres - gdzie on jest, a trasa - do wskazania jak do niego dotrzeć. Te definicje są dosyć poglądowe, jednak mogą wprowadzać w błąd. Nazwy, adresy i trasy odpowiadają coraz niższym warstwom reprezentacji identyfikatorów maszyn. Zwykle ludzie preferują używanie możliwych do wymówienia nazw, natomiast oprogramowanie działa skuteczniej ze zwartą reprezentacją identyfikatorów, które można w tym wypadku uznać za adresy. Dowolna z tych dwóch rzeczy może służyć za jednolite identyfikatory maszyn w sieci TCP/IP. Jako standard wybrano zwartą, binarną reprezentację adresów, która ułatwia efektywną realizację operacji, np. wyboru tras.

Trzy główne klasy adresów IP

Projektanci TCP/IP wybrali system analogiczny do adresów fizycznych, w którym każda maszyna

jest identyfikowana przez 32-bitową liczbę całkowitą, która jest nazywana adresem w intersieci lub też adresem IP. Pomysłowość systemu adresów intersieci polega na tym, że umożliwiają one efektywne wyznaczanie tras pakietów. Ściśle mówiąc, adres IP zawiera informację o tym, do jakiej sieci jest włączony dany komputer oraz jednoznaczny adres w tej sieci. W skrócie:

W najprostszym przypadku każdy komputer przyłączony do intersieci używa 32-bitowcgo jednolitego identyfikatora jako adresu w intersieci. Ciąg bitów adresu IP maszyn włączonych do tej samej sieci ma ten sam prefiks.

Każdy adres można uważać za parę {ids, idm}, gdzie ids określa sieć, a idm - komputer w tej sieci. W praktyce każdy adres IP ma jedną z pierwszych trzech postaci przedstawionych na rys. 4.1.

Klasa adresu IP jest określona przez pierwsze trzy najstarsze bity, przy czym do zidentyfikowania przynależności do jednej z trzech zasadniczych klas wystarczą pierwsze dwa bity. W adresach klasy A, wykorzystywanych przez duże sieci, które mają ponad 2"' (65535) maszyn, 7 bitów jest przeznaczanych na adres sieci i 24 bity na adres maszyny. W adresach klasy B. które są używane w sieciach średniej wielkości, mających od 28 (tzn. 256) do 216 maszyn, 14 bitów jest wykorzystywanych na identyfikator sieci, a 16 bitów na identyfikator maszyny. Wreszcie w adresach klasy C, które są używane w sieciach mających mniej niż 28 maszyn. 21 bitów jest przeznaczanych na adres sieci i tylko 8 bitów na adres maszyny. Zwróćmy uwagę na to. że postać adresów IP umożliwia szybkie określenie zawartego w ruch adresu sieci i adresu maszyny. Rutery, które do wyznaczenia trasy pakietu używają identyfikatora sieci zawartego w adresie, wymagają możliwości sprawnego wyróżnienia tego adresu w celu szybkiej pracy.

Adresy określają przyłączenia do sieci

Dla uproszczenia rozważań przyjęliśmy, że adres w intersieci określa komputer, ale jest to tylko cześć prawdy. Rozważmy ruter łączący dwie sieci fizyczne. W jaki sposób możemy mu przydzielić pojedynczy adres IP. skoro adres taki zawiera zarówno identyfikator sieci, jak i komputera? W rzeczy samej, jest to niemożliwe. Węzły, które mają dwa lub więcej adresów fizycznych, są określane jako węzły o wielu przyłączeniach. Takie węzły i rutery wymagają wielu adresów IP. Każdy adres odpowiada jednemu z połączeń maszyny z siecią. Pojecie maszyny o wielu podłączeniach prowadzi do następującej ważnej idei:

W ten sposób ruter łączący n sieci ma n różnych adresów IP, po jednym dla każdego połączenia z siecią.


Wyszukiwarka

Podobne podstrony:
TS wyciag z Commera t 1(1)
TS Rozlegle sieci komputerowe
Wyklad 14 PES TS ZPE
P MurzińskaTRiLs7 Recykling TS wykorzystywanych w medycynie
Wyciągi ziołowe
e commercedlaAni
12 Wyciągi
corrispondenza commerciale
Instrukcja wyciągnięcia płyty CD
A2 2 TŚ
Wyciąg z operatu szacunkowego
Wyciągi
Rozkład III TS
Marketing internetowy i e commerce w MŚP
ts doc
09 TS

więcej podobnych podstron