background image

Technologie informacyjne. Zakres materiału do kolokwium,

1. Budowa komputera

      

Płyta główna

Sterowanie (chipset), zegar

BIOS

Magistrala danych

Procesor

Jednostka arytmetyczno logiczna + koprocesor(y) + rejestry

Pamięć notatnikowa (cache), poziom L1-L2

Sterowanie, magistrala danych

Jeden/dwa rdzenie, jeden/dwa/wiele procesorów

Typ gniazda (socket)

Pamięć RAM, banki pamięci (socket)

Gniazda rozszerzeń AGP, PCI, PCI Expres, ISA

Kontrolery zewnętrznych napędów ATA, SATA, SCSI

Opcjonalne kontrolery zintegrowane

Interfejsy zewnętrzne (PS2, USB 1.0/2.0, LPT, FireWire, RS232,…)

Karta graficzna (procesor graficzny, pamięć, biblioteka OpenGL)

Karta sieciowa (NIC), modem, adaptery

Karta dźwiękowa, kanały

Pamięć trwała HDD, SDD; 100Gb = 100,000 tomów encyklopedii PWN

Napędy optyczne CD, DVD, BlueRay, inne; napędy zewnętrzne FDD, 
streamer (taśma mag.)

Monitor

Klawiatura, mysz

Drukarka (igłowa, atramentowa, laserowa,…)

Skaner

Tablet, ploter

Kamera, głośniki

2. Technologie przesyłowe w sieci; typy łączy

łącza rozgłoszeniowe (rozsyłanie rozgłoszeniowe, broadcast)

łącza wieloadresowe (rozsyłanie grupowe, multicast)

łącza jednoadresowe dwupunktowe (point-to-point, unicast)

3. Klasyfikacja sieci wg skali odległości połączonych procesorów

1 m (sieć osobista, Private Area Network, PAN)

10 m - 1km (sieć lokalna, Local Area Network, LAN)

10 km (sieć miejska, Metropolitan Area Network, MAN)

100 km – 1 000 km (sieć rozległa, Wide Area Network, WAN)

10 000 km (Internet)

background image

4. Architektury sieci

Magistrala
Można ją traktować jak "autostradę" służącą transmisji danych i łączącą stacje sieci. 
Dane, nim dotrą do stacji przeznaczenia, przechodzą po drodze przez wszystkie 
pozostałe stacje. W rozwiązaniu tym do wspólnego kabla transmisyjnego zostają 
podłączone komputery o dzielonym dostępie do medium transmisyjnego. Każdy 
komputer jest przyłączony do kanału, nadawane sygnały docierają do wszystkich 
stacji, ale pakiety odbierane są tylko przez stację, do której są adresowane, ponieważ 
każda stacja sprawdza, czy dane są skierowane do niej. Topologia magistrali jest jedną 
z najbardziej popularnych konfiguracji sieci komputerowych.
Zalety magistrali: 
małe zużycie kabla 
prosta instalacja 
niska cena instalacji 
bardzo prosta rozbudowa sieci 
łatwe łączenie segmentów sieci w jeden system (bez zmian oprogramowania 
komunikacyjnego) 
każdy komputer jest podłączony tylko do jednego kabla 
pojedyncze uszkodzenie (przerwa w kablu lub awaria komputera) nie powoduje 
unieruchomienia całej sieci 

Wady magistrali: 
konkurencja o dostęp - wszystkie komputery muszą dzielić się kablem 
utrudniona diagnostyka błędów z powodu braku 
centralnego systemu zarządzającego siecią 
rozproszenie zadań zarządzających siecią, co w 
określonych przypadkach niekorzystnie wpływa na 
szybkość realizacji zadań informatycznych 
zwykle dla uniknięcia zakłóceń sygnałów należy 
zachować pewną odległość między punktami 
przyłączenia poszczególnych stacji 

Pierścień
Topologia pierścieniowa ma wiele zalet. Funkcjonowanie sieci nie zostaje przerwane 
nawet w razie awarii głównego komputera, gdyż jego zadanie może przejąć inna 
stacja. Dzięki układom obejściowym (ang. by-pass) można wyłączyć z sieci dowolną 
stację i tym sposobem uniknąć awarii sieci. Każdy węzeł sieci bierze bezpośredni 
udział w procesie transmisji informacji i jest połączony z dwoma innymi "sąsiadami". 
Węzły połączone w pierścień przekazują komunikaty sterujące (tokeny) do 
następnego; węzeł aktualnie mający token może wysyłać komunikat; termin "token 
ring" często odnosi się do standardu Institute of Electrical and Electronics Engineers 
(IEEE) 802.5 sieci token ring, który jest najbardziej powszechnym typem sieci token 
ring; pierwszy standard przewidywał przesyłanie z szybkością 4 Mb/s, natomiast w 
obecnych sieciach osiągana prędkość to 16 Mb/s. Informacja wędruje w jednym 
kierunku i po przejściu wszystkich węzłów wraca do miejsca nadania. Interfejs 
sieciowy każdego komputera musi odbierać dane od jednego sąsiada i przesyłać je do 

background image

następnego. Podczas przechodzenia przez kolejne węzły sygnał w każdym z nich jest 
wzmacniany. 
Zalety : 
małe zużycie kabla 
możliwość zastosowania łącz optoelektronicznych, które wymagają bezpośredniego 
nadawania i odbierania transmitowanych sygnałów 
możliwe wysokie osiągi, ponieważ każdy kabel łączy dwa konkretne komputery 

Wady : 
awaria pojedynczego kabla lub komputera 
powoduje przerwanie pracy całej sieci jeśli nie 
jest zainstalowany dodatkowy sprzęt 
złożona diagnostyka sieci (możliwe usprawnienie 
przez wyposażenie każdego węzła 
w procedury samotestowania) 
trudna lokalizacja uszkodzenia 
trudna rekonfiguracja sieci 

Gwiazda

Jest to sieć zawierająca jeden centralny węzeł (serwer), do którego zostają przyłączone 
pozostałe elementy składowe sieci za pomocą huba. Chroni to sieć przed awariami, 
gdyż awaria jednego łącza nie powoduje unieruchomienia całej sieci. Stosowana jest 
do łączenia komputerów w jednej instytucji, budynku. większość zasobów sieci 
znajduje się w komputerze centralnym przetwarzającym i zarządzającym siecią. 
Pozostałe komputery zwane terminalami są stacjami przygotowania danych lub mają 
niewielkie możliwości obliczeniowe. Wszystkie informacje są przekazywane przez 
centralny komputer. Topologia ta może być określona jako drzewo z jednym 
poziomem połączeń. Okablowanie: popularna skrętka (UTP, światłowód).

Zalety gwiazdy: 
łatwa konserwacja i lokalizacja uszkodzeń 
prosta rekonfiguracja 
proste i szybkie oprogramowanie użytkowe sieci 
centralne sterowanie i centralna programowa diagnostyka sieci 
możliwe wysokie szybkości transmisji (warunek - 
szybki komputer centralny) 

Wady gwiazdy: 
duża liczba kabli 
wszystkie maszyny wymagają podłączenia wprost do 
głównego komputera 
ograniczona możliwość rozbudowy sieci 
zależność działania sieci od sprawności komputera 
centralnego 
ograniczenie odległości komputera od huba 
w przypadku awarii huba przestaje działać cała sieć. 

hierarchiczna

background image

mieszana

5. Sprzęt sieciowy

Karta sieciowa (Network Interface Controler, NIC), modem

Repeater, 

N

azywany jest również wzmacniakiem lub regeneratorem.

I

nformacja przesyłana kablem ulega zniekształceniom proporcjonalnie do jego 

długości. Jednym z urządzeń, które wzmacnia i regeneruje sygnały przesyłane kablem 
jest repeater. Repeater służy więc do fizycznego zwiększania rozmiarów sieci . 
Zwykle zawierają one z kilka wzmacniaków.

Hub (koncentrator)

Koncentrator pracuje w warstwie pierwszej modelu ISO/OSI (warstwie fizycznej), 
przesyłając sygnał z jednego portu na wszystkie pozostałe. Nie analizuje ramki pod 
kątem adresu MAC oraz IP.
Koncentrator najczęściej podłączany jest do routera jako rozgałęziacz, do niego zaś 
dopiero podłączane są pozostałe urządzenia sieciowe: komputery pełniące rolę stacji 
roboczych, serwerów, drukarki sieciowe i inne.

Most (bridge)
to urządzenie warstwy łącza danych (ang. Data Link Layer – DLL) modelu OSI/ISO 
decydujące o przesyłaniu ramek danych (czyli pakietów danych warstwy 2) na 
podstawie stworzonej przez siebie tablicy forwardingu (ang. Forwarding DataBase – 
FDB
 lub MAC DataBase), zawierającej numery portów (interfejs E0/0, E0/1, itd...), do 
których przyłączone są urządzenia (każdy port to inny segment sieci), oraz adresy 
sprzętowe MAC urządzeń w segmencie sieci.

Switch (przełącznik)

urządzenie łączące segmenty sieci komputerowej pracujące w drugiej warstwie 
modelu ISO/OSI (łącza danych), jego zadaniem jest przekazywanie ramek między 
segmentami. Przełącznik określa się też jako wieloportowy most lub inteligentny 
koncentrator, gdyż:
przekazuje ramki wyłącznie do docelowego segmentu sieci (podobnie do mostu, w 
przeciwieństwie do koncentratora),
umożliwia połączenie wielu segmentów sieci w gwiazdę (podobnie do huba, w 
przeciwieństwie do mostu ograniczonego do dwóch segmentów),
działa w trybie dupleks (w przeciwieństwie do koncentratora).

Ruter (router)
urządzenie sieciowe pracujące w trzeciej warstwie modelu OSI, pełniące rolę węzła 
komunikacyjnego, służącego do rozdzielenia sygnału i rozgałęzienia połączeń 
sieciowych. Proces kierowania ruchem nosi nazwę trasowania, routingu lub 
rutowania
.

Serwer

jest to program świadczący usługi na rzecz innych programów, zazwyczaj 
korzystających z innych komputerów połączonych w sieć. Serwerem nazywa się 
często komputer świadczący takie usługi, sprowadzające się zazwyczaj do 
udostępniania pewnych zasobów innym komputerom lub pośredniczący w 
przekazywaniu danych między komputerami. Serwerem nazywa się też systemy 
oprogramowania biorące udział w udostępnianiu zasobów. Przykładami 
udostępnianych zasobów są pliki, bazy danych, łącza internetowe, a także urządzeń 
peryferyjnych jak drukarki i skanery.

background image

Punkt dostępowy do sieci bezprzewodowej (access point, AP)

urządzenie zapewniające stacjom bezprzewodowym dostęp do zasobów sieci za 
pomocą bezprzewodowego medium transmisyjnego (częstotliwości radiowe).

Access point jest także mostem łączącym sieć bezprzewodową z siecią przewodową 
(najczęściej Ethernet). W związku z tym każdy access point ma minimum dwa 
interfejsy: interfejs bezprzewodowy komunikujący się z sieciami standardu 802.11 
oraz drugi służący połączeniu AP z siecią przewodową. Stacjami łączonymi w sieć 
bezprzewodową za pomocą punktów dostępowych są komputery wyposażone w 
bezprzewodowe karty sieciowe. Zazwyczaj są to laptopy lub palmtopy, choć niekiedy 
stacjami bywają także komputery stacjonarne a sieć bezprzewodowa stosowana jest w 
celu uniknięcia zbytniego okablowania.

6. Rodzaje okablowania

Skrętka

(ang. twisted-pair wire) to rodzaj kabla sygnałowego służącego do przesyłania 
informacji, który zbudowany jest z jednej lub więcej par skręconych z sobą 
przewodów miedzianych, przy czym każda z par posiada inną długość 
skręcenia w celu obniżenia zakłóceń wzajemnych, zwanych przesłuchami. 
Niestety skręcenie przewodów powoduje równocześnie zawężenie pasma 
transmisyjnego.
Wyróżnia się skrętkę nieekranowaną, ekranowaną (posiadającą dodatkowe 
płaszcze z folii) oraz skrętkę z folią (FTP (nie mylić z protokołem FTP)). 
Zastosowanie skrętki to łącza telekomunikacyjne oraz sieci komputerowe, 
obecnie najczęściej wykorzystywana jest w telefonii analogowej oraz w 
sieciach Ethernet. Skrętka ma zastosowanie zarówno do przesyłania danych w 
postaci analogowej jak i cyfrowej.

Kabel koncentryczny
(ang. coaxial cable) – przewód miedziany otoczony izolacją, wspólnym 
ekranem oraz zewnętrzną koszulką ochronną, wykorzystywany np. jako 
medium transmisyjne w sieciach Ethernet (np. 10BASE5) z szybkością do 10 
Mb/s, w instalacjach antenowych do radia i telewizora, jak również w 
aparaturze pomiarowej. Typowy kabel koncentryczny ma impedancję 50 Ω, 
choć w instalacjach antenowych powszechna jest wartość 75Ω. Kabel 
koncentryczny jest najczęściej określany przez wojskowy numer 
specyfikacyjny rozpoczynający się od liter RG: np. RG-58A/U, RG-62/U, itd. 
Kable o różnych numerach RG mają różne charakterystyki fizyczne i 
elektryczne.

background image

Światłowód
przezroczyste włókno (szklane lub wykonane z tworzyw sztucznych), w 
którym odbywa się propagacja światła. Aby wyeliminować (lub, przynajmniej, 
znacząco ograniczyć), wypromieniowanie światła przez boczne powierzchnie 
światłowodu, stosuje się odpowiednio dobrany poprzeczny gradient 
współczynnika załamania światła.

7. Warstwy sieci w modelu OSI (Open System Interconnections):

warstwa fizyczna - definiuje połączenia elektryczno-mechaniczne z 
okablowaniem sieciowym oraz zajmuje się transmisją bitów danych pomiędzy 
urządzeniami w sieci. W tej warstwie zdefiniowane są rodzaje okablowania: 
10BASE-5 (gruby ETHERNET - ok. 450m) 
10BASE-2 (cienki ETHERNET - ok.180m) 
10BASE-T (skrętka - ok. 90m) 
10BASE-F (światłowód - do 2,5km).

warstwa łącza danych - definiuje sposoby kontroli dostępu do okablowania 
(m.in. wykrywanie kolizji). Definiuje sposoby tworzenia pakietów i sposoby 
ich wysyłania oraz odbierania. Przy przesyłaniu danych w sieci dane 
przepływają z jednej karty sieciowej do drugiej. Ma zapewnić bezbłędną 
komunikację w sieci. W tej warstwie są zdefiniowane specyfikacje sieci 
(802.2, 802.5).
    Standard Ethernet zawiera zestaw protokołów warstwy sieciowej, 
ukrywających fizyczny obraz sieci przed warstwą sieciową. W wyniku 
istnienia warstwy łącza danych rodzaj używanej technologii sieciowej 
(Ethernet, Token Ring) nie ma wpływu na protokoły warstwy sieciowej. 
Jednak rodzaj karty sieciowej zależy od stosowanej technologii. Do połączenia 
komputera z siecią Ethernet należy użyć innej karty sieciowej, a do połączenia 
go z siecią Token Ring - innej. 

warstwa sieciowa - definiuje sposób kierowania danych z jednego urządzenia 
do innego. W tej warstwie działają protokóły sieciowe, takie jak IPX czy IP. 
Warstwa sieciowa zajmuje się ruchem w sieci, przeciążeniami sieci oraz 
szybkościami transmisji. Do zarządzania przepływem danych w sieci warstwa 
sieciowa wykorzystuje mosty i routery. 

warstwa transportowa - definiuje kontrolowanie różnych procesów sieciowych. 
Między innymi obsługuje sytuacje błędne, jak zgubione czy powtórzone 
pakiety. Np. w tej warstwie działa SPX. Aby zapewnić niezawodną transmisję 
danych, warstwa transportowa dzieli dane odbierane z warstwy sesji na 
mniejsze fragmenty wymagane przez warstwę sieciową. Po stronie odbiorcy 
warstwa transportowa musi z powrotem połączyć podzielone dane. Wynika z 
tego, że struktura warstwy transportowej ma duży wpływ na wielkość 
pakietów przesyłanych przez sieć. 

warstwa sesji - zarządza współdziałaniem funkcji i programów użytkowych 
wykonywanych na różnych urządzeniach sieciowych. Przed skorzystaniem z 
usługi sieciowej należy się zalogować (wprowadzić nazwę użytkownika i 
hasło). Każda taka operacja rozpoczyna tzw. sesję sieciową. Przy każdym 
logowaniu się warstwa sesji negocjuje i ustala warunki połączenia między 
procesami bądź aplikacjami, a różnymi węzłami. 

background image

warstwa prezentacji - definiuje sposoby konwersji kodu i reformatowania 
danych. W tej warstwie są tłumaczone nazwy i format plików przy 
przenoszeniu np. z serwera Unixa do komputera użytkownika, na którym 
działa np. DOS. Warstwa prezentacji udostępnia funkcje używane wielokrotnie 
przez sieć podczas komunikacji w sieci. Do funkcji tych należy współpraca z 
drukarkami, monitorami oraz formatami plików. Często warstwy znajdujące 
się pod warstwą prezentacji wykonują funkcje mające zagwarantować 
poprawne wykonywanie operacji sieciowych. Warstwa prezentacji może także 
wykonywać takie operacje, jak szyfrowanie i kompresja danych. 

warstwa aplikacji - pozwala na działanie aplikacji usługi sieciowych, takich jak 
poczta, transfer plików, drukowanie w sieci, uruchamianie programów. 
Większość zestawów oprogramowania opartych na protokole TCP/IP zawiera 
standardowe aplikacje sieciowe, jak na przykład FTP czy Telnet. FTP pozwala 
na połączenie z innymi komputerami sieci w celu przesyłania plików. 
Analogicznie program Telnet pozwala na zalogowanie się na odległym 
komputerze. Innym przykładem aplikacji sieciowej jest poczta elektroniczna. 
Przeglądarki WWW są także programami warstwy sieciowej.

8. Rodzaje dostępu do sieci

Publiczna sieć komutowana (analogowa) - modem

Publiczna sieć komutowana (cyfrowa) – xDSL (ADSL)

Dedykowane łącza cyfrowe

Sieci bezprzewodowe

Telefonia mobilna

Telewizja kablowa

Telewizja satelitarna

9. Protokoły dostępu do sieci

TCP/IP

Transmission Control Protocol / Internet Protocol) jest pakietem najbardziej 
rozpowszechnionych protokołów komunikacyjnych współczesnych sieci 
komputerowych. Następca protokołu NCP. Najczęściej obecnie 
wykorzystywany standard sieciowy, stanowiący podstawę współczesnego 
Internetu. Nazwa pochodzi od dwóch najważniejszych jego protokołów: TCP 
oraz IP.
TCP/IP jest standardem komunikacji otwartej. Otwartość oznacza tu 
możliwości komunikacji między dowolnymi typami urządzeń, bez względu na 
ich fizyczną różnorodność. TCP/IP zwany jest także stosem protokołów ze 
względu na strukturę warstwową, w której ramka protokołu wyższej warstwy 
jest zawarta jako dane w protokole warstwy niższej.

IPX/SPX
(ang. Internet Packet EXchange/Sequential Packet EXchange) - zestaw 
protokołów sieciowych firmy Novell (protokół warstwy sieciowej IPX i 
warstwy transportowej SPX). Użytkowany w różnych sieciach lokalnych (od 
PC LAN do sieci branżowych). Rozwiązanie to jako implementacja 
protokołów XNS (ang. Xerox Network Service) warstwy transportu i sieciowej 
dostępne jest w systemach: NetWare, MS-DOS, MS Windows i OS/2. Obecnie 
protokoły te są wycofywane i zastępowane zestawem protokołów TCP/IP.

background image

NETBEUI
Interfejs NetBEUI został opracowany przez IBM i wprowadzony na rynek w 
1985 roku. Jest stosunkowo małym, ale wydajnym protokołem 
komunikacyjnym LAN. NetBEUI jest wyłącznie protokołem transportu sieci 
LAN dla systemów operacyjnych Microsoft. Nie jest trasowany. Dlatego jego 
implementacje ograniczają się do warstwy 2 modelu OSI, w których działają 
wyłącznie komputery wykorzystujące systemy operacyjne firmy Microsoft.

10. Kategorie oprogramowania

Firmware (sterowniki)

Oprogramowanie komercyjne

Shareware (demonstracyjne)

Freeware (darmowe)

Open source 

11. Typy licencji

Komercyjna

Akademicka

Free, GNU GPL (General Public Licence), BSD (Berkeley Software 
Distribution),

12. Wersjonowanie, łaty, piractwo, hacking, cracking, prawa autorskie

System kontroli wersji(Wersjonowanie) (ang. version/revision control system) służy 
do śledzenia zmian głównie w kodzie źródłowym oraz pomocy programistom w 
łączeniu i modyfikacji zmian dokonanych przez wiele osób w różnych momentach. 
Systemy kontroli wersji można podzielić na scentralizowane, oparte na architekturze 
klient-serwer (np. CVS, Subversion) i rozproszone, oparte na architekturze P2P (np. 
BitKeeper, Code Co-op, svk, Git). 

Łatałatka (ang. patch) – jest to poprawka lub uaktualnienie do programu bądź gry 
(rzadziej danych), przeznaczona do usunięcia pewnych problemów, błędów, 
rozszerzenia funkcjonalności programu albo zwiększenia wydajności (ang. 
performance) wcześniejszej wersji programu.

Piractwo – potoczne określenie działalności polegającej na nielegalnym kopiowaniu i 
posługiwaniu się własnością intelektualną (programami komputerowymi, muzyką, 
filmami itp.) bez zgody autora lub producenta i bez uiszczenia odpowiednich opłat. 
Termin ten jest lansowany przez Business Software Alliance. Wcześniejszy przykład 
użycia słowa w podobnym kontekście to pirackie stacje radiowe.

Cracking - dziedzina informatyki zajmująca się łamaniem zabezpieczeń. Cracking 
dokonywany jest niemal zawsze z naruszeniem praw autorskich, a tym samym 
nielegalnie. Zasadniczo wyróżnia się dwa typy crackingu:

background image

cracking sieciowy czyli łamanie zabezpieczeń komputerów w sieciach 

komputerowych

cracking oprogramowania czyli łamanie zabezpieczeń przed niedozwolonym 

użytkowaniem programów

Prawo autorskie (ang. copyright, symbol: © ) – pojęcie prawnicze oznaczające (1) 
ogół praw przysługujących autorowi utworu albo (2) przepisy upoważniające autora 
do decydowania o użytkowaniu dzieła i czerpaniu z niego korzyści.

Ustawa z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych (Dz. U. z 
2006 r. Nr 90, poz. 631 z późn. zm.) wyróżnia:

autorskie prawa osobiste

autorskie prawa majątkowe

13. Zastosowania sieci komputerowych

w biznesie (klient-serwer)

domowe (każdy z każdym)

użytkownicy mobilni

problemy społeczne

14. Formy handlu elektronicznego

B2C business-to-consumer (sklep internetowy, bank)

B2B business-to-business (współpraca firm i hurtowni)

G2C government-to-consumer (usługi administracyjno-finansowe)

C2C consumer-to-consumer (aukcje internetowe)

P2P peer-to-peer (wolne udostępnianie plików)

15.

Problemy zakupu i eksploatacji sprzętu komputerowego (outsourcing, 

pielęgnacja oprogramowania, niezawodność, bezpieczeństwo,…) 

Outsourcing i netsourcing (def. Wikipedii): Outsourcing (z ang. out-source 
- zewnętrzne źródło) to praktyka polegająca na przeniesieniu części zadań
wykonywanych przez firmę lub organizację z własnych pracowników na 
zewnętrznych kontrahentów. Najczęstszą przyczyną wprowadzania praktyk
outsourcingowych jest chęć obniżenia kosztów i uniknięcia sytuacji 
korupcjogennych. Netsourcing - odmiana outsourcingu, polegająca na
korzystaniu z aplikacji internetowych umieszczonych na zewnętrznym, 
wynajętym serwerze WWW, a nie na własnym, w ramach sieci firmowej.

16. Pojęcia i elementy wpływające na niezawodność sprzętu komputerowego

Niezawodność elementów składowych (reliability, dependability)

Architektura systemu i sieci

Obciążalność jest to wielkość charakteryzująca elementy przewodzące torów 
prądowych takie, jak przewody, zestyki, rezystory, cewki, kondensatory, 

background image

diody/tyrystory oraz inne. Wielkość ta informuje nas o tym, jaki prąd 
możemy maksymalnie przepuścić przez dany element nie powodując jego 
uszkodzenia.

Redundancja sprzętowa (łac. redundantia – powódźnadmiarzbytek), 
inaczej nadmiarowość w stosunku do tego, co konieczne lub zwykłe. 
Określenie może odnosić się zarówno do nadmiaru zbędnego lub 
szkodliwego, niecelowo zużywającego zasoby, jak i do pożądanego 
zabezpieczenia na wypadek uszkodzenia części systemu. W celu 
zmniejszenia prawdopodobieństwa załamania pracy systemu stosuje się 
duplikację krytycznych elementów systemu. W systemach, w których w 
przypadku awarii zagrożone jest życie ludzi, niektóre części występują 
potrójnie. W konstrukcjach takich jak samoloty używające całkowicie 
skomputeryzowanego systemu sterowania – fly-by-wire – element generujący 
błędną decyzję zostaje przegłosowany przez dwa pozostałe. Inna możliwość 
to równoległa praca trzech komponentów, ponieważ oczekuje się, że jeśli 
awarie podsystemów będą rzadkie i niezależne w każdym, to 
prawdopodobieństwo jednoczesnej awarii trzech jest znikomo małe. 

W programowaniu często można się spotkać z pojęciem nadmiarowego 
kodu (ang. redundant code). Jest to:

Kod¤, który jest wykonywany, ale nie ma absolutnie żadnego wpływu 

na wynik końcowy;

tak zwany kod zombie, który znajduje się w programie, ale nigdy nie 

jest wykonywany;

tak zwany kod zdublowany - zawarty dwu lub wielokrotnie taki sam 

fragment kodu, pełniący tą samą funkcję (lub bardzo zbliżony), a dający się 
zredukować przez zastąpienie go funkcją lub procedurą.

Routing w sieci

Zasilanie awaryjne, UPS

Macierze dyskowe RAID (

ang.

 Redundant Array of Independent Disks

Nadmiarowa macierz niezależnych dysków) - polega na współpracy dwóch 
lub więcej 

dysków twardych

 w taki sposób, aby zapewnić dodatkowe 

możliwości, nieosiągalne przy użyciu jednego dysku. RAID używa się w 
następujących celach:

zwiększenie niezawodności (odporność na awarie),

przyspieszenie transmisji danych,

powiększenie przestrzeni dostępnej jako jedna całość. 

http://pl.wikipedia.org/wiki/RAID

background image

Składowanie danych

Mirroring, Mirror (ang. lustro) to dokładna kopia strony internetowej lub 
innych zasobów (np. bazy danych lub plików udostępnianych przez FTP). 
Tworzona jest najczęściej po to, aby umożliwić szerszy dostęp do pewnej 
informacji. Mirror może też służyć jako kopia bezpieczeństwa. Innym 
zastosowaniem mirrorów jest odciążenie serwerów. Jeśli na jakimś serwerze 
pojawi się duży plik, który wiele osób będzie chciało ściągnąć, umieszczenie 
tego pliku na kilku mirrorach sprawi, że transfer rozłoży się równomiernie na 
wszystkie serwery i żaden z nich nie zostanie nadmiernie obciążony. Mirrory 
mogą też być narzędziem w walce z cenzurą. Kiedy w 2002 roku chińskie 
władze zablokowały dostęp do wyszukiwarki Google, powstał jej mirror o 
nazwie elgooG. Mirrory są też czasami wykorzystywane aby podnieść 
pozycje strony w wyszukiwarkach.

Kody korekcyjne i detekcyjne\
 Kod korekcyjny
 lub kod korygujący (ang. Error Correction Code) - system 
cyfrowego kodowania nadmiarowego używany w celach ochrony danych 
przenoszonych z pomocą sygnałów cyfrowych, umożliwiający wykrycie, jak 
również korekcję błędów.

Redundancja programowa usług

Przeżywalność systemu (survivability)

Tolerowanie uszkodzeń (fault tolerance)

Uszkodzenia bizantyjskie

Rekonfigurowalność systemu sieciowego

Systemy wysokiej dostępności (HA)

17. Przyczyny awarii systemów komputerowych

18. Sprzętowe i programowe metody poprawy niezawodności systemów

RAID
Detekcja/korekcja
Redundancja najbardziej zawodnych elementów sprzętowych: zasilacze, karty 
sieciowe, interfejsy, dyski 
Redundancja w sieciach, cała idea Internetu
UPS 
Układy FTC

HARDWARE 

Architektura systemów HA

Rezerwowe serwery usług (tryb pracy active/active, active/passive)
Replikacja/migracja

background image

Mirroring zasobów, np www

SOFTWARE 

Wielokrotne wpisy w dns: rezerwowe serwery lub load-balancing 
Zabezpieczenia przed atakami

19. Systemy wysokiej dostępności

High availability is a system design protocol and associated implementation that 
ensures a certain absolute degree of operational continuity during a given 
measurement period.

Availability refers to the ability of the user community to access the system, whether 
to submit new work, update or alter existing work, or collect the results of previous 
work. If a user cannot access the system, it is said to be unavailable. Generally, the 
term downtime is used to refer to periods when a system is unavailable.

Najprościej rzecz ujmując chodzi o to, że systemy wysokiej dostępności są 
„serwerami” na których pracują ludzie lub instytucje (na przykład sieć w firmie gdzie 
pracownicy mogą pracować zdalnie z domu).  Systemy musza spełniać pewne normy 
związane z brakiem dostępu do serwisu. 

20.

Równoważenie obciążeń (ang. load balancing) to technika rozpraszania 

obciążenia pomiędzy wiele procesorów, komputerów, dysków, połączeń sieciowych 
lub innych zasobów.Przykładowy system load balancing mógłby zapewniać 
bezawaryjną i optymalną pracę na N-aplikacjach znajdujących się na bliźniaczych M-
serwerach (zawierających równoważne aplikacje). Podczas gdy wielu użytkowników 
wysyła wiele żądań, trafiają one najpierw do SLB, który analizuje obciążenie na 
poszczególnych M-serwerach. Następnie dokonuje optymalnego wyboru - odsyłając 
użytkownika do jednego z serwerów do konkretnej aplikacji - według żądania. 
Optymalny wybór zazwyczaj ma prowadzić do równomiernego obciążenia wszystkich 
bliźniaczych serwerów. SLB zapewnia że awaria jednego z serwerów nie jest 
odczuwalna przez użytkowników aplikacji. 

Dostępność

Dopuszczalny przestój 

w ciągu roku

Dopuszczalny przestój 

w ciągu miesiąca

95% 

18 dni 6:00:00 

1 dni 12:00:00 

96% 

14 dni 14:24:00 

1 dni 4:48:00 

97% 

10 dni 22:48:00 

0 dni 21:36:00 

98% 

7 dni 7:12:00 

0 dni 14:24:00 

99% 

3 dni 15:36:00 

0 dni 7:12:00 

99.9% 

0 dni 8:45:35.99 

0 dni 0:43:11.99 

99.99% 

0 dni 0:52:33.60 

0 dni 0:04:19.20 

99.999% 

0 dni 0:05:15.36 

0 dni 0:00:25.92 

99.9999% 

0 dni 0:00:31.53 

0 dni 0:00:02.59 

background image

21. Migracja i replikacja 

Mobilnosc uzytkowników powoduje ciagla 
zmiane topologii sieci. Wymaga to od systemu ciaglego dostosowywania sie do 
zmiennej sytuacji, do takiego zarzadzania zasobami, by zapewnic optymalny dostep 
przez uzytkownika. Wiadomo jest bowiem, ze serwer lokalny bedzie mógl najlepiej 
swiadczyc uslugi dla mobilnego klienta. Jest to zgodne z zasada, ze dostep do danych 
polozonych blizej jest bardziej efektywny. Potrzeba zapewnienia efektywnego dostepu 
powoduje ciagla replikacje danych. W polaczeniu z ruchem uzytkownika mobilnego 
nastepuje niespotykane w systemie klasycznym zjawisko migracji danych. Dane po 
prostu "wedruja„ za uzytkownikiem, a mówiac scislej sa replikowane miedzy 
serwerami na trasie ruchu uzytkownika.

22. Arkusz kalkulacyjny: tworzenie formuł, użycie solvera,
23. Baza danych: pole danych, rekord, relacja, kwerenda, formularz, klucz
24. Kryptografia, szyfrowanie, kodowanie, klucz, klucz jednokrotny, krypto analiza

Kryptologia (z gr. κρυπτός – kryptos – "ukryty" i λόγος – logos – "słowo") – nauka o 

przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem. 
Kryptologię dzieli się na:
kryptografię (z gr. κρυπτός oraz γράφω gráfo "pisać"), czyli naukę o układaniu 
systemów kryptograficznych, i
kryptoanalizę (gr. kryptós oraz analýein – rozluźnić), czyli naukę o ich łamaniu.
Współcześnie kryptologia jest uznawana za gałąź zarówno matematyki, jak i 
informatyki; ponadto jest blisko związana z teorią informacji, inżynierią oraz 
bezpieczeństwem komputerowym. Kryptologia ma szerokie zastosowanie w 
społeczeństwach rozwiniętych technicznie; wykorzystuje się ją np. w rozwiązaniach 
zapewniających bezpieczeństwo kart bankomatowych, haseł komputerowych i handlu 
elektronicznego.

Szyfrowanie  jest procedurą przekształcania wiadomości nie zaszyfrowanej w 

zaszyfrowaną.Wiadomość przed zaszyfrowaniem nazywa się tekstem jawnym 
(plaintext), a wiadomość zaszyfrowaną –  szyfrogramem (ciphertext). Jako 
ciekawostkę można podać, że Marian Rejewski używał w swoich pracach określeń 
kler na tekst jawny i krypt na tekst tajny, zapewne w nawiązaniu do niem. klar 
lub ang. clear (czysty) oraz ang. crypt (szyfrowany).

W kryptografii kodowanie jest metodą przeobrażenia jawnej formy wiadomości w 

formę ukrytą w celu uniemożliwienia dostępu do przekazywanych informacji osobom 
niepowołanym. Zwykle do tego celu używana jest książka kodowa zawierająca listę 
powszechnych słów i/lub wyrażeń wraz z odpowiadającymi im słowami kodowymi
Zakodowaną wiadomość określa się czasami mianem tekstu kodowego, podczas gdy 
pierwotną wiadomość nazywa się zazwyczaj tekstem jawnym.

Terminem kodowanie określa się często wszelkie formy szyfrowania. Jednak w 

technicznych zastosowaniach między określeniami kod i szyfr jest istotna różnica – 
dotyczy ona stopnia zastosowanego przekształcenia tekstu; kody operują na poziomie 
znaczeń słów i zwrotów, przekształcając te ostatnie w inną ich postać. Szyfrowanie 
odbywa się na poziomie pojedynczych liter lub ich małych grup, w nowoczesnych 
szyfrach, nawet na poziomie poszczególnych bitów. 

background image

Klucz – w kryptografii informacja umożliwiająca wykonywanie pewnej czynności 

kryptograficznej – szyfrowania, deszyfrowania, podpisywania, weryfikacji podpisu 
itp.

Szyfr z kluczem jednorazowym (one-time pad) został zaproponowany w 1917 roku 

przez majora Josepha Mauborgne’a. Szyfr z kluczem jednorazowym jest dużym 
zbiorem o niepowtarzalnych i przypadkowych sekwencjach znaków. W swojej 
oryginalnej postaci była to jednorazowa taśma perforowana do dalekopisu. Nadawca 
używa każdej litery z tego zbioru do zaszyfrowania jednego znaku tekstu jawnego. 
Szyfrowanie to dodanie modulo 26 jednego znaku tekstu jawnego i znaku 
jednorazowego klucza. Każdy klucz używany jest tylko raz, do zaszyfrowania tylko 
jednej wiadomości. Klucz tworzony jest w sposób losowy, przeciwnik nie ma 
informacji, która może ułatwić złamanie szyfru

Kryptoanaliza to dział kryptologii zajmujący się łamaniem systemów 

kryptograficznych.Badane są możliwości naruszenia wszystkich zakładanych cech 
bezpieczeństwa – ataki na protokoły, łamanie szyfrów, fałszowanie podpisów, 
naruszanie integralności wiadomości itd.Kryptoanaliza jest bardzo szybko rozwijającą 
się nauką i z zasady długość życia systemu kryptograficznego jest o wiele krótsza niż 
oczekiwali tego jego autorzy.

25. Szyfrowanie z kluczem symetrycznym, z kluczem jawnym

Kryptografia symetryczna to taki rodzaj szyfrowania, w którym tekst jawny ulega 

przekształceniu na tekst zaszyfrowany za pomocą pewnego klucza, a do 
odszyfrowania jest niezbędna znajomość tego samego klucza.

Bezpieczeństwo takiego szyfrowania zależy od:
ilości możliwych kluczy, czyli długości klucza
odporności na ataki inne niż brute force
Wszystkie tradycyjne szyfry miały charakter symetryczny.
Szyfry symetryczne dzielą się na szyfry blokowe i szyfry strumieniowe.
Popularne szyfry symetryczne to m.in.:
AES
Blowfish
DES i jego odmiany 3DES, DESX
IDEA

3DES używa takich samych rozmiarów bloków oraz trybów jak zwykły DES. 3DES z 
trzema różnymi kluczami (3TDES) ma siłę 168 bitów: trzykrotne szyfrowanie DES 
kluczem 56-bitowym (wliczając bit parzystości siła 3DES wynosi 192 bity), jednak ze 
względu na atak typu meet in the middle siła 3DES-a wynosi 2

112

.

AES (ang. Advanced Encryption Standard, nazywany również Rijndael) to 
symetryczny szyfr blokowy przyjęty przez NIST w wyniku konkursu ogłoszonego w 
roku 1997. Bezpośrednią przyczyną rozpisania konkursu była niewystarczająca siła 
algorytmu DES. W roku 1997 organizacja EFF była w stanie złamać wiadomość 
zakodowaną DES-em w ciągu 3 dni sprzętem o wartości 250 tysięcy dolarów; obecnie 
można złamać DES-a jeszcze szybciej i taniej.
Do finału konkursu zakwalifikowało się pięć algorytmów szyfrujących (Rijndael
RC6MarsSerpent oraz Twofish), ze szczególnym wskazaniem na algorytm Rijndael
Możliwe jest w nim użycie kluczy o długościach 128, 192 i 256 bitów i operuje on na 
blokach danych o długości 128 bitów (oryginalna specyfikacja Rijndael dopuszczała 
również bloki 192- i 256-bitowe).

background image

26. Podpis cyfrowy  (podpis elektroniczny) to dodatkowa informacja dołączona do 

wiadomości służąca do weryfikacji jej źródła.

Podpis elektroniczny służy zapewnieniu między innymi następujących funkcji:

autentyczności, czyli pewności co do autorstwa dokumentu,

niezaprzeczalności nadania informacji, nadawca wiadomości nie może 

wyprzeć się wysłania wiadomości, gdyż podpis cyfrowy stanowi dowód jej wysłania 
(istnieją także inne rodzaje niezaprzeczalności),

integralności, czyli pewności, że wiadomość nie została zmodyfikowana po 

złożeniu podpisu przez autora.

Do zapewnienia wszystkich wymienionych funkcji potrzebne jest zastosowanie trzech 
środków:

instrumentów technicznych - algorytmów, protokołów i formatów, które dzięki 

zastosowaniu technik kryptograficznych zapewniają integralność oraz wiążą klucz 
prywatny autora z dokumentem, zapewniając autentyczność i niezaprzeczalność

instrumentów prawnych, czyli dyrektyw, ustaw i rozporządzeń, które osadzają 

wymienione instrumenty techniczne w obowiązującym prawie,

instrumentów organizacyjnych, takich jak centra certyfikacji, które występując 

jako zaufana trzecia strona poświadczają związek klucza prywatnego z konkretną 
osobą.

27. Zarządzanie kluczami

Certyfikaty
X.509 (standard)
Infrastruktura kluczy publicznych:  łańcuch zaufania, ścieżka ceryfikacji, 
kotwice zaufania, anulowanie ceryfikatów, 

Sieć zaufania (web of trust) to zdecentralizowana metoda uwierzytelniania osób, w 
której nie ma hierarchicznej struktury organizacji uwierzytelniających, a zaufanie do 
poszczególnych certyfikatów jest sumą podpisów złożonych przez innych 
uczestników sieci.

X.509 to standard opisujący sposób użycia asymetrycznych algorytmów 
kryptograficznych w celu składania podpisu elektronicznego oraz jego weryfikacji. 
Jego istota polega na istnieniu organizacji cieszącej się powszechnym zaufaniem, 
której zadaniem jest potwierdzanie tożsamości właścicieli konkretnych par kluczy 
poprzez podpisywanie za pomocą własnej pary kluczy certyfikatów subskrybentów 
systemu.

background image

Koncepcja certyfikatów, ich ważności oraz odwoływania została przedstawiona po raz 
pierwszy w 1978 roku przez Lorena Kohnfeldra

[1]

. Pierwsza wersja standardu X.509 

została opublikowana w 1988 roku.

Na certyfikat składają się pola zawierające dane właściciela, dane podmiotu 
wystawiającego certyfikat, okres ważności, klucz publiczny, oraz certyfikaty 
głównego i pośrednich urzędów certyfikacji - jest to tzw. ścieżka certyfikacji. Jest to 
najpowszechniej obsługiwany przez klientów poczty elektronicznej oraz przeglądarki 
internetowe system podpisu elektronicznego. W Polsce standard ten jest 
wykorzystywany w systemie elektronicznych podpisów kwalifikowanych (prawnie 
niezaprzeczalnych). Bezpieczny (kwalifikowany) podpis elektroniczny, na mocy 
Ustawy o podpisie elektronicznym jest w świetle prawa równy podpisowi 
odręcznemu.

28. Metody zapewnienia bezpieczeństwa komunikacji

IPsec: tryb transportowy, tryb tunelowy, analiza ruchu

IPsec to zbiór protokołów służących implementacji bezpiecznych połączeń oraz 
wymiany kluczy kodowych pomiędzy komputerami. Protokoły tej grupy mogą być 
wykorzystywane do tworzenia Wirtualnej Sieci Prywatnej (ang. VPN).

VPN oparta na IPsec składa się z dwóch kanałów komunikacyjnych pomiędzy 
połączonymi komputerami: kanał wymiany kluczy za pośrednictwem którego 
przekazywane są dane związane z uwierzytelnianiem oraz kodowaniem (klucze) oraz 
kanału (jednego lub więcej), który niesie pakiety transmitowane poprzez sieć 
prywatną. Kanał wymiany kluczy jest standardowym protokołem UDP (port 500). 
Kanały przesyłu danych oparte są na protokole ESP (protokół numer 50) opisanym w 
dokumencie RFC 2406.

Zapory sieciowe, filtr pakietów,  brama aplikacyjna, atak DoS, DDoS 

Zapora sieciowa (ang. firewall – "ściana ogniowa") – jeden ze sposobów 
zabezpieczania sieci i systemów przed intruzami.

Termin ten może odnosić się zarówno do dedykowanego sprzętu komputerowego 
wraz ze specjalnym oprogramowaniem, jak i do samego oprogramowania blokującego 
niepowołany dostęp do komputera, na którego straży stoi. Pełni rolę połączenia 
ochrony sprzętowej i programowej sieci wewnętrznej LAN przed dostępem z zewnątrz 
tzn. sieci publicznych, Internetu, chroni też przed nieuprawnionym wypływem danych 
z sieci lokalnej na zewnątrz.

DoS (ang. Denial of Service - odmowa usługi) - atak na system komputerowy lub 
usługę sieciową w celu uniemożliwienia działania poprzez zajęcie wszystkich 
wolnych zasobów.

background image

Atak polega zwykle na przeciążeniu aplikacji serwującej określone dane czy 
obsługującej danych klientów (np. wyczerpanie limitu wolnych gniazd dla serwerów 
FTP czy WWW), zapełnienie całego systemu plików tak, by dogrywanie kolejnych 
informacji nie było możliwe (w szczególności serwery FTP), czy po prostu 
wykorzystanie błędu powodującego załamanie się pracy aplikacji.

DDoS (ang. Distributed Denial of Service) - atak na system komputerowy lub usługę 
sieciową w celu uniemożliwienia działania poprzez zajęcie wszystkich wolnych 
zasobów, przeprowadzany równocześnie z wielu komputerów (np. zombie).

Atak DDoS jest odmianą ataku DoS polegającą na jednoczesnym atakowaniu ofiary z 
wielu miejsc. Służą do tego najczęściej komputery, nad którymi przejęto kontrolę przy 
użyciu specjalnego oprogramowania (różnego rodzaju tzw. boty i trojany).

VPN (ang. Virtual Private Network, Wirtualna Sieć Prywatna), można opisać jako 
"tunel", przez który płynie ruch w ramach sieci prywatnej pomiędzy klientami 
końcowymi za pośrednictwem publicznej sieci (takiej, jak Internet) w taki sposób, że 
węzły tej sieci są przezroczyste dla przesyłanych w ten sposób pakietów. Taki kanał 
może opcjonalnie kompresować lub szyfrować w celu zapewnienia lepszej jakości lub 
większego poziomu bezpieczeństwa przesyłanych danych.

Określenie "Wirtualna" oznacza, że sieć ta istnieje jedynie jako struktura logiczna 
działająca w rzeczywistości w ramach sieci publicznej, w odróżnieniu od sieci 
prywatnej, która powstaje na bazie specjalnie dzierżawionych w tym celu łącz.

WEP (ang. Wired Equivalent Privacy) to standard szyfrowania stosowany w sieciach 
bezprzewodowych standardu IEEE 802.11.

Standard specyfikuje klucze 40- i 104-bitowe, do których w procesie wysyłania 
ramki dołączany jest wektor inicjujący (IV) o długości 24 bitów. Stąd popularnie 
mówi się o 64- i 128-bitowych kluczach WEP, ale nie jest to stwierdzenie poprawne 
technicznie. W rozszerzeniach firmowych tego standardu znaleźć można również 
klucze o długości 232 bitów (z IV daje to 256 bitów), które jednak z uwagi na znane 
słabości w doborze IV nie zwiększają w istotny sposób siły kryptograficznej całości 
rozwiązania.