infa sciaga www.przeklej.pl, studia calosc, studia całość, infa


1.Informatyka (ang. Informatics) - dziedzina nauki i techniki zajmująca się przetwarzaniem informacji, w tym technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informację.

2. Informacja jest każdą formą uporządkowania energii lub materii. W cybernetyce informację określa się jako „każdy czynnik organizacyjny” (niematerialny), który może być wykorzystany do bardziej sprawnego lub bardziej celowego działania przez ludzi, inne organizmy żywe lub maszyny.

3. Wady pierwszych komputerów.

-tworzone na specjalne zamówienie

-duża awaryjność

-duże rozmiary i pobór mocy

-ogromny koszt

-wykorzystywały dziesiętny system liczenia

-programowane tylko sprzętowo

4.Koncepcja komputera Johna von Neumanna zakłada, że komputer posiada następujące elementy składowe:

*Procesor, którego zadaniem jest:

-Sterowanie pracą całego urządzenia.

-Przetwarzanie informacji (wykonywanie operacji arytmetycznych i logicznych).

*Pamięć główna, której zadaniem jest:

-Przechowywanie aktualnie wykonywanego programu.

-Przechowywanie danych potrzebnych programowi.

-Przechowywanie wyników działania programu.

*Urządzenia wejścia/wyjścia, których zadaniem jest:

-Wprowadzanie do komputera informacji (wejściowe).

-Wyprowadzanie z komputera informacji (wyjściowe).

-Czyli komunikacja ze światem zewnętrznym (człowiekiem).

5.Inteligencja komputerów.

Niekiedy przez komputery szóstej generacji rozumie się „komputery myślące”, będące jeszcze w sferze marzeń projektantów.

Sam pomysł sztucznej inteligencji jest jednak przedmiotem krytyki wielu środowisk, między innymi twórców science fiction. Na podstawie tych utworów powstało już wiele filmów pokazujących zagrożenia dla człowieka ze strony elektronicznych maszyn myślących.

Wiele osób uważa, że skonstruowanie pierwszego komputera myślącego wyznaczy koniec epoki człowieka na Ziemi.

6.Rodzaje komputerów:

  1. Superkomputery - CRAY, Convex

  2. Komputery centralne (ang. Main Frame) - IBM, Vax

  3. Minikomputery:

    1. Stacje robocze (np. stacje graficzne) - SUN, HP

    2. Serwery (np. serwery sieciowe, serwery druku) - HP

  4. Mikrokomputery:

    1. Komputery osobiste PC (ang. Personal Cpmputer):

      • Klasy IBM PC

      • Mac Intosh

  5. Komputery prawie osobiste (CPC) - Commodore, Amiga

Superkomputer to komputer:

Pierwszy superkomputer CRAY 2 stworzono w 1975 roku. Pracował z częstotliwością zegara 250 MHz (komputery PC dopiero 20 lat później).

7. Bit (ang. binary digit) - najmniejsza ilość informacji (zarazem jednostka informacji) potrzebna do określenia jednej z dwóch możliwości (np. stanów urządzenia), które zwykle umownie oznacza się jako 0 lub 1. W skrócie bit oznacza mała litera b.

Bajt (ang. byte) - ciąg 8-bitów stanowiący najmniejszą adresowalną jednostkę informacji pamięci komputerowej, nazywaną znakiem. W skrócie bajt oznacza duża litera B.

W jednym bajcie można zakodować następującą liczbę możliwości:

2 თ 2 თ 2 თ 2 თ 2 თ 2 თ 2 თ 2 = 28 = 256

1 B = 1 znak

Standardy kodowania znaków:

  1. ASCII

  2. Rozszerzenia ASCII

    1. ISO/IEC 646

    2. ISO 8859

    3. Windows-1250

    4. Unicode

8.Rodzaje mikroprocesorów:

-RISC (ang. Reduced Instruction Set Computers) - nazwa architektury mikroprocesorów, która została przedstawiona pod koniec lat 70. Charakteryzuje się ona zredukowana listą rozkazów mikroprocesora do kilkudziesięciu (50-70), tych najczęściej używanych i najprostszych.

-Nie-RISC (CISC - ang. Complex Instruction Set Computers, EPIC - ang. Explicitly Parallel Instruction Computing) - to architektura mikroprocesorów cechująca się rozbudowaną listą rozkazów wewnętrznych do ponad 200. Obecnie panuje przekonanie, że mikroprocesory nie-RISC są nieefektywne, ponieważ stwarzają kłopot przy próbie optymalizacji ich pracy.

Funkcje procesora:

  1. Wykonywanie operacji arytmetycznych i logicznych (tzw. jednostka ALU - ang. Aritmetical & Logical Unit).

  2. Sterowanie pracą urządzeń (tzw. jednostka CU - ang. Control Unit).

Procesor wykonuje rozkazy. Wszystkie możliwe do wykonania rozkazy znajdują się na liście poleceń wewnętrznych procesora.

Każdy program użytkowy, bez względu na rodzaj wykorzystanego języka programowania przy jego tworzeniu, w końcowym etapie musi zostać przetłumaczony i wyrażony za pomocą rozkazów procesora.

9.Metody przetwarzania równoległego rozkazów:

-Przetwarzanie potokowe

-Przetwarzanie superskalarne

Etapy wykonania rozkazu:

-Pobranie rozkazu (odczytanie z pamięci) - PR

-Dekodowanie rozkazu (odszukanie na liście) - DR

-Pobranie argumentów (odczytanie z pamięci) - PA

-Wykonanie rozkazu - WR

-Zapisanie wyniku (w pamięci) - ZW

Przetwarzanie potokowe rozkazów - równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest wykonywany na innym etapie.

Przetwarzanie superskalarne rozkazów - równoległe (w tym samym czasie) wykonywanie wielu rozkazów przez procesor, ale każdy rozkaz jest wykonywany na tym samym etapie.

10.Klasyfikacja (podział) pamięci w komputerze:

A.Pamięć wewnętrzna (półprzewodnikowa, ulotna):

1.Rejestry mikroprocesora (kilkanaście do kilkudziesięciu bajtów).

2.Cache - pamięć podręczna mikroprocesora zwykle dwupoziomowa L1 i L2 - 1 MB.

3.RAM (ang. Random Access Memory, pamięć o dostępie swobodnym, operacyjna, główna) - 1 GB.

4.Buforowa (podręczna, cache) urządzeń (np. drukarki, dysku twardego itp.) - 1 MB.

5.ROM (ang. Read Only Memory), tylko do odczytu, stała - kilka KB.

B.Pamięć zewnętrzna (masowa, trwała):

1.Urządzenia magnetyczne:

-Stacje dysków elastycznych (dyskietek) - 1,44 MB.

-Stacje dysków twardych - kilkaset GB.

-Stacje dysków wymienialnych (np. zipdrive) - kilkadziesiąt GB.

-Taśmy magnetyczne - kilkaset GB.

2.Urządzenia optyczne:

-Stacje dysków CD - 650 MB.

-Stacje dysków DVD - 4,7 GB (8,5 GB, 17 GB).

-Stacje dysków Blu-ray - 25 GB/warstwa

3.Stacje dysków magneto-optycznych - 100 GB.

4.Inne (np. pamięć półprzewodnikowa typu flash, SD itp. wykorzystywana np. w pendrivach, odtwarzaczach multimedialnych itp.).

Pamięć wewnętrzna jest wykorzystywana przez komputer do bieżących operacji i nie może służyć do przechowywania informacji w długim okresie czasu. Steruje jej użyciem system operacyjny i ewentualnie pewne mechanizmy sprzętowe. Programista zazwyczaj nie ma do niej dostępu.

Pamięć zewnętrzna służy do przechowywania informacji w długim okresie czasu i może przechowywać niewykorzystywane dane.

11.Drukarki tworzą wydruk składając każdy jego obiekt (także litery) z pojedynczych punktów (grafika punktowa) ułożonych blisko siebie (zależy od zdolności rozdzielczej drukarki) - nie dotyczy to drukarki rozetkowej. W wydrukach kolorowych nakładane są na siebie barwy podstawowe w technologii CMY lub CMYK.

Ploter tworzy wydruk z pojedynczych linii (grafika wektorowa) rysowanych jednym kolorem każda. Ramię mechaniczne wybiera do rysowania pisak o określonym kolorze. Ploter nie potrafi mieszać barw.

Drukarki i plotery mogą być stołowe (głowica lub ramię drukujące wykonuje ruchy w dwóch kierunkach (x, y) - wadą duże gabaryty urządzeń, lub bębnowe (papier jest przesuwany w jednym kierunku a głowica/ramię drukujące w drugim kierunku) - małe gabaryty urządzeń.

12. Modem jest urządzeniem elektronicznym, które zamienia cyfrowe dane (komputerowe) na analogowe sygnały elektryczne i odwrotnie, które są transmitowane w sieci zewnętrznej (np. linia telefoniczna, telewizja kablowa, fale radiowe, sieć energetyczna). Przy wysyłaniu sygnału modem moduluje falę nośną w danej sieci kodując w niej informację. Modem odbierający ma za zadanie odseparować informację z fali nośnej demodulując ją.W odróżnieniu od modemu (modem działa poza siecią komputerową, łączy sieć komputerową z inną siecią nie komputerową),
karta sieciowa jest urządzeniem elektronicznym będącym częścią sieci komputerowej (urządzenie aktywne sieci). Jej zadanie polega na przekształcaniu pakietów danych wysyłanych przez komputer w sygnały elektryczne (cyfrowe), które są przesyłane w sieci komputerowej oraz odbieraniu tych sygnałów i przekształcaniu ich w pakiety danych. Karta sieciowa potrafi to robić tylko w jeden sposób (mówimy, że pracuje w określonym standardzie, np. Ethernet). Każda karta sieciowa ma unikatowy adres (MAC) w skali świata, nadawany przez producenta i zapisany w jej pamięci ROM.

13.System wielomagistralowy.

-magoistrala wewnterzna procesora taktowana z częstotliwości procesora, laczaca procesor z pamięcią cache

-magistrala systemowa laczy pamiec cache z Ram

-magistrala PCI laczy szybsze urzadzenia komputera z pamięcią RAM

-magistarala wejścia/wyjscia laczy wolniejsze urzadzenia z pamięcią RAM

-dedykowana magistrala AGP/PC/Exress laczy karte graficzna z RAM

14.Rodzaje interfejsów:

W interfejsie szeregowym kablem transmisyjnym przesyłany jest jeden ciąg bitów, który zamieniany jest na ciąg bajtów.

W interfejsie równoległym każdym kablem transmisyjnym przesyłany jest ciąg bitów. Ciągi te muszą być zamienione na ciągi bajtów.

Przygotowanie sygnału, jego transmisja, odbiór i interpretacja są:

Obecnie przede wszystkim rozwijane są interfejsy szeregowe, w typowych rozwiązaniach cechują się wyższą szybkością i niezawodnością (np. obecnie łączy się drukarki za pomocą USB).

15.Funkcje (podstawowe) systemu operacyjnego:

  1. Sterowanie pracą urządzeń.

  2. Zarządzanie informacją w pamięciach.

  3. Porozumiewanie z użytkownikiem (interfejs użytkownika).

System operacyjny określa możliwości komputera. Możliwości sprzętu, których system operacyjny nie jest w stanie wykorzystać są bezużyteczne.

Wraz z rozwojem technologii komputerowej, powstawaniem nowego sprzętu i jego nowymi możliwościami system operacyjny musi podlegać ciągłym modyfikacjom, by nadążyć za tym rozwojem.

Współczesne komputery PC wykorzystują następujące systemy operacyjne:

  1. MS DOS (wersja 1-6).

  2. MS DOS + MS Windows 3.11.

  3. MS Windows 9x (95, 98, Me).

  4. Windows NT (wersja 1-4).

  5. Windows 2k (2000, XP, 2003)

  6. Windows Vista,7

  7. Unix, Linux.

  8. Mac Intosh OS.

16.Dlaczego środowisko MS Windows zrewolucjonizowało świat komputerów?

Obecnie na świecie panuje monopol systemów operacyjnych na komputery PC jednej firmy - MicroSoft. Monopol ten wytworzył się samoistnie, a nie na skutek jakiejś brudnej gry rynkowej. Tak duża popularność produktów MicroSoft sprawia, że nikt inny nie jest się w stanie wybić w tym momencie. Pojawiła się pętla dodatniego sprzężenia zwrotnego.

Jeżeli jakaś firma na świecie chce wypuścić nowy program użytkowy, to najpierw przygotuje jego wersję pod Windows, ponieważ tutaj ma najwięcej potencjalnych klientów. Również tą wersję najczęściej będzie modyfikować. Najwięcej na tym zarobi.Podobnie jest z producentami sprzętu (zgodny z Windows).

Współczesny użytkownik komputera PC w zasadzie nie ma innej alternatywy, niż MS Windows:

-Może kupić sobie komputer MacIntosh i korzystać z jego systemu operacyjnego, ale traci dostęp do milionów programów użytkowych napisanych pod Windows.

-Może zainstalować sobie Linuxa, ale będzie jak wyżej plus pojawią się problemy ze sprzętem. Dodatkowo Linux nie jest tak wydajny w zarządzaniu strukturą katalogów, jak Windows.

-To, że Linux jest za darmo jest nieprawdą. Darmowe jest jądro systemu, ale chcąc mieć takie same programy narzędziowe, jak w Windows (w nich tkwi siła systemu) trzeba zapłacić dużo więcej.

17. Dysk logiczny to dysk obsługiwany przez system operacyjny. Dyskiem logicznym może być całe urządzenie (np. dyskietka magnetyczna, CD, DVD, pendrive) lub jego część (np. dysk magnetyczny).

Dodatkowo dyskiem może być określony katalog na innym dysku logicznym (tzw. dysk mapowany).

Dysk magnetyczny podczas preformatowania (formatowanie wstępne) dzielony jest na części (tzw. partycje) i w każdej partycji tworzone są dyski logiczne.Powinno się mieć co najmniej dwa dyski logiczne (gdy jeden fizyczny), by można było przenieść informacje podczas problemów z systemem operacyjnym. Za dużo dysków też jest niewygodne - mniejsza pojemność.

Struktura katalogów ma służyć uporządkowaniu informacji zgromadzonych na dysku. Dodatkowa zapewnia ona bezpieczeństwo poprzez odseparowanie plików aplikacji od plików użytkownika oraz plików różnych aplikacji.

Plik - zbiór informacji na określony ale dowolny temat stanowiący dla użytkownika pewną całość.

18.Program komputerowy (ang. computer program) - sekwencja symboli opisująca obliczenia zgodnie z pewnymi regułami zwanymi językiem programowania[1]. Program jest zazwyczaj wykonywany przez komputer (np. wyświetlenie strony internetowej), czasami bezpośrednio - jeśli wyrażony jest w języku zrozumiałym dla danej maszyny lub pośrednio - gdy jest interpretowany przez inny program (interpreter). Program może być ciągiem instrukcji opisujących modyfikacje stanu maszyny ale może również opisywać obliczenia w inny sposób (np. rachunek lambda).

*Edycja tekstów:

-Dokumenty tekstowe (np. MS Word)

-DTP (np. Ventura, Tex)

*Arkusze kalkulacyjne

*Systemy Bazy Danych

*Przetwarzanie grafiki:

-Przetwarzanie obrazów

-Oprogramowanie CAD/CAM

-CAD - Computer Aided Design

-CAM - Computer Aided Manufacturing

19. algorytm programu - opis sposobu rozwiązania problemu zapisany w języku logiki matematycznej przy pomocy skończonej liczby operacji

20. Sieć komputerowa to zespół komputerów połączonych ze sobą. Komputery uważamy za połączony, gdy potrafią wymieniać informację między sobą. Komputery w sieci są autonomiczne (ich funkcjonowanie nie zależy od sieci; brak połączenia z siecią nie pozwoli na wymianę informacji).Przed utworzeniem pierwszych sieci komputerowych powstawały systemy wielodostępne - pewna liczba terminali połączonych z jednym (dużym) komputerem centralnym umożliwiająca równoczesną pracę wielu ludziom.W latach 70-tych XX wieku uważano, że systemy wielodostępne są przyszłością informatyki.

Rodzaje sieci komputerowych:

1.Lokalne sieci komputerowe - LAN:

*Sieci równorzędne (Peer-To-Peer, P2P)

*Sieci zależne (klient-serwer):

-Z niededykowanym serwerem

-Z dedykowanym serwerem

2.Miejskie (metropolitalne, małe regionalne) sieci komputerowe - MAN

3.Rozległe (regionalne, krajowe, ogólnoświatowe) sieci komputerowe - WAN

21.Protokół sieciowy to zbiór narzędzi programowych i sprzętowych realizujących i egzekwujących reguły obowiązujące w sieci.

Protokół jest to zbiór procedur oraz reguł rządzących komunikacją, między co najmniej dwoma urządzeniami sieciowymi. Istnieją różne protokoły, lecz urządzenia nawiązujące w danym momencie połączenie muszą używać tego samego protokołu, aby wymiana danych pomiędzy nimi była możliwa.

W celu komunikacji między różnymi protokołami wykorzystuje łącza (ang. gateway) - czyli urządzenia, które tłumaczącą rozkazy jednego protokołu na drugi. Innym rozwiązaniem może być skonfigurowanie komputerów w taki sposób, by wykorzystywały kilka protokołów równocześnie.

Protokół sieciowy odpowiada za:

  1. Transmisję informacji:

    1. Podział na pakiety

    2. Przesyłanie pakietów

    3. Kontrola poprawności transmisji pakietów

    4. Naprawianie błędów transmisji

    5. Składanie pakietów

    6. Powiadamianie o problemach z transmisją

  2. Adresowanie w sieci

  3. Bezpieczeństwo w sieci:

    1. Odbiór przesyłek przez uprawnione osoby (adresatów)

    2. Szyfrowanie przesyłanej informacji

22.Router (po polsku - ruter, traser, trasownik) - podstawowe urządzenie sieciowe (każdej sieci), pełniące rolę węzła komunikacyjnego, służącego do rozdzielenia sygnału i rozgałęzienia połączeń sieciowych - kierowanie ruchem w sieci. Proces kierowania ruchem nosi nazwę trasowania, routingu lub rutowania.

Trasowanie musi zachodzić między co najmniej dwiema podsieciami, które można wydzielić w ramach jednej sieci komputerowej. Urządzenie przechowuje ścieżki do konkretnych obszarów sieci. Skuteczne działanie routera wymaga wiedzy na temat otaczających go urządzeń, przede wszystkim innych routerów oraz przełączników (switch).

23. Szerokopasmowy dostęp do Internetu (z ang. Broadband Internet Access) - usługa polegająca na połączeniu z Internetem za pomocą szybkiego łącza lub medium o dużej przepustowości transmisji. Połączenie wykorzystuje szerokie pasmo częstotliwości wykorzystywane przez modem. Najczęściej do tego celu wykorzystuje się technologie z rodziny DSL (xDSL), WiMAX, PON lub inne podobne.Dostęp szerokopasmowy umożliwia transmisję danych z prędkością co najmniej 5 Mbit/s w kierunku odbiorcy (download) i 1 Mbit/s od odbiorcy do Internetu (upload). Jednak dopiero szybsze łącza o prędkości ponad 20 Mbit/s pozwolą na prawdziwą rewolucję (np. na oglądanie filmów HD w czasie rzeczywistym).

24. TCP/IP

Protokół komunikacyjny TCP/IP jest używany do łączenia komputerów (urządzeń, hostów) w Internecie. TCP/IP wykorzystuje wiele protokołów - dwa podstawowe to: TCP i IP:

-TCP (Transmission Control Protocol) odpowiada za uzgadnianie tożsamości, zarządzanie pakietami (mogą docierać do adresata w innej kolejności, niż były wysłane), sterowanie przepływem oraz wykrywanie i obsługę błędów.

-IP - odpowiada za przesyłanie informacji (pakietów) od punktu, do punktu.

Internet

to powstała w na początku lat dziewięćdziesiątych XX wieku ogólnoświatowa (WAN) sieć sieci komputerowych (tzw. metasieć) wykorzystujących protokół TCP/IP.

Intranet

Przez Intranet rozumie się sieć lokalną (prywatną lub firmową), w której wykorzystywana jest filozofia Internetu.

W Internecie i Intranecie wykorzystywane są niemal te same narzędzia programowe (przeglądarki, szperacze, IM, ftp, telnet itp.) i metody pracy ich użytkowników (strony WWW, poczta elektroniczna). To właśnie stanowi o sile Intranetu - jest to forma miniatury Internetu.

Intranet jest bogatszy od Internetu o co najmniej trzy właściwości: jest znacznie szybszy, bezpieczny (odizolowany od świata zewnętrznego przez specjalne zabezpieczenia w postaci tak zwanych firewalli) i pod stałą kontrolą właściciela.

Extranet

Prywatna rozległa sieć oparta na internetowym protokole transmisji informacji. Służy do bezpiecznej (podobnie jak ma to miejsce w Intranecie) komunikacji z wyróżnionymi zewnętrznymi użytkownikami - np. między odległymi redakcjami jednego pisma, a także z biznesowymi partnerami, zaopatrzeniowcami i klientami.

Sieć tego typu jest także nazywana siecią korporacyjną, VPN - Virtual Private Networks lub WLAN - Wide Local Area Network (także, ale już w innym znaczeniu, lokalnym, nazywany Wireless LAN - bezprzewodowy LAN).

VPN umożliwia tworzenie tuneli pomiędzy komputerami i sieciami lokalnymi (nie będąc w danej sieci LAN, dzięki VPN możemy być traktowani jako jedna z jej części).

25. IPv4 jest obecnym standardem adresowania w Internecie. Adres IP to liczba 32-bitowa (od 0 do 4294967295), zapisywana w porządku big endian (górny bajt). Jest to forma zapisu danych za pomocą rozłącznych części (tutaj bajtów), z których najważniejsza jest pierwsza część (lewy bajt). Liczby w adresie IP nazywają się oktetami, ponieważ w postaci binarnej mają one osiem bitów. Te osiem bitów daje w sumie 256 kombinacji, więc każdy oktet przedstawia liczbę dziesiętną od 0 do 255.

Najpopularniejszy sposób zapisu adresów IP, to przedstawianie ich jako 4 dziesiętnych liczb od 0 do 255 oddzielonych kropkami. W rzeczywistości komputery traktują je jako liczbę 32-bitową.

IPv6 / IPNG (ang. Internet Protocol version 6 / Internet Protocol Next Generation) - najnowsza wersja protokołu IP, następca IPv4, do którego stworzenia przyczynił się w głównej mierze problem małej, kończącej się ilości adresów IPv4. Dodatkowymi zamierzeniami było udoskonalenie protokołu IP: eliminacja wad starszej wersji, wprowadzenie nowych rozszerzeń (uwierzytelnienie, kompresja i inne), zminimalizowanie czynności wymaganych do podłączenia nowego węzła do Internetu (autokonfiguracja).

Pierwsze dokumenty opisujące protokół IPv6 powstały w 1995 roku. W latach 1996-2006 w infrastrukturę Internetu wdrażany był projekt 6BONE w formie eksperymentalnej sieci działającej w oparciu o IPv6. Po zamknięciu tego projektu niektórzy dostawcy usług internetowych rozpoczęli produkcyjne dostarczanie IPv6. Spora część szkieletu sieci IPv6 opiera się jednak jeszcze na tunelach wykorzystujących poprzednią wersję protokołu.

26.DNS (Domain Name System, system nazw domenowych) to system serwerów oraz protokół komunikacyjny zapewniający zamianę adresów znanych użytkownikom Internetu na adresy zrozumiałe dla urządzeń tworzących sieć komputerową. Dzięki wykorzystaniu DNS nazwa mnemoniczna, np. pl.wikipedia.org, może zostać zamieniona na odpowiadający jej adres IP, czyli 145.97.39.155.

URL (Uniform Resource Locator) oznacza ujednolicony format adresowania zasobów (informacji, danych, usług), stosowany w Internecie i w sieciach lokalnych.

URL najczęściej kojarzony jest z adresami stron WWW, ale ten format adresowania służy do identyfikowania wszelkich zasobów dostępnych w Internecie. Większość przeglądarek internetowych umożliwia dostęp nie tylko do stron WWW, ale także do innych zasobów w Internecie, po wpisaniu do przeglądarki poprawnego adresu URL danego zasobu.

Domena internetowa - element adresu DNS wykorzystywanego do nazywania urządzeń w Internecie. Dla przykładu adres Wikipedii pl.wikipedia.org składa się z trzech nazw domenowych rozdzielonych kropkami.

27. Podstawowe usługi (informatyczne) Internetu:

-Tworzenie, wyszukiwanie i przeglądanie stron.

-Telnet

-FTP

-Poczta elektroniczna (szeroko rozumiana)

-Wykorzystanie mediów strumieniowych

Do podstawowych usług informatycznych Internetu należą:

  1. Telnet

  2. FTP

  3. Poczta elektroniczna

  4. Media strumieniowe

FTP (ang. file transfer protocol) - protokół do przesyłania plików. Jest to jedna z powszechnych usług komunikacyjnych (sprzętowa i programowa składowa infrastruktury Internetu) pozwalająca na sprawną transmisję informacji w postaci pliku poprzez sieć. Plik ten może zawierać informacje dowolnego typu (np. tekst, obraz, dźwięk, film).W Sieci istnieje wiele serwerów ftp udostępniających informacje w ten sposób. Zasoby tych serwerów są widoczne zdalnym użytkownikom jako systemy plików.Udostępniane one mogą być anonimowo lub wymagane jest posiadanie konta na danym serwerze ftp.

Telnet to usługa polegająca na pracy na zdalnym komputerze. Użytkownik łączy się zdalnie z innym komputerem (loguje się na nim) i wykorzystuje jego zasoby jak własne przy pomocy swojej klawiatury i myszy. Telnet jest częścią takich powszechnych usług Internetu, jak ftp i przeglądanie stron WWW. W tym wypadku zdalny użytkownik wykorzystuje zasoby informacji zgromadzone na zdalnym komputerze, kopiując je na własny dysk.

Innym przykładem korzystania z telnetu jest zdalne uruchamianie i obsługa aplikacji. W ten sposób używa się mocy obliczeniowych komputerów w centrach obliczeniowych do realizacji bardziej skomplikowanych zadań użytkowników (zazwyczaj usługa płatna) i/lub oprogramowania, którego użytkownik nie posiada.

Telnet jest standardem protokołu komunikacyjnego używanego w sieciach komputerowych do obsługi odległego terminala w architekturze klient-serwer. Telnet jest usługą (programem) pozwalającą na zdalne połączenie się komputera (terminala) z oddalonym od niego komputerem (serwerem) przy użyciu sieci, wykorzystując do tego protokół TPC/IP oraz standardowo przypisany port 23. Umożliwia on użytkownikowi ustanowienie zdalnej sesji na serwerze tak, jakby siedział przed nim.

Poczta elektroniczna, to jedna z informatycznych usług Internetu polegająca na wysyłaniu wiadomości (komunikatów, które nie są zapisane w plikach). Pierwotnie polegała na wysyłaniu wiadomości w formacie tekstowym ASCII (odpowiednik SMS w telefonii komórkowej). Później rozszerzono możliwości poczty o wiadomości w formacie HTML. Ponadto do wiadomości pocztowych mogą być dołączone załączniki w postaci plików w prawie dowolnym formacie (także plików binarnych) o prawie dowolnej wielkości.

Za pośrednictwem poczty elektronicznej realizowanych jest wiele usług internetowych, nie tylko email (grupy i listy dyskusyjne, BBS - Bulletin Board System, rozmowy w czasie rzeczywistym - IRC czy IM).

28.Cechy zasobów informacyjnych Internetu:

-Zasoby Internetu zazwyczaj są szczególnie cenne ze względu na ich aktualność i możliwość szybkiego i powszechnego dostępu do nich.

-Wiedza o potencjale informacyjnym Internetu ma szczególne znaczenie w obszarze społeczno-ekonomicznym oraz dla nauki i edukacji.

-Niestety zarysowuje się brak równowagi pomiędzy narzędziami pozwalającymi korzystać z Internetu (nie nadążają) a jego zasobami informacyjnymi i usługami.

-Z punktu widzenia mediów zasoby informacyjne Internetu są wartościowym źródłem informacji backgroundowych, bieżących oraz poczynań konkurencji (zawodowych).

-Tradycyjne (papierowe) publikacje z jednej strony spowalniały przepływ informacji, natomiast z drugiej czyniły je bardziej wyważonymi, zmniejszając ryzyko rozpowszechniania informacji niesprawdzonych i niewiarygodnych.

-W przypadku zasobów online zredukowano lub nawet wyeliminowano pośredników na drodze od producenta informacji do ich odbiorcy.

-W konsekwencji pojawił się problem ogromnej liczebności i wiarygodności informacji określanych często terminem „smogu informacyjnego”.

29.Co to jest WWW, strona WWW, HTML, http, hipertekst?

Zasoby Internetu tworzą zbiory informacji pogrupowane w stronach (witrynach, portalach). W większości są one zapisane w formacie nazywanym hipertekstem. Hipertekst stanowi logiczną kombinację tekstu i materiałów multimedialnych ułożonych w sposób nieliniowy (brak początku i końca, przeglądana zawartość i kolejność zależna od użytkownika).

Każda strona (site) WWW zawiera zazwyczaj jeden monotematyczny zbiór informacji. Jest ona podzielona na części (page) nazywane dla odróżnienia stronicami, w znaczeniu pojedynczych kartek.

A zatem zbiory WWW są nazywane stronami, które z kolei są dzielone na pojedyncze „kartki” - stronice.

HTTP to protokół do przesyłania hipertekstu.

Strony WWW są tworzone przy wykorzystaniu specjalnie do tego celu opracowanego języka programowania HTML (ang. HiperText Markup Language) - hipertekstowego języka znaczników. Pozwala on na formatowanie dokumentów zachowując niewielkie rozmiary plików (w porównaniu z dokumentami np. MS Word).

Dokumenty hipertekstowe są przykładami dokumentów nieliniowych. Pozwalają one na łatwe przeglądanie i odczytywanie zawartości stron i stronic o kolejności dobieranej indywidualnie przez użytkownika.

Strony mogą zawierać informacje w każdej formie - teksty, rysunki, fotografie, dźwięki i wideo (multimedia).

Na stronach umieszcza się także linki (odnośniki), wybranie których powoduje otwarcie nowej strony/stronicy.

30.Metody wymiany poglądów w Internecie?

W „starym” Internecie (Web 1.0) do roku 2001 internauci mogli wymieniać poglądy wykorzystując:

Nowy Internet (Web 2.0) po 2001 roku rozszerzył możliwości o:

Grupa lub lista dyskusyjna - w Internecie to ogólna nazwa wszelkich form dyskusji internetowych przypominających wymianę korespondencji, a nie rozmowy w czasie rzeczywistym.

31. Metody komunikacji w Internecie?

Metody komunikacji w Internecie można podzielić z punktu widzenia relacji pomiędzy nadawca i odbiorcą na:

Z punktu widzenia czasu realizacji połączenia komunikacja może być:

Dodatkowo można mówić o komunikacji bezpośredniej online i bezpośredniej offline. Komunikacja pośrednia ze swojej natury zwykle ma formę komunikacji odroczonej.

O komunikacji bezpośredniej mówi się, gdy konkretny nadawca porozumiewa się bezpośrednio z konkretnym odbiorcą. Równocześnie dla obu stron istotna jest i znana druga strona rozmowy.

Dodatkowo podczas komunikacji bezpośredniej online wymagane są systemy szybkiego, bezpośredniego kontaktu osób między sobą. Rejestracja treści korespondencji jest tutaj kwestią marginalną (może jedynie na zasadzie prowadzenia archiwum), ponieważ osoby wymieniają poglądy w czasie rzeczywistym.

Komunikacja bezpośrednia offline wymaga gromadzenia treści rozmowy w celu późniejszego wykorzystania.

Podczas komunikacji pośredniej także pewien konkretny nadawca wysyła informację do odbiorcy, ale przechodzi ona przez szereg użytkowników pośrednich, także uczestniczących w procesie porozumiewania się i informacja o nadawcy ginie. Z drugiej strony w tym modelu porozumiewania się odbiorcy jest wszystko jedno od kogo otrzymał daną informację. Interesuje go jedynie jej treść.

Z uwagi na specyfikę realizacji połączenia w metodzie komunikacji pośredniej, konieczność przekazywania sobie informacji przez pośredników, co wymaga czasu, metoda ta jest zazwyczaj metodą komunikacji offline.

Metody komunikacji bezpośredniej w Internecie:

Metody komunikacji pośredniej w Internecie:

32.Intruzów internetowych można podzielić na trzy kategorie:

-Haker - działa w dobrej wierze, w imię ludzkości (większości lub dręczonych); włamuje się do systemów komputerowych by wskazać ich słabość, lub by odpłacić się firmie za krzywdy wyrządzone innym; nie kradnie, zawsze zostawia swoją wizytówkę w systemie.

-Craker - to po prostu złodziej, który włamuje się do systemu komputerowego by coś ukraść; zaciera wszelkie ślady po swojej obecności.

33.DoS attack (ang. Denial of Service, pol. odmowa usługi) - atak na system komputerowy lub usługę sieciową w celu uniemożliwienia działania poprzez zajęcie wszystkich wolnych zasobów.

Atak polega zwykle na:

W praktyce przez atak typu DoS rozumie się różnego typu ataki na systemy komputerowe mające na celu utrudnienie lub uniemożliwienie funkcjonowania danej maszyny lub części sieci. Ataki tego typu polegają najczęściej na sztucznym generowaniu i przesyłaniu do komputera ofiary wielkiej ilości informacji. Komputer (ofiara) nie jest w stanie przeanalizować i odpowiedzieć na wszystkie napływające informacje co prowadzi do spowolnienia lub zablokowania jego działania (zawieszenia komputera). Niemożliwe staje się wtedy osiągnięcie go, mimo że usługi pracujące na nim są gotowe do przyjmowania połączeń.

34.Co to jest program złośliwy? Rodzaje? Czy wirus i program złośliwy to to samo?

Przez złośliwe oprogramowanie (ang. malware - malicious software) rozumie się wszelkie aplikacje, skrypty i ingerencje mające szkodliwe, przestępcze lub złośliwe działanie w stosunku do użytkownika komputera.

Podstawowe cechy programów złośliwych to:

Rodzaje programów złośliwych:

Wirus - krótki program komputerowy lub fragment wykonywalnego kodu, który dołącza się, nadpisuje lub zamienia inny program w celu uruchamiania samego siebie bez wiedzy i zgody użytkownika. Wirusy zwykle szkodzą systemowi operacyjnemu utrudniając prace użytkownika. Każdy wirus ma zdolność samopowielania. Jest to warunek konieczny, aby dany program można było nazywać wirusem.

Wirusy przenoszone są przeważnie w zainfekowanych wcześniej plikach lub w pierwszych sektorach fizycznych dysków logicznych. Długość typowego wirusa dawniej wahała się od kilkudziesięciu bajtów do kilku kilobajtów. Obecnie klasyczne wirusy spotyka się rzadziej - częściej jest to hybryda wirusa z robakiem, a rozmiar kilkadziesiąt i więcej kilobajtów nie dziwi - tyle kodu bez problemu można ukryć w wielomegabajtowych bibliotekach czy programach.

35.Na czym polega szyfrowanie informacji?

Kryptologia (z greckiego κρυπτός - kryptos - "ukryty" i λόγος - logos - "słowo") - nauka o przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem.

Kryptologię dzieli się na:

Istotnym elementem technik kryptograficznych jest proces zamiany tekstu jawnego w szyfrogram (inaczej kryptogram); proces ten nazywany jest szyfrowaniem, a proces odwrotny, czyli zamiany tekstu zaszyfrowanego na powrót w możliwy do odczytania, deszyfrowaniem. Przez szyfr rozumiana jest para algorytmów służących do przeprowadzenia obu procesów. Wraz z algorytmami dodatkowo używa się kluczy, czyli pewnych niezbędnych parametrów, od których zależy wynik obu procesów. Innymi słowy, znajomość algorytmu i szyfrogramu bez dostępu do klucza nie pozwoli na odtworzenie tekstu jawnego.

W jakim celu szyfruje się informacje:

  1. Zapewnienie poufności.

  2. Zapewnienie integralności (niezmienności w czasie przekazu).

  3. Uwierzytelniania (pewność źródła pochodzenia).

Szyfrowanie jest elementem takich technik, jak:

  1. Podpis elektroniczny.

  2. Głosowanie elektroniczne (e-voting).

  3. Dowód z wiedzą zerową (udowodnienie posiadania pewnej informacji bez jej ujawniania).

  4. Współdzielenie tajemnicy (zaszyfrowanie informacji tak, by tylko pewna grupa osób mogła ją odczytać).

  5. Obliczenia wielopodmiotowe (sytuacja odwrotna).

36.Metody szyfrowania. Szyfrowanie symetryczne. Szyfrowanie asymetryczne.

Współczesne metody szyfrowania można ogólnie podzielić na:

W szyfrowaniu asymetrycznym występują 2 klucze:

Przekształcenia tekstu otwartego przez oba te klucze są wzajemnie odwrotne - użycie obu kluczy bezpośrednio po sobie daje w wyniku pierwotny tekst otwarty. Kolejność użycia kluczy nie ma znaczenia: najpierw klucz publiczny, potem prywatny lub najpierw klucz prywatny, potem publiczny.

System szyfrowania asymetrycznego (z kluczem publicznym) został skonstruowany w taki sposób, że obliczenie klucza prywatnego na podstawie klucza publicznego, mimo że możliwe, jest praktycznie niewykonalne. Zamiast tego, oba klucze generowane są poufnie jako para i klucz publiczny jest następnie rozpowszechniany.

Szyfry asymetryczne opierają się na istnieniu pewnych trudnych do odwrócenia problemów. Na przykład o wiele łatwiej jest pomnożyć przez siebie 2 duże liczby, niż rozłożyć dużą liczbę na czynniki (opiera się na tym system RSA).

Współczesne metody szyfrowania symetrycznego można podzielić na dwie grupy:

Szyfry blokowe to procedury, które szyfrują niewielkie bloki danych (znacznie mniejsze od typowej wiadomości), współcześnie jest to najczęściej 128 bitów (AES), choć do niedawna przeważały 64-bitowe bloki (DES, 3DES, Blowfish, IDEA). Klucze są znacznie mniejsze, mają zwykle od 128 do 256 bitów, przy czym wartości mniejsze od 80 (DES - 56) są uważane za niewystarczające.

Typowy szyfr blokowy składa się z kilkunastu dość prostych rund przekształcających blok. Operacje używane w tych szyfrach są zwykle proste, ale pochodzą z "różnych światów", np. używa się dodawania, XOR, przesunięć cyklicznych, mnożenia modulo liczb pierwszych itd. Już kilka rund takich operacji zupełnie zaburza jakikolwiek porządek i jest bardzo trudne do analizowania.

Szyfry strumieniowe szyfrują każdy znak tekstu jawnego osobno, generując znak strumienia szyfrującego, w związku z czym nie jest konieczne oczekiwanie na cały blok danych, jak w przypadku szyfrów blokowych.

Najpopularniejszym współczesnym szyfrem strumieniowym jest RC4. Inne popularne szyfry strumieniowe to A5/1 i A5/2 stosowane w telefonii komórkowej. Do szyfrów strumieniowych należą też historyczne szyfry polialfabetyczne i monoalfabetyczne.

37.Co to jest podpis elektroniczny? Jak podpisywać elektronicznie dokumenty? Jaka jest rola podpisu elektronicznego?

Podpis cyfrowy (podpis elektroniczny) to dodatkowa informacja dołączona do wiadomości służąca do weryfikacji jej źródła.

Podpis elektroniczny służy zapewnieniu między innymi następujących funkcji:

Do zapewnienia wszystkich wymienionych funkcji potrzebne jest zastosowanie trzech środków:

Podpisy cyfrowe korzystają z kryptografi asymetrycznej - tworzona jest para kluczy, klucz prywatny i klucz publiczny - klucz prywatny służy do podpisywania wiadomości, klucz publiczny natomiast do weryfikowania podpisu.

Najważniejszymi kryptosystemami umożliwiającymi podpisywanie cyfrowe są RSA i EIGamal (rozwinięty w standardy DSA, GOST 31.10 czy KCDSA).

Inne znane systemy proponowane dla podpisu elektronicznego to schematy oparte na krzywych eliptycznych (ECDSA, EC-KCDSA, ECNR) i inne wykorzystujące problem logarytmu dyskretnego (np. XTR), algorytmy wielu zmiennych (jak SFLASH czy Quartz) oraz operujące na kartach (NTRU-Sign).0x01 graphic
0x01 graphic



Wyszukiwarka