OPIS PRZEDSI BIORSTWA 36 S, Inne


  1. OPIS PRZEDSIĘBIORSTWA

  1. Nazwa przedsiębiorstwa

Firma Elmex Sp. z o. o. powstała w 1991 roku. Siedziba spółki znajduje się

w Katowicach. Adres: 40-154 Katowice, ul. Brynowska 22.

Wytwórnia kostki brukowej jest zlokalizowana na terenie bazy firmy Elmex..

Firma jest usytuowana przy drodze E-22. Spółka działa na terenie południowo-wschodniej Polski i oferuje szeroki asortyment tak od strony formy jak i rozwiązań kolorystycznych.

  1. Opis działalności:

- produkcja materiałów budowlanych dla drogownictwa

-    wykonawstwo robót drogowych

-    projektowanie w zakresie drogownictwa i infrastruktury drogowej

-    prowadzenie działalności konsygnacyjnej

-    usługi transportowe i spedycyjne na terenie całego kraju

  1. Konkurencja na tle prowadzonej działalności

Główne, konkurencyjne wytwórnie kostki brukowej są zlokalizowane w okolicach:

-   Warszawa - Soltex

-    Radom - Winiarski

-    Wrocław - Brulex

  1. Zakres terytorialny prowadzonej działalności

Obszarem dystrybucji jest cała Polska. Niemniej można wyróżnić regiony, gdzie zapotrzebowanie na kostkę drogową jest ponadprzeciętne. Do tych rejonów należą duże aglomeracje miejskie, a przede wszystkim Warszawa, Katowice i Wrocław i inne większe miasta Polski.

Główne rynki zbytu.

-  firmy realizujące infrastrukturę w programie Autostrada Polska

-  urzędy miast i gmin realizujące parkingi i drogi w miastach

-  duże firmy budowlane realizujące budownictwo przemysłowe

-  drobni odbiorcy indywidualni z terenu Katowic i okolic.

  1. Struktura organizacyjna

- Dyrektor,

- Główny Księgowy,

- Zespół Marketingu i Sprzedaży,

- Wydział Produkcji.

- Dyrektor Zakładu - Krzysztof Romanowski - lat 39, inżynier budownictwa drogowego (Politechnika Śląska), posiada 3 letnią praktykę produkcyjną, jest odpowiedzialny za całokształt funkcjonowania Zakładu,

- Główny Księgowy - Wacław Miodek - lat 50, magister ekonomii (Uniwersytet Warszawski), posiada wieloletnią praktykę, w firmie Elmex od początku jej działalności, odpowiedzialny za system księgowości i kontroli finansowej,

- Kierownik Zespołu Marketingu i Sprzedaży - Michał Górny - lat 30, magister ekonomii (Uniwersytet Śląski), od 3 lat w Elmex, jest odpowiedzialny za opracowanie i realizacje strategii marketingowej oraz za prowadzenie sprzedaży produkcji,

- Kierownik Produkcji - Karol Cisowski - lat 37, inżynier budowlany, od początku pracuje w firmie Elmex, odpowiedzialny za zorganizowanie całego procesu produkcyjnego.

Lista wspólników:

-   Edward Kowalski - 85% udziałów

-   Investrust Sp. z o. o. z siedzibą w Sosnowcu- 5%

-   Jarosław Ziętek- 5% udziałów

-   Elmex Sp. z o. o.z siedzibą w Katowicach- 5%

  1. Plany rozwojowe:

- wypracowanie silnej pozycji na rynku krajowym

- nasilenie reklamy w celu zapoznania potencjalnych klientów z ofertą firmy

- zakup dodatkowych linii produkcyjnych

- utrzymanie wysokiej jakości produktów w celu wypracowania dobrego image firmy

- unowocześnienie systemów informatycznych przedsiębiorstwa

- nasilenie działań w kierunku poszerzenia rynku zbytu

- działania promocyjne na terenie sąsiednich województw

- przeprowadzenie badań marketingowych odnośnie zapotrzebowania na kostkę brukową i zmian popytu na nią w różnych okresach czasu

- tworzenie nowych kanałów dystrybucji

- przeznaczenie części zysków na podniesienie kwalifikacji zawodowych pracowników poprzez kursy i szkolenia

- utrzymanie stabilnej i krzystnej sytuacji finansowej firmy

- dążenie do zawierania umów na dostawy dla przedsiębiorstw drogowych

- zakup nowych środków transportu w celu łatwiejszego dotarcia do odbiorców

- opracowanie szczegółowych procedur kontroli kosztów zapewniających efektywne zarządzanie.

  1. SYSTEMY INFORMATYCZNE PRZEDSIĘBIORSTWA

System informacyjny przedsiębiorstwa, - to sieć wewnętrznie połączonych ze sobą komponentów służących do zbierania, wyszukiwania, przetwarzania, przechowywania i udostępniania informacji do celów planowania, sterowania, koordynacji oraz podejmowania decyzji w organizacji. Podstawowymi komponentami systemu informacyjnego są: zbiór nadawców informacji, zbiór stosowanych w systemie metod i środków technicznych, zbiór informacji, zbiór kanałów przepływu informacji, oraz zbiór odbiorców informacji. Skomputeryzowany system informacyjny zarządzania, w którym wymienione wyżej funkcje są realizowane z udziałem technologii komputerowej, określany jest mianem systemu informatycznego zarządzania (SIZ). Jednak SIZ nie można opisywać tylko w kategoriach technologii komputerowej. Aby sprostał on wymaganiom współczesnej organizacji musi być jej integralną częścią. W takim rozumieniu system informatyczny zarządzania jest produktem trzech komponentów: technologii, organizacji, ludzi.

1. Rodzaje systemów informatycznych

Identyfikacja SIZ będzie polegać na przyjęciu określonych kryteriów podziału w celu zróżnicowania tych systemów. Przystępując do identyfikacji SIZ zakładamy, że dokonamy podziału systemów według określonych kryteriów typologii.

Celem podziału typologicznego jest wyodrębnienie określonych grup SIZ z punktu widzenia pełnionych przez nie zadań przetwarzania i stosowanych w nich rozwiązań organizacyjnych, technicznych i technologicznych. Możemy wyróżnić następujące rodzaje systemów informatycznych:

  1. informatyczne systemy zarządzania

Można do nich zaliczyć m.in.:

  1. profesjonalne systemy informatyczne

Presja ze strony międzynarodowych agencji, ulepszona technologia, wzrost komunikacji, powodują wzrost globalnej konkurencji. Koncentruje się ona nie tylko na cenach, ale i jakości, poziomie usług, szybkości dostaw. Konkurencja ta dotyczyła do niedawna miasta, regionu, państwa, a teraz przybiera charakter międzynarodowy. Dlatego przedsiębiorstwa muszą zaopatrywać się w profesjonalne systemy informatyczne, które zarazem są systemami makroekonomicznymi.

  1. systemy mikroekonomiczne

Mikroprzestrzeń ekonomiczną tworzą przedsięwzięcia inwestycyjne partnerów rynkowych, w których decydującą rolę odgrywają wielomodułowe systemy informatyczne. Najlepszym rozwiązaniem w systemach mikroekonomicznych jest wykorzystanie sieci lokalnych. Integracja systemów informatycznych jest związana z kompatybilnością protokołów komunikacyjnych, wchodzących w skład pakietów sieciowych. W systemie zintegrowanym użytkownicy mają dostęp do aplikacji na różnych serwerach. Administracja systemem jest związana z poziomami uprawnień dostępu do strumieni informacyjnych w przedsiębiorstwie.

Najważniejsze cechy platform systemowych sieci lokalnych:

Do systemów mikroekonomicznych przedsiębiorstwa zaliczamy: Novell NetWare 4.1, Windows NT, OS/2, UNIX, NDS. Pełnią one następujące funkcje: administrują siecią lokalną, obsługują katalogi, obsługują protokoły komunikacyjne, zarządzają przestrzenią dyskową, umożliwiają integrację platform systemowych (serwer SCO UNIX) oraz korzystanie z rozproszonych baz danych.

  1. systemy dziedzinowe

Systemy dziedzinowe funkcjonują w obszarze jednej lub w kilku wybranych sferach działalności techniczno-ekonomicznej przedsiębiorstwa. Na ogół są to systemy autonomiczne, realizujące określone funkcje i cechujące się ścisłą integracją wewnętrzną. Najczęściej spotykanym przykładem systemu dziedzinowego eksploatowanego w praktyce jest System Gospodarki Materiałowej. Rozwiązania tej grupy systemów automatyzują przetwarzanie informacji związanej z obsługą ewidencyjną gospodarki materiałowej przedsiębiorstwa. Obejmują one ewidencję analityczną  i syntetyczną materiałów. Eliminują tradycyjne kartoteki ilościowo-wartościowe, wprowadzając w ich miejsce zapisy obrotów i stanów materialnych na nośnikach magnetycznych. W ramach tych systemów można wyróżnić systemy cząstkowe, które realizują zwykle następujące funkcje:

Dość znaczną grupę tych systemów stanowią Systemy Kadrwe i Płacowe, które działają automatycznie, realizując swoje funkcje wewnętrzne, mające charakter ewidencyjno-planistyczny i sprawozdawczo-analityczny.

  1. systemy kompleksowe

Systemy te obejmują wszystkie obszary działalności przedsiębiorstwa. Ich zakres wyznaczają wchodzące w ich skład systemy dziedzinowe, których działanie wymusza istnienie integralności funkcjonalnej i strukturalnej.

  1. systemy cząstkowe

Są to systemy obejmujące wybraną funkcję lub element struktury systemu dziedzinowego o ustalonych właściwościach. Jego działanie jest ograniczone, a wyodrębnienie wynika z potrzeb organizacyjnych lub z technologii przetwarzania danych.

  1. systemy proste

Są to systemy wykorzystujące powszechnie zalecane wersje oprogramowania standardowego oraz najbardziej dostępny na rynku sprzęt. Na ogół są one autonomiczne i przyporządkowane do konkretnego użytkownika. Systemy proste realizują funkcje przetwarzania danych w obrębie jednego lub kilku systemów wielodziedzinowych, które obsługują podstawowa działalność ewidencyjną i obliczeniową w zakresie płac i kadr, rachunkowości i finansów oraz gospodarki materiałowej. Systemy proste stanowią grupę szeroko rozpowszechnionych systemów ewidencyjnych. Są one wykorzystywane w małych firmach gospodarczych (np.: w hurtowniach, wytwórniach).

  1. systemy złożone

Są to systemy będące rezultatem dekompozycji systemów prostych w kierunku obsługi sfery strategicznej przedsiębiorstwa. Najczęściej jest to dekompozycja funkcji baz danych, baz metod i baz modeli. Ta grupa systemów wymaga instalacji wielofunkcyjnego oprogramowania i różnych rozwiązań sprzętowych o znacznej mocy obliczeniowej i usprawnionej komunikacji użytkownika z SIZ. Systemy złożone są stosowane w małych i średnich przedsiębiorstwach.

  1. systemy szczególnie złożone

Są to systemy łączące sferę zarządzania ze sferą wytwarzania. Charakteryzuje je wysoki poziom zaawansowanych technologii informatycznych. Świadczy o tym duży zakres integralności, który obejmuje wszystkie rodzaje baz systemu oraz mechanizmy komunikacji pomiędzy podsystemami i użytkownikami.

2. Metody informatyzacji przedsiębiorstw

Istnieje wiele sposobów informatyzacji przedsiębiorstw. Jedną z nich jest podział komputeryzacji w zależności od modelu zarządzania przedsiębiorstwem:

  1. komputeryzacja chaotyczna

  2. komputeryzacja mechaniczna

  3. komputeryzacja synergiczna

  4. komputeryzacja strategiczna

Ad.a

Metoda informatyzacji chaotycznej - metoda komputeryzacji spotykana powszechnie jeszcze w całkiem nie tak odległych czasach. Charakteryzuje się ona tym, iż o działaniach informatyzacyjnych decydują najczęściej osoby mające raczej mały związek z komputerami, a posiadające mocną pozycję w samej organizacji danej firmy. Głównym powodem rozpoczęcia tego procesu jest chęć posiadania komputera (nawet jeśli nie jest to uzasadnione ekonomicznie). Bilans opłacalności takiego rodzaju przedsięwzięć rzadko okazuje się dodatni. Brak zrozumienia dla ograniczeń technologii, trudności związanych z procesem wdrożenia, kosztów wytworzenia, a zwłaszcza kosztów utrzymania, powodują, że z czasem taka informatyzacja gubi się w coraz to nowych problemach. Zazwyczaj część z podjętych rozwiązań okazuje się być bezużyteczna, a te które działają nie dają się zaadaptować do zmian zachodzących w przedsiębiorstwie i jego otoczeniu.

Ad.b.

Metoda informatyzacji mechanicznej - głównym założeniem mechanicznego sposobu informatyzacji jest wdrożenie do każdej komórki przedsiębiorstwa (działu) odpowiedniego systemu informatycznego mającego spełnić stawiane mu wymagania. Systemy wdrażane są po kolei do każdego działu firmy. Podstawowym celem mechanicznej komputeryzacji jest to aby realizowane przez komputery funkcje spełniane były jak najszybciej. Poszczególne systemy powinny być między sobą zintegrowane. Dane przekazywane z jednego działu do innych powinny być w nich odpowiednio wykorzystywane. Korzyścią jaka wynika ze stosowania takiego typu informatyzacji jest poprawa efektywności procesów biznesowych w przedsiębiorstwie. Zjawisko to jednak nie występuje zawsze. Bywa tak, że dane przekazywane nie są wykorzystywane w konkretnym systemie np. dane wprowadzane w produkcji nie są odpowiednie z punku widzenia księgowości, komórki odpowiedzialne za sprzedaż i finanse firmy mają różne wymagania jeśli chodzi o dane klientów, sporządzane raporty nie satysfakcjonujące kierownictwa.

Ad.c.

Metoda informatyzacji synergicznej - ten rodzaj informatyzacji ukierunkowany jest na usprawnienie procesów gospodarczych zachodzących w przedsiębiorstwie:

Informatyzacja synergiczna powstała bezpośrednio z wymagań precyzowanych przez użytkowników systemów informatycznych. Bazuje na zrozumieniu zachodzących w przedsiębiorstwie procesów gospodarczych. Przekazywane pomiędzy odpowiednimi elementami całego systemu informacje są jasno sprecyzowane, a ich charakter wynika z konkretnego zapotrzebowania.

Ad.d.

Metoda informatyzacji strategicznej - o ile informatyzacja synergiczna dawała pewność, że funkcjonujący w przedsiębiorstwie zintegrowany system informatyczny spełniać będzie bieżące wymagania danej organizacji to coraz częściej zachodzi potrzeba zaangażowania systemów informatycznych w zarządzanie strategiczne przedsiębiorstwa. Informatyzacja strategiczna łączy w sobie możliwości komputeryzacji synergicznej z wykorzystaniem technologii informatycznych dla celów strategicznych. Przy takim zastosowaniu techniki komputerowej wydatki z nią związane stają się normalnym składnikiem kosztów rozwoju przedsiębiorstwa takimi jak badania marketingowe czy reklama.

3. Korzyści z wdrożenia systemów informatycznych

Korzyści wynikające z zastosowania informatycznych systemów zarządzania w przedsiębiorstwie możemy podzielić na:

    1. korzyści materialne, czyli wymierne,

    2. korzyści niematerialne, czyli niewymierne.

Korzyści materiale SIZ możemy zauważyć w takich sferach jak:

Oprócz korzyści wymiernych z zastosowania SIZ w firmie występują liczne korzyści niematerialne. Są to m.in.:

  1. doskonalenie struktury organizacyjnej i informacyjnej firmy,

  2. poprawa komunikacji firmy z otoczeniem,

  3. poprawa komunikacji wewnętrznej firmy,

  4. ogólna poprawa wizerunku firmy,

  5. wspomaganie pracownika w gospodarowaniu jego czasem pracy,

  6. wspomaganie zasadnicze działania w organizacji przez system informatyczny

4. Opis wybranego rozwiązania funkcjonującego systemu informatycznego

Firma Elmex Sp. z o.o. od ponad dwóch lat korzysta z systemu Milenium. System Milenium, to doskonały system wspomagania zarządzania. Opracowano go w oparciu o najnowsze technologie informatyczne, które zapewniają jego wysoką wydajność i bezpieczeństwo pracy. Dzięki temu posiada on unikalne funkcje, które odróżniają go od innych systemów tego typu dostępnych na rynku. Wykorzystanie sieci Internet umożliwia zdalną pracę z systemem, co jest doskonałym rozwiązaniem dla firm posiadających oddziały lub pracowników będących w ciągłym ruchu lub pracującym w domu (tylko w wersji dla MS SQL Server). System Milenium składa się z modułów. Wszystkie moduły systemu są ze sobą ściśle zintegrowane i dla użytkownika widoczne są jako jeden program. Funkcje modułów są włączane i wyłączane w zależności od praw, które zostały przypisane użytkownikowi przez administratora systemu. Dokumenty tworzone w jednym z modułów są automatycznie dostępne we wszystkich pozostałych i nie jest konieczna dodatkowa wymiana danych.. Oprócz tego system zapewnia wysokie bezpieczeństwo dostępu do danych. Nad operacjami w całym systemie czuwa administrator, który może definiować podział firmy na działy oraz przypisywać do tych działów użytkowników i nadawać im hasła. Prawa do przeglądania, wystawiania, usuwania i księgowania dokumentów różnego rodzaju oraz do operacji na katalogach przyznawane mogą być zarówno użytkownikom, jak i działom. Na podstawie przynależności danego użytkownika do działu program określa wynikowe prawa użytkownika.

5. Nazwa i wymagania systemu

System Milenium powstał w wyniku współpracy firmy Discovery Sp. z o.o. z firmą Microsoft w ramach Inicjatywy Microsoft dla Producentów Oprogramowania. Jest on w pełni 32-bitowym, skalowalnym systemem działającym zarówno w oparciu o bazę danych MS JET, jak i bazę danych MS SQL Serwer. Ze względu na wykorzystanie tych dwóch baz danych system może być instalowany i pracować wydajnie zarówno na instalacjach obejmujących kilka stanowisk, jak też na instalacjach zdecydowanie większych i obejmujących kilkadziesiąt stanowisk. Przejście z wersji opartej o bazę danych MS JET do wersji wykorzystującej bazę danych MS SQL Serwer jest niezauważalne dla użytkownika.

System przeznaczony jest do pracy w systemach operacyjnych Windows 95 / 98 oraz Windows NT / 2000 / XP. W wersji SQL wymaga dodatkowo zainstalowania bazy danych MS SQL Server lub darmowej jej wersji przeznaczonej do jednoczesnej pracy do pięciu użytkowników (MSDE). Zalecaną konfiguracją do pracy z systemem jest komputer z procesorem Pentium 200 MHz i 64 MB RAM. Do instalacji niezbędne jest minimum 50 MB wolnego miejsca na dysku twardym (przy założeniu, że wszystkie wymagane przez program komponenty są już zainstalowane).

Dla zainteresowanych:

System Milenium możesz nabyć kontaktując się z jednym z partnerów handlowych firmy Discovery Sp. z o.o. lub zgłaszając się bezpośrednio do firmy:

6. Funkcje i zakres systemu w przedsiębiorstwie

Funkcjonalnie system składa się z modułów. Moduły te nie są jednak oddzielnymi programami, lecz logicznymi zestawami funkcji dotyczących pewnego zakresu działalności firmy. W ten sposób system Milenium jest systemem w pełni zintegrowanym.

Ogół funkcji spełnianych przez poszczególne moduły pozwala na zastosowanie systemu Milenium w małych i średnich firmach handlowych, usługowych i produkcyjnych dowolnej branży. Ze względu na zastosowanie wydajnej bazy danych MS SQL Serwer praktycznie nie ma znaczenia ilość osób jednocześnie korzystających z systemu, jak również ilość wystawianych dokumentów lub ilość sprzedawanych towarów. Wbudowane mechanizmy współpracy z siecią Internet pozwalają na tworzenie rozwiązań B2B i usprawnienie współpracy z klientami firmy (udostępnianie oferty towarowej w sieci Internet, składanie zamówień i śledzenie ich realizacji przez klientów, automatyczne przekształcanie zamówień w faktury, itp.).

Moduł SPRZEDAŻ

Moduł ten jest podstawowym modułem systemu. Jego funkcje są wystarczające do obsługi firmy, która zajmuje się wyłącznie świadczeniem usług i nie prowadzi magazynu. Moduł ten umożliwia:

  1. rejestrację zakupów oraz wystawianie dokumentów sprzedaży (w tym dokumentów fiskalnych),

  2. prowadzenie rozliczeń gotówkowych (kasa) i bezgotówkowych (bank), rejestrację rozrachunków z kontrahentami, urzędami i pracownikami,

  3. korzystanie przy sprzedaży z rozbudowanych cenników: każdy towar może mieć dowolną ilość cen zarówno sprzedaży, jak i zakupu,

  4. wystawianie dokumentów w dowolnych walutach,

  5. tworzenie dowolnej struktury grup towarowych oraz możliwość tworzenia zestawów,

  6. wyszukiwanie podobnych kontrahentów z wykorzystaniem zaawansowanego mechanizmu zabezpieczającego przed wprowadzeniem do katalogu kontrahentów dwa razy tego samego kontrahenta,

  7. tworzenie powiązań pomiędzy dokumentami pozwalających na ich szybkie odszukiwanie w katalogu dokumentów,

  8. filtrowanie z wykorzystaniem elastycznego systemu filtrów stałych i tymczasowych,

  9. przypisywanie dowolnych cech dokumentom, towarom, kontrahentom, pracownikom i urzędom oraz na filtrowanie danych z wykorzystaniem tych cech,

  10. tworzenie ofert oraz zamówień od klientów oraz przekształcanie ich w dokumenty sprzedaży lub zakupu.

Moduł MAGAZYN

Moduł ten dodaje do modułu sprzedaż funkcje pozwalające na prowadzenie automatycznych rozliczeń magazynowych dla towarów. Przeznaczony jest głównie dla firm handlowych i produkcyjnych. Moduł ten umożliwia:

  1. wystawianie dokumentów magazynowych (w tym dokumentów przesunięć międzymagazynowych oraz dokumentu inwentaryzacji),

  2. prowadzenie obliczeń wartościowych towarów (metodą FIFO, LIFO, metodą cen rzeczywistych, cen średnich i cen ewidencyjnych),

  3. przypisywanie każdemu towarowi innej metody rozliczeń (można też nie prowadzić rozliczeń wartościowych dla towaru),

  4. tworzenie i obsługę wielu magazynów,

  5. śledzenie na bieżąco ruchu towaru w magazynach,

  6. podział towaru na partie z możliwością określenia daty ważności lub numeru seryjnego dla partii.

Moduł KSIĘGOWOŚĆ

Moduł ten zawiera wszystkie funkcje niezbędne do prowadzenia pełnej księgowości. Jest on ściśle zintegrowany z pozostałymi modułami systemu i nie jest możliwa samodzielna praca tego modułu. Umożliwia on między innymi:

  1. tworzenie i modyfikowanie planu kont o dowolnej strukturze,

  2. prowadzenie dowolnych rejestrów zakupu, sprzedaży oraz rejestrów magazynowych,

  3. definiowanie układu bilansu i rachunku wyników oraz wykonywanie raportów i zestawień,

  4. obliczanie podstawowych wskaźników finansowych,

  5. przygotowywanie i drukowanie deklaracji podatkowych,

  6. automatyczne dekretowanie dokumentów po określeniu wzorca dekretu dla danego rodzaju dokumentu,

  7. rejestrowanie środków trwałych oraz obliczanie ich amortyzacji,

  8. rozliczanie przebiegu pojazdów używanych do celów służbowych.

Moduł UMOWY

W skład tego modułu wchodzą funkcje umożliwiające rejestrowanie i rozliczanie umów z kontrahentami. Przeznaczony on jest dla firm, które prowadzą działalność opartą o projekty, do realizacji których zatrudniani są podwykonawcy (na przykład firmy budowlane, firmy, które prowadzą działalność inwestycyjną lub firmy doradcze). Moduł ten umożliwia między innymi:

  1. tworzenie hierarchii projektów realizowanych w firmie,

  2. przypisywanie umów poszczególnym projektom,

  3. planowanie i kontrolę przychodów i kosztów dla projektów,

  4. automatyczne generowanie tekstów umów na podstawie ich szablonów (utworzonych w programie MS Word), 

  5. przypisywanie dowolnych cech projektom oraz przeszukiwanie projektów na podstawie tych cech,

  6. kontrolę realizacji umów i projektów (sprawdzanie stanu wykonania, opóźnień i płatności),

  7. automatyczne generowanie dokumentów zakupów lub sprzedaży na podstawie umów (stałe płatności okresowe).

Moduł INTERNET

Funkcje wchodzące w skład tego modułu umożliwiają zastosowanie systemu Milenium w firmach, które chcą umożliwić swoim klientom składanie zamówień na oferowane produkty z wykorzystaniem sieci Internet, a które nie posiadają swojego serwera internetowego. Funkcje tego modułu umożliwiają:    

  1. eksport katalogu towarów i kontrahentów do zdalnego serwera internetowego,

  2. odbieranie zamówień od klientów za pomocą poczty e-mail oraz przekształcanie ich w dokumenty sprzedaży,

  3. zdalne administrowanie serwerem internetowym.

Moduł KLIENT (CRM)

Moduł ten rozszerza funkcjonalność systemu Milenium o funkcje umożliwiające zarządzanie

kontaktami z klientami (CRM - Customer Relationship Management). Jest on niezwykle przydatny w firmach, które chcą poszerzyć swą wiedzę na temat swoich aktualnych klientów lub też pozyskać nowych. Warto go również zastosować tam, gdzie wymagana jest wewnętrzna współpraca wielu osób obsługujących tego samego klienta (na przykład przy współpracy działu sprzedaży z działem serwisu lub marketingu) lub tam, gdzie kontrakty negocjowane są indywidualnie i należy pamiętać o każdym spotkaniu, telefonie czy wizycie u klienta. Moduł ten umożliwia:

  1. automatyczną i ręczną rejestrację zdarzeń związanych z klientami (wystawienie dokumentu zakupu, sprzedaży, wykonanie akcji, zlecenie zadania, spotkanie, rozmowa telefoniczna, itd.),

  2. wspomaganie pracy grupowej w firmie (w tym zlecanie i kontrolę realizacji zadań),

  3. powiadamianie użytkowników systemu wiadomościami SMS o zleceniu, modyfikacji lub wykonaniu zadania,

  4. przygotowywanie i wykonywanie akcji marketingowych, promocyjnych i innych łącznie z szacowaniem kosztów z nimi związanych oraz obliczaniem ich efektywności,

  5. automatyczne generowanie korespondencji seryjnej lub listów e-mail dla kontrahentów przypisanych do akcji (dzięki ścisłej integracja modułu z programami MS Word i MS Outlook),

  6. pełną obsługę klienta dla firm świadczących usługi serwisowe - definiowanie obiektów serwisowych, tworzenie dokumentów serwisowych (zleceń i protokołów serwisowych) oraz obliczanie kosztów prac serwisowych,

  7. definiowanie procesów na potrzeby usprawnienia i ujednolicenia procedur obsługi klientów oraz procedur wewnętrznych (na przykład przy zastosowaniu systemu jakości ISO 9000) oraz kontrola realizacji procesów.

Obecnie firma Elmex Sp. z o.o. rozważ wdrożenie profesjonalnego systemu zarządzania kontaktami z klientem.

  1. OPŁACALNOŚĆ INWESTYCJI INFORMATYCZNYCH

1. Analiza opłacalności inwestycji informatycznych

Inwestowanie w systemy informatyczne wiąże się ze znacznymi wydatkami finansowymi przedsiębiorstwa, lecz jest to konieczne dla zdrowego funkcjonowania przedsiębiorstwa, uporządkowania procesów gospodarczych na wszystkich poziomach decyzyjnych, uzyskania optymalizacji procesów gospodarczych.

Aby precyzyjnie oszacować efekty i koszty (opłacalność) każdej podejmowanej decyzji związanej z informatyzacją przedsiębiorstwa, proponuje się postępować zgodnie ze wskazaniem rachunku efektywności. Istnieją dwie sytuacje decyzyjne:

  1. Mamy wybrany kierunek informatyzacji danej organizacji i teraz pragniemy uzyskać odpowiedź, czy ta informatyzacja będzie opłacalna?

  2. Istnieje zbiór różnych możliwych decyzji dotyczących informatyzacji organizacji, a trudność polega na wyborze, z określonego zbioru, optymalnej decyzji, czyli jaki wariant informatyzacji wybrać?

Dla uzyskania odpowiedzi na pierwsze pytanie staramy się obliczyć

współczynnik efektywności bezwzględnej.

E= P/I

Gdzie: E - współczynnik efektywności bezwzględnej

P - efekt wynikający z informatyzacji, liczony w jednostkach wartościowych

I - nakład poniesiony na projektowanie, wdrożenie oraz eksploatację systemu informatycznego, liczony w jednostkach wartościowych

W drugiej sytuacji posługujemy się współczynnikiem efektywności względnej.

E= ∆P/∆I

Gdzie: E - współczynnik efektywności względnej

∆P - przyrost efektu wywołany zastosowaniem konkretnego wariantu porównywanego

∆I - przyrost nakładów wywołanych zastosowaniem badanego wariantu informatyzacji.

W rachunku nie uwzględniono upływającego czasu. W sytuacji kiedy badania dotyczą dłuższego okresu, czynnik ten może być włączony w postaci oprocentowania kapitału. Jeżeli mamy otrzymać niższe efekty, a ponieść wyższe nakłady to oczywiście taki wariant informatyzacji odrzucimy. Także jeżeli rozpatrywany wariant daje większe efekty i mniej kosztuje niż konkurencyjny to znaczy, że jednoznacznie jest to wariant lepszy i nie musimy przeprowadzać rachunku dla podjęcia decyzji. Rachunek powinien być przeprowadzony co najmniej od momentu zamiaru przeprowadzenia zmian, a więc zamiaru informatyzacji lub modyfikacji już istniejących rozwiązań, aż do momentu zwrotu nakładów. Powinien on być przeprowadzony na etapie projektowania, a następnie weryfikowany przez cały okres życia wprowadzonej informatyzacji.

Analiza opłacalności inwestycji informatycznych polega na porównaniu nakładów poniesionych na wdrożenie systemu informatycznego z korzyściami płynącymi z tego wdrożenia ujętymi w wymiarze finansowym (oszczędności, zyski finansowe, korzyści organizacyjno-techniczne).

Dla wykonania analizy ekonomicznej opłacalności wdrożenia systemu informatycznego konieczne jest określenie obszaru wdrożenia SI w taki sposób, aby mogła powstać lista produktów (usług) oraz procesów operacyjnych. Celem jest późniejsza analiza kosztów wykonywania tych usług i kosztów poszczególnych procesów. Analiza kosztów pozwoli na określenie, które składniki są „wrażliwe” na zmianę sposobu obsługi informatycznej czynności generującej te koszty.

Celem analizy procesów operacyjnych jest natomiast użycie kryteriów, które wskażą składniki procesów wrażliwe na oddziaływanie narzędzia informatycznego. Dzięki zastosowaniu tego narzędzia proces może ulec skróceniu lub stać się efektywniejszy, co w rezultacie prowadzić ma do uzyskania efektu opłacalności wdrożenia SI.

Ważnym elementem jest też analiza składników kosztów zadań ujętych w strukturę budżetu zadaniowego. Celem jest tu również uzyskanie oceny efektu opłacalności wdrożenia SI.

Po dokonaniu analizy opłacalności należy zastanowić się nad najlepszym sposobem wykorzystania otrzymanych wyników analizy w przygotowaniu planu wdrożenia SI. Polega to na przyjęciu takich kryteriów podejmowania decyzji co do zakresu SI, użytego sprzętu i oprogramowania oraz opracowaniu harmonogramu wdrożenia - aby nastąpiło maksymalizowanie wybranych skutków i efektów wdrożenia.

Określenie listy procesów do pogłębionej analizy pozwoli na wyznaczenie tych, w których poprawa obsługi informatycznej przyniesie największe korzyści finansowe. Przykładami kryteriów analizy procesów operacyjnych z punktu widzenia świadomych zmian przebiegu procesu drogą jego informatyzacji dla uzyskania efektu finansowego mogą być :

Wynikiem analizy powyższych i innych kryteriów będzie propozycja zakresu zmiany sposobu obsługi informatycznej wraz z oszacowaniem efektów finansowych tej zmiany.

Metodyka wszechstronnej analizy zysków z poprawy procesu obejmuje kwestie takie jak:

  1. ocena możliwości lepszej koordynacji wysiłków w pracy

  2. ocena możliwej redukcji czasu poświęconego na zarządzanie np. kryzysem i zwalczanie sytuacji awaryjnych

  3. ocena priorytetów wykonywanej pracy

  4. ocena dublowania pracy i jej złożoności

  5. identyfikacja pracy nie istotnej i nie wnoszącej wartości dodanej

  6. rozpoznanie problemów będących przedmiotem usprawnienia i poprawy

  7. skupienie uwagi raczej na tym dlaczego coś się dzieje, niż kto jest odpowiedzialny za błędy

W analizie badane jest oddziaływanie zastosowania narzędzia informatycznego na powyższe kwestie. W badaniu procesów i zadań w aspekcie skutków wsparcia informatycznego należy szukać następujących elementów:

Powielanie się

Takie same działania wykonywane w różnych miejscach procesu

Niepotrzebne zadania

Nadmiar pracy papierkowej, konieczność wielokrotnego zatwierdzania

Opóźnienia

Należy odkryć i wyeliminować przyczynę

Powtórna praca

Zasada: dobrze za pierwszym razem

Nielogiczna lub nieefektywna kolejność

Zazwyczaj powoduje opóźnienia i dodatkową pracę

Złożoność

Informatyzacja skróci lub wyeliminuje raporty oraz uprości formularze i dokumentację

Niejasny podział odpowiedzialności

Powoduje decyzje które są opóźnione lub „przerabiane”

Kontrola

Kontrola informatyczna staje się możliwa w zintegrowanym systemie

Możliwość wystąpienia błędów

Zabezpieczenia procesu przed błędami

Brak konsekwencji

Zrozumienie jaka metoda działania najlepiej się sprawdza i przeszkolenie pracowników aby używali ej samej metody

Przerwy w połączeniu

Zastosowanie narzędzia informatycznego w procesie, którego brakuje lub działa słabo

Aby dokonać w pełni analizy ekonomicznej opłacalności wdrożenia SI niezbędna jest analiza składników kosztów zadań.

Koszty zadania to nakłady finansowe poniesione na jego realizację. Stanowią sumę kosztów bezpośrednich oraz kosztów obsługi zadania (kosztów pośrednich), na które składają się koszty osobowe obsługi oraz koszty ogólne, administracyjne. W redukcji kosztów obsługi zadania ujawnić się powinna opłacalność wdrożenia SI. One właśnie powinny być poddane analizie.

Metodyka tej analizy opiera się na rozpoznaniu źródeł powstawania kosztów i odpowiedzi na pytanie, czy kompleksowa informatyzacja czynności związanych z wykonywaniem tych zadań wpłynie na redukcję kosztów.

Charakterystyki zadań budżetowych , które będą analizowane z punktu widzenia oddziaływania narzędzi informatycznych na zmniejszenie kosztów realizacji zadania to:

W układzie budżetowania zadaniowego wspomaganie informatyczne zaangażowane będzie w szczególności do:

Stopień usprawnienia tych zadań i procesów poprzez zastosowanie czy unowocześnienie narzędzia informatycznego mierzony będzie zmniejszeniem pracochłonności, zmniejszeniem wydatków na materiały i środki, skróceniem obiegu dokumentów, skróceniem czasu podejmowania decyzji poprzez redukcję i usprawnienie czynności analitycznych. Znajomość składników kosztów zadań pozwoli ocenić finansową wartość usprawnień.

Określenie opłacalności wdrożenia polega więc na porównaniu finansowych efektów wdrożenia SI oszacowanych na podstawie analizy przeprowadzonej wg wyżej przedstawionych założeń metodycznych i porównaniu ich z kosztami tego wdrożenia. Efekty finansowe w skali roku pozwolą odpowiedzieć na pytanie, po jakim czasie koszt wdrożenia zostanie zwrócony i czy nastąpi to przed upływem okresu moralnego zużycia sprzętu i oprogramowania.

Przez koszty wdrożenia należy rozumieć jedynie koszty sprzętowe i koszty oprogramowania bez kosztów opracowania i wdrożenia zmian organizacyjnych poprzedzających wdrożenie. Przyniosą one bowiem dodatkowe, odrębne efekty i korzyści.

Należy tu bowiem wspomnieć, iż istnieć będą korzyści zmian organizacyjnych przed wdrożeniem i samego wdrożenia SI, których przeniesienie na skalę finansową będzie tylko zgubne. Trudno bowiem oszacować precyzyjnie ile złotówek warte są: skuteczność usług, zadowolenie klientów czy poprawa image firmy. Przedsiębiorstwa bowiem muszą mierzyć skutki swoich działań nie tylko efektami finansowymi.

2. Możliwości wykorzystania analizy SWOT w procesie informatyzacji przedsiębiorstw

Metoda SWOT jest algorytmem postępowania w analizie strategicznej, proponując systematyczną i wszechstronną ocenę zewnętrznych i wewnętrznych czynników określających aktualną sytuację firmy oraz jej potencjał rozwojowy. Analiza ma wykazać szanse i zagrożenia w realizacji jasno i precyzyjnie nakreślonego celu działania, który stanowi zdefiniowaną misję firmy. Z misji firmy wynikają cele strategiczne, wśród których systemy informatyczne mają istotną rolę.

0x08 graphic
0x08 graphic
analiza zewnętrzna analiza wewnętrzna

0x08 graphic
szanse i zagrożenia mocne strony

0x08 graphic
słabe strony

decyzje strategiczne

Analiza zewnętrzna powinna obejmować:

- postęp techniczny

- ocenę stanu gospodarki krajowej i światowej

- analizę konkurencji

Analiza wewnętrzna ma na celu określenie i ocenę czynników sprzyjających rozwojowi przedsiębiorstwa lub utrudniających funkcjonowanie obecnie i w przyszłości.

- czynniki marketingowe np. znaki towarowe, imane firmy, systemy marketingowe

- finansowe np. zyskowność, płynność finansowa

- personalne np. poziom kadry, zasoby pracy

- produkcyjne np. zdolność wytwórcza, stopień nowoczesności, systemy produkcyjne

Analiza SWOT polega na zidentyfikowaniu czynników decydujących o szansach i zagrożeniach realizacji konkretnego systemu informatycznego i określeniu ich wpływu na organizację i działania firmy. Zestawienie słabych i mocnych stron, szans i zagrożeń pozwala na określenie pozycji strategicznej i może być źródłem ciekawych i nowatorskich pomysłów działań rozwojowych.

Strategia informatyzacji powinna być komplementarna ze strategią biznesową firmy. Celowe jest więc zastosowanie tej metody w tworzeniu strategii informatyzacji. Implementacja metody w warunkach stosowania dla potrzeb informatyki przedstawiona jest w postaci piramidy działań, gdzie poszczególne poziomy reprezentują podejmowane akcje w kolejnych krokach, od wierzchołka piramidy poczynając.

Pierwszym krokiem metody, reprezentowanym w piramidzie przez najwyższy poziom, jest określenie podstawowego celu działania firmy w kategoriach rozważań biznesowych. Określone to jest jako misja firmy. System informatyczny ma charakter usługowy względem celu głównego, więc musi być całkowita zgodność celów działania firmy i celów systemu informatycznego, który ma wspomagać realizację tej misji.

Drugi poziom piramidy przedstawia zadnia zmierzające do wyznaczenia jednostek strategicznych biznesu, które mają prowadzić do osiągnięcia celu strategicznego wyznaczonego misją firmy. Z punktu widzenia informatyki mogą to być oddzielne działy do informatyzacji, które w całości mają stanowić kompleksowy system informatyczny firmy. Mogą to być kolejne obszary informatyzacji od ewidencji finansów czy materiałów, do bardziej wyrafinowanych zastosowań informatyki.

W kolejnym kroku należy wyznaczyć czynniki krytyczne dla osiągnięcia sukcesu w ramach danej jednostki biznesowej. Wyznaczając czynniki krytyczne można wspomagać się następującym kwadratem :

Strategiczne Co jest krytyczne dla przyszłego sukcesu

Przyszłościowe Co może być strategicznie ważne w przyszłości

Co jest krytyczne dla bieżącej działalności Witalne

Co wpływa na zarządzanie i wydajność, ale tylko wspomaga główną działalność Wspomagające

Szczegółowe rozważania dla poszczególnych kategorii przedstawionych na rysunku pozwalają na opracowanie listy operacyjnych działań, jakie należy podjąć w celu osiągnięcia założonych celów.

Analogiczne rozważania należałoby przeprowadzić z punktu widzenia informatyki, gdzie działania operacyjne to konkretne:

  1. aplikacje informatyczne, które należy opracować lub wdrożyć,

  2. usługi informatyczne, szeroko rozumiane,

  3. szkolenie i doskonalenie informatyczne,

  4. nowe projekty i rozwiązania informatyczne.

Informatyczne działania operacyjne należy umieścić w kwadracie określającym czynniki krytyczne sukcesu, podobnie jak uczyniono to z działaniami operacyjnymi dla podstawowej działalności.

Przeprowadzenie takich rozważań, z punktu widzenia działań informatycznych, powinno być cały czas odnoszone do strategii działania firmy. Wypracowany w wyniku takich rozważań model stanowi model strategiczny informatyzacji firmy. Stanowi on przewodnik i plan informatyzacji kolejnych obszarów działalności.

Kolejny krok postępowania to wymiarowanie wpływu działań informatycznych na poszczególne działania operacyjne i czynniki krytyczne głównej działalności firmy przy pomocy odpowiednio skonstruowanej matrycy. Matryca ta ma za zadanie pomóc nam w określeniu ważności i sekwencji działań informatycznych z punktu widzenia oddziaływania przedsięwzięć informatycznych na podstawową działalność firmy. Materiał tak zebrany pozwala nam na określenie harmonogramu przedsięwzięć informatycznych odpowiednio rozłożonych w czasie w korelacji z innymi przedsięwzięciami realizowanymi przez firmę zgodnie z wyznaczoną strategią działania.

Model informatyzacji jest nie tylko merytorycznie zgodny z ogólną strategią firmy, ale również odpowiednio zsynchronizowany w czasie. Pozwala to uniknąć konfliktów wynikających z bieżącej rozbieżności celów cząstkowych i niezgodności czasowej wdrażania kolejnych elementów. Relacje te powinny być uwzględnione w wartościowaniu działań informatyzacji.

Poniższa matryca wypełniana jest zespołowo i powinna uwzględniać opinie różnych uczestników procesu opracowywania strategii i odpowiedzialnych za jej realizację.

Czynnik 1

Czynnik 2

Czynnik 3

.............

Suma

Aplikacja 1

Aplikacja 2

Aplikacja 3

............

Usługa 1

Projekt 1

...........

Na przecięciu wiersz i kolumny wpisujemy odpowiednio wartość:

    1. 1 jeśli wpływ na dany czynnik jest słaby,

    2. 2 jeśli wpływ na dany czynnik jest średni,

    3. 3 jeśli wpływ na dany czynnik jest duży.

Ostateczną wartość wpisaną do tablicy można osiągnąć metodą dyskusji lub demokratycznego głosowania w zespole jeśli różnice zdań są zbyt duże. Po wypełnieniu tabeli należy zsumować poszczególne wiersze, co pozwala zwymiarować globalny wpływ kolejnych aplikacji na wszystkie czynniki krytyczne dla osiągnięcia celu strategicznego.

Dzięki takiej prostej metodzie wartościowania otrzymujemy po uporządkowaniu malejącym hierarchię ważności wymienionych działań informatycznych w stosunku do strategii działania firmy. Mechaniczny sposób określenia ważności w zestawieniu z wymaganą, z punktu widzenia sztuki informatycznej, sekwencję działań, daje określenie kolejności podejmowanych przedsięwzięć informatycznych.

Silną stroną metody SWOT jest selektywne, ale równocześnie kompleksowe spojrzenie na wszystkie procesy zachodzące w firmie zawsze z punktu widzenia jasno wyznaczonego celu głównego. Taki sposób podejścia pozwala na wyartykułowanie silnych i słabych stron firmy z punktu widzenia otoczenia i wewnętrznych procesów zachodzących w firmie. Pamiętać należy, że informatyka ma charakter usługowy względem działalności podstawowej i jej funkcja w działalności przedsiębiorstwa powinna być wspomagająca, zsynchronizowana z działalnością podstawową.

3. Outsourcing w informatyce

W ciągu minionych lat rewolucja techniki informatycznej spowodowała, że nowoczesne systemy informacyjne znalazły zastosowanie we wszystkich dziedzinach życia społecznego. Każda firma która dąży do maksymalizacji efektywności racjonalnego gospodarowania zasobami informacji i zasobami informatycznymi ma dwie drogi informatyzacji swojej firmy. Może podjąć się wykonania tego zadania samodzielnie lub zlecić je firmie zewnętrznej. Informatyzacja jest przedsięwzięciem, którego celem jest generowanie wartości na podstawie dostępu i użytkowania systemów informacyjnych i techniki informatycznej.

W latach 90-tych popularne stało się przekazywanie firmom zewnętrznym czynności nie będących główną działalnością przedsiębiorstwa. Przykłady takich czynności to np. opieka zdrowotna pracowników, obsługa transportu, ochrona mienia, zarządzanie zasobami informatycznymi organizacji, itd. Zleceniodawca takiej czynności wybiera sobie odpowiednią firmę, która z kolei wyszukuje odpowiednich pracowników lub inne firmy, które sprostają potrzebą zleceniodawcy. Zlecenie wybranych funkcji firmom zewnętrznym wynika z wielu przyczyn do których należą:

  1. Oddziaływanie zachodnich systemów zarządzania promujących efektywność.

  2. Coraz bardziej konkurencyjne rynki i poszukiwanie sposobów na obniżenie cen produktów i usług przez redukcję kosztów własnych.

  3. Częste zmiany przepisów prawnych i związana z tym konieczność zmian w oprogramowaniu.

  4. Brak odpowiednio wykwalifikowanych specjalistów wewnątrz firmy.

  5. Naturalny proces rozwoju przedsiębiorstw wynikający z pogłębiającej się specjalizacji pracy i wzrostu dochodów firmy.

Obecnie mianem outsourcingu określa się zatrudnienie zewnętrznych wykonawców i wykorzystywanie ich potencjału. Najbardziej pełna definicja outsourcingu stanowi, że jest to metoda zarządzania polegająca na powierzeniu specjalistycznej firmie usługowej pewnego obszaru działalności na określony lub nieokreślony czas w zamian za okresowo pobierane opłaty przy uwzględnieniu możliwości wystąpienia strat i korzyści niemierzalnych, ale wyraźnie odczuwalnych dla obu stron. Zakres prac zleconych do wykonania na zewnątrz poza firmą podstawową może być różny. Obecnie wyspecjalizowane firmy są w stanie podjąć się zarówno zarządzania całością systemu logistycznego całego przedsiębiorstwa jak i jego części.

Ousourcing w informatyce to powierzenie części lub całości pracy ośrodka informatyki zewnętrznemu wykonawcy, zlecenie mu zarządzania sieciami informatycznymi, zarządzania informatykami i rozwojem oprogramowania przy wykrzystaniu własnego lub obcego sprzętu komputerowego. Outsourcing jest wyborem, jak najbardziej efektywnie i opłacalnie pozyskać poszczególne komponenty systemu informacyjnego lub cały system. Jest to problem strategicznej akwizycji i zarazem ekstrapolacją decyzji kupić/zrobić w strategicznym zarządzaniu organizacją gospodarczą. Outsourcing w swej istocie jest pozyskiwaniem zewnętrznych zasobów materialnych, informacyjnych i pracy. W prawdzie w koszty informatyzacji wlicza się przede wszystkim oprogramowanie i sprzęt oraz wszelkie dodatkowe urządzenia eksploatacyjne, ale najważniejsze są usługi. Trudno jednoznacznie określić zakres usług informatycznych zlecanych do realizacji zewnętrznemu kooperantowi. Zakres ten zależy od:

  1. Wielkości i potencjału finansowego przedsiębiorstwa.

  2. Potrzeb informacyjnych zarządu.

  3. Zakresu dotychczasowego systemu informacyjnego przedsiębiorstwa.

Za najważniejsze usługi objęte outsourcingiem uznano: akwizycję i konserwacje komputerów osobistych, zarządzanie centrum danych, wprowadzanie danych, szkolenie pracowników i rozwój aplikacji użytkowych. Outsourcing pojedynczych funkcji biznesu jest obecnie bardziej powszechną działalnością niż ousourcing całej infrastruktury i zarządzania techniką informatyczną.

Ogólnie klasyfikacja usług przedstawia się następująco:

  1. usługi zarządzania sprzętem i wyposażeniem komputerowym takie jak planowanie, instalacja, integracja, nadzór, konserwacja i likwidacja.

  2. Usługi generowania informacji w postaci serwisów informacyjnych, analiz, diagnoz, raportów i programów komputerowych oraz wiedzy (konsultacje, ekspertyzy).

  3. Usługi polegające na bezpośredniej współpracy z użytkownikiem, który nie wie jak rozwiązać problem i jak zaspokoić swoje potrzeby informacyjne, ale równocześnie chciałby wiedzieć jak najlepiej działać we własnym interesie.

Outsourcing jest uzewnętrznieniem problemów zarządzania informatyką w organizacji. Decyzje o outsourcingu są podejmowane w sytuacji braku wysoko kwalifikowanej własnej kadry informatyków, niskiej jakości przetwarzania i braku środków finansowych na zakup nowoczesnych technologii, ale tez w sytuacji, gdy przedsiębiorstwo znajduje się w dobrej kondycji finansowej, a jednak dąży do tego, by korzystać z wiedzy ekspertów dla bardziej efektywnego wykorzystania czasu pracy i kreowania zastosowań nowoczesnej techniki informatycznej.

Rola systemów informacyjnych w organizacjach może być postrzegana na dwa sposoby. Systemy informacyjne automatyzują ręczne przetwarzanie i środki pieniężne, a dzięki outsourcingowi zadania te są realizowane przy tańszych zasobach komputerowych. Dzięki zapewnieniu przez firmę zewnętrzną wykwalifikowanego personelu na takich stanowiskach przestaje pojawiać się problem wakatu, częstej fluktuacji kadr i trudności planowania obsady stanowisk. Druga istotna rola systemu informacyjnego to rola systemu strategicznego. Uzyskując dostęp do dostawcy usług informatycznych, który może mu zapewnić systemy wysokiej jakości klient przesuwa się na wyjątkową pozycję rynkową. Inna istotna korzyść to uwolnienie zarządu od zmartwień związanych z techniką informatyczną. Outsourcing pozwala redukować ryzyko inwestowania w nieodpowiedni sprzęt i trudności zwrotu poniesionych nietrafnych nakładów.

Potencjalne korzyści outsourcingu z punktu widzenia efektywności zarządzania zasobami ludzkimi to między innymi mniejsza fluktuacja kadr informatyków, sposobność przesunięcia zdolnych pracowników na strategiczne pozycje i przydzielenie im bardziej ambitnych zadań i lepiej płatnych prac, wzrost motywacji zawodowej i wydajności pracy itp. Wśród przyczyn outsourcingu, z punktu widzenia kryterium efektywności zarządzania finansami, wyróżniamy: redukcję kosztu przetwarzania danych, niższe koszty stałe, oszczędność kapitału, lepszą kontrolę kosztów, redukcję ryzyka związanego z budową działu informatyki. A z punktu widzenia kryterium skuteczności działania organizacji to np. wzrost elastyczności gospodarowania, szybsza realizacja zamówień, decentralizacja zarządzania, wyższa jakość usług, wspólne badanie rynku, optymalizacja zakupów i wiele innych.

Oczekiwane korzyści skłaniają wprawdzie do podjęcia decyzji odnośnie outsourcingu, ale wymaga to uwzględnienia własnych możliwości zarządzania techniką informatyczną w organizacji i porównania z zagrożeniami.

  1. WDRAŻANIE SYSTEMÓW INFORMATYCZNYCH ORAZ NIEBEZPIECZEŃSTWA WYSTĘPUJĄCE W PRACY SYSTEMÓW INFORMATYCZNYCH.

1. Metody wdrażania systemów informatycznych

Wdrażanie systemów informatycznych jest jednym z najtrudniejszych zadań w unowocześnianiu systemu. W zależności od stosowanej metodyki projektowania jest ono poprzedzone przeprowadzonym w fazie projektowania - testowaniem, lub też testowania dokonuje się bezpośrednio w trakcie wdrożenia. W fazie wdrażania następuje przekazanie systemu z rąk osób, które go stworzyły w ręce tych, którzy będą go eksploatować. Tu również ujawniają się wszystkie niedoskonałości i braki wynikające z niedostatecznego dopracowania we wcześniejszych fazach cyklu życia systemu. Przyjęty niedopracowany system może mieć bardzo duży wpływ na złe funkcjonowanie organizacji. Również przyjęcie nowego systemu przez nieprzygotowaną do tego organizację może mieć dla niej bardzo złe skutki.

Przyjmując jako kryterium zakres wdrożenia i metodę postępowania, możemy wydzielić następujące strategie wdrażania:

  1. Wdrażanie całościowe - totalne;

  2. Wdrażanie cząstkowe - a w tym:

  • Wdrażanie równoległe.

  • Wdrażanie całościowe (totalne) to implementacja nowego systemu przy równoczesnej rezygnacji z eksploatacji dotychczasowego systemu. Takie podejście jest zarazem najbardziej wygodne i najmniej kosztowne. Niebezpieczeństwa natomiast wynikają z tego, że:

    -nie mamy już w zasadzie odwrotu i w sytuacji niedopracowanego i nie przetestowanego systemu narażeni jesteśmy na znaczne dodatkowe koszty związane z równoczesnym usuwaniem usterek i realizowaniem bieżącej działalności,

    -brak jest aktualnego układu odniesienia do starego systemu - możemy tylko przewidywać, co będzie i jak zachowałby się, w takiej sytuacji stary system.

    Przyjęcie strategii totalnej obarczone jest dużym ryzykiem. Ryzyko to jest tym mniejsze, im zespół, który opracował projekt, jest bardziej doświadczony. W przypadku, kiedy system opracowywany jest dla nowej organizacji jest to jedyna możliwa strategia. Istotna zaletą tej metody jest jej minimalny koszt i najkrótszy czas wprowadzania systemu do użytkowania.

    Wdrażanie cząstkowe jest dla organizacji strategią o mniejszym stopniu ryzyka, jednak może być ono bardziej kosztowne, szczególnie w porównaniu z sytuacją, gdy wdrożenia całościowe przebiega bez przeszkód. Jednak nie zawsze możemy przewidzieć czy będą trudności podczas wdrożenia całościowego. Praktyka wykazuje, że w przypadku wdrażania dużych i złożonych systemów informatycznych, strategia cząstkowa jest korzystniejsza. Decydując się na strategię cząstkową należy dążyć do strukturalizacji, czyli podziału systemu na części. Kryteria strukturalizacji systemu mogą być rozmaite. Najczęściej stosuje się następujące podejścia:

    Zastosowanie metody pilotowej polega na wdrożeniu w pierwszym etapie tylko określonej części systemu, na przykład, tylko w jednej z filii przy jednoczesnej eksploatacji starego systemu w pozostałych filiach. Dopiero, kiedy nowy system zostanie sprawdzony następuje jego wdrażanie w pozostałych filiach organizacji. Metoda ta może być zalecana w stosunku do dużych, złożonych systemów, w których łatwo jest wydzielić rozłączne, w miarę samodzielne fragmenty. Przy stosowaniu metody pilotowej istotny jest zarówno podział systemu na odpowiednie fragmenty jak i kolejność ich wdrażania. Zła kolejność wdrażania elementów systemu może utrudnić, a w skrajnej sytuacji nawet wyraźnie opóźnić, proces wprowadzania systemu do bieżącego użytkowania. Wdrażanie systemu zgodnie z taką strategią nastręcza następujące problemy:

    Zaletami metody pilotowej jest kompleksowość sprawdzania systemu oraz zmniejszenie zakresu uciążliwych prac i ich rozłożenie w czasie. Do wad należy zaliczyć stosunkowo dużą pracochłonność oraz niemożność weryfikacji całego systemu przed zakończeniem wprowadzania do użytkowania ostatniego z wdrażanych elementów.

    Metoda próbna polega na uruchomieniu działania systemu na danych próbnych, dotyczących okresów przeszłych. Dane próbne są ograniczone do wybranego podzbioru danych objętych przetwarzaniem. Wdrożenie danego podzbioru danych pozwala stopniowo przechodzić do określenia i wdrożenia kolejnego podzbioru danych. Stworzenie sztucznego systemu może w efekcie, zmniejszyć koszty wdrożenia na skutek sprawdzania najbardziej typowych sytuacji. Można tu przyjąć pewną analogię do badania opinii publicznej, czy tez rynku, gdzie określamy na podstawie zachowania się części opinii, jak zachowa się całość i jakie są jej preferencje. Ponieważ tworzymy pewien sztuczny system, problemy z wdrażaniem mogą wynikać:

    Zaletą metody próbnej jest zmniejszenie pracochłonności i kosztów wprowadzania systemu do bieżącego użytkownika. Za wadę tej metody należy uznać ograniczenie kompleksowości sprawdzania nowego systemu.

    Bezpieczna, ale i najbardziej kosztowna jest strategia równoległa. Według niej dotychczasowy system jest eksploatowany tak długo, aż nowy nie zostanie w pełni wdrożony. Pracują więc równoległe dwa zespoły pracowników. Niebezpieczne, a czasami nierealne jest tworzenie nowego zespołu, który będzie eksploatował nowy system. Praktycznie trudne jest również obarczenie tych samych pracowników obowiązkiem obsługi obydwu systemów. Najczęściej przyjmuje się, że pracownicy firmy po odpowiednim przygotowaniu przyjmują do eksploatacji nowy system. Strategia równoległa mimo pozornego bezpieczeństwa, może być konfliktogenna i powodować większe opory niż poprzednie. Zaletą tej metody jest możliwość kompleksowego sprawdzenia poprawności funkcjonowania całego systemu informatycznego, wadą zaś - duża pracochłonność (dublowanie przetwarzania) i związane z nią koszty.

    Przed przystąpieniem do wdrażania obiektu należy rozważyć każdą z możliwych strategii. Istotne pytania formułowane dla wyboru najbardziej skutecznej strategii wdrażania dotyczą poszukiwania czynników, które mają wpływ na ten proces. Poszukujemy tu zarówno pozytywnego jak i negatywnego wpływu tych czynników.

    2. Zagrożenia i przeciwdziałanie niebezpieczeństwom związanym z obsługą systemów informatycznych

    Rozwinięte społeczeństwa w sposób oczywisty są uzależnione od szeroko rozumianej informacji. Informacja często ma postać danych cyfrowych i podlega transmisji za pośrednictwem dostępnych systemów telekomunikacyjnych, takich jak sieć telefoniczna czy sieci komputerowe lub kombinacja obu tych typów. W każdej sytuacji ich przetwarzania dane te są narażone na szereg niebezpieczeństw - od ich nieuprawnionego przeglądania, do całkowitego zniszczenia. Powszechne włączanie sieci lokalnych do sieci globalnej Internetu powoduje coraz silniejszą potrzebę zapewnienia szeroko rozumianej ochrony danych. Wymusza to szereg przedsięwzięć mających na celu przewidywanie pojawiania się coraz nowszych zagrożeń i budowy nowoczesnych zabezpieczeń.

    Do istniejących zagrożeń informacji zalicza się:

    Można tu także doliczyć:

    Sposoby, do jakich najczęściej uciekają się włamywacze systemów komputerowych (hakerzy) to:

    W celu zabezpieczenia się przed wyżej wymienionymi zagrożeniami stosuje się szereg usług. Obecnie jednym ze sposobów ich podziału jest podział na dwie zasadnicze grupy: metody kryptograficzne i metody filtrowania i blokowania danych. W praktyce obie grupy są wzajemnie powiązane i sprzężone. W pierwszym przypadku informacja podlega zamierzonemu zniekształceniu, celowemu przekodowaniu ( jest zaszyfrowana) tak, aby nie była czytelna dla osób nieuprawnionych. Po jej przesłaniu do celu musi być powtórnie przekształcona (odszyfrowana). Drugie podejście zajmuje się raczej problemami przesyłu i dostępu informacji. Aby zapobiec niekorzystnym skutkom działania osób nieuprawnionych, separuje się od chronionej sieci niepożądane pakiety danych.

    Usługi o charakterze kryptograficznym.

    1. Usługi legalizacyjne — autoryzacyjne:

    2. Usługi ochrony informacji zapewniają m.in.:

    Coraz częściej jest stosowane pojęcie tzw. polityki bezpieczeństwa danych. Świadczy to o nadawaniu coraz większej wagi pracom programistów, inżynierów, matematyków itd. w celu stworzenia systemów kompleksowo zabezpieczających informacje. Stosuje się tu rozwiązania zarówno technologiczne (sprzętowe i programowe), jak i inne, np. prawne i normalizacyjne, poprzez wprowadzenie standardów odporniejszych na ataki hakerów. Internet jest systemem światowym składającym się z sieci o mniejszym zasięgu używającym wspólnego protokołu wymiany danych. Praktycznie standardem stał się tutaj protokół TCP/IP. Nie posiada on wbudowanych złożonych mechanizmów ochrony danych. Do tego celu trzeba budować nowe zabezpieczenia. Włączenie własnej sieci do Internetu daje każdej stacji sieci lokalnej dostęp do usług internetowych, ale też zagraża integralności sieci lokalnej, dając dostęp potencjalnym włamywaczom do naszych danych. Ewentualne formy aktywności intruzów (hakerów) są ogólnie trudne do przewidzenia i w związku z tym często trudno im przeciwdziałać. Wiele organizacji może utracić w efekcie część swoich funduszy, albo, co gorsza reputację, jeśli zostałyby opublikowane pewne fragmenty informacji przechowywanych w ich sieciach lokalnych. Firmy i organizacje decydując o włączeniu własnej sieci do sieci ogólnoświatowej muszą wnikliwie rozważyć wszelkie sposoby wykorzystywania tego łącza, takie jak: wymiana poczty elektronicznej e-mail, publikowanie własnych wiadomości na zewnątrz, transfer plików danych do i z własnej sieci lokalnej, dokonywanie transakcji z innymi organizacjami.

    Ściany ogniowe

    W Internecie przyjął się jako standard transmisji protokół TCP/IP. Jednak usługi TCP/IP posiadają wiele słabości czy luk, co czyni je wrażliwymi na potencjalne ataki intruzów na wiele sposobów. Zdecydowana większość danych transmitowanych poprzez Internet nie jest zaszyfrowana, przesyłana otwartym tekstem. Łatwo w związkuztym, bazując na obserwacji ruchu danych i ich zawartości, poznać zarówno treść poczty, jak i haseł dostępu, można tez monitorować transfer plików z danymi. Potencjalny intruz może następnie dostać się do sieci, używając podsłuchanych haseł. Niebezpieczeństwo rośnie wobec faktu, że wiele organizacji nie zdaje sobie sprawy z istniejących zagrożeń i dość beztrosko pozwala na szeroki dostęp do Internetu. Prowadzi się złą politykę bezpieczeństwa dostarczając zbyt wielu usług sieciowych w stosunku do własnych potrzeb. Warto też wspomnieć, że halerzy pracują w sposób zautomatyzowany, stosując programy komputerowe, które w sposób niema ciągły próbują złamać hasło dostępu do różnych interesujących miejsc w sieci. Natomiast administratorzy sieci nie zadają sobie zbyt wielkiego trudu, aby właściwie skonfigurować dostęp do komputerów (hostów) sieciowych. Są to zwykle zdania złożone i skomplikowane, ale ich zaniedbywanie daje potencjalnie możliwości łatwego nieuprawnionego dostępu. Nazwa „ścian ogniowych” (firewalls) ma bezpośredni związek z określeniem z innych dziedzin życia np. zastosowania w środkach transportu zabezpieczeń przeciwpożarowych w postaci ognioodpornych zapór, przegród, mających chronić załogę kierującą przed atakami płomieni. W sieciach komputerowych analogiczne określenie ma zapewnić kompleksowe zabezpieczenie lokalnych sieci komputerowych przed zagrożeniami płynącymi z sieci zewnętrznych. W praktyce określa się w ten sposób wydzielony system (komputer), który zajmuje się nadzorem i kontrolą ruchu na granicy dwóch sieci: wewnętrznej (lokalnej) i zewnętrznej (globalnej - Internetu). Stosowanie zapór ogniowych znacznie podnosi ogólny stopień bezpieczeństwa, rozumiany jako wypadkową zabezpieczeń przed wymienionymi uprzednio zagrożeniami.

    Głównym zadaniem firewall jest kontrola i sterowanie dostępem do chronionej sieci, oczywiście w sposób sterowany. Firewall nie zastępuje routera (zestawiającej drogę połączenia, marszrutę), ale jest to zwykle komputer umieszczony w głównym punkcie styczności sieci lokalnej i sieci zewnętrznej. Ma on za zadanie nie zastąpienie istniejących zabezpieczeń, implementowanych zwykle na hostach, ale wspomaganie polityki tradycyjnego zabezpieczenia sieci poprzez system haseł i hierarchię dostępów.

    Sposoby zabezpieczeń stosowane w „zaporach ogniowych”

    Firewall może podnieść bezpieczeństwo sieci poprzez filtrację usług, które nie są bezpieczne z istoty swego funkcjonowania. Przykładowo można zakazać wykorzystywanie usług takich jak NFS (Network Files System), który polega na współdzieleniu zasobów komputerowych w sieci np. ich dysków lokalnych, streamerów. Zakaz taki nie obowiązuje wewnątrz sieci, lecz dotyczy tylko przekraczania istniejącej granicy sieci połączonych. Żądanie takiej usługi przychodzące z zewnątrz lub wychodzące na zewnątrz sieci jest blokowane. Inna forma działania „ściany ogniowej" to kontrolowanie drogi połączenia, marszruty (route). Pakiety TCP/IP zawierają adres nadawcy i odbiorcy, router zestawia na ich podstawie marszrutę, czyli drogę, jaką mają przebyć od hosta nadawcy do hosta odbiorcy. Podobnie rzecz się ma z pakietami protokołów bezpołączeniowych, takich jak UDP. Hacker może wysłać żądanie zmiany marszruty w celu przechwycenia pakietów. Firewall może wykryć próbę kierowania pakietów inną drogą niż ustalone pierwotnie połączenie, wstrzymać transmisję, a o samym fakcie poinformować administratora sieci.

    Firewall może realizować kontrolowany dostęp do chronionych hostów. Pewne hosty zewnętrzne można uznać za „zaufane" i zezwolić na dostęp do systemu chronionego, natomiast inne, niepożądane, można skutecznie odseparować. Można w ten sposób zabezpieczyć zewnętrzny dostęp do podsieci z wyłączeniem, np. serwerów poczty elektronicznej lub serwerów informacyjnych. Tego rodzaju podejście można nazwać zasadą nie łączenia się z serwerami, które nie są bezwzględnie koniecznie dostępne. Ogranicza to w sposób istotny możliwość ataków pochodzących z systemów, z którymi łączność nie jest pożądana, bo nie jest konieczna. Warto zwrócić uwagę na fakt, że firewall stanowi formę scentralizowaną zabezpieczenia systemu złożonego (rozbudowanego), co wiąże się z obniżeniem kosztów niezbędnego oprogramowania. Przykładowo system Kerberos musiałby być zainstalowany na każdym hoście sieci chronionej, aby zapewnić względne bezpieczeństwo. Nie jest oczywiście celowe likwidowanie systemów bezpieczeństwa zlokalizowanych na hostach lokalnych. Chodzi tu raczej o odciążenie ich funkcji poprzez scentralizowaną implementację takich usług jak autoryzacja dostępów (authentication services) lub usługi haseł jednorazowych, generowanych na użytek jednej sesji.

    Firewall może tez podnieść stopień poufności systemu rozumianej tym razem jako ograniczenie możności śledzenia sposobu jago użytkowania, np. wykorzystując polecenie finger można zbierać informacje o zalogowanych użytkownikach, kiedy czytana jest poczta i inne szczegóły, które zestawione razem dają pojęcie o strukturze i sposobie działania organizacji. Narusza to jej prywatność i tym samym osłabia bezpieczeństwo. W tej samej grupie można też wymienić zagrożenie kontroli adresów sieciowych poszczególnych stacji (IP address) oraz nazw serwerów w ramach DNS (Domain Name Services). Wnikliwa obserwacja tego rodzaju danych pozwala zidentyfikować punkty dowodzenia lub inne o strategicznym znaczeniu.

    Firewall nie może być traktowany jako złoty środek na wszelkie zagrożenia z Internetu. Ma też szereg wad, z których należy zdawać sobie sprawę. Należ zwrócić uwagę na zagrożenie dostępu do chronionej sieci poprzez „tylne wejście”, jakim może być modem zlokalizowany w naszej sieci w miejscu niechronionym. Jest to swoistego rodzaju „dziura”, przez którą może przedostać się włamywacz podczas sesji Telnet, z pominięciem istniejącej „ściany ogniowej”. Przy obecnych szybkich modemach można nie zorientować się w fakcie włamania i na przykład przemycenia do wnętrza sieci „konia trojańskiego” lub wirusa.

    Współpraca z nowoczesnymi usługami Internetu

    1. WWW, gopher - najnowsze serwisy informacyjne nie były projektowane tak, aby dobrze współpracować ze „ścianami ogniowymi”. Potencjalnie istnieje ryzyko ataku, w którym przetwarzane przez stację klienta dane mogą umknąć kontroli bezpieczeństwa.

    2. Transmisje audio i video, pakiety transmisji dźwiękowych lub video ogólnie różnią się od zwykłych pakietów IP. Firewall może je w związku z tym transmitować bez kontroli. Stwarza to oczywiste zagrożenie przemycenia danych niepożądanych, a nawet utratę zdolności zabezpieczających systemu ochrony.

    3. Wirusy - „ściany ogniowe” nie zabezpieczają przed ściągnięciem wirusów ukrytych w transferowanych za pomocą FTP plikach z sieci zewnętrznej. Infekcja wirusem może też mieć miejsce z użyciem e-mail z przesłanie pliku. Główną trudność sprawia tu fakt, że zwykle transmisja jest z kompresją danych.

    Innym zabezpieczeniem danych w systemach informatycznych są klucze - jest to układ sprzętowy lub algorytm programowy, który szyfruje i zabezpiecza informacje. Tylko taki sam klucz lub klucz z nim stowarzyszony może być użyty do rozszyfrowania informacji.

    Podstawowe usługi ochrony informacji, stosowane w systemach rozproszonych, obejmują:

    Weryfikacja i autoryzacja użytkownika

    Mechanizmy weryfikacji umożliwiają stwierdzenie, czy żądanie dostępu pochodzi od właściwego użytkownika bądź aplikacji oraz, czy żądania w jakiś sposób nie zmodyfikowano. Bezpośrednio po potwierdzeniu autentyczności żądania, procedury autoryzacji przystępują do określenia, z jakiej formy dostępu do zasobów może korzystać dany użytkownik. W sieciach lokalnych autentyczność użytkownika jest stwierdzana na podstawie poprawnego hasła podawanego przy logowaniu się w sieci. W szczególnych sytuacjach są stosowane metody weryfikacji oparte o cechy biologiczne (np. odciski palców, barwa głosu). Powszechnie stosuje się karty magnetyczne lub inteligentne do weryfikacji użytkowników, przykładem są bankomaty i systemy rejestracji klientów w sklepach. W środowiskach rozproszonych użytkownicy korzystają zazwyczaj także z tych zasobów, które nie są przyłączone bezpośrednio do ich lokalnego serwera. W systemie tradycyjnym użytkownik rejestruje się, aby uzyskać dostęp do zasobów lokalnych. W celu uzyskania dostępu do zasobów odległych (znajdujących się np. w innym mieście), użytkownik musi zarejestrować się ponownie. Taka metoda, polegająca się na rejestrowaniu przy dostępie do każdego z zasobów jest kłopotliwa i trudna w obsłudze, ponieważ na każdym serwerze powinno się znajdować konto użytkownika z aktualnym hasłem. Ponadto, połączenie z odległymi urządzeniami nie są wystarczająco bezpieczne i może się zdarzyć, że intruz, monitorując linię przechwyci informacje, dotyczące rejestracji danego użytkownika i wykorzysta je. Również mechanizmy szyfrowania hasła mogą okazać się zawodne, jeśli intruz podszyje się pod innego legalnego użytkownika i przechwyci zaszyfrowane hasło.

    Mechanizm weryfikacji gwarantuje, że hasło użytkownika nigdy nie wydostanie się poza proces rejestracji w sieci, ponieważ jest zmieniane na kod identyfikujący użytkownika i stację, na której jest zarejestrowany. Kod ten obowiązuje w czasie aktualnej sesji użytkownika. Weryfikacja gwarantuje ponadto, że komunikaty pochodzą od właściwego użytkownika, pracującego na swojej stacji podczas aktualnej sesji, i że nie zostały uszkodzone, sfałszowane, ani w jakikolwiek sposób nie weszły w kontakt z nieuprawnioną osobą lub aplikacją.

    System Kerberos weryfikacji tożsamości opracowany w Massachusetts Institute of Technology, wykorzystuje architekturę klient - serwer. Program lub użytkownik, zgłaszający chęć skorzystania z usługi nazywany jest „klientem”, a element realizujący tą usługę jest nazywany „serwerem”. Kerberos powstał przy założeniu, że w środowisku rozproszonym istnieją obszary, które nie mogą być kontrolowane i dostęp do stacji roboczych mogą mieć osoby niepowołane. System umożliwia weryfikowanie klientów i serwerów za pomocą list ACL (są to niewielkie bazy danych, opisujące rodzaj uprawnień użytkownika w odniesieniu do usług lub zasobów), definiowanych przez administratora sieci. Kerberos dysponuje następującymi funkcjami:

    Zastosowanie systemu Kerberos wymaga oddzielnego serwera certyfikacji dla weryfikacji kontroli tożsamości.

    Szyfrowanie

    Celem każdego szyfrowania jest zabezpieczenie poufności komunikacji. Szyfrowanie jest, jak dotąd, najdoskonalszym sposobem ochrony informacji przed dostępem osób niepowołanych. Rozwój sieci międzynarodowych, publicznych i prywatnych systemów poczty elektronicznej oraz radiokomunikacji spowodował wzrost zapotrzebowania na techniki zabezpieczające. Rozwój mikroelektroniki obniżył ceny układów elektronicznych i ułatwił stosowanie zabezpieczeń. Potrzebę stosowania zabezpieczeń uświadomiło wprowadzenie analizatorów protokołów, które służą do monitorowania. Każdy, kto dysponuje tego rodzaju urządzeniami, może kontrolować dowolnie wybrane strumienie danych w sieci.

    Metody szyfrowania z kluczem utajnionym (ang.¬private - key) nazywane są szyframi symetrycznymi (jednokluczowymi), a metody szy¬rowania z kluczem jawnym (ang. public - key) - szyframi asymetrycznymi (dwukluczowymi).

    W systemie z kluczem prywatnym, informacja jest przekształcana za pomocą klucza, którym dysponują wyłącznie nadawca i odbiorca. Pewnym problemem jest dostarczenie kopii tajnego klucza odbiorcy wiadomości tak, aby zagwarantowane było bezpieczeństwo klucza. Klucz może być przesyłany innym łączem lub przez posłańca, ale jego bezpieczeństwo nie jest gwarantowane. Kolejnym rozwiązaniem może być wymiana kluczy przy okazji realizowania innych transmisji. Tę metodę może np. stosować firma komunikująca się ze swoimi oddziałami. Jeśli jednak zachodzi potrzeba przesyłania informacji do nieznanego odbiorcy, to problem ten rozwiązują metody szyfrowania z kluczem publicznym. Przykładem metody z kluczem prywatnym jest standard DES (Data Encryption Standard) zaprojektowany przez firmę IBM w latach siedemdziesiątych, do ochrony informacji przesyłanych i gromadzonych przez agendy rządowe Stanów Zjednoczonych. Standard ten był przez wiele lat udoskonalany i przy dzisiejszym stanie techniki obliczeniowej uważa się go za „niemożliwy do złamania”. Szyfr DES szyfruje 64-bitowe bloki danych, przy użyciu klucza o długości 56 bitów. Szyfr DES został zaimplementowany programowo i sprzętowo. Implementacja sprzętowa pozwala na zwiększenie wydajności i stopnia bezpieczeństwa (programowa realizacja algorytmów niesie za sobą niebezpieczeństwo zmodyfikowania programu przez komputerowego włamywacza. Przypuszczalnie słabymi punktami szyfru mogą być długość klucza równa 56bitom nie zapewnia odpowiedniego bezpieczeństwa, a także fakt, że w realizacji sprzętowej mogą istnieć „tajne przejścia”, umożliwiające łatwe złamanie szyfru.

    W systemie z kluczem publicznym rozwiązano problem przekazywania klucza odbiorcy wiadomości. Każdy użytkownik posiada klucz jawny i klucz prywatny (utajniony), obydwa klucze wykorzystują ten sam kod przy szyfrowaniu i deszyfrowaniu informacji. Jeden z kluczy znajduje się w wyłącznym posiadaniu użytkownika, drugi klucz jest umieszczony w miejscu ogólnodostępnym, na przykład na serwerze sieciowym, obsługującym funkcje związane z bezpieczeństwem. Klucze szyfrowania i deszyfrowania różnią się między sobą tak, że jednego z nich nie można określić na podstawie drugiego na podstawie metod obliczeniowych. Jeżeli ktoś chce przesłać poufną wiadomość, szyfruje ją kluczem publicznym odbiorcy. Natomiast odbiorca rozszyfrowuje otrzymaną wiadomość, posługując się kluczem prywatnym. Informacje zaszyfrowane za pomocą klucza publicznego, mogą być rozszyfrowane tylko za pomocą stowarzyszonego z nim klucza prywatnego. Uznanym algorytmem, wykorzystującym klucz publiczny jest algorytm RSA, opracowany w Massachusetts Institute of Technology przez Rivesta, Shamira i Adlemana (stąd nazwa algorytmu). Długość klucza wynosi 512 bitów i istnieje możliwość jego zmiany podczas jego transmisji. Metody RSA są szeroko stosowane w przemyśle.

    Algorytmy szyfrujące działają stosunkowo wolno, najwolniejsza jest metoda z kluczem jawnym. Metoda DES jest szybsza niż metody szyfrowania z kluczem jawnym, dlatego stosuje się ją często do szyfrowania właściwej treści wiadomości. Klucz stosowany w metodzie DES jest szyfrowany przy użyciu metody z kluczem jawnym. Zaszyfrowany klucz przesyła się odbiorcy wraz z wiadomością. Skuteczność tego rozwiązania bierze się stąd, że metoda klucza jawnego zapewnia bezpieczny sposób przekazywania klucza w sieci publicznej, a metoda DES oferuje dużą szybkość szyfrowania.

    Kłopotliwym aspektem projektowania systemów kryptograficznych jest zarządzanie kluczami. Z wyjątkiem przypadku, gdy klucze są chronione tak jak dane, zawsze będą one stanowić słabe ogniwo systemu. Nawet, jeśli algorytm szyfrujący jest niemożliwy do złamani, to cały system będzie słaby, jeśli klucze nie będą należycie zabezpieczone. Skutecznym rozwiązaniem jest również zapis tajnych kluczy na kartach magnetycznych lub w pamięci ROM oraz tzw. „metoda miażdżenia” bardzo długich kluczy (do 200 znaków) łatwych do zapamiętania przez użytkownika. Po „zmiażdżeniu”, z klucza branych jest tylko 56 bitów najbardziej wysuniętych na prawo (zawierają sumy kontrolne). W systemach wykorzystujących szyfrowanie asymetryczne najważniejszym problemem jest zapewnienie integralności kluczy.

    Integralność i podpisy elektroniczne

    Podpisy elektroniczne oraz kody potwierdzania wiadomości MAC (Message Authentication Codes), umożliwiają weryfikację źródła wiadomości i zapewniają, że podczas transmisji treść wiadomości nie zostanie zmieniona. Stosowane są do potwierdzania ważności zakupów i innych transakcji.

    Kody MAC wykorzystują algorytm wyliczania pewnej unikalnej wartości, zależnej od treści wiadomości, będącą podstawą wyliczeń, podobnie jak ma to miejsce przy obliczaniu sum kontrolnych. Nadawca i odbiorca wiadomości powinni przeprowadzić te same wyliczenia i otrzymać te same wyniki, jeśli treść informacji nie była zmieniana. W celu zapewnienia bezpieczeństwa, obliczenia przeprowadza się przy użyciu klucza prywatnego nadawcy i odbiorcy.

    Podpisy cyfrowe są używane w systemach szyfrowania z kluczem publicznym. Formularz z podpisem elektronicznym musi zawierać nazwę nadawcy, datę i czas, numer identyfikacyjny osoby lub transmisji. Podpisy elektroniczne potwierdzają autentyczność informacji poczty elektronicznej, zapisów operacji księgowych, okólników, dokumentów grup roboczych i innych wiadomości oraz plików przesłanych pomiędzy systemami, użytkownikami lub instytucjami. Procedura tworzenia i postępowania z podpisem elektronicznym jest następująca:

    1. Nadawca tworzy podpis elektroniczny, korzystając z własnego klucza prywatnego, przez szyfrowanie informacji identyfikacyjnych w dokumencie. Przed wysłaniem wiadomości, nadawca szyfruje cały dokument, używając publicznego klucza adresata.

    2. Odbiorca rozszyfrowuje wiadomość, używając własnego klucza utajnionego.

    3. Do rozszyfrowania podpisu cyfrowego odbiorca używa klucza publicznego nadawcy.

    Wiodącym producentem oprogramowania, umożliwiającym korzystanie z podpisów elektronicznych, jest obecnie RSA Data Security. Jej oprogramowanie wykorzystywane jest w NetWare 4.x, Sun Microsystems, systemach operacyjnych firmy Microsoft i systemie elektronicznej wymiany wiadomości Lotus Notes. Produkty, w których wykorzystuje się kryptografię klucza publicznego i podpisy elektroniczne pojawiły się po raz pierwszy w 1994 roku.

    Standard PEM (Privacy Enhanced Mail) to standard sieci Internet, umożliwiający stosowanie podpisów cyfrowych wpoczcie elektronicznej. Do szyfrowania stosuje się metody symetryczne i asymetryczne. Virtual Open Network zrealizował zestaw programowo-sprzętowy, wykorzystujący algorytm DES i służący di szyfrowania danych w sieciach opartych na protokole TCP/IP. Za jego pomocą będzie można, pracując w modelu klient - srwer w Internecie, dokonywać wzajemnej autentyfikacji.

    Częstą metodą zapobiegającą utracie informacji poprzez błędy i przeoczenia osób korzystających z systemu jest wykonywanie kopii bezpieczeństwa i archiwizacji. System wykonywania kopii bezpieczeństwa powinien opierać się na odpowiednim harmonogramie działań i obejmować zestaw procedur zapewniających poprawność skopiowanych danych. Kopie bezpieczeństwa mogą być wykonywane codziennie, co godzinę a nawet w systemie ciągłym. Można rozróżnić:

    Aby minimalizować ryzyko związane z działaniem systemu informatycznego należy rozpatrywać całość zagadnień związanych ze środowiskiem informatycznym, a więc:

    - politykę bezpieczeństwa informacji,

    - organizację bezpieczeństwa,

    - klasyfikacje i kontrolę majątku informatycznego,

    - politykę zatrudnienia, szczególnie pod kątem pracowników zatrudnianych do działu informatyki,

    - administrację systemu i sieci komputerowej,

    - kontrolę dostępu do systemu,

    - kwestię projektowania i modernizowania systemów,

    - planowanie ciągłości operacyjnej.

    1. PROJEKT SYSTEMU INFORMATYCZNEGO DLA PRZEDSIĘBIORSTWA

    1. Charakterystyka działalności wybranej komórki organizacyjnej

    Dział sprzedaży

    Personel tego działu zajmuje się sprzedażą gotowych wyrobów firmy i jest odpowiedzialny za kontakty z klientami account manager. Pracownicy tego działu są zobowiązani do kompetentnego przekazywania klientom informacji o produktach i usługach naszej firmy w związku z tym będą korzystać przede wszystkim z „modułu sprzedaż”. W dziale tym pracownicy wykazują się dużą znajomością możliwości i funkcji tego programu. Ponadto moduł umożliwia im sprawne wystawianie wszelkiego rodzaju dokumentów związanych z zakresem ich obowiązków.

    Dział marketingu obejmuje:

    1. Dział badań marketingowych zajmuje się działalnością obejmującą systematyczne gromadzenie danych umożliwiających podjęcie prawidłowych decyzji w kwestii wyboru, a następnie realizacji danej strategii marketingowej.

    2. Dział rozwoju nowych produktów jego działalność polega na odkryciu i efektywnym zastosowaniu nowego pomysłu w odniesieniu do produktu, technik wytwarzania .

    3. Dział promocji zajmuje się przede wszystkim sprawą dotarcia z informacją o produkcie do potencjalnych odbiorców oraz nakłanianiem ich do zakupu towaru. Obejmuje on:

    2. Założenia projektowe dotyczące komunikacji z komórkami funkcjonującymi w przedsiębiorstwie. Kanały wejścia - wyjścia informacji niezbędnej dla funkcjonowania wybranego działu

    Customer Relationship Management (CRM) to system informatyczny wspomagający zarządzanie relacjami z klientem. Pomaga on rozwiązać większość problemów związanych z obsługą działów sprzedaży i marketingu. Niektórzy postrzegają systemy CRM jako „hurtownię danych o specyficznym profilu, przeznaczoną dla kierowników działów marketingu i sprzedaży, służącą do analizy zachowań i profilu klientów, ich odzewu na akcje marketingowe czy pracy sprzedawców. Dla innych CRM to oprogramowanie, częściowo obejmujące funkcje systemów ERP, zarządzania wiedzą, pracę grupową i systemów e-commerce, umożliwiające automatyzację procesu sprzedaży i kontaktów z klientem. Programy te najczęściej umożliwiają wyszukiwanie odpowiednich danych, sporządzanie analizy i prognozowania sprzedaży i rynku, zarządzanie działami wsparcia technicznego i telefonicznymi punktami obsługi klienta tzw. call center.

    Od systemów CRM jest wymagana integracja z pozostałymi programami działającymi w przedsiębiorstwie. Elementami kluczowymi są: prosty, intuicyjny interfejs użytkownika, coraz częściej oparty na przeglądarce internetowej, oraz możliwość przesyłania i aktualizowania danych w sieci komputerowej między oddziałami firmy, siecią partnerów i pracownikami działającymi w terenie.

    Brak spójnej definicji systemów CRM pociąga za sobą także problem określenia funkcjonalności tej klasy systemu. W zależności od źródła można spotkać wiele koncepcji dotyczących tego problemu. W większości przypadków przyjmuje się, że system CRM obsługuje przede wszystkim obszary związane z obsługą klienta, sprzedażą i marketingiem. Istotne jest, że obszary te są wzajemnie powiązane i wpływają na siebie wzajemnie. Informacje z centralnej bazy danych wykorzystuje zarówno dział marketingu, jak i sprzedaży. Dane dotyczące powodzenia czy też porażki działań sprzedażowych mają bezpośredni wpływ na działania marketingowe, na podjęcie decyzji o ulepszeniu produktu, czy też zmianie sposobu sprzedaży. Lepszy produkt skuteczniejsza obsługa, czy też bardziej precyzyjne adresowanie kampanii mają zaś wpływ na zwiększenie sprzedaży. Przedstawiona funkcjonalność systemu tworzy pewnego rodzaju bazę, na której można budować inne moduły, jak: serwis i wsparcie klienta po sprzedaży, e- commmerce, call centre.

    Obsługa klienta - Kluczowymi informacjami dla działów marketingu i sprzedaży są możliwie szczegółowe dane o kliencie. Systemy CRM pozwalają na gromadzenie i przechowywanie w obrębie jednej bazy takich właśnie informacji, od danych teleadresowych do szczególnych preferencji klienta, jego upodobań, zachowań nabywczych i motywów zakupu. Istotne jest, że każdy użytkownik systemu ma dostęp do tych samych informacji i historii kontaktu z klientem, niezależnie od tego z jakiego źródła one pochodzą. Spójna i kompletna baza danych o kliencie pozwala na skuteczniejsze zaplanowanie działań działów marketingu i sprzedaży.

    Sprzedaż - Mówiąc ogólnie moduł ten umożliwia zarządzanie sprzedażą, przez automatyzację czynności sprzedażowych, definiowanie prognoz sprzedaży, analizę poszczególnych transakcji. Proces sprzedaży w obrębie tego modułu może być analizowany i kontrolowany według różnych kryteriów, na przykład poszczególnych użytkowników, grup użytkowników, grup klientów i produktów. Moduł sprzedaży pozwala na szybkie odnalezienie informacji dotyczących poszczególnych klientów, przeprowadzonych z nim transakcji, sposobu ich prowadzenia oraz odnalezienie danych związanych z produktem, cenami, czy też stanem magazynowym. W rezultacie analiza procesu sprzedaży pozwala wyłonić działania i obszary, które są najbardziej efektywne i generują największe dochody, a z drugiej strony poznać obszary w których firma traci klientów i poznać tego przyczyny.

    Serwis - moduł ten pozwala na odnotowywanie przyjętych zgłoszeń serwisowych wraz ze stanem ich realizacji, czasem usługi, opisem, kosztem, a także takimi danymi, jak wykorzystane części zamienne, uwagi oraz opinie klientów wprowadzane np. na podstawie ankiet. Pozwala on na obniżenie kosztów usług serwisowych, a nawet zmiany tradycyjnie działającego serwisu z centrum kosztów na działalność dochodową (centrum zysków).

    Call Centre - automatyzuje funkcję całościowego zarządzania centrum telefonicznym: pozwala min. na automatyczne kierowanie telefonów do odpowiednich osób, śledzenie zgłoszeń klientów, autoryzację zgłoszeń, przepływ informacji, rozwiązywanie problemów, a także pomiar efektywności działania. Moduł ten znacznie skraca czas połączeń z klientem, co daje możliwość obsłużenia większej ilości rozmów w tym samym czasie przy zachowaniu wysokiego poziomu obsługi klientów. Wbudowane narzędzia pozwalają w czasie rzeczywistym analizować efektywność pracowników przy pomocy odpowiednio zdefiniowanych kryteriów jak: analiza czasu pracy (ilość rozmów telefonicznych na pracownika), identyfikacja najbardziej efektywnej pory dnia, identyfikacja kosztochłonnych procesów.

    E-commerce - udostępnia część zawartości systemu przez Internet. Dzięki temu rozwiązaniu użytkownik systemu działający w terenie i mający dostęp do Internetu (np. w siedzibie klienta) może korzystać z danych dostępnych w systemie, jak np. przeglądanie książki rozwiązań, przeglądanie nowych zleceń itp. Oczywiście nie tylko użytkownik systemu może mieć dostęp do danych zawartych w systemie, ale także klient. Moduł ten daje możliwość na bieżąco przeglądać postęp prac związanych ze zgłoszonym przez siebie problemem. Dostęp do systemu uzyskiwany jest dzięki zwykłej przeglądarce internetowej. Zakres informacji dostępnych przez Internet może się różnić w zależności od uprawnień przyznanym poszczególnym użytkownikom.

    Każda osoba uprawniona do pracy w tym systemie posiada: