background image

14

 

POCZĄTKI

HAKIN9 5/2010

W

iększość z nas posiada na swoich 
komputerach dane, których nie 
chcielibyśmy stracić. Oczywiście 

zdajemy sobie sprawę z konieczności 
zabezpieczenia się przed ich utratą…. 
i niestety, często na tym etapie pozostajemy 
bezczynni. Aż do momentu, kiedy np. nasz 
twardy dysk brutalnie nam o tym przypomni. 
Aby się przed tym zabezpieczyć, należy 
zacząć przestrzegać kilku zasad oraz 
uzbroić się w odrobinę systematyczności i 
cierpliwości przy regularnym wykonywaniu 
kopii zapasowych.

Jakie są rodzaje zabezpieczeń 

przed utratą dostępu do danych

Na początku należy stwierdzić, że w teorii nie 
występują rozwiązania dające nam 100% 
bezpieczeństwa – każda technologia może 
ulec awarii pozbawiając nas dostępu do 
danych. Natomiast w praktyce stosuje się dwa 
rozwiązania: 

•   podjęcie działań zmniejszających do 

możliwego minimum szansę na utratę 
danych w wyniku awarii sprzętu,

•   dywersyfikacja źródeł danych – czyli po 

prostu systematyczne wykonywanie ich 
kopii.

Pierwsze z powyższych rozwiązań, to metoda 
bierna, mająca na celu zminimalizowanie 

ARTUR SKROUBA

Z ARTYKUŁU 

DOWIESZ SIĘ

jakie są rodzaje zabezpieczeń 

przed utratą dostępu do 

danych,

jak zabezpieczyć się w 100% 

przed utratą danych,

jakie są najczęstsze przypadki 

utraty dostępu do danych,

jakie najczęściej popełniamy 

błędy po utracie danych.

CO POWINIENEŚ 

WIEDZIEĆ

znać podstawy obsługiwanego 

systemu operacyjnego.

szansy wystąpienia awarii samego nośnika. 
W większości przypadków nasze dane 
przechowywane są na dyskach twardych – w 
związku z tym należy bezwzględnie pamiętać, 
że są to urządzenia, które są bardzo wrażliwe 
na wszelkiego rodzaju fizyczne czynniki 
zewnętrzne, takie jak wysoka temperatura, 
bądź szok udarowy.

Dlatego zakupując komputer, bądź 

dysk przenośny, warto o tym pomyśleć i 
przestrzegać kilku podstawowych zasad.

Metody bierne zapobiegające 

utracie dostępu do danych

Oto kilka przykładów działań pozwalających 
zminimalizować szanse awarii twardego dysku:

•   w komputerach stacjonarnych należy 

regularnie kontrolować czystość; gruba 
warstwa kurzu na dysku potrafi bardzo 
szybko doprowadzić do dekalibracji 
termicznej dysku,

•   jeżeli to możliwe zamontujmy w komputerze 

wentylator skierowany na dysk, będzie 
on skutecznie zmniejszał temperaturę 
podczas pracy dysku i jednocześnie 
spowalniał proces osadzania się kurzu,

•   komputer stacjonarny nie powinien stać 

pod biurkiem w pobliżu naszych nóg; 
nawet lekkie uderzenia (szczególnie 
podczas jego pracy) mogą być zabójcze 
dla naszego HDD,

Stopień trudności

Jak zabezpieczyć 

się przed utratą 

danych

Kolejny artykuł ma za zadanie przybliżyć nam problematykę 

zabezpieczenia się przed utratą dostępu do danych. 

W ogólnym zarysie postaramy się także udzielić kilku cennych 

wskazówek, dotyczących dalszego postępowania w sytuacji, 

kiedy już dojdzie do awarii, a my nie posiadamy kopii 

zapasowych naszych krytycznych danych.

background image

15

 

JAK ZABEZPIECZYĆ SIĘ PRZED UTRATĄ DANYCH

HAKIN9 

5/2010

•   komputer nie powinien być 

umiejscowiony w pobliżu źródeł 
ciepła, np. kaloryfera,

•   jeżeli mamy komputer umiejscowiony 

na biurku (stacjonarny, bądź 
przenośny), nie wolno nam uderzać w 
jego blat (szczególnie podczas pracy 
– dysk jest narażony na dekalibrację 
mechaniczną),

•   należy pamiętać, aby nie pozostawiać 

na dłuższy czas pracującego 
komputera (oczywiście z wyjątkiem 
sytuacji, gdzie jesteśmy do tego 
zmuszeni),

•   komputery przenośne (np. laptopy) 

mają mało wydajny system 
wentylacyjny; dlatego też absolutnie 
nie wolno wykonywać na nich 
dłuższych prac (powyżej kilkunastu 
minut) w warunkach, w których może 
doprowadzić to do przegrzania 
dysku. Przykładem może tu być 
praca na miękkim podłożu, takim 
jak koc, bądź pościel – w takich 
warunkach skuteczność systemu 
odprowadzania ciepła spada niemal 
do kilkunastu procent,

•   dyski zewnętrzne są dużo mocniej 

narażone na czynniki udarowe lub 
termiczne; dotyczy to w szczególności 
dysków 3,5 calowych (wg statystyk 
ok. połowy z nich ulega awarii do 
roku czasu!) – dlatego powinny być 
one traktowane w sposób wyjątkowo 
ostrożny. Optymalnymi warunkami 
pracy takich dysków jest znalezienie 
dla nich bezpiecznego miejsca na 
biurku i bez zwisających na wierzchu 
przewodów,

•   wybierajmy zawsze zewnętrzne dyski, 

które leżą, a nie stoją (dotyczy 3,5 
calowych) – dyski stojące często 
ulegają przewróceniu,

•   nie przesuwajmy i nie podnośmy 

dysku zewnętrznego (podczas pracy 
jest to szczególnie niebezpieczne),

•   ograniczmy do maksimum przypadki 

przenoszenia dysku,

•   dyski 2,5 calowe są w sposób 

szczególny narażone na nawet 
delikatne naciśnięcia – w takich 
sytuacjach często dochodzi do 
nieprawidłowego zatrzymania 
(zarycia się) głowic na wirującym 
platerze,

•   przed każdym przenoszeniem 

dysku należy pomyśleć o ich 
stosownym zabezpieczeniu – nie 
należy przenosić luzem dysku bez 
żadnego zabezpieczenia – w razie 
przypadkowego upadku szansa na 
utratę dostępu do danych wynosi 
sporo ponad 90%,

•   występowanie anomalii napięciowych 

jest istną zmorą, jeżeli chodzi o 
uszkodzenia elektroniki dysków 
twardych. W tego typu sytuacjach 
elementem najbardziej zawodnym 
jest zasilacz komputera – dlatego 
zwróćmy uwagę na jego jakość.

Przestrzeganie powyższych i wielu innych, 
podstawowych zasad pozwoli nam 
wydajnie zwiększyć żywotność naszych 
dysków i zminimalizować do minimum 
ryzyko wystąpienia awarii. W tym miejscu 
należy jednak stwierdzić, że metody 
bierne nie zmniejszają szans wystąpienia 
utraty danych z przyczyn logicznych 
(skasowanie danych, format, itp.). Tutaj 
jedyną metodą jest systematyczność 
w okresowym wykonywaniu kopii 
zapasowych. Jest to tzw. czynna metoda 
zabezpieczenia przed utratą danych.

Metody czynne 

zapobiegające utracie 

dostępu do danych

Podobno ludzie dzielą się na tych 
wykonujących kopie zapasowe swoich 
danych jak i na tych, którzy będą je 
wykonywać. Ze stwierdzeniem tym trudno 
polemizować – podobnie jak z tym, że 
ludzie dzielą się na mądrych i głupich.

Wykonywanie kopii zapasowych 

– czyli dywersyfikacja źródeł danych – to 
jeden z najskuteczniejszych sposobów 
zabezpieczenia się przed ich utratą.

W większości przypadków, tzn. takich, 

które nie wymagają błyskawicznego 
dostępu do danych oraz zakładają 
określony margines czasowy (w sensie 
ich aktualności) idealnym rozwiązaniem 
jest robienie kopii zapasowych. W 
tego typu sytuacjach kopie zapasowe 
robimy w odstępach czasowych 
odpowiadających naszym potrzebom 
(raz na miesiąc, raz na tydzień czy nawet 
raz dziennie – jeżeli ktoś codziennie 
pracuje w sposób efektywny przez 

kilka godzin). W praktyce jest to idealne 
rozwiązanie dla tego typu osób lub firm 
– jednakże musi być przestrzeganych 
kilka żelaznych zasad:

•   systematyczność – jej brak jest 

najczęstszym grzechem i przez to 
powodem utraty dostępu do danych 
(dla przykładu: księgowy małej lub 
średniej firmy nie powinien zakończyć 
pracy zanim nie wykona kopii danych 
z całego dnia lub tygodnia),

•   każdorazowa weryfikacja wykonanych 

kopii – praktyka pokazuje, że samo 
wykonanie kopii nie zawsze jest 
jednoznaczne z zamierzonym 
efektem (czasami się zdarza, 
że ludzie wykonują kopie na 
zniszczonych dyskietkach lub 
taśmach, po czym okazuje się że 
krytyczne dane nie są już nagrywane 
na ww. nośniki od np. kilku miesięcy).

•   maksymalna dywersyfikacja źródeł 

kopii pod względem rodzaju nośnika i 
jego umiejscowienia – zrobienie kopii 
danych w obrębie jednego komputera 
czy nośnika (inny katalog, inna 
partycja, drugi dysk) w praktyce nie 
powoduje znaczącego zwiększenia 
poziomu bezpieczeństwa. W wypadku 
awarii np. zasilacza uszkodzeniu 
mogą ulec wszystkie elementy 
wewnątrz komputera,

•   w przypadku notorycznej pracy 

na większych ilościach danych, 
np. prace graficzne, obróbka 
strumieni AV, itp. należy pomyśleć o 
wykonywaniu kopii różnicowych, które 
będą obejmować kilka, kilkanaście 
punktów backupowych wstecz 
(w zależności od potrzeb) – takie 
rozwiązanie gwarantuje sprawne i 
systematyczne wykonywanie kopii 
nawet większej ilości danych.

Jak zabezpieczyć się 

w 100%?

Idealnym rozwiązaniem jest stosowanie 
obydwu metod, tzn. biernej i czynnej. 
Realizowane jest to przez układy, 
których konstrukcja i wbudowane 
dodatkowe zabezpieczenia w sposób 
naturalny, wydatnie zmniejszają szanse 
na wystąpienie awarii (np. serwery 
macierzowe, układy klastrowe w sieci, 

background image

16

 

POCZATKI

HAKIN9 5/2010

JAK ZABEZPIECZYĆ SIĘ PRZED UTRATĄ DANYCH

17

 

HAKIN9 

5/2010

nadmiarowe zasilacze itp. ) i które 
dodatkowo wykonują jednocześnie kopię 
zapasową. 

Rozwiązania te są szczególnie 

pożądane tam, gdzie nieakceptowana 
jest przerwa w dostępie do danych 
(banki, korporacje, giełdy, duże firmy 
produkcyjne itp.). Często w tego typu 
układach stosuje się multibackup online 
(dane są archiwizowane na bieżąco 
czasie rzeczywistym) i jednocześnie 
w wielu miejscach. Jednakże takie 
rozwiązania są często bardzo kosztowne 
i muszą mieć swoje uzasadnienie 
ekonomiczne w wypadku wystąpienia 
potencjalnej awarii.

Przyjmuje się, że idealnym 

rozwiązaniem jest posiadane trzech 
źródeł danych niepowiązanych ze sobą 
w jakikolwiek sposób i przechowywanych 
oddzielnie np. źródłowy dysk twardy, płyta 
CD/DVD oraz np. pamięć wymienna 
(pendrive). W takim układzie ryzyko utraty 
krytycznych danych w praktyce spada 
do zera.

Najczęstsze przypadki 

utraty dostępu do danych

W praktyce można spotkać dwa 
podstawowe rodzaje przyczyn utraty 
danych, jeżeli chodzi o ich naturę:

•   uszkodzenia logiczne,
•   uszkodzenia fizyczne.

Każde z nich możemy podzielić jeszcze 
na pewne podtypy, które posiadają 
odmienną charakterystykę przyczynowo-
skutkową. I tak – uszkodzenia logiczne 
dzielą się na:

•   uszkodzenie systemu operacyjnego,
•   uszkodzenie systemu plików,
•   uszkodzenie logiczne powstałe 

wskutek błędu użytkownika.

Natomiast w ramach uszkodzeń 
fizycznych samego nośnika możemy 
wyróżnić:

•   uszkodzenie mechaniczne 

(dekalibracja mechaniczna, 
dekalibracja termiczna, uszkodzenie 
łożyska silnika, wybicie stojana 
silnika),

•   uszkodzenie elektroniczne 

(uszkodzenie modułu elektroniki 
zewnętrznej, uszkodzenie 
głowicowego przedwzmacniacza 
sygnału),

•   uszkodzenie logiczne lub 

mechaniczne struktury serwisowej 
dysku (Service Area).

Oczywiście wszystkie wymienione wyżej 
rodzaje uszkodzeń mogą występować 
samodzielnie lub jednocześnie; przy 
czym często występuje pomiędzy nimi 
implikacja przyczynowo-skutkowa. I tak, 
np. dekalibracja mechaniczna (np. dysk 
został uderzony) wpływa na uszkodzenia 
fizyczne części powierzchni roboczej 
dysku, przez co uszkodzony zostaje 
system plików (minimalne odkształcenia 
końcówek głowic mogą powodować 
rysowanie platerów dysku w obszarze 
konfiguracyjnym systemu plików).

Poniżej krótki opis objawów i 

okoliczności, które charakteryzują w 
sposób bezpośredni rodzaj usterki:

•   Działania wirusów, niedozwolone 

operacje na strukturach lub 
plikach systemu operacyjnego, 
błędne działanie lub niewłaściwe 
posługiwanie się narzędziami 
dyskowymi, pojawienie się błędnych 
sektorów na powierzchni dysku, 
błędna konfiguracja sprzętowa 
systemu operacyjnego, nagłe lub 
nieprawidłowe zamknięcie systemu 
operacyjnego, itp. – wszystkie tego 
typu czynności mogą wpłynąć na 
powstanie uszkodzeń systemu 
operacyjnego lub systemu plików.

•   Przypadkowe lub błędne usunięcie 

danych – tu sytuacja jest jasna.

•   Wszelkiego rodzaju anomalie 

napięciowe, mogące wystąpić, 
czyli: nagłe braki w dostawie 
prądu, przepięcia, zwarcia czy 
też wysadzenia lokalnej instalacji 
elektrycznej (bezpieczniki) skutkują 
najczęściej uszkodzeniem elektroniki 
komputera, a co za tym idzie 
elektroniki samego dysku. W tym 
miejscu należy zaznaczyć, że z 
tego punktu widzenia najbardziej 
krytycznym elementem w systemie 
jest zasilacz. Dobry zasilacz 

nie dopuści do uszkodzenia 
wewnętrznych komponentów 
komputera – w najgorszym razie 
sam ulegnie zniszczeniu, chroniąc 
jednocześnie pozostałe elementy. 
Słaby jakościowo zasilacz jest 
odpowiedzialny za ponad 90% 
przypadków awarii elektroniki 
twardych dysków.

•   Uderzenia i upadki – całych 

komputerów lub przenoszonych 
dysków – nawet niewinne, drobne 
puknięcia lub uderzenia mogą 
spowodować trwałe i poważne 
uszkodzenie mechaniczne twardego 
dysku (szczególnie podczas pracy 
nośnika). Dzieje się tak, ponieważ 
prawie wszystkie dzisiejsze 
dyski twarde (oprócz SSD) są 
urządzeniami złożonymi m.in. z 
wysoce precyzyjnej mechaniki, która 
jest bardzo wrażliwa na fizyczne 
działania zewnętrzne. Dochodzi 
wtedy do dekalibracji mechanicznej 
twardego dysku (zmiana geometrii 
końcówek pozycjonera z głowicami), 
nieprawidłowego zatrzymania głowic 
na platerach lub wybicia stojana 
silnika.

•   Przegrzanie twardego dysku – jeżeli 

twardy dysk, który pracuje przez 
dłuższy czas jest narażony na 
przegrzanie się (praca laptopa 
na miękkim kocu lub pościeli, 
umiejscowienie komputera przy 
kaloryferze, itp.) to dochodzi do 
mikroodkształceń termicznych 
na końcówkach głowic. Skutek 
– identyczny, jak w przypadku 
dekalibracji mechanicznej.

•   Wystąpienie uszkodzeń w obszarze 

serwisowym dysku (ang. Service 
Area
, potocznie SA). Jest to 
wydzielony obszar na platerach 
(talerzach) dysku, niedostępny 
dla przeciętnego użytkownika (SA 
mieści się na logicznie ujemnych 
cylindrach), w którym znajduje się 
wewnętrzne mikroprogramowanie, 
dzięki któremu możliwa jest sprawna 
praca dysku. Znajdują się tam takie 
informacje jak: translator logiczny, 
adaptywy, informacje na temat 
wielkości dysku, nazwa dysku, 
jego numer seryjny, hasło ATA, itp. 

background image

16

 

POCZATKI

HAKIN9 5/2010

JAK ZABEZPIECZYĆ SIĘ PRZED UTRATĄ DANYCH

17

 

HAKIN9 

5/2010

Po podłączeniu zasilania główny 
procesor dysku zaczyna wykonywać 
procedury zawarte w swoim biosie. 
Większość z nich zawiera komendy 
odczytu wyżej wspomnianych 
danych mieszczących się w strefie 
serwisowej. Jeżeli wszystko jest w 
porządku, dysk zgłasza gotowość 
do pracy. Jeżeli nie… tu zaczyna 
się problem… Wachlarz objawów 
uszkodzonego SA jest bardzo szeroki. 
Najczęstszymi objawami uszkodzenia 
SA jest błędna detekcja napędu w 
biosie komputera (nieprawidłowa lub 
niepełna nazwa dysku, nieprawidłowa 
pojemność, niewłaściwy numer 
seryjny), brak statusu ready nośnika, 
przy próbie skanu powierzchni 
nośnika wszystkie sektory są błędne, 
itp. Niestety w prawie wszystkich 
przypadkach uszkodzenia SA – aby 
dostać się do danych – wymagana 
jest spora wiedza na temat budowy 
i struktury SA w poszczególnych 
modelach oraz odpowiednie 
zaplecze techniczne i narzędziowe. 
Dlatego przy wystąpieniu objawów 
świadczących o uszkodzeniu SA 
stanowczo odradzamy podejmowanie 
jakichkolwiek samodzielnych prób.

Najczęstsze błędy 

po utracie danych

Jeżeli już jednak się zdarzy, że z 
jakiejkolwiek przyczyny utracimy dostęp 
do danych i co gorsza nie posiadamy 
kopii, nie należy załamywać rąk. W 
większości tego typu przypadków 
dane można odzyskać pod warunkiem 
przestrzeganiu kilku żelaznych zasad:

•   Nie należy wpadać w panikę – 

powoduje ona często, że zaczynamy 
wykonywać pewne nieprzemyślane 
kroki, które niestety w większości 
przypadków znacznie utrudnią lub 
wręcz uniemożliwią dotarcie do 
utraconych danych.

•   Należy zrobić rachunek zysków i strat 

– jeżeli dane są zbyt cenne, abyśmy 
mogli pozwolić sobie na ich utratę 
nie należy podejmować jakichkolwiek 
samodzielnych działań lub zlecać 
tej pracy innym osobom tzw. złotym 
rączkom
 czy też domorosłym 

informatykom. Także korzystanie 
z usług serwisów, bądź sklepów 
komputerowych jest obarczone 
bardzo dużym ryzykiem, ponieważ 
praktyka pokazuje, że większość z 
nich tak naprawdę nie ma nawet 
podstawowej wiedzy z zakresu 
profesjonalnego odzyskiwania danych 
– wykonywane przez nich działania są 
najczęściej prowadzone na ślep, na 
zasadzie: a może się uda. Statystyki 
pokazują, że działalność takich osób 
lub firm w prawie 70% przypadków 
doprowadza do nieodwracalnego 
zniszczenia danych. W sytuacjach 
awaryjnych należy korzystać z usług 
firm, które specjalizują się w zakresie 
odzyskiwania danych i jest to ich 
jedyny profil działalności. Koszty 
odzyskania danych będą oscylować 
w granicach od kilkuset do kilku 
tysięcy złotych.

•   Pamiętajmy! Jeżeli dojdzie do awarii 

nie wykonujmy pochopnie żadnych 
czynności! Poniżej przedstawiamy 
kilka najczęściej występujących 
błędów, które popełniamy w wyniku 
paniki, bądź braku należytej wiedzy. 
Dlatego należy pamiętać o kilku 
podstawowych zasadach:

•   Brak podstawowej wiedzy na temat 

tego co się stało i co może być 
źródłem awarii dyskwalifikuje nas 
jako osobę, która może wykonać 
jakiekolwiek czynności związane z 
odzyskaniem danych.

•   Podobnie jak powyżej – brak 

podstawowej wiedzy dotyczącej 
chociażby tego ,co nam wolno a 
czego nie (w procesie data recovery) 
uniemożliwia nam podjęcie działań w 
tym zakresie.

•   Należy pamiętać, że jakakolwiek 

modyfikacja zawartości dysku 
może doprowadzić do zniszczenia 
danych (prosty przykład: usunięcie 
danych, założenie nowej partycji lub 
format dysku nie niszczą w sposób 
nieodwracalny (fizyczny) danych 
– dane zostają zniszczone dopiero w 
procesie ich ponownego nadpisania).

•   Powyższa wskazówka jest skuteczna 

w przypadku utraty dostępu do 
danych z przyczyn logicznych; 
w sytuacjach, gdy występuje 

uszkodzenie mechaniczne nośnika 
lub uszkodzenie strefy serwisowej 
w praktyce jesteśmy bezradni 
– nawet niewinne otwarcie dysku 
(oprócz warunków laboratoryjnych) 
lub manipulacja w obszarze strefy 
serwisowej (bez odpowiedniej wiedzy 
i narzędzi) w praktyce powoduje 
nieodwracalną utratę danych.

•   W przypadku mechanicznego 

uszkodzenia dysku (brak 
detekcji w biosie, występujące 
charakterystyczne stukanie) nie 
możemy dopuścić do uszkodzenia 
powierzchni platerów poprzez 
uporczywe próby odczytu danych. 
Zdekalibrowane końcówki 
pozycjonera mogą to uczynić w 
przeciągu nawet kilku minut.

•   Wielogodzinne lub nawet wielodniowe 

skanowanie ciężko uszkodzonych 
dysków często doprowadza do 
ich definitywnego fizycznego lub 
logicznego uszkodzenia – szczególnie 
podczas prób używania takich 
programów jak HDD Regenerator 
– programy narzędziowe tego typu 
mogą być stosowane przy lekko 
uszkodzonych nośnikach.

•   Podobnie jak powyżej – w przypadku 

ciężkich uszkodzeń dysku – nie należy 
wykonywać pełnego skanowania 
dysku narzędziami służącymi do 
odzyskiwania danych. Wielogodzinne 
próby odzyskania danych z np. 
zdekalibrowanego lub przegrzanego 
dysku mogą spowodować fizyczne 
zniszczenie samego ferromagnetyka 
napylonego na platery, co w 
konsekwencji doprowadzi do 
definitywnej utraty danych.

•   Niestety – jakiekolwiek uszkodzenia 

dysku – przez większość ludzi 
są kojarzone z uszkodzeniem 
modułu elektroniki zewnętrznej. 
Nieważne czy dysk upadł, czy 
zaczął rejestrować nieresponsywne 
sektory lub uszkodzeniu uległa logika 
dysku – bez względu na powyższe 
objawy większość z nas uważa, że 
jedynym i skutecznym antidotum 
na dostanie się do danych jest 
wymiana jego elektroniki. Dlatego 
pamiętajmy: eksperymentowanie 
z wymianą elektroniki dysku jest 

background image

18

 

POCZATKI

HAKIN9 5/2010

procesem obarczonym dużym 
stopniem ryzyka – większość 
producentów nie podaje kompletnych 
oznaczeń umożliwiających 
bezbłędną identyfikację dysku, 
jeżeli chodzi o wersję biosu czy też 
układ mapowania głowic w biosie 
lub układu głowic – natomiast 
zastosowanie błędnej elektroniki 
może doprowadzić w krańcowych 
przypadkach do uszkodzenia 
struktury serwisowej dysku, bądź 
uszkodzenia elektroniki wewnętrznej 
dysku. Natomiast same statystyki 
dotyczące występowania przypadków 
faktycznego uszkodzenia elektroniki 
zewnętrznej są w świetle powyższego 
bezlitosne – zaledwie ok. 23-25 % 
na 100 zgłaszanych przypadków. 
Prawie pewną wskazówką w takich 
przypadkach jest brak jakichkolwiek 
oznak życia dysku po podpięciu 
go do zasilania (dysku nie słychać, 
nie rozkręcają się platery, żadnych 
dźwięków lub innych objawów).

Podsumowanie

Profesjonalne usługi odzyskiwania 
danych wymagają ogromnej wiedzy 
i specjalistycznego laboratorium. W 
ostatnim okresie na polskim rynku 
pojawia się bardzo wiele firm oferujących 
taką usługę, jednak jej jakość pozostawia 
wiele do życzenia. W całej tej masie 
firm jest tylko kilka, które dysponują 
stosowną wiedzą i warsztatem 
pozwalającym odzyskać dane we 
wszystkich możliwych przypadkach 
(tzn. tam gdzie fizycznie jest to możliwe). 
Dlatego każdy, kto zechce skorzystać z 
takiej usługi, powinien bardzo starannie 
dokonywać wyboru firmy, bądź osoby, 
której chcemy powierzyć swoje nośniki 
w celu odzyskania danych. Kuriozalne 
jest to, że na rynku można spotkać coraz 
więcej firm lub osób reklamujących 
się jako jednostki wyspecjalizowane 
w odzyskiwaniu danych, jednocześnie 

nie mających gruntownej wiedzy oraz 
warsztatu, pozwalającego na skuteczne 
wykonanie takiej usługi. I tak, np. 
światowy średni poziom skuteczności 
odzyskiwania danych wynosi ok. 76% na 
100 zgłoszonych przypadków (źródło: 
Wikipedia). Jest to spowodowane tym, iż 
sytuacje takie jak nadpisanie utraconych 
danych, bądź fizyczne uszkodzenie 
powierzchni roboczej nośników nie należą 
do wyjątków. Niestety, coraz częściej 
można spotkać reklamy, które delikatnie 
mówiąc … naciągają rzeczywistość. 
Coraz więcej firm ogłasza się jako 
ta najlepsza, przelicytowując się w 
skuteczności: 95% czy nawet 99%! Mało 
tego: na rynku pojawiają się reklamy 
sugerujące blisko 100% skuteczność (!) 
w odzyskiwaniu danych czy też mówiące 
gwarancji na odzyskanie danych. 
Jest to omamianie zdesperowanego 
klienta i świadome wprowadzanie go 
w błąd (powinien się temu przyjrzeć 
UOKIK). Nie ma bowiem na świecie firmy 
potrafiącej odzyskiwać dane z każdego 
przypadku ich utraty. Często działania 
te mają na celu tylko złapanie klienta w 
celu wyciągnięcia od niego pieniędzy 
za usługę sprawdzenia, bądź analizy 
czy się da dane odzyskać, a na końcu 
stwierdzenia Niestety nie udało się, ale 
się napracowałem, więc kliencie zapłać! 
.

Jeszcze większą patologią jest 

funkcjonowanie tzw. bezpłatnej analizy, 
która jest warunkowa. Z grubsza rzecz 
biorąc, polega to na tym, że coraz 
więcej firm oferuje bezpłatną analizę 
nośnika pod warunkiem, że po jej 
przeprowadzeniu klient skorzysta w 
danej firmie z usługi odzyskania danych. 
W przypadku rezygnacji, klient musi 
pokryć koszty przeprowadzonej analizy 
oraz inne ukryte opłaty – w przypadku 
dysków twardych mogą to być kwoty do 
kilkuset złotych. I nie byłoby w tym nic 
złego, gdyby nie fakt, że taka praktyka 
przyczyniła się do rozpowszechnienia się 
pewnego procederu, a mianowicie: coraz 

częściej nieuczciwe firmy po wykonaniu 
analizy decydują się na stosowanie cen 
zaporowych, np. 12 tysięcy złotych za 
odzyskanie danych z jednego dysku. 
Jak łatwo przewidzieć – w efekcie 
klient rezygnuje i z tego tytułu niestety 
musi zapłacić za wykonaną analizę. 
Mało tego – niektóre firmy dodatkowo 
żądają także opłaty za wydanie 
dysku (nośnika) – ponieważ wykonały 
dodatkową pracę wykraczającą poza 
standardową analizę wstępną… W tej 
sytuacji właściciel sprzętu ma związane 
ręce, ponieważ wcześniej, w momencie 
przyjęcia dysku do analizy podpisał 
stosowne zobowiązanie bez dokładnego 
zapoznania się z nim. Faktycznie 
– przy takich praktykach teoretyczna 
skuteczność może osiągać prawie 100% 
i jeszcze gwarantuje przypływ gotówki w 
każdym możliwym przypadku. Prowadząc 
taką firmę, równie dobrze można by nic 
nie robić – oprócz wystawiania faktur. 
Wystarczy mieć dobry PR, profesjonalnie 
wyglądającą stronę WWW czy 
reprezentacyjną siedzibę.

Dlatego pamiętajmy – przed 

wyborem firmy odzyskującej dane 
powinniśmy gruntownie przeanalizować 
jej rzetelność. Ufajmy tylko sprawdzonym 
firmom, mogącym się pochwalić 
wieloletnią praktyką poświadczoną 
certyfikatami i nagrodami (takimi 
jak medale, nagrody konsumenckie, 
poświadczenia dla rzetelnych firm). 
Także przed oddaniem (lub wysłaniem) 
nośnika należy zapoznać się z 
warunkami, które będziemy musieli 
pisemnie zaakceptować (dokładnie 
czytajmy druki zamówień i regulaminy). 
W trakcie rozmowy wstępnej sprawdźmy, 
czy bezpłatna analiza jest faktycznie 
bezwarunkowa oraz domagajmy się 
podania widełek cenowych (chodzi 
o cenę maksymalną!) za konkretny 
rodzaj potencjalnego możliwego 
uszkodzenia, tak aby uniknąć przykrych 
niespodzianek.

Artur Skrouba

Autor studiował na wydziale Fizyki i Astronomii 

Uniwersytetu Warszawskiego; jest także absolwentem 

Szkoły Głównej Handlowej w Warszawie na kierunku 

Finanse i Bankowość. Na co dzień zajmuje się 

profesjonalnym odzyskiwaniem danych w firmie 

DataMax Recovery, w której pełni funkcję jednego 

z inżynierów technicznych. Kontakt z autorem: 

artur.skrouba@data-max.pl.

Uwaga

Zarówno autor, jak i redakcja, nie ponoszą żadnej odpowiedzialności za jakiekolwiek szkody 
i straty powstałe w wyniku stosowanie się do wskazówek w niniejszym artykule. W momencie 
utraty dostępu do danych nie zaleca się samodzielnego wykonywania jakichkolwiek działań, 
w wyniku których może dojść do zagrożenia zdrowia bądź życia lub wystąpienia znacznych strat.