background image

12 reguł nowej gospodarki

 

 
Nowy ład gospodarczy, nowe zasady przedsiębiorczości, nowe technologie - dwanaście wzajemnie 
zależnych reguł 
 
 

 

 
 

Sfera gospodarki 

Sfera organizacji 

Sfera technologii 

1. Wiedza 
 
 
 

Odejście od pracy fizycznej na rzecz 
pracy umysłowej. „Wkład wiedzy" 
staje się istotną częścią produktów.  

Praca oparta na wykorzystywaniu 
wiedzy i umiejętności staje się 
podstawą tworzenia wartości, 
przychodów i zysków. Wkład 
wiedzy" jest realizowany przez 
łańcuch dodawania wartości. 

Rozwój technologii opartych na 
wykorzystywaniu wiedzy i 
umiejętności oraz sztucznej 
inteligencji. Powstają systemy 
eksperckie. 

2. Potęga techniki cyfrowej 
 
 
 

Nastaje era binarnego, zero-
jedynkowego przetwarzania i 
wyrażania kodów komunikacji 
międzyludzkiej, usług, agend 
rządowych, procesów wymiany 
gospodarczej, transakcji pieniężnych 
itp. 

Technika cyfrowa zastępuje 
analogową we wszelkich 
systemach wewnętrznej 
komunikacji i prezentacji (notatki, 
raporty, spotkania, rozmowy 
telefoniczne, zapisy na tablicach, 
projekty, modele, fotografie, 
schematy, wzorce itd.). 

Przechodzenie na systemy cyfrowe i 
odchodzenie od analogowych 
urządzeń transmisji i 
przechowywania informacji (tj. 
telewizji, radia, kopiarek, kamer, 
magnetofonów, wewnętrznych 
central telefonicznych itp.). 

3. Ku rzeczywistości wirtualnej 
 
 
 

Dotychczasowe materialne, fizyczne 
instytucje i przedmioty (urządzenia) 
mogą być zastępowane przez 
wirtualne odpowiedniki, czego 
efektem będzie przemiana wszelkich 
relacji gospodarczych oraz rodzajów 
i charakteru organizacji i zależności 
ekonomicznych. 

Powstawanie wirtualnych 
przedsiębiorstw, zespołów, 
instytucji wymiany gospodarczej, 
agencji rządowych, obszarów 
pracy itd. 

Wizualizacja danych, animacja w 
czasie rzeczywistym, rozwój 
systemów rzeczywistości wirtualnej 
zmieniają charakter fizycznej 
reprezentacji czynności. 

4. Molekularyzacja 
 
 
 

Zastępowanie molekularnymi 
systemami wymiany danych 
produkcji, sprawowania władzy 
dotychczasowych mass mediów, 
produkcji masowej, jednolitych 
systemów rządzenia. 

Odchodzenie od nakazowych 
zhierarchizowanych systemów 
kontroli na rzecz struktur opartych 
na zespołach zadaniowych. 
Indywidualni pracownicy czy 
grupy pracowników otrzymują 
szansę wyjścia z systemów 
korporacyjnych i skutecznej 
działalności na własny rachunek 
jako tzw. twórcy wartości. 

Nadejście epoki systemów 
informatycznych, zorientowanych 
obiektowo, na zasadzie rozdzielenia 
obszarów danych od technicznych 
aspektów oprogramowania - 
pozwala to na operowanie 
fragmentami (kodów), które mogą 
być szybko kojarzone na wiele 
sposobów. 

5. Integracja - praca w sieci 
 

Nowa gospodarka to gospodarka 
cyfrowa, powiązana w ramach i 
między organizacjami. Zarówno 
działalność gospodarcza, tworzenie 
wartości i dobrobytu, jak również 
sfera socjalna oparte są na 

Nowy model działalności 
gospodarczej to dosłownie i w 
przenośni praca w sieci. 
Współczesna technologia 
informatyczna umożliwia, na 
zasadzie tworzenia spójnej sieci 

W obszarze technicznej organizacji 
funkcjonowania sieci obserwuje się 
odchodzenie od komputerów 
głównych (host computers) na rzecz 
bardziej zaawansowanego 
wykorzystywania poszczególnych 

Nowa gospodarka

I. 

gospodarka cyfrowa

II. 

globalizacja

III. 

innowacyjność

IV. 

stabilny wzrost

background image

wszechobecnej i powszechnej 
infrastrukturze. 
 

usług, integrację niezależnych 
jednostek, które w ten sposób stają 

się elementami dużych organizacji 
i instytucji. Poprzednio takie 
„zespolenie" podmiotów 
składowych było możliwe 
wyłącznie przez stosowanie 
rozbudowanych, własnościowych 
struktur korporacyjnych. 
 

maszyn podłączonych do sieci. 
Dotychczasowe centra 

„wtajemniczenia" sieciowego 
ustępują miejsca sieciom typu 
client-server, które z kolei są 
elementami całościowej 
infrastruktury dla działalności 
społecznej i gospodarczej. 

6. Eliminacja pośredników i funkcji pośrednich (Disintermediation) 
 
 
 

Eliminowanie pośredników łańcucha 
wymiany gospodarczej: agentów, 
brokerów, hurtowników niektórych 
detalistów, właścicieli instytucji 
medialnych, producentów rynku 
muzycznego i wszelkich innych 
instytucji, których istnienie jest 
możliwe wyłącznie producentami a 
konsumentami. 

Ograniczanie roli i znaczenia 
pośrednich stanowisk 
menedżerskich oraz agentów, 
brokerów i pozostałych 
pośredników, których rola w 
organizacjach starego typu 
sprowadzała się do „wzmacniania" 
i powielania sygnałów, informacji i 
przekazów 

Odejście od wielopoziomowej, 
hierarchicznej architektury 
systemów informatycznych na rzecz 
modeli sieciowych. Komputery 
główne tracą rację bytu w 
systemach sieciowych o 
równorzędnym poziomie dostępu 
(peer- to-peer). 

7. Korelacja obszarów gospodarki (Conwergence) 
 
 
 

Postępowanie korelacji (i 
upodabniania się) podstawowych 
obszarów życia gospodarczego - 
sfery obliczeń i przetwarzania 
danych (computing), komunikacji 
(communications) i otoczenia 
ekonomicznego (content). 

Zespalanie struktur 
organizacyjnych związanych z 
technologią obszarów: 
obliczeniowego, komunikacji i 
otoczenia ekonomicznego. 

Uniformizacja i standaryzacja 
technologii obszarów: 
obliczeniowego, komunikacji i 
otoczenia ekonomicznego. 

8. Nowatorstwo (innovation) 
 
 

W sferze życia gospodarczego 
nowatorstwo staje się kluczowym 
czynnikiem sukcesu i głównym 
obszarem tworzenia wartości. 
Zastępuje tym samym tradycyjne 
wyznaczniki powodzenia, jak dostęp 
do surowców, wydajność, skala 

działania czy koszty wynagrodzeń. 
Ludzki geniusz i wyobraźnia stają 
się podstawowymi czynnikami 
tworzenia i dodawania wartości. 
 

Nowatorstwo staje się czołowym 
czynnikiem powodzenia wszelkich 
przedsięwzięć i strategii w zakresie 
produkcji, marketingu, 
zarządzania, zmian 
organizacyjnych. Stare reguły i 
zasady szybko przeżywają się. 
Jedynym trwałym czynnikiem 
przewagi konkurencyjnej pozostaje 
zdeterminowanie organizacji do 
ustawicznego podnoszenia swojej 
świadomości i wiedzy. 

Zaawansowanie technicznych 
rozwiązań informatycznych w 
przedsiębiorstwach staje się 
warunkiem i bazą dla innowacji. 
Nowe narzędzia informatyczne 
umożliwiają nieograniczony dostęp 
do ogromu zasobów sieciowych 

zarówno do informacji i baz danych, 
jak również do ludzi czy źródeł 
kapitału. 

9. Konsument producentem (Prosumption) 
 
 

Następuje zanikanie różnic między 
producentami a konsumentami. 
Konsumenci zyskują de facto 
możliwość partycypowania w 
procesach produkcyjnych, gdyż ich 
informacje, wiedza i pomysły stają 

się decydujące na etapie 
projektowania produktów. Efektem 
międzyludzkich kontaktów i 
współpracy za pośrednictwem sieci 
jest powstawanie ogólnoświatowych 
zasobów wiedzy. 
 

Dotychczasowi odbiorcy - 
konsumenci informacji i 
technologii zajmują pozycje 
zarezerwowane uprzednio dla 
producentów. Międzyludzka 
wymiana poglądów i myśli przez 

sieć przyczynia się do pomnażania 
korporacyjnych zasobów 
informacyjnych. Użytkownicy 
stają się projektantami przez 
samodzielne tworzenie nowych 
aplikacji. Coraz trudniejsze staje 
się jasne definiowanie 
osób/instytucji odpowiedzialnych 
za transfery i wdrożenia 
technologii. 

Dostępność nowych narzędzi 
służących do tworzenia 
oprogramowania, przetwarzanie i 
projektowanie obiektowe (object 
computing), 
procedury 
personalizacji i konfiguracji 
oprogramowania (software agents) - 
wszystkie te czynniki umożliwiają 
użytkownikom tworzenie systemów 
i baz danych, eliminując po części 
funkcję specjalistów. Jest to zmiana 
podobna do tej sprzed dziesięciu lat, 
kiedy w wyniku pojawienia się 
arkuszy kalkulacyjnych przestano 
powoływać zespoły robocze 
pracujące nad tworzeniem 
wszelkich, nawet 
nieskomplikowanych aplikacji 
informatycznych. Dodatkowo 
obecnie graficzne interfejsy 
użytkowe są zastępowane 
interfejsami multimedialnymi, które 
dzięki m.in. możliwości kontaktu 

background image

głosowego dają wrażenie pracy w 
naturalnym otoczeniu. 

10. Czas rzeczywisty (lmmediacy) 
 
 
 

Działalność gospodarcza nowego 
typu to działalność w czasie 
rzeczywistym (real time economy. 
Elektronizacja wymiany informacji 
sprawia, że wszelkie transakcje 
przeprowadzane są z prędkością 
światła, a nie jak dotychczas z 
prędkością... tradycyjnej usługi 
pocztowej. 

Również organizacje nowego typu 
to przedsiębiorstwa czasu 
rzeczywistego (real-time 
enterprise) - 
niezwłocznie i 
nieustannie dostosowujące się do 
zmieniających się warunków 
rynkowych. Następuje wyraźne 
skrócenie cykli życia produktów. 

Zastosowania technologii są 
podporządkowane bieżącemu 
ogarnianiu i przetwarzaniu 
informacji oraz stałemu 
uaktualnianiu baz danych. W 
efekcie możliwe staje się bieżące 
(dosłownie) zarządzanie procesami 
wytwórczymi. 

11. Globalizacja 
 
 
 

Wiedza nie zna granic. Wraz z 
uznaniem wiedzy i intelektu za 
najważniejsze zasoby powstaje tylko 
jedna gospodarka - gospodarka 
światowa, bez względu na to, że 
poszczególne organizacje 
funkcjonują w lokalnych i 
regionalnych otoczeniach. Efektem 
powstawania i wzrostu znaczenia 
nowych struktur geopolitycznych 
(jak Unia Europejska) jest 
ograniczanie roli państw 
narodowych i dalsze zacieśnianie 
współzależności między państwami. 

Nowego typu organizacje 
pozwalają na zmianę postrzegania 
czasu i przestrzeni oraz na sprawne 
funkcjonowanie ponad 
dotychczasowymi ograniczeniami. 
Praca może być obecnie 
świadczona z dowolnego miejsca, 
np. z domu pracownika. Z kolei 
sieć staje się środowiskiem 
komunikacji i współpracy bez 
względu na bariery czasowe. 
Zespolone za pośrednictwem sieci 
grupy kooperantów współpracują 
na poziomie globalnym realizując 
wspólne przedsięwzięcia. 

Światowe informatyczne sieci 
gospodarcze staję się motorem 
nowoczesnej działalności i 
podstawowym systemem 
dystrybucji usług. Najistotniejszą 
cechą i zaletą sieci jest jednej 
strony stwarzanie warunków dla 
komunikacji w czasie rzeczywistym, 
z drugiej umożliwianie 
przechowywania i odtwarzania 
przesianych w dowolnym czasie 
informacji. Kolejnym 
wyznacznikiem systemów 
sieciowych jest dostęp do licznych 
zasobów informacji i baz danych z 
dowolnego miejsca na świecie. 

12. Era niepokoju i zagrożenia (Discordonce) 

Powstawanie nowych, wysoko 
opłacanych profesji j miejsc pracy i 
jednoczesne brutalne eliminowanie 
niewykwalifikowanej lub nisko 
kwalifikowanej siły roboczej grozi 
pojawieniem się poważnych 
społecznych niepokojów. Taki stan 
rzeczy będzie potęgować 
pogłębiający się rozdźwięk między 
ludźmi posiadającymi wiedzę, 
umiejętności oraz dostęp do 
informacji i sieci a resztą 
społeczeństwa pozostającą poza 

„kręgiem wtajemniczenia". 
 
 

Uwidaczniają się poważne 
sprzeczności w dążeniu do 
identyfikowania się pracowników z 
miejscem pracy. Jaką bowiem mają 
oni motywację do „wytężonej 
pracy, uczestniczenia w tworzeniu 
wartości i image przedsiębiorstwa, 
identyfikowania się z zespołem i 
firmą", jeśli nie mają udziału w 
wartości, którą tworzą? 

Istnieje narastający konflikt między 
z jednej strony różnorodnymi 
architekturami systemów 
komputerowych, 
niekompatybilnymi, rywalizującymi 
ze sobą standardami, z drugiej zaś 
wymogami nowych standardów 
technologicznych. Ponadto w 
licznych firmach systemy 
informatyczne nie są skorelowane z 
pozostałymi funkcjami instytucji. 

 

background image

In the new economy we observe a shift of the paradigms of

1

:  

1.  production 
2.  management  
3.  work 

 
The change of the main paradigms of production processes

FROM 

TO 

mass production 

flexible, mass customisation of products and services 

productions of goods 

productions of services 

tangible products 

digital, intangible, dematerialization, weightless production 

long cycle of production 

shortest cycle by permanent innovation 

national market 

global market 

comparative advantage 

competitive advantage 

 
The change of the main paradigms of companies organisation and management

FROM 

TO 

centralisation 

descentralization and delocalisation 

rigid hierarchy 

flexible organisation 

companies-structures 

companies project oriented and virtual companies 

chain of activities 

network  and 

"disintermediation"  (eliminate  existing 

intermediaries) 

"we are separated and rivals" 

"we are connected and we can co-operate" 

 
The change of the main paradigms of work

FROM 

TO 

routine work 

work is changing continuously 

fixed programme 

flexible program of work 

life-career 

"just-in-time" worker 

office first 

work first 

fixed work-place 

mobile work-place 

worker go to work 

work comes to worker 

"live local - work local" 

"live local - work global" 

 

 
 

                                                           

1

 http://www.crie.ro/nouaeconomie/master-en.html?http://www.crie.ro/nouaeconomie/ 

background image

Znaczenie informatyka w nowej firmie

2

 

 

Jeśli efekty wdrożeń informatycznych są znikome lub w ogóle ich nie ma, przyczyn niepowodzenia może być 
wiele:

3

 

1.  firma nie jest w stanie określić swoje przyszłe potrzeby 
2.  nie starcza środków, by na bieżąco adaptować wdrożenie do zmian organizacyjnych i operacyjnych 

zachodzących w przedsiębiorstwie 

3.  firma nie chce podejmować równoległych działań biznesowych, które warunkują efekty ekonomiczne 

wdrażanego systemu 

Zanim więc informatyk stanie się chłopcem do bicia, należałoby zadać parę podstawowych pytań:

4

 

1. 

Czy przy rozstrzyganiu spraw związanych z wdrożeniem IT brane jest pod uwagę jego zdanie?  

2. 

Czy informatyk traktowany jest przez menedżerów jak partner  

3. 

Czy informatyk rozumie tkankę organizacyjną biznesu firmy i jest kompetentny na tyle, by 
współdecydować o losach firmy (bez względu na źródła tej kompetencji, którym może być wykształcenie, 
ale niekiedy głównie praktyka) 

Przedstawiciele d

ziału IT rzadko postrzegani są jako równoprawni partnerzy w dyskusji i przy podejmowaniu 

decyzji. Przyczyny:

5

 

1. 

Dwa światy 

Kierownictwo firmy i członkowie zespołu IT należą do innych światów i dlatego odmiennie postrzegają 
rzeczywistość. Dla informatyka sukcesem jest to, że system obsługi gospodarki magazynowej w ogóle ruszył i nie 
sypie się, menedżer natomiast wyrywa sobie włosy z głowy, bo brakuje mu modułu analizy sprzedaży, w tym 
płatności i zobowiązań, a pod magazynem kłębią się TIR-y.  

Informatyk musi d

obrze rozumieć biznesowy proces gospodarki magazynowej i zaopatrzenia, by właściwie 

zaprojektować, zmodyfikować lub zweryfikować proponowany przez dostawców obieg dokumentów 
magazynowych.  

Źle sformułowane przez dostawców problemy czy procesy, niekompetentnie weryfikowane przez kadrę 
informatyczną i menedżerską firmy, są jedną z przyczyn niepowodzenia wdrożeń systemów informatycznych. 

Osiągnięcie sukcesu może też utrudniać ogromne tempo zmian technologicznych, brak standardów w firmie, 
płynność kadr czy zależność przedsiębiorstwa od dotychczasowych systemów. Ta przynależność do dwóch 
światów powoduje też różną tolerancję na przeciągające się wdrożenie.  

Potrzebne jest zatem porozumienie i zarządzanie nie osobno procesami informatycznymi, które fascynują 
info

rmatyków, i biznesowymi, którymi władają menedżerowie, ale właśnie procesami biznesowo-informatycznymi.  

2. 

Poczuć bluesa 

Informatyk powinien umieć od podstaw zdefiniować, zaprojektować i doprowadzić do uruchomienia proces 
biznesowo-

informatyczny oraz mieć wpływ na jego zarządzanie i rozwój. Niezbędna jest do tego świadomość 

wszystkich istniejących w firmie procesów gospodarczych, pełna informacja o ich przebiegu i wzajemnych 
relacjach, rozumienie tych procesów i obowiązujących/istniejących ograniczeń natury formalnej, personalnej, 
organizacyjnej czy technicznej, a nade wszystko świadomość głównych celów firmy i przyjętej lub planowanej 
strategii ich osiągania. Innymi słowy, informatyk, od którego oczekuje się trafnych rozwiązań, zwłaszcza 
rozwiązań obejmujących całą lub znaczną część firmy, musi mieć pełną i szczegółową wiedzę o niej. 

                                                           

2

 

Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - 

(re)inżynier firmy?

 

3

 Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - 

(re)inżynier firmy? 

4

 Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - 

(re)inżynier firmy? 

5

 Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - 

(re)inżynier firmy? 

background image

Należy jednak umożliwić mu nawiązanie partnerskiej rozmowy o projektowanych rozwiązaniach z zarządem firmy 
lub działów, których rozwiązania dotyczą. Konieczne jest rozhermetyzowanie klanu informatycznego i klanu 
władzy, bo te dwa światy słabo kontaktują się ze sobą. Powodów jest kilka: hierarchiczny, nienowoczesny model 
zarządzania lub/i brak merytorycznej wiedzy i kompetencji biznesowej informatyków. Bywa też, że kierownictwo 
wsty

dzi się swej informatycznej niewiedzy wobec pracowników-informatyków i starannie stara się ukryć 

kompleksy za drzwiami gabinetów... 

Również informatykowi nie jest łatwo oderwać się od fascynującego go świata logiki informatycznej i wejść w nie 
zawsze uporz

ądkowany i dodefiniowany świat organizacji firmy. To naprawdę trudne i wymagające 

merytorycznego przygotowania zadanie - 

czuć "puls biznesu", trzymając jednocześnie rękę... na pulsie 

technologii informatycznych. 

3.  Infobiznesmeni potrzebni od zaraz 

Część informatyków poznała smak biznesu, prowadząc własne firmy. Jeżeli nadal są profesjonalnymi 
informatykami, to tylko dlatego, że ich biznes nie był na tyle duży, by jego organizowanie wyrwało ich z zawodu. 
Przy większej skali działań bycie biznesmenem zwykle kończy się wyjściem z pierwotnego zawodu. Należy 
pamiętać, że w przypadku informatyki odbywa się to szybko i na ogół bezpowrotnie, gdyż rozwój technologii 
informatycznych jest bardzo dynamiczny.  

1. 

Informatyk, który "wypadł" już z branży, a przy tym samouk i praktyk biznesu, może być partnerem 
menedżerów niewielkiej organizacji, ale czy będzie projektantem nowoczesnych rozwiązań 
informatycznych?  

2. 

Projektant nowoczesnych, nieprzestarzałych w momencie uruchomienia rozwiązań nie musi znać 
najnowszej techn

ologii, by móc ocenić, ile z niej można "wyciągnąć" czy też zweryfikować propozycje 

dostawców rozwiązań. 

3. 

Informatyk, który ma nawet nieduże doświadczenie biznesowe, ale pozostał czynny zawodowo nie jest 
partnerem dla menedżerów większych firm. Spotyka się w nich z inną organizacją, innymi procesami i 
ich prowadzeniem, z dziesiątkami spraw, z którymi w swoim niewielkim biznesie nie miał do czynienia. 

4.  Informatyka i ekonometria 

Większą szansę na zdobycie kwalifikacji infobiznesmena powinno dawać wyższe wykształcenie. Dopiero teraz 
jednak uczelnie uruchamiają odpowiednio zmodernizowane programy nauczania informatyki lub nowe kierunki 
nauczania prowadzenia zinformatyzowanego biznesu.

background image

Date: January 29, 2001 
Publication: Gazeta Bankowa weekly 
Source: 

Gazeta Bankowa 

 

 

Nowe ekonomiczne prawa 

Andrzej Wojtyna  

Czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić 
nowe jakościowo zjawiska i zależności, czy też konieczne staje się rozwinięcie “nowej ekonomii”?  

W połowie lat 90. w odniesieniu przede wszystkim do gospodarki Stanów Zjednoczonych zaczęto coraz częściej 
używać określenia “nowa gospodarka” (new economy). W ślad za tym w literaturze pojawiło się również 
określenie “nowa ekonomia” (new economics). Nasuwa się więc pytanie, czy w gospodarce amerykańskiej zaszły 
rzeczywiście tak istotne jakościowe zmiany, które uzasadniają posługiwanie się nowym pojęciem. Drugie pytanie 
dotyczy natomiast 

tego, czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi 

pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności czy też konieczne staje się rozwinięcie 
“nowej ekonomii”. Z jednej strony chodzi o określenie, czy zmiany nie odnoszą się jedynie do techniki a nie 
ekonomii. Z drugiej natomiast strony problem dotyczy tego, czy stare prawa ekonomiczne wystarczy 
przekalibrować czy też trzeba je sformułować po nowemu (D’Andrea Tyson, 1999).  

Długi boom  

Szukanie odpowiedzi na te 

pytania ma pewne szczególne znaczenie w kontekście transformacji gospodarek 

postsocjalistycznych. Chodzi o to, że również wśród polskich ekonomistów i polityków pojawiają się opinie, w 
myśl których w pewnych specyficznych okresach niektóre podstawowe zależności przestają obowiązywać lub 
uzyskują jakościowo nowy charakter. Pojawia się więc ryzyko “importu” pewnych kontrowersyjnych, nie 
sprawdzonych koncepcji w celu pokazania, że w polityce gospodarczej można uniknąć trudnych wyborów i nie 
brać pod uwagę występujących ograniczeń.  

W sensie chronologicznym pojęcie “nowa gospodarka” wiązane jest z okresem bardzo pomyślnego przebiegu 
koniunktury w Stanach Zjednoczonych w latach 90. Ze względu na korzystną koniunkturę w tym samym okresie 
pojęcie to jest przez niektórych autorów odnoszone również do Wielkiej Brytanii i Danii (Nielsen, 1999). Taylor 
(1998) uważa natomiast za właściwe posługiwanie się określeniem “długi boom”, odnoszącym się do 
kilkunastoletniego okresu stabilnej ekspansji gospodarki amerykańskiej, zapoczątkowanego w listopadzie 1982 r., 
a przerwanego jedynie krótką i łagodną recesją, która wystąpiła w drugiej połowie 1990 r. Zdecydowana 
większość autorów używa jednak pojęcia “nowa gospodarka” w kontekście szybkich zmian zachodzących w 
latach 90.  

Isto

tna poprawa sytuacji gospodarczej w Stanach Zjednoczonych w ostatnim okresie zaskoczyła obserwatorów, 

ponieważ jeszcze kilka lat wcześniej nic jej właściwie nie zwiastowało. Sytuacja zaczęła ulegać wyraźnej 
poprawie ok. 1996 r., mimo że trudno wskazać konkretne zmiany we wcześniej dominujących niekorzystnych 
zjawiskach. Co więcej, wzmocnienie pozytywnych tendencji nastąpiło w okresie kryzysu azjatyckiego, który 
znacznie osłabił koniunkturę światową.  

Pogłębionych studiów analitycznych na temat “nowej gospodarki” ukazało się do tej pory stosunkowo niewiele. 
Być może wynika to częściowo ze skumulowania się w tak krótkim okresie wielu nowych, trudnych do interpretacji 
zjawisk. Trudno jednak uznać toczący się dyskurs naukowy za adekwatny do skali wyzwań, jakie “nowa 
gospodarka” stawia przed badaczami. Niektórzy wybitni ekonomiści (Gordon, 2000) wyrażają w związku z tym 
zdziwienie, że obecna debata ustępuje znacząco wcześniejszym wielkim sporom ekonomistów dotyczącym np. 
przyczyn przyspieszenia inflacji w latach 6

0., hipotezy naturalnej stopy bezrobocia czy szoków podażowych. 

Zdecydowanie bardziej ożywiona dyskusja rozgorzała natomiast w mediach. Stosunkowo niewielka liczba 

opracowań stricte naukowych sprzyja wysuwaniu w tekstach publicystycznych radykalnych, ale słabo 
udokumentowanych tez. W rezultacie zarówno po stronie zwolenników, jak i przeciwników “nowej gospodarki” 
pojawiło się na jej temat wiele mitów.  

Nowy paradygmat  

Chociaż brak jest jednej powszechnie akceptowanej definicji “nowej gospodarki”, to za jej cechę konstytuującą 
uznaje się zazwyczaj rosnące znaczenie globalizacji i technik informatycznych (information technology), jako 
przyczyn leżących u podstaw zmian zachodzących w gospodarce. I tak zdaniem Nakamury (2000), “nowa 
gospodarka” lub “nowy paradygmat” oznacza “pogląd, w myśl którego innowacje w zaawansowanej technice i 
globalizacja rynków światowych zmieniły naszą gospodarkę na tyle, że musimy myśleć o niej i działać w niej w 
inny sposób”. Często istota “nowej gospodarki” jest definiowana poprzez przeciwstawienie jej “starej gospodarce” 
(np. Jorgenson i Stiroh, 2000A). 

Wówczas “nowa gospodarka” oznacza poszukiwanie źródeł szybszego wzrostu 

oraz zmian strukturalnych w rozwoju technik informatycznych, a w szczególności w szybkiej komercjalizacji 
Inte

rnetu, które to czynniki w fundamentalny sposób modyfikują działalność gospodarczą. “Starą gospodarkę” 

należy natomiast utożsamiać ze stanowiskiem wskazującym na “ospałość” gospodarki amerykańskiej w pierwszej 
połowie lat 90. oraz na splot korzystnych, ale przejściowych szoków, które wystąpiły w drugiej połowie dekady. 

background image

Przy takim postawieniu sprawy nasuwają się następujące ważne pytania (por. Tyson, 1999): czy niekorzystna 
relacja między inflacją a bezrobociem powróci, gdy skończy się korzystne oddziaływanie szoków 
krótkookresowych, czy też uległa ona trwałej poprawie w wyniku zmian w technice oraz nasilenia się konkurencji 
międzynarodowej? Czy gospodarka powróci do poprzedniego, niższego “limitu prędkości”, gdy dokona się już 
restrukturyzacja będąca konsekwencją zastosowania nowych technik, czy też techniki te w sposób trwały 
podniosą tempo produktywności i wzrostu gospodarczego?  

W dyskusji nad istotą “nowej gospodarki” bardzo ważne miejsce zajmuje kwestia, czy korzyści płynące z 
zastosowania technik inform

atycznych okażą się porównywalne z pozytywnymi skutkami wcześniejszych 

rewolucji technicznych. Wiele na to wskazuje, aczkolwiek specjaliści różnią się dosyć poważnie w opiniach na 
temat konsekwencji obecnej “rewolucji” (zob. szerzej Woodall, 2000).  

Za ważną cechę określającą istotę “nowej gospodarki” uważa się też wysoki stopień jej przejrzystości. Za sprawą 
Internetu kupującym i sprzedającym łatwiej jest bowiem porównywać ceny, zbyteczni stają się pośrednicy, a więc 
obniżają się koszty transakcyjne; ograniczeniu ulegają również bariery wejścia. Podstawowe pytanie o 
charakterze normatywnym dotyczy natomiast tego, czy i w jakim zakresie “nowa gospodarka” oznacza “lepszą 
gospodarkę”.  

Jeśli przyjąć, że pierwotną, nieredukowalną do innych, przyczyną “nowej gospodarki” jest przyspieszenie postępu 
technicznego w sektorze IT, to wywołany przez to zjawisko ciąg zależności można najbardziej skrótowo 
przedstawić w następujący sposób (Gordon, 2000). Szybsze tempo wydajności pracy pozwoliło utrzymać na 
niskim poziomie 

inflację mimo szybszego wzrostu płac. Niska inflacja pozwoliła Systemowi Rezerwy Federalnej 

utrzymywać przez pięć lat stopy procentowe na mniej więcej niezmienionym poziomie, podczas gdy 
oprocentowanie długookresowych obligacji rządowych było wyraźnie niższe. Luźna polityka monetarna i szybki 
wzrost gospodarczy spowodowały bezprecedensowy wzrost zysków, który wraz z falą optymizmu związaną z 
przyspieszeniem postępu technicznego wywołał jeszcze szybszy wzrost kursów na giełdzie. Wynikający stąd 
wzrost zamożności gospodarstw domowych (efekt bogactwa) wywołał wzrost wydatków konsumpcyjnych 
zdecydowanie przekraczający wzrost rozporządzalnych dochodów i tym samym zanik oszczędności gospodarstw 
domowych (w każdym razie mierzonych w sposób konwencjonalny).  

Podsumo

wując, podstawowym przejawem i dowodem jakościowych zmian składających się na “nową 

gospodarkę” jest, zdaniem jej zwolenników, zachowanie się podstawowych wielkości makroekonomicznych, a 
ściślej – kombinacja szybkiego wzrostu gospodarczego, bardzo niskiego poziomu inflacji i bezrobocia oraz 
rekordowych notowań na giełdzie.  

Wkład sektora  

Mikroekonomiczną podstawą tych zmian jest natomiast daleko idąca transformacja, jaka dokonała się (i nadal się 
dokonuje) w sposobie prowadzenia przez firmy działalności gospodarczej w wyniku coraz powszechniejszego 
stosowania technik informatycznych. Zwraca się uwagę, że w okresie 1995-98 wkład sektora technik 
informatycznych we wzrost gospodarczy wynosił 35 proc., mimo że jego udział w PKB wynosi tylko 8 procent.  

Część ekonomistów sądzi, że nie można wyjaśnić funkcjonowania nowej gospodarki za pomocą ortodoksyjnej 
(neoklasycznej) ekonomii. Ich zdaniem, w gałęziach opartych na wiedzy bardzo dużą rolę odgrywają rosnące 
przychody, które przyjmując postać tzw. efektów sieciowych sprzyjają powstawaniu pozycji monopolistycznej. 
Efekty te oddziałują zarówno na produkcję, jak i na konsumpcję. Wspólną cechą nowych technik jest to, że ich 
wartość dla każdego użytkownika wzrasta proporcjonalnie do liczby wszystkich użytkowników. Jeśli więc dany 
produkt usadowi się na rynku, to popyt na podobne produkty załamie się; może się okazać, że konsumenci 
zostaną zmuszeni do korzystania z gorszego produktu, co należy uznać za rodzaj niesprawności rynku. Zdaniem 
innych ekonomistów, aczkolwiek efekty sieci i związane z nimi niesprawności rzeczywiście występują, to ich 
wyjaśnienie nie wymaga wyjścia poza ekonomię neoklasyczną. Ich zdaniem, niesprawność rynku pojawia się 
tylko wtedy, gdy gorszy produkt utrzyma się na rynku, mimo że korzyści z przerzucenia się inny, lepszy produkt 
są większe od kosztów. Jeśli natomiast gorszy produkt utrzymuje swą pozycję, ponieważ koszty przerzucenia się 
na inny produkt są wysokie, to jest to sytuacja zgodna z postulatami tradycyjnej ekonomii: przerzucenie się byłoby 
działaniem nieefektywnym. Tak więc uwzględnienie kosztów “przerzucenia się” bardzo istotnie zawęża zakres 
niesprawności rynku. Co więcej, zarówno konsumenci, jak i producenci, którzy ponoszą straty w wyniku tej 
niesprawności rynku będą poszukiwać sposobu wyjścia z “pułapki gorszego produktu”.  

Na inny rodzaj ograniczenia, na jaki w wyjaśnianiu najważniejszych cech i mechanizmów “nowej gospodarki” 
natrafia ekonomia głównego nurtu, zwraca uwagę Nakamura (2000). Autor ten przyjmuje stanowisko 
metodologiczne J. 

Hicksa, zgodnie z którym nauki ekonomiczne muszą adaptować się do zmieniającego się 

charakteru gospodarki i stawia tezę, że dla zrozumienia “nowej gospodarki” bardziej przydatny od dominującego 
we współczesnej ekonomii “paradygmatu niewidzialnej ręki” (doskonałej konkurencji) jest “paradygmat twórczej 
destrukcji” J. Schumpetera. Wynika to przede wszystkim ze wzrostu znaczenia innowacji w gospodarce 
amerykańskiej, co znajduje odzwierciedlenie we wzroście wśród zatrudnionych udziału tzw. twórczych 
pracowników.  

Doskonała konkurencja  

Paradygmat doskonałej konkurencji rozwinięty został na gruncie teorii Smitha przez Jevonsa, Walrasa i Mengera. 
Odpowiadał on dobrze warunkom przełomu wieków, kiedy dominowała bezpośrednia produkcja dóbr i usług. 

background image

Zdaniem Nakamury, jego adekwatność staje się jednak problematyczna w warunkach, gdy tak duża liczba 
pracowników wykonuje zadania wymagające kreatywności. Wynika to stąd, że “paradygmat niewidzialnej ręki” 
traktuje zarówno korzyści skali, jak i kreatywność (w tym postęp techniczny) jako wielkości egzogeniczne, 
znajdujące się zasadniczo poza zainteresowaniem ekonomii  

Według Nakamury, podstawowe elementy teorii Schumpetera są obecne w dynamicznie rozwijającej się w 
ostatnich latach teorii wzrostu endogenicznego. Chociaż trudno to kwestionować, to jednak za arbitralne należy 
uznać zaklasyfikowanie autorów tej teorii do “paradygmatu twórczej destrukcji”. Oznacza to bowiem, że zostali oni 
wyłączeni z głównego nurtu ekonomii, co pozostaje w sprzeczności z dominującymi schematami klasyfikacyjnymi 
współczesnej myśli ekonomicznej i najprawdopodobniej także z opinią samych zainteresowanych. Można 
natomiast przyjąć, że jest to przejaw komplikowania się struktury współczesnej ekonomii, a ściślej – stopniowego 
inkorporowania przez główny nurt pewnych koncepcji, które w przeszłości wydawały się pozostawać w stosunku 
do niego w silnej opozycji.  

Bardziej bezpośrednie implikacje rozważań Nakamury dla dyskusji o “nowej gospodarce” są następujące. Otóż 
dominacja “paradygmatu niewidzialnej” ręki powoduje, że znaczenie kreatywności jest słabo uwzględniane w 
statystykach. Jej sposób pomiaru pozostawia wiele do życzenia, co z kolei prowadzi do zaniżania rzeczywistego 
tempa wzrostu, poziomu oszczędności oraz zysków.  

Poglądy akcentujące efekty sieci i rosnące przychody są najbardziej radykalnym wariantem koncepcji nowej 
gospodarki. Stiroh (1999) określa go jako wariant “nowych źródeł wzrostu” i uważa, że jest on najbardziej 
interesujący, najbardziej kontrowersyjny i najtrudniejszy do udowodnienia. Pozostałe dwa warianty mają charakter 
bardziej umiarkowany. Zgodnie z pierwszym z nich, długookresowe tempo wzrostu gospodarczego uległo 
przyspieszeniu. Dzięki wyższemu tempu wydajności gospodarka może rozwijać się szybciej bez zwiększenia się 
presji inflacyjnej. Wariant trzeci akcentu

je natomiast zmiany w charakterze cyklu koniunkturalnego, a ściślej – w 

charakterze krótkookresowej zależności między inflacją a bezrobociem. Cechą łączącą wszystkie trzy wersje 
koncepcji nowej gospodarki jest traktowanie globalizacji i komputeryzacji nie 

jako przejawu oddziaływania innych 

czynników, lecz jako siły napędowej fundamentalnych zmian w gospodarce. Zdaniem Stiroha dwie najbardziej 
radykalne tezy formułowane przez zwolenników koncepcji “nowej gospodarki” to: a) teza o “śmierci” (“końcu ery”) 
infl

acji i b) teza o “śmierci” cyklu koniunkturalnego.  

Przeciwnicy koncepcji nowej gospodarki uważają natomiast, że aczkolwiek globalizacja i komputeryzacja wywarła 
bardzo istotny wpływ na gospodarkę amerykańską, to zbyt wcześnie jest jeszcze, aby stwierdzić, iż dokonały się 
w niej poważne zmiany strukturalne. Zwracają oni uwagę, że bardzo pomyślny przebieg koniunktury w latach 90. 
można w decydującej mierze wyjaśnić równoczesnym wystąpieniem kilku korzystnych szoków podażowych.  

Źródła siły  

Bardzo ważne miejsce w toczącej się dyskusji zajmuje problem, czy i w jakim stopniu bardzo korzystna sytuacja 
makroekonomiczna w Stanach Zjednoczonych w latach 90. jest wynikiem immanentnych cech gospodarki, a w 
jakim właściwie prowadzonej polityki ekonomicznej. Przykładem krańcowego stanowiska, całkowicie negującego 
znaczenie polityki rządu, jest opinia Sahlmana (1999). Jego zdaniem, świetna sytuacja w gospodarce 
amerykańskiej utrzyma się, jeśli tylko władze potrafią powstrzymać się od jakiejkolwiek interwencji. Za realne 
zagrożenie dla gospodarki uważa nie wysokie tempo wzrostu, ale sztuczne jego zahamowanie poprzez 
podniesienie stóp procentowych. Źródeł siły gospodarki amerykańskiej upatruje natomiast w następujących 
czynnikach: a) wysokim statusie, jakim cieszą się przedsiębiorcy szukający nowych rozwiązań, b) wysokim 
poziomie tolerancji wobec niepowodzeń, jakimi kończy się znaczna część przedsięwzięć, c) łatwym dostępie 
nowych przedsiębiorców do kapitału, d) przyciąganiu przez sektor przedsiębiorstw (a nie jak to dawniej było - 
przez sektor finansowy) najbardziej utalentowanych pracowników.  

Przykładem diametralnie odmiennego stanowiska jest pogląd wyrażony przez Taylora (1998). Otóż dokonując 
przeglądu czynników, które mogłyby wyjaśnić utrzymywanie się w Stanach Zjednoczonych “długiego boomu” 
(wzrost znaczenia sektora usług, lepsze zarządzanie zapasami, korzystne szoki podażowe), autor ten dochodzi 
do wniosku, że ich znaczenie nie jest wystarczająco duże. Przechodząc następnie do roli, jaką odegrać mogła 
polityka makroeko

nomiczna stwierdza, że konieczne staje się też odrzucenie tezy o pozytywnym wpływie polityki 

fiskalnej. Uważa natomiast, że “długi boom” znajduje bardzo przekonujące wytłumaczenie w charakterze 
prowadzonej przez System Rezerwy Federalnej (SRF) polityce mon

etarnej. Kluczem do sukcesu okazuje się 

znacznie bardziej agresywne reagowanie SRF na wzrost presji inflacyjnej w okresie “długiego boomu” niż miało to 
miejsce w okresach poprzednich. Dzięki takiemu podejściu udało się utrzymać inflację na niższym i bardziej 
stabilnym poziomie.  

Na zdecydowanie “wyższą jakość” polityki SRF w ostatnich kilkunastu latach wskazują wyniki prowadzonych 
przez Romer (1999) badań nad cyklem koniunkturalnym. Przeprowadzona przez tę autorkę analiza wskazuje, że 
zakres wahań cyklicznych po drugiej wojnie światowej nie uległ radykalnemu zmniejszeniu w porównaniu z 
okresem międzywojennym i okresem przed pierwszą wojną światową, aczkolwiek okresy ekspansji były dłuższe, 
a liczba poważnych recesji zmniejszyła się. Nastąpiła natomiast bardzo poważna zmiana przyczyn wywołujących 
wahania cykliczne. W okresie powojennym polityka makroekonomiczna oraz podjęte reformy gospodarcze 
wyeliminowały lub ograniczyły wiele szoków, które w przeszłości wywoływały recesje. Jednocześnie jednak 
pojawiły się recesje wywoływane przez politykę ukierunkowaną na ograniczenie inflacji. Jak zauważa autorka, 
“zastąpiliśmy przedwojenne cykle napędzane działaniami instynktownymi (animal spirits) i panikami finansowymi 
powojennymi cyklami napędzanymi przez politykę gospodarczą”.  

background image

Uzyskane przez Romer wyniki rodzą oczywiście pytanie, dlaczego w okresie powojennym inflacja stała się dużo 
poważniejszym problemem. Szukając odpowiedzi na to pytanie autorka formułuje pogląd, że podstawową rolę 
odegrały w tym względzie błędy popełnione przez polityków gospodarczych. Problemem nie był więc brak 
odpowiednich narzędzi, lecz niewłaściwy sposób ich wykorzystania. Jej zdaniem, ewolucji ulegał również 
charakter popełnianych błędów. W latach 60. i 70. błędy stały się ponadto bardziej systematyczne i rozmyślne.  

Nietypowy przypadek  

Znacznie bardziej stabilne zachowanie się wskaźników makroekonomicznych po roku 1985 Romer przypisuje 
przede wszystkim temu, że inflacja znalazła się pod znacznie ostrzejszą kontrolą. Polityka makroekonomiczna 
przestała generować okresy szybszej inflacji, w związku z czym niepotrzebne stało się wywoływanie recesji w 
celu jej poskromienia. Bardziej wyważona polityka sterowania popytem przyczyniła się więc w dużo większym 
stopniu do powstania “nowej gospodarki” niż zmiany strukturalne, globalizacja i rewolucja informatyczna. Otwartą 
sprawą pozostaje natomiast to, w jakim stopniu lepsza polityka była skutkiem rozwoju wiedzy ekonomicznej, a w 
jakim kwalifikacji poszczególnych polityków gospodarczych oraz coraz większej zgodności poglądów co do celów 
możliwych do osiągnięcia przez politykę ekonomiczną.  

Należy zwrócić jednak uwagę, że z punktu widzenia zmian w przebiegu cyklu koniunkturalnego przypadek 
gospodarki amerykańskiej jest raczej nietypowy. Badania przeprowadzone przez Zarnovitza (1999) na próbie 
siedmiu dużych i siedmiu małych gospodarek wskazują, że recesje występowały częściej w drugiej niż w 
pierwszej części okresu powojennego. Brak jest też dowodów empirycznych na to, że decydenci potrafią 
antycypować recesje i podejmować skuteczne środki zapobiegawcze. Rezultatowi temu zaprzeczają z kolei 
badania Balla (1999). Wynika z nich, że wśród krajów G-7 podejście władz monetarnych wobec ryzyka 
wystąpienia recesji było zróżnicowane. Na początku lat 80. zaznaczyła się mianowicie wyraźna dychotomia 
między krajami Ameryki Płn. (Stany Zjednoczone i Kanada) a krajami europejskimi. W większości przypadków 
recesji USA i Kanada dokonały ostrych cięć nominalnych stóp procentowych, podczas gdy w krajach europejskich 
pozostały one na niezmienionym poziomie lub nieznacznie wzrosły. Zdaniem Balla, fakty te przeczą 
dominującemu, konwencjonalnemu poglądowi, że polityka SRF była w tym okresie jednostronnie ukierunkowana 
na walkę z inflacją. W rzeczywistości SRF zaostrzył co prawda politykę w okresie poprzedzającym recesję, ale 
poluzował ją, gdy tylko recesja się rozpoczęła, mimo że inflacja nie uległa jeszcze wyraźnemu obniżeniu. 
“Wyższa jakość” tak prowadzonej polityki polega według Balla na tym, że nie wywołuje ona kosztu w postaci 
trwale wyższego bezrobocia, który występuje przy pasywnym charakterze polityki w czasie recesji.  

Autor jest profesorem w Akademii Ekonomicznej w Krakowie i INE PAN. Tekst, którego pierwszą część 
publikujemy, będzie wygłoszony na VII Kongresie Ekonomistów Polskich (25-26 stycznia w Warszawie).