background image

 
 

Marcin Perzyk 
 
 

ZASTOSOWANIE MODELOWANIA MIĘKKIEGO DO 
WYKRYWANIA PRZYCZYN ZAKŁÓCEŃ PROCESÓW 
ODLEWNICZYCH. MOŻLIWOŚCI I PROBLEMY. 

 
 

Wprowadzenie 

 
Dzięki rozwojowi technik komputero-

wych wielką karierę w różnych dziedzinach 
działalności ludzkiej zrobiło w ostatnich latach 
modelowanie matematyczne, zwłaszcza nume-
ryczne, zjawisk, procesów i zachowania się 
obiektów. W przemyśle wytwórczym, w tym 
także odlewniczym, modelowanie przynosi 
ogromne korzyści, umożliwiając m.in. skróce-
nie czasu i obniżenie kosztów wprowadzania 
nowych wyrobów do produkcji przez uniknięcie 
wielu kosztownych prób warsztatowych. Symu-
lacja procesów produkcyjnych pozwala na 
optymalizację ich parametrów oraz diagnozo-
wanie i przewidywanie ich zakłóceń. Rozróżnia 
się dwa podstawowe typy modelowania mate-
matycznego (patrz np. [1]): 
 

Twarde (hard modeling), wykorzystujące 

związki uwzględniające naturę danego zjawiska 
czy procesu (np. prawa fizyczne rządzące wy-
mianą ciepła między odlewem a formą). W od-
lewnictwie ma ono zastosowanie głównie do 
procesów powstawania odlewu w formie, tj. za-
lewania, krzepnięcia, oraz powstawania naprę-
żeń technologicznych w odlewie.  

Miękkie (soft modeling), nieuwzględnia-

jące natury modelowanych zjawisk, stosowane 
do dowolnych procesów produkcyjnych (patrz 
np. [2]). Stałe (parametry) modelu wyznaczane 
są na podstawie danych doświadczalnych, ze-
branych najczęściej w toku normalnego procesu 
produkcyjnego, rzadziej w specjalnie zaplano-
wanych eksperymentach. Stanowią one tzw. 
dane uczące dla modelu. Wyznaczanie parame-
trów modeli odbywa się zazwyczaj przez mini-
malizację kryterium minimum błędu modelu 
określanego jako suma kwadratów odchyleń je-
go przewidywań od wartości obserwowanych. 

Wyróżnia się dwie podstawowe grupy metod 
modelowania miękkiego: typu statystycznego 
oraz wykorzystujące metody sztucznej inteli-
gencji, w szczególności systemy uczące się 
(metody uczenia maszynowego).  

Modelowanie miękkie może wspomagać 

rozwiązywanie problemów produkcyjnych róż-
nego rodzaj [3]; do najważniejszych należą: 

Przewidywanie (symulacja) przebiegu 

procesu. Główne zastosowanie symulacji ma 
miejsce na etapie projektowania procesów, 
umożliwia także przewidywanie skutków 
wprowadzenia zmian w technologii lub organi-
zacji produkcji. 

Sterowanie procesami (on-line lub off-

line).  

Wykrywanie prawidłowości występują-

cych w procesach. Umożliwia m.in. określanie 
przyczyn zakłóceń procesów (np. powstawania 
braków wyrobów finalnych lub pośrednich), a 
także wskazanie optymalnych lub krytycznych 
parametrów procesu. 

Z formalnego (matematycznego) punktu 

widzenia modele miękkie realizować mogą trzy 
najważniejsze typy zadań [3]: 

Regresja (aproksymacja funkcji). Polega 

na dopasowaniu do zbioru punktów doświad-
czalnych zależności analitycznej (wyrażonej 
wzorem) między ciągłymi zmiennymi wejścio-
wymi (niezależnymi), a ciągłą zmienną wyj-
ściową (zależną). Przykład: wytrzymałość stopu 
w zależności od jego składu chemicznego. 

Klasyfikacja. Polega na przypisywaniu 

przypadków do jednej z określonej liczby klas 
(kategorii, czyli wartości) reprezentowanych w 
wyjściowej zmiennej nominalnej lub porząd-
kowej. Przykład: klasyfikacja wyrobu jako do-
bry lub zły. 

Wykrywanie regularności.  Polega  na  wy-

krywaniu istotnych cech w danych wejścio-
wych, bez wiedzy na temat wzorców. Przykła-

prof. dr hab. inż. Marcin Perzyk – kierownik ZO ITMat. 
PW
 

background image

30                                                                                     M. Perzyk 

dem takiego zadania może być grupowanie po-
staci konstrukcyjnych części maszyn. 

Dane używane przez modele matema-

tyczne, zwane niekiedy atrybutami, mogą być 
typu:  

- nominalnego, tj. o skończonym zbiorze 

nieuporządkowanych wartości dyskretnych, 
zwanych kategoriami; często wartości te określa 
się w sposób werbalny, np. piec topialny może 
być: elektryczny oporowy, elektryczny induk-
cyjny, gazowy; wyrób (odlew) może być dobry 
lub wadliwy; 

- porządkowego, tj., o przeliczalnym zbio-

rze uporządkowanych wartości dyskretnych, np. 
temperatura może być: niska, średnia, wysoka;  

- liczbowego ciągłego, tj. o wartościach ze 

zbioru liczb rzeczywistych. 
Niektóre modele, zwłaszcza stosowane do za-
dań klasyfikacji, wymagają stosowania wielko-
ści typu nominalnego lub porządkowego. 
Uwzględnianie wielkości typu ciągłego jest 
jednak w tych przypadkach również możliwe. 
Zmienne ciągłe można zamieniać na wartości 
atrybutów wyrażone przez kategorie zaliczając 
daną zmienną do oznaczonego numerem odpo-
wiedniego przedziału jej oryginalnej wartości 
(zamiana na dane typu porządkowego). W 
przypadku, gdy kategorie wyjścia zostały utwo-
rzone w powyższy sposób, możliwa jest zamia-
na nazwy obliczonej przez model kategorii 
(numeru) na wartość ciągłą, obliczoną np. jako 
średnia z takiego przedziału. Zamiana wielkości 
typu ciągłego na wartości typu nominalnego lub 
porządkowego powinna być dokonana z 
uwzględnieniem pewnych uwarunkowań. Mała 
liczba kategorii (przedziałów) zmniejsza precy-
zję modelu, zarówno przy uczeniu się, jak od-
pytywaniu. Z kolei duża liczba kategorii stwa-
rza z kolei niebezpieczeństwo,  że niektóre z 
nich będą nie reprezentowane w zbiorze uczą-
cym, a przynajmniej reprezentacje będą bardzo 
mało liczne. 

Modelowanie miękkie procesu produk-

cyjnego może znacząco ułatwić wykrywanie 
przyczyn zakłóceń przejawiające się obniże-
niem jakości wyrobów, np. zbyt dużą ilością 
braków. Ogólnie biorąc idea zastosowania ta-
kich modeli jest następująca. Realizowane jest 
zadanie regresji, w której wielkością wyjściową 
(zmienną wynikową, zależną) jest wybrany pa-
rametr jakości (np. procentowy udział odlewów 

wadliwych, albo wytrzymałość stopów), zaś 
wielkościami (zmiennymi) wejściowymi (nieza-
leżnymi) są związane z nim, szeroko rozumia-
ne, parametry procesu. Po wyznaczeniu stałych 
modelu (w przypadku systemów uczących się, 
np. sieci neuronowych, dokonuje się tego w 
procesie uczenia) przeprowadza się analizę mo-
delu w celu ustalenia, które wielkości wejścio-
we, czyli parametry procesu mają największe 
znaczenie dla danego parametru jakościowego. 
Nieodpowiednie wartości tych właśnie parame-
trów lub niefortunna ich kombinacja stanowi 
zakłócenie procesu, będące potencjalną przy-
czyną pogorszenia jakości.  

W następnym rozdziale omówiono głów-

ne rodzaje modeli miękkich ze szczególnym 
uwzględnieniem sztucznych sieci neuronowych 
oraz ich najważniejsze, znane zastosowania w 
przemyśle wytwórczym, zwłaszcza odlewni-
czym. Pełniejsze wiadomości na temat tego ty-
pu modeli można znaleźć w [3]. W drugiej czę-
ści artykułu zaprezentowano niektóre prace wy-
konane w Zakładzie Odlewnictwa, związane z 
budową modeli procesów odlewniczych stoso-
wanych w celu wykrywania przyczyn powsta-
wania wad w odlewach.  

 
 

Rodzaje modeli miękkich i ich zasto-
sowania w przemyśle odlewniczym 

 
Modele typu statystycznego
 są tradycyjnie 

od wielu lat stosowane w różnych dziedzinach 
przemysłu, w tym dość szeroko w odlewnic-
twie, w postaci tzw. wzorów empirycznych. 
Charakterystycznymi przykładami są zależności 
wytrzymałości stopów od zawartości pierwiast-
ków, zależność parametrów struktury stopu od 
szybkości chłodzenia, wzory do obliczania cza-
su zalewania w funkcji masy odlewu i grubości 
ścianki itp. Modele statystyczne realizują 
przede wszystkim zadania regresji (aproksyma-
cji funkcji), jedno lub wielowymiarowej, linio-
wej lub nieliniowej. Najczęściej stosowana po-
stacią funkcji nieliniowej są wielomiany do-
wolnego stopnia oraz funkcje potęgowe. Warto 
pamiętać, że analityczne (jednoznaczne) sposo-
by wyznaczania parametrów równania są moż-
liwe tylko dla postaci liniowej lub funkcji typu 
wielomianu dowolnego stopnia. Dla pozosta-
łych przypadków stosuje się linearyzację funk-

background image

Zastosowanie modelowania miękkiego do wykrywania przyczyn…                                    31 

cji, lub, bardzo rzadko, inne metody optymali-
zacji parametrów; te ostatnie zostaną omówione 
dalej, przy modelach typu sztucznych sieci neu-
ronowych oraz algorytmach genetycznych. 

Analiza regresji nie wyczerpuje oczywi-

ście możliwości stosowania statystyki do anali-
zy przebiegu i wykrywania przyczyn zakłóceń 
procesów produkcyjnych. Szeroko rozpo-
wszechnione są narzędzia Statystycznego Ste-
rowania Procesem, które pozwalają jednakże 
tylko na sygnalizowanie rozregulowań i nie 
umożliwiają diagnozowania przyczyn ich po-
wstawania, które musi być w całości wykony-
wane przez personel techniczny. Warto zwrócić 
jednak uwagę na inny dział statystyki: analizę 
wariancji (ANOVA), która stanowi stosunkowo 
nowoczesne i mało rozpowszechnione jeszcze 
w przemyśle narzędzie. Pozwala ona m.in. na 
ocenę znaczenia zmiennych procesu z punktu 
widzenia jego rezultatów i może być bardzo 
użyteczna dla niektórych problemów, np. zwią-
zanych z wykrywaniem przyczyn powstawania 
wad w wyrobach [4]. 

Modele wykorzystujące metody sztucznej 

inteligencji  są coraz częściej wykorzystywane 
w różnych dziedzinach przemysłu; obecnie 
można mówić nawet o lawinowym wzroście ich 
zastosowań. Do najczęściej stosowanych należą 
przede wszystkim sztuczne sieci neuronowe, a 
w dalszej kolejności drzewa decyzyjne, modele 
stosujące logikę lub rachunek liczb rozmytych, 
optymalizację genetyczną oraz klasyfikację 
bayesowską.  

Sztuczna siec neuronowa (SSN) jest to 

złożona zależność matematyczna, której struk-
tura naśladuje strukturę i przetwarzanie sygna-
łów, jakie mają miejsce w korze mózgowej ssa-
ków, w tym ludzi (rys. 1). Synapsy zawierają 
(przekazują) wartości zmiennych – sygnały oraz 
stałe modelu - wagi synaps. Neurony wykonują 

operacje (działania) matematyczne na tych 
wielkościach. 

SSN mają szereg zalet, z których najważ-

niejszą jest zdolność do uczenia się i uogólnia-
nia nabytej wiedzy. Pozwalają one na znalezie-
nie prawidłowości w warunkach dużej liczby 
zmiennych o różnym charakterze, często nie-
wykrywalnych przez zmysły ludzkie i inne me-
tody matematyczne. Sieć jest ponadto odporna 
na błędy w danych (zaszumienia) oraz błędy 
pojawiające się w niektórych wagach, czyli 
błędnie wyznaczonych niektórych stałych mo-
delu. Pozwala także na szybkie przetwarzanie 
informacji, często możliwe jest ich prowadzenie 
w czasie rzeczywistym. 

SSN należą do systemów uczących się. 

Wartości stałych (wag sieci) wyznaczane są na 
podstawie wyników doświadczeń (przykładów 
uczących) drogą kolejnych poprawek (korekt) 
tak, aby wyjścia (odpowiedzi sieci) zbliżały się 
do wartości rzeczywistych. Jest to tzw. uczenie 
nadzorowane (inaczej z nauczycielem), spoty-
kane najczęściej. Znanych jest wiele metod 
znajdowania minimum błędu sieci, które można 
podzielić na dwie grupy. W metodach gradien-
towych
 (stosowanych najczęściej) losowo ustala 
się początkowy zbiór wartości wag, a następnie 
koryguje się ich wartości tak, aby błąd sieci sta-
le ulegał zmniejszeniu. Prowadzi to często do 
znajdowania minimum lokalnego tego błędu. 
Znanych jest wiele metod gradientowych, z któ-
rych metodą klasyczną i najczęściej stosowaną 
jest metoda propagacji wstecznej błędu, nato-
miast szybszą, stosowaną powszechnie we 
współczesnych programach komercyjnych – 
metoda gradientu sprzężonego. Metody poszu-
kujące minimum globalnego błędu są stosowa-
ne rzadziej i obejmują metodę symulowanego 
wyżarzania oraz metody ewolucyjne. 

 
 

                                   

Neuron (węzeł sieci) 

Synapsa              
(połączenie węzłów, także 
wejście i wyjście sieci)

Neuron (węzeł sieci) 

Synapsa              
(połączenie węzłów, także 
wejście i wyjście sieci)

 

 

            Rys. 1. Elementy sztucznych sieci neuronowych

 

background image

32                                                                                     M. Perzyk 

SSN mogą posiadać różne architektury, 

czyli typy struktury oraz ich konkretne realiza-
cje w ramach danego typu. Do najważniejszych 
należą: sieć jednokierunkowa wielowarstwowa, 
zwana siecią MLP (od skrótu angielskiego), 
najczęściej wykorzystywana w realizacji zadań 
związanych z modelowaniem procesów techno-
logicznych oraz sieć rekurencyjna, charaktery-
zująca się występowaniem sprzężeń zwrotnych 
między elementami wejściowymi a wyjścio-
wymi. 

Przy budowie modelu neuronowego nale-

ży przede wszystkim ustalić zmienne wejściowe 
i wyjściowe modelu. Wytypowanie zmiennych 
wejściowych (niezależnych) należy poprzedzić 
analizą istotności ich znaczenia dla zmiennych 
wyjściowych (zależnych), z wykorzystaniem 
np. metod statystycznych z grupy analizy wa-
riancji. Należy odrzucić te najmniej znaczące, 
co ułatwi uczenie sieci i analizę wyników. Usta-
lając liczbę wyjść (równą liczbie wielkości wy-
nikowych modelu) należy zawsze rozważyć 
konstruowanie kilku sieci z pojedynczymi wyj-
ściami, co daje zmniejszenie liczby poszukiwa-
nych wag. W przypadku najbardziej rozpo-
wszechnionego typu sieci MLP, należy pamię-
tać,  że liczba warstw ukrytych najczęściej wy-
nosi 1, rzadziej 2, bardzo rzadko 3. Większe 
liczby neuronów w warstwach ukrytych, zwią-
zane z większą liczbą poszukiwanych wag, dają 
dokładniejsze, bardziej elastyczne przewidywa-
nia modelu. Wymagają jednak większych zbio-
rów uczących oraz mogą prowadzić do prze-
uczenia sieci (nadmiernego dopasowania do da-
nych), a także powodują wydłużenie czasu obli-
czeń. Należy podkreślić, że dla uzyskania wia-
rygodnych rezultatów liczebność zbioru uczą-
cego powinna istotnie przewyższać liczbę po-
szukiwanych wag. Dobrą praktyką jest wstępne 
ustalenie liczby neuronów w poszczególnych 
warstwach wg zasady postępu geometrycznego 
pomiędzy liczbą wejść a wyjść sieci. 

Dla przeprowadzenia procesu uczenia 

wykorzystuje się programy komputerowe. Na-
leży pamiętać, że różne architektury sieci i po-
szczególne uczenia tych samych sieci mogą 
prowadzić do różnych wyników. Należy, zatem 
przeprowadzić próby z różnymi wariantami sie-
ci (liczbami warstw ukrytych – poczynając od 
jednej, spróbować stosować różne liczby neu-
ronów w tych warstwach), dla każdej konfigu-

racji wykonać po kilka lub kilkanaście uczeń. 
Jakość nauczonej sieci można ocenić wyliczając 
błąd  średniokwadratowy dla zbioru testowego, 
nie wykorzystywanego w procesie uczenia, tj. 
niezależnego od zbiorów uczącego i weryfiku-
jącego (tj. służącego do ustalenia zakończenia 
procesu uczenia). Jeżeli stosowano różne archi-
tektury sieci i/lub wielokrotne uczenie, to w 
przypadku rozwiązywania zadań typu regresji 
stosuje się  uśrednianie przewidywanych przez 
sieci rezultatów, albo korzysta się z sieci o naj-
mniejszym błędzie przewidywania. 

SSN mają bardzo szerokie zastosowania 

przemysłowe, w takich dziedzinach jak: przewi-
dywanie własności wyrobów na podstawie pa-
rametrów procesu technologicznego, zastąpie-
nie symulacji numerycznej procesów fizycz-
nych uogólnionymi przez sieć neuronową wy-
nikami 'eksperymentów numerycznych', opis 
własności materiałów (równania empiryczne), 
projektowanie oparte na doświadczeniach ze-
branych w przemyśle i uogólnionych przez sieć 
neuronową, przewidywanie awarii urządzeń na 
podstawie parametrów typu obciążenie, tempe-
ratura itp., a także stosowanie sieci jako sterow-
ników w automatyce. Dotychczasowe ogólne 
zastosowania w odlewnictwie metali dotyczyły 
takich zagadnień jak: przewidywanie własności 
odlewanych stopów (najczęściej różnego typu 
żeliw), przewidywanie awarii, zwłaszcza przy 
odlewaniu ciągłym, sterowanie procesami wy-
topu w żeliwiaku i piecu łukowym, sterowanie 
procesem przerobu masy formierskiej, gospo-
darka energetyczna w odlewni, projektowanie 
odlewów i układów zasilających dla odlewów, 
projektowanie odpowietrzeń w rdzennicach, 
dobór parametrów odlewania ciśnieniowego. 
Odniesienia do publikacji omawiających te za-
stosowania można znaleźć w pracy [5]. 

W modelowaniu procesów produkcyjnych 

dość często mamy do czynienia z procesami o 
charakterze ciągłym
, czyli takimi, których pa-
rametry powinny być utrzymywane na ustalo-
nym poziomie w dłuższym przedziale czasu. 
Przykładem może być każdy proces związany z 
produkcją w długich seriach, np. wytop jednego 
gatunku stopu, przerób mas formierskich, for-
mowanie lub odlewanie dla jednego asortymen-
tu odlewów. Istotnym problemem jest w takich 
przypadkach zdefiniowanie, wykrycie i ocena 
stopnia rozregulowania procesu, na podstawie 

background image

Zastosowanie modelowania miękkiego do wykrywania przyczyn…                                    33 

wzrostu lub spadku jego niektórych parametrów 
(np. temperatury, własności wyrobu itp.). Ty-
powym narzędziem matematycznym są metody 
statystycznego sterowania procesem (SPC), 
jednakże okazują się one niewystarczające, je-
żeli stopień rozregulowania ma być określony 
liczbowo. Sytuacja taka ma miejsce np. wów-
czas, gdy chcemy modelować relacje pomiędzy 
stopniem rozregulowania procesu, a poziomem 
braków, albo awaryjnością urządzeń. Do ilo-
ściowego określenia stopnia rozregulowania 
procesu na podstawie rejestrowanych w regu-
larnych odstępach czasu jego parametrów wy-
korzystać można sieć neuronową w sposób za-
proponowany w pracy [6] i przedstawiony po-
niżej.  

Aby właściwie ocenić istotność ewentual-

nych zmian (tendencji w parametrach procesu) 
należy na wstępie ustalić dla tego procesu wiel-
kość tzw. okna czasowego, czyli liczbę ostatnio 
zarejestrowanych pomiarów uwzględnianych w 
analizie. Zbyt mała ich liczba może spowodo-
wać przedwczesne alarmy, zaś zbyt wielka – 
opóźnienie reakcji na zakłócenia. Budowana 
jest sieć neuronowa zawierająca L wejść, gdzie 
L równe jest przyjętej liczbie pomiarów każde-
go z parametrów procesu w oknie czasowym 
oraz trzy wyjścia: Y

1

 (odpowiadające za nara-

stanie sygnału, czyli wartości parametru), Y

2

 

(odpowiadające za jego stałość) i Y

3

 (odpowia-

dające za spadek). Sieć uczona jest na sztucznie 
stworzonych zestawach danych, w których wy-
stępują wartości L sygnałów wejściowych jedy-
nie o trzech różnych zestawach wzorcowych: 

rosnący liniowo od –1 do +1, stały (równy zeru) 
oraz malejący od +1 do –1. W przypadku 
pierwszym Y

1

 ustalane jest jako równe 1, zaś 

Y

2

 i Y

3

 równe 0 (sygnał maksymalnie narasta), 

w drugim Y

2

 = 1, Y

1

 i Y

3

 równe 0 (sygnał sta-

ły), zaś w trzecim Y

3

 = 1, Y

1

 i Y

2

 równe 0 (sy-

gnał maksymalnie maleje). Tak nauczona sieć 
potrafi przypisać w każdym konkretnym przy-
padku danych rzeczywistych, tj. określonemu 
zbiorowi ostatnich L sygnałów, trójkę liczb 
określającą stopień wzrostu, stałości lub spadku 
sygnału (np. wartości 0,72; -0,01; 0,12 ozna-
czać będą dość wyraźny wzrost).  

Schemat całego modelowania pokazano 

na rys. 2. Wykorzystanie SSN w drugim etapie 
diagnostyki zakłóceń procesu, tj. w celu wykry-
cia przyczyny jego rozregulowania polega na 
tym,  że sieć II musi zostać nauczona na zbio-
rach danych zebranych w zakładzie, przy czym 
wielkościami wejściowymi będą przetworzone 
do postaci trójek liczb sygnały o zmianach pa-
rametrów w okienku czasowym, jak to opisano 
powyżej, zaś wielkościami wyjściowymi infor-
macje o stwierdzonych rzeczywistych przyczy-
nach zakłócenia, jakie zidentyfikowano – być 
może zbyt późno – w przeszłości. 

Drzewo decyzyjne jest to system operują-

cy na danych typu nominalnego lub porządko-
wego. Jest strukturą logiczną (grafem) składają-
cą się z następujących elementów: korzeń (po-
czątek drzewa), z którego wychodzą co naj-
mniej dwie gałęzie do węzłów leżących na niż-
szym poziomie. Z każdym węzłem związany 
jest test sprawdzający wartości atrybutów opi-

Sieć neuronowa I
Określa charakter i 
stopień rozregulowania 
procesu

Stopnie wzrostu 

N parametrów
Stopnie stabilności 

N parametrów
Stopnie spadku

N parametrów

Parametr 1
Parametr 2
......
Parametr N

L pomiarów parametrów 
procesu z okienka czasowego 

Sieć neuronowa II
Modeluje relacje między 
rozregulowaniem, 
a wystąpieniem wady 
lub uszkodzenia

Stopnie wzrostu 

N parametrów

Stopnie stabilności 

N parametrów

Stopnie spadku

N parametrów

Wada 1
Wada 2
......
Wada M

Sieć neuronowa I
Określa charakter i 
stopień rozregulowania 
procesu

Stopnie wzrostu 

N parametrów

Stopnie wzrostu 

N parametrów
Stopnie stabilności 

N parametrów

Stopnie stabilności 

N parametrów
Stopnie spadku

N parametrów

Stopnie spadku

N parametrów

Parametr 1
Parametr 2
......
Parametr N

L pomiarów parametrów 
procesu z okienka czasowego 

Sieć neuronowa II
Modeluje relacje między 
rozregulowaniem, 
a wystąpieniem wady 
lub uszkodzenia

Stopnie wzrostu 

N parametrów

Stopnie wzrostu 

N parametrów

Stopnie stabilności 

N parametrów

Stopnie stabilności 

N parametrów

Stopnie spadku

N parametrów

Stopnie spadku

N parametrów

Wada 1
Wada 2
......
Wada M

 

 

Rys. 2. Struktura modelowania powstawania wad wyrobów w procesach ciągłych wykorzystaniem SSN; wyjścia z 
sieci I (w ilości 3 × liczba uwzględnianych parametrów procesu) stanowią wejścia do sieci II 

background image

34                                                                                     M. Perzyk 

sujących przykłady (uczące lub zadane, dla któ-
rych chcemy znaleźć odpowiedź systemu). Dla 
każdego z możliwych wyników testu odpowia-
dająca mu gałąź prowadzi do węzła leżącego na 
niższym poziomie; węzły, z których nie wycho-
dzą  żadne gałęzie są to liście, którym przy-
pisane są klasy, stanowiące odpowiedź (wyj-
ście) modelu.  

Do generowania drzew decyzyjnych na 

podstawie obserwacji stosuje się programy 
komputerowe stosujące różnego typu algoryt-
my. Klasycznym zastosowaniem drzew decy-

zyjnych jest klasyfikacja (drzewa działają na 
danych typu nominalnego lub porządkowego). 
Możliwa jest również realizacja zadań typu re-
gresji (aproksymacji funkcji). Zastosowania 
przemysłowe tego typu modeli są jeszcze sto-
sunkowo nieliczne. 

Modele stosujące logikę rozmytą i rachu-

nek liczb rozmytych  są nowoczesnym narzę-
dziem wyrażania wielkości określanych niepre-
cyzyjnie, w sposób przybliżony. Nieprecyzyjnie 
określona wielkość opisana jest nie tylko przez 
zakres możliwych wartości (np. wymiar „około 
25 mm” może zawierać się w przedziale od 
24,5 do 25,5 mm), ale także przez tzw. funkcję 
przynależności (do zbioru) lub inaczej preferen-
cji, opisującą stopień pożądania przyjęcia danej 
wartości z tego przedziału. Funkcja przynależ-
ności (preferencji) może przyjmować wartości z 
przedziału 0,1. Zbiór rozmyty zdefiniowany na 
osi liczb rzeczywistych o ciągłej i wypukłej 
funkcji przynależności nazywamy liczbą roz-
mytą. Przykłady pokazano na rys. 3. 

Logika rozmyta jest nowoczesnym, zna-

czącym działem matematyki. Najczęstszym za-
stosowaniem logiki rozmytej (przybliżonego 
wnioskowania) są sterowniki rozmyte stosowa-
ne powszechnie w automatyce. Sterownik roz-
myty wymaga stworzenia bazy reguł logiki 

rozmytej, np. jeżeli temperatura jest „wysoka” i 
wilgoć jest „średnia”, to nastawienie mocy kli-
matyzatora powinno być „wysokie”. Reguły ta-
kie można projektować lub tworzyć na podsta-
wie liczbowych danych doświadczalnych. Re-
guły logiki rozmytej mogą być także tworzone z 
wykorzystaniem systemów uczących się, 
zwłaszcza sztucznych sieci neuronowych. Me-
toda ta wykorzystywana jest w budowie ste-
rowników neuronowo – rozmytych, szeroko 
stosowanych we współczesnym przemyśle. 
Liczby rozmyte mogą także zastąpić wartości 

ostre w szeregu zależnościach analitycznych, 
tworząc modele bardziej realistyczne i dające 
nowe możliwości interpretacyjne. 

Wielkości określane nieprecyzyjne wy-

stępują technice bardzo często w różnych sytu-
acjach związanych np. z projektowaniem wyro-
bów i procesów. Zastosowanie liczb rozmytych 
do wyznaczania wskaźnika oceny wyboru pro-
cesu technologicznego (odlewniczego) przed-
stawiono w pracy [7]. 

Modele stosujące optymalizację genetycz-

 wykorzystują tzw. algorytmy genetyczne, 
będące nowoczesnym i efektywnym narzę-
dziem matematycznym służącym do optymali-
zacji dowolnej funkcji jednej lub wielu zmien-
nych, wzorowanym na procesach naturalnej 
ewolucji. Optymalizowana funkcja, nazywana 
funkcją celu lub funkcją przystosowania, sta-
nowi model danego problemu. Przykładem mo-
że być minimalizowany czas przestojów linii 
produkcyjnej w funkcji parametrów charaktery-
zujących harmonogram wykonywania poszcze-
gólnych operacji. Funkcja celu może mieć do-
wolną postać, np. ciągłą typu wzoru anali-
tycznego jak i dyskretną. Istotne jest tylko to, 
ażeby po podstawieniu wartości zmiennych nie-
zależnych można było obliczyć jej wartość.  

 

 

Rys. 3. Przykłady funkcji przynależności: dla wymiaru „około 25” oraz dla poziomu braków „niski”

 

 

background image

Zastosowanie modelowania miękkiego do wykrywania przyczyn…                                    35 

Algorytmy genetyczne nie przetwarzają 

bezpośrednio poszukiwanych parametrów mo-
delu, lecz ich zakodowaną postać w formie cią-
gów liczb binarnych (genów), zwanych chro-
mosomami. Wybór początkowej populacji 
chromosomów (zakodowanych wartości para-
metrów modelu) polega na losowym wyborze 
potrzebnej liczby chromosomów. Ocena przy-
stosowania chromosomów w populacji polega 
na obliczeniu wartości funkcji celu dla każdego 

z tych chromosomów. Decyzja o zatrzymaniu 
obliczeń zależy od tego, czy spełniony jest na-
rzucony przez użytkownika warunek, np. czy 
optymalizowana wartość dla najlepszego chro-
mosomu nie zmienia się już znacząco. Selekcja 
chromosomów do następnej generacji odbywa 
się zgodnie z zasadą naturalnej selekcji, tzn. 
największe szanse na tworzenie nowego poko-
lenia chromosomów mają te z nich, które uzy-
skały najlepszą wartość funkcji celu. W wyniku 
procesu selekcji tworzy się populacja rodziciel-
ska o liczebności równej poprzedniej populacji. 
Nowa populacja tworzona jest przez zastoso-
wanie tzw. operatorów genetycznych: krzyżo-
wania i mutacji.  

Optymalizacja genetyczna ma bardzo sze-

rokie zastosowania, m.in. z uwagi na brak ogra-
niczeń postaci funkcji celu oraz możliwość 

znajdowania optimum globalnego (w przeci-
wieństwie do np. metod gradientowych prowa-
dzących często do optimów lokalnych, a więc 
rozwiązań gorszych). Główne obszary zastoso-
wań modeli stosujących optymalizację gene-
tyczną w technice stanowią: harmonogramowa-
nie produkcji, optymalizacja konstrukcji wyro-
bów, optymalizacja procesów produkcyjnych, 
optymalizacja parametrów eksploatacji urzą-
dzeń. 

Klasyfikacja bayesowska obejmuje sys-

temy uczące się oparte na rachunku prawdopo-
dobieństwa, wykorzystujące twierdzenie (wzór) 
Bayesa. Należą do nich tzw. naiwny klasyfika-
tor Bayesa (NKB) oraz sieci bayesowskie. Mo-
dele tego typu operują na wielkościach typu 
nominalnego lub porządkowego i najczęściej 
wykorzystywane są do realizacji zadań klasyfi-
kacji w dziedzinach takich jak zarządzanie, or-
ganizacja, ekonomia. Analizę możliwości wy-
korzystania NKB do modelowania procesów 
produkcyjnych oraz nieliczne przykłady tego 
typu zastosowań w przemyśle odlewniczym 
znaleźć można w pracy [8]. 

 
 
 

40

32

14

7

4

3

40

72

86

94

97

100

0

20

40

60

80

100

Zapr

ószeni

e

P

ę

cher

z

zew

n

ę

trz

n

y

Pr

zy

pal

eni

e

Por

o

w

a

to

ść

Zabi

el

eni

e

P

rzest

awi

eni

e

Rodzaj wady odlewu

%

Udział w stratach wskutek braków

Krzywa skumulowana

 

Rys. 4. Przykład wykresu Pareto pozwalającego na identyfikację najistotniejszych wad odlewów wyko-
nywanych w danej odlewni 

 

background image

36                                                                                     M. Perzyk 

Budowa modelu dla wykrywania 
przyczyn zakłóceń procesu 

 
Wybór zmiennych modelu 
 

Jak już wspomniano, model realizuje za-

danie regresji, w której wielkością wynikową 
jest wybrany parametr jakości, zaś wielkościa-
mi wejściowymi są związane z nim parametry 
procesu. Fundamentalne znaczenie dla powo-
dzenia zastosowania modelu jest właściwy wy-
bór tych wielkości w konkretnych warunkach 
przemysłowych. Jeśli chodzi o wielkość wyj-
ściową
, to sprawa wydaje się prosta: należy za-
jąć się w pierwszym rzędzie tym parametrem 
jakościowym, który stwarza najwięcej proble-
mów, np. brakami, które przynoszą największe 
straty. Użytecznym narzędziem wspomagają-
cym wybór może tu być wykres Pareto, jakiego 
przykład pokazano na rys. 4. 

Problem z wyborem rodzaju wady, którą 

należałoby się zająć może jednak wynikać z 
faktu,  że gromadzenie odpowiednich danych 
produkcyjnych jest na ogół dość trudnym i nie-
kiedy kosztownym przedsięwzięciem. Zazwy-
czaj nie wszystkie potrzebne do stworzenia od-
powiednich rekordów informacje są na bieżąco 
rejestrowane, zwłaszcza te, które umożliwiają 
powiązanie zapisów dokonywanych w różnych 
miejscach w odlewni. Temu ostatniemu pro-
blemowi poświęcona jest dalsza część niniej-

szego rozdziału. Niekiedy może okazać się,  że 
dla poprawy wyników produkcyjnych bardziej 
celowe będzie modelowanie relacji pomiędzy 
parametrami procesu a powstawaniem tych 
wad, które występują na wykresie Pareto na 
dalszych miejscach. 

Dobry wybór wielkości wejściowych do 

modelu jest głównym i często bardzo złożonym 
zadaniem, związanym z modelowaniem proce-
sów wytwarzania. Dotyczy to zwłaszcza tak 
złożonych systemów produkcyjnych, jakimi są 
odlewnie, szczególnie stosujące formy jednora-
zowe. Niezbędne jest ustalenie wszystkich moż-
liwych przyczyn
 danego typu problemu, a więc 
wielkości wpływających na pogarszanie się ja-
kości odlewów oraz wszystkich powiązań mię-
dzy tymi przyczynami. Bardzo użytecznym na-
rzędziem stosowanym dość powszechnie w tego 
typu analizach w wielu krajach wysoko uprze-
mysłowionych, a mało znanym w Polsce, są 
tzw. wykresy Ishikawy, zwane także diagra-
mami przyczynowo – skutkowymi lub „diagra-
mami ości rybiej” (ze względu na swój wy-
gląd). Na rys. 5 pokazano przykład takiego wy-
kresu wspomagającego analizę możliwych 
przyczyn pojawiania się obniżonej wytrzymało-
ści żeliwa szarego sporządzony w odlewni Cra-
ne Valves, USA. Na rys. 6 natomiast pokazano 
przykład wykresu Ishikawy służącego do iden-
tyfikacji możliwych przyczyn powstawania wad 
typu pęcherz gazowy w odlewach wykonywa-
nych w formach z masy rdzeniowej, sporzą-

 

 

Rys. 5.

 Przykład wykresu Ishikawy wspomagającego ustalenie potencjalnych przyczyn pogarszania się wytrzymałości żeliwa 

szarego w odlewni Crane Valves, USA [9]

 

 

background image

Zastosowanie modelowania miękkiego do wykrywania przyczyn…                                    37 

dzonego w odlewni należącej do International 
Truck & Engine w Indianapolis, USA.  

Ogólnie biorąc, stworzenie diagramu Is-

hikawy wymaga szeregu, kolejno podejmowa-
nych, działań, do których należą: wykonanie 
schematu blokowego procesu, określenie pro-
blemu, który trzeba rozwiązać, znalezienie (w 
burzy mózgów) wszystkich możliwych przy-

czyn problemu, pogrupowanie przyczyn w ka-
tegorie i, ostatecznie, narysowanie diagramu 
ilustrującego relacje pomiędzy tymi przyczy-
nami. 

Dość często możemy mieć do czynienia z 

pewną hierarchią przyczyn: kilka przyczyn 
pierwotnych składa się na przyczynę wyższego 
rzędu, te zaś na kolejną, aż do przyczyny sta-

 

 

Rys. 6. Przykład wykresu Ishikawy wspomagającego ustalenie potencjalnych przyczyn występowania wad typu 

pęcherze gazowe w odlewni International Truck & Engine w Indianapolis, USA [10]

 

 

Rys. 7. Przykład fragmentu wykresu Ishikawy wspomagającego ustalenie potencjalnych przyczyn wy-

stępowania wad typu porowatość gazowa w odlewach wykonywanych w formach wilgotnych

 

background image

38                                                                                     M. Perzyk 

nowiącej bezpośredni związek z daną wadą. Na 
przykład zawartość różnych pierwiastków może 
wpływać na równoważnik węglowy, będący 
przyczyną zmian struktury żeliwa, ta zaś może 
być jedną z przyczyn niższej wytrzymałości. 
Podobnie w przypadku porowatości gazowej 
występującej w odlewach wykonywanych w 
formach z mas wodno – glinowych wilgotnych, 
gdzie jedną z bezpośrednich przyczyn może być 
nadmierne ciśnienie pary wodnej w formie, 
mogą zachodzić dość  złożone relacje przyczy-
nowo – skutkowe, pokazane na rys. 7.  

Generalnie zależy nam na wykryciu przy-

czyn pierwotnych, gdyż tylko takie można z 
powodzeniem wyeliminować. Jednakże budując 
model, należy najpierw starać się przyjąć jako 
zmienne wejściowe przyczyny główne, bezpo-
średnie, a dopiero po ustaleniu najbardziej 
prawdopodobnej z nich (w wyniku analizy ta-
kiego modelu) należy zbudować nowy model, 
w którym występować będą tylko te przyczyny 
pierwotne, które składają się na wyselekcjono-
waną przyczynę  główną. Należy także unikać 
przyjmowania za zmienne wejściowe jednocze-
śnie pierwotnych i wtórnych przyczyn, będą-
cych wynikiem tych pierwszych (np. zawartość 
krzemu, fosforu i jednocześnie wartość równo-
ważnika węglowego). Takie podejście zapobiec 
może tworzeniu modeli zbyt złożonych, znacz-
nie trudniejszych w obliczeniach i interpretacji 
wyników. Oczywiście zawsze należy brać pod 
uwagę możliwość i koszt uzyskania wartości 
danej wielkości, a także możliwość jedno-
znacznego powiązania ich z wielkością wyni-
kową. Ta ostatnia kwestia zostanie rozważona 
szczegółowo w następnym podrozdziale. 

 
 

Budowa rekordu danych uczących 

 

Dla stworzenia poprawnego zbioru da-

nych, który będzie można wykorzystać do wy-
znaczenia parametrów modelu (np. nauczenia 
SSN) potrzebne jest stworzenie rekordów za-
wierających wartości wielkości wejściowych i 
odpowiadające im wartości wielkości wyjścio-
wych (wynikowych). Doświadczenia zdobyte 
przez autora w ramach wieloletniej współpracy 
z odlewniami wskazują, że w większości przy-
padków jest to zasadniczy problem. Spowodo-
wany jest on dużą  złożonością odlewni jako 

systemu produkcyjnego, składającego się za-
zwyczaj z kilku niezależnych podsystemów wy-
twarzania. Obok wyrobów finalnych (odlewów) 
są  równolegle wytwarzane inne wyroby (po-
średnie): masy formierskie, rdzeniowe (przerób 
mas), materiał odlewu (proces wytopu), jedno-
razowe formy, jednorazowe rdzenie, a niekiedy 
także jednorazowe modele. Kontrastuje to z wa-
runkami panującymi w innych procesach wy-
twórczych, gdzie do produkcji wyrobu finalne-
go nie jest wymagane równoległe wytwarzanie 
innych wyrobów (materiałów czy form). 

W praktyce spotyka się następujące sytu-

acje dotyczące możliwych powiązań parame-
trów jakościowych odlewu z parametrami pro-
cesu produkcyjnego. 

Własności stopu – parametry wytopu 

(skład, temperatury, czasy, materiały wsadowe, 
urządzenia, pracownicy). Powiązanie tych 
wielkości nie nastręcza na ogół trudności; no-
towany w dokumentach numer wytopu jedno-
znacznie wiąże wszystkie te wielkości.  

Wady wykryte w odlewie – parametry wy-

topu. Powiązanie tych wielkości jest łatwe i 
jednoznaczne tylko wówczas, gdy poszczególne 
odlewy są oznaczane numerem wytopu. W 
przypadku produkcji małoseryjnej na ogół nu-
mer ten wybija się na odlewie, natomiast przy 
długich seriach, wykonywanych najczęściej w 
automatycznych liniach formierskich, na ogół 
się tego nie stosuje. Zasadniczo możliwe jest 
grupowanie odlewów (w oddzielnych pojemni-
kach) należących do poszczególnych wytopów, 
jednak w praktyce, ze względów organizacyj-
nych nie jest to wykonywane i wszystkie odle-
wy z danego dnia są składowane razem.  

Wady wykryte w odlewie lub własności 

stopu – parametry masy formierskiej lub rdze-
niowej (składniki, temperatura, własności masy, 
pracownicy). W praktyce brak jest możliwości 
jednoznacznych powiązań tych grup wielkości 
uwagi na odrębność obu podsystemów. Możli-
we jest jedynie szacunkowe powiązanie, na 
podstawie prawdopodobnych upływów czasu 
pomiędzy poszczególnymi operacjami i pomia-
rami. Metodyka takich powiązań, opracowana 
w ramach niniejszego projektu, przedstawiona 
zostanie w następnym podrozdziale. 

 
 

background image

Zastosowanie modelowania miękkiego do wykrywania przyczyn…                                    39 

Metodyka ustalania powiązań para-
metrów procesu z parametrami jako-
ści odlewu na podstawie upływów cza-
su 

 
Wykorzystywanymi wielkościami są 

składniki typowych upływów czasów w proce-
sie 

Δt

i

(proc)

 oraz upływ czasu od wystąpienia da-

nej wartości parametru j do chwili jego badania 
(pomiaru) 

Δt

j

(bad)

 (określone na podstawie ob-

serwacji z wielu dni), czas pomiaru i-tego pa-
rametru procesu t

i

(bad)

 (np. czas badania własno-

ści masy t

mb

) oraz przedział wykonania wyrobu 

dany czasami: początkowym t

p

(wyr)

 i końcowym 

t

k

(wyr)

. Czas wykonania wyrobu (np. zalania) 

wyrazić można wówczas jako: 

 

t

(wyr)

 = t

i

(bad)

 – 

Δt

j

(bad)

 + 

ΣΔt

i

(proc)

                (1) 

 
W przypadku modelowania wpływu własności 
masy formierskiej na wady w odlewie przedział 
wykonania wyrobu dany jest czasami początku 
i końca zalewania t

pz

, t

kz

, zaś upływy czasów są 

to różnice czasów: 

- od zejścia z mieszarki do badania wła-
sności 

Δt

mb 

 

- od zejścia z mieszarki do zaformowania 
Δt

mf

 

- od zaformowania do zalania 

Δt

fz

Wzór (1) przyjmie wówczas postać: 
 

t

zal

 = t

mb

 – 

Δt

mb

 + 

Δt

mf

 + 

Δt

fz

                (1a)

 

 
Dla każdego z tych czasów znamy na ogół war-
tości minimalne, maksymalne oraz średnie. 
Znajdujemy wówczas dla każdego z nich trój-
kątną funkcję prawdopodobieństwa P

i

. Lep-

szym rozwiązaniem jest znalezienie funkcji 
empirycznej na podstawie zarejestrowanych 
wartości ułożonych w postaci histogramu. 
Funkcja taka przyjmuje wartości z przedziału 
od 0 do 1 i określona jest w przedziale upływu 
czasu od upływu minimalnego do upływu mak-
symalnego (rys. 8).  
W każdym konkretnym przypadku znamy tylko 
czasy badania parametrów procesu (np. własno-
ści masy formierskiej) oraz przedział czasu wy-
konania wyrobu, np. zalania (rys. 9). 

Różnica czasu między badaniem a wyko-

naniem jest wynikiem wszystkich (trzech) skła-
dowych upływów. Prawdopodobieństwo kom-
binacji tych składowych będzie równe iloczy-
nowi prawdopodobieństw dla poszczególnych 

 

 

Rys. 8. Przykład sposobu wyznaczania prawdopodobnych upływów czasu na podstawie obserwacji

 

 

 

 

t

pz

 

t

kz

 

t

mb

(1)

 

czas 

czas 

t

mb

(2)

 

t

mb

(3)

 

t

mb

(4)

 

t

mb

(5)

 

Kolejne pomiary własności masy 

 

Rys. 9. Przykład rejestrowanych czasów zalewania i badania własności masy formierskiej w odlewni 

background image

40                                                                                     M. Perzyk 

upływów czasów; w podanym przykładzie wy-
niesie ono: 
Jeżeli t

z

 wyznaczony ze wzoru (1a) mieści się w 

granicach t

p

(wyr)

, t

k

(wyr)

 (w przykładzie t

pz

, t

kz

), to 

tworzymy rekord danych, który wpisujemy 
(powtarzamy) n razy, przy czym n jest większe, 
gdy równanie typu (1), np. (1a) jest spełnione 
dla kombinacji upływów czasów bliskim bar-
dziej prawdopodobnym, a mniejsze przy zało-
żeniu upływów czasu bliskich skrajnym (mniej 
prawdopodobnym). Liczbę powtórzeń zakłada 
się jako proporcjonalną do prawdopodobień-
stwa danego wzorem (2). 

Opracowana procedura oblicza wartość P 

przy założeniu kombinacji różnych wartości 
Δt

i

(proc)

, tj. w podanym przykładzie 

Δt

mb

Δt

mf

Δt

fz

. Wartość n zależy także od tego, dla ilu 

kombinacji wartości każdego ze składowych 
upływów czasu wyznaczamy wartość P. Jeżeli 
dla wyznaczenia możliwych kombinacji róż-
nych wartości 

Δt

i

(proc)

, każdy z możliwych za-

kresów 

Δt

i

(proc)

 podzielimy na k przedziałów, to 

przy m składnikach upływów czasu mamy n = 
P × k

m

. Wartość k zakłada się zależnie od zało-

żonej dokładności obliczeń, biorąc także pod 
uwagę całkowitą liczebność zbioru (zwielo-
krotnionego przez powtarzanie rekordów). 

 
 

Podsumowanie 

 

Opracowano metodologię działań w od-

lewni, warunkujących prawidłowe modelowa-
nie procesów produkcyjnych, mające ma celu 
wykrywanie przyczyn zakłóceń procesu skutku-
jących pogarszaniem się jakości wyrobów. 
Podane zalecenia i procedury postępowania 
mogą być zastosowane do praktycznie dowol-
nych modeli miękkich. Zaawansowane są także 
dalsze prace zmierzające do stworzenia systemu 
przeznaczonego do wykrywania przyczyn wad 
w odlewach, w zakresie tworzenia procedur 
analizy znaczenia i współdziałania parametrów 
procesu jako wielkości wejściowych modelu.  
 

Pracę wykonano w ramach realizacji projektu 
badawczego zamawianego: 
PBZ/KBN/114/T08/2004 finansowanego przez 
Ministerstwo Nauki i Szkolnictwa  
 

Literatura 

 
[1]. B. Sick: IEEE Trans. On Systems, Man and 

Cybernetics, Part C, 32[2], 2002, 80-91. 

[2]. E  Szczerbicki (ed): Cybernetics and Sys-

tems, Special issue on Soft Computing and 
Intelligent Systems for Industry, 33, 2002. 

[3]. M. Perzyk: w Metallurgical Training On-

line,  Modelowanie komputerowe w prakty-
ce odlewniczej
, T. A. Kowalewski, M. Ko-
walczyk (red.), IPPT PAN, Warszawa, 
2006. 

[4]. M. Perzyk, J. Kozłowski: CMMS Journal 

(Informatyka w Technologii Materiałów), 
w druku. 

[5]. M. Perzyk, A. Kochański: Journal of Engi-

neering Manufacture Part B, 217, 2003, 
1279 - 1284. 

[6]. Y.M. Maki, K. A. Loparo: IEEE Trans. 

Control Systems Technology, 5[6], 1997, 
529-541. 

[7]. M. Perzyk:. Journal of Materials Processing 

Technology, 76[1-3], 1998, 198-202. 

[8]. M. Perzyk, R. Biernacki, A. Kochański: 

Journal of Materials Processing Technol-
ogy, 164-165, 2005, 1430-1435. 

[9]. X. Guo: AFS Transactions, 111, 2002, 199-

210. 

[10].  S. Kannan, J. E. Thixton: AFS Transac-

tions, 128[01], 115-119.