background image

 Układy scalone

Wstęp
1. Skalowanie tranzystora MOS

1.1. Wymiary tranzystora MOS
1.2. Reguły skalowania tranzystora MOS

2. Projektowanie i wytwarzanie układu scalonego

2.1. Topografia układu scalonego
2.2. Reguły projektowania
2.3. Zasady projektowania
2.4. Wytwarzanie układu scalonego

3. Szybkość działania układów scalonych

3.1. Opóźnienia
3.2. Zwiększanie szybkości pracy układów

Podsumowanie
Bibliografia

„Człowiek jest nadal najbardziej niezwykłym  
komputerem.”

John F. Kennedy, maj 1963

background image

2

 Wstęp

W module tym chciałbym, abyśmy przyjrzeli się temu, co najważniejsze w mikro-
elektronice, a więcej układom scalonym. Do tej pory poznałeś zasady projektowa-
nia układów cyfrowych. Co więcej, dowiedziałeś się jak wykonać pojedynczy tran-
zystor oraz komórkę inwertera CMOS. 

W niniejszym  module  zajmiemy  się  właśnie  tym,  jak  zaprojektować  i wykonać 
układ złożony z wielu tranzystorów. Umieszczenie takiej liczby elementów wyma-
ga, aby były one jak najmniejsze, dlatego moduł rozpocznę od omówienia jedne-
go z najważniejszych zagadnień mikroelektroniki — miniaturyzacji. W dalszej czę-
ści omówię zasady i reguły projektowania układów scalonych. Pokażę jak ogrom-
ną rolę spełnia informatyka w mikroelektronice. Następnie powiem o szczegółach 
wytwarzania układów scalonych, czyli o tym, jak przejść od umiejętności wytwa-
rzania pojedynczego tranzystora, którą już posiadasz, do wytwarzania milionów 
tranzystorów, jak to ma miejsce we współczesnych układach scalonych. Przy okazji 
uzupełnię wiedzę o poznanych procesach technologicznych oraz wrócę do pomi-
niętych w poprzednim module zagadnień związanych z testowaniem i pakowaniem 
w obudowę. Na koniec opowiem bardzo krótko o szybkości układów scalonych. 

Zawarte w tym module informację będą niezbędne do stworzeniu projektu własne-
go układu scalonego. Jednocześnie pozwolą Ci dostrzec silny związek między mi-
kroelektroniką a informatyką, który do tej pory nie była jednoznacznie widoczny. 
Zapraszam do lektury! 

background image

3

 1. Skalowanie tranzystora MOS

Jak  pamiętasz,  mikroelektronika  zajmuje  się  miniaturyzacją  elementów  elektro-
nicznych oraz działaniem i technologią układów scalonych. Do tej pory zajmowa-
liśmy się jedynie tą drugą częścią, a więc działaniem i technologią układów sca-
lonych. Najwyższy czas powiedzieć o miniaturyzacja elementów elektronicznych. 
Oczywiście  jest  to  bardzo  szerokie  zagadnienie  i dlatego  skupimy  się  wyłącznie 
na miniaturyzacji układów wykonywanych w technologii CMOS, a więc zbudowa-
nych z tranzystorów MOS i połączeń między nimi. 

Chciałbym, abyś zwrócił uwagę na jedną bardzo ważną rzecz. Nieważne z jakich 
tranzystorów zbudujesz układ — będzie on działał zawsze, jednak im tranzystory 
są lepsze, tym układ działa lepiej. Raz zaprojektowanego układu już nie zmieniasz, 
poprawiasz jedynie parametry tranzystorów, uzyskując jednocześnie coraz lepsze 
parametry całego układu. Jest to ogromna zaleta, do której będę jeszcze wielokrot-
nie powracał. Projektujesz raz, a zmieniając jedynie technologię wykonania, pro-
dukujesz coraz lepsze układy. Przy dużych projektach pozwala to zaoszczędzić spo-
ro czasu pracy zespołu projektantów. Oszczędność czasu to oczywiście oszczęd-
ność kosztów oraz szybszy postęp! 

 1.1. Wymiary tranzystora MOS

Zanim zaczniemy cokolwiek miniaturyzować dowiedzmy się, jakie wymiary i pa-
rametry ma tranzystor MOS, na przykładzie NMOS-a (rys. 1): 
— L

g

 — długość bramki (najważniejszy z parametrów),

— L

ch

 — długość kanału,

— L

n+

 — długość domieszkowania wysp źródła i drenu (obie są takie same),

— X

n+

 — głębokość domieszkowania wysp źródła i drenu (obie są takie same), 

— t

Si

 — grubość tlenku bramkowego,

— L

c

 — długość kontaktu,

— D — szerokość tranzystora,
— N

n+

 — koncentracja domieszkowania wysp źródła i drenu (obie są takie same),

— N

a

 — koncentracja domieszkowania podłoża. 

W poniższej tabeli zestawiłem parametry dla przykładowego tranzystora wykona-
nego w już nie najnowszej technologii, z połowy lat 90. ubiegłego wieku.

Parametr

Wartość

L

g

0,25 µm

L

ch

0,2 µm

L

n+

0,4 µm

X

n+

0,2 µm

t

Si

6 nm

D

0,6 µm

N

a

3,5 · 10

17

 cm

–3

N

n+

1 · 10

20

 cm

–3

Tabela 1 

Przykładowe wymiary 

tranzystora MOS

background image

4

Przypomnę  tylko,  że  1  mikrometr  (µm)  to  jed-
na milionowa części metra, albo inaczej mówiąc, 
jedna  tysięczna  milimetra.  Natomiast  1  nano-
metr (nm) to jedna tysięczna mikrometra, a więc 
jedna milionowa milimetra. Są to wielkości nie-
zwykle małe i na co dzień nie spotykamy się z ni-
mi. Jednak można je sobie wyobrazić, patrząc na 
ludzki włos. Otóż w poprzek włosa można uło-
żyć ok. 50 takich tranzystorów o takich wymia-
rach, jak w tabeli. Brzmi to niesamowicie, a jed-
nak nie dość, że jest to możliwe, to jeszcze po-
wyższa technologia odeszła już do lamusa. Obecnie tranzystory są o wiele mniejsze 
— nie są to już wielkości na poziomie mikrometrów, lecz dziesiątek nanometrów, 
a więc w poprzek włosa można ich już ułożyć setki! Natomiast jednostka domiesz-
kowania  cm

–3

  wyraża  ile  atomów  domieszki  znajduje  się  w jednym  centymetrze 

sześciennym półprzewodnika. Normalnie samych atomów krzemu jest ok. 5 · 10

22

 

w 1 cm

–3

, domieszkowanie na poziomie 10

20

 oznacza zatem, że mniej więcej co set-

ny atom jest domieszką, a 99 jest atomami półprzewodnika. 

Zapewne zadasz sobie pytanie, w jaki sposób można produkować aż tak małe ukła-
dy, przecież odległości między atomami w sieci krystalicznej są na poziomie części 
nanometra, a więc tranzystor o wymiarach kilkudziesięciu nanometrów zbudowa-
ny jest z kilkuset atomów! Odpowiedzią jest oczywiście przedstawiona w poprzed-
nim module technologia produkcji. Jeśli teraz przyjrzysz się jej jeszcze raz, stwier-
dzisz zapewne, że właściwie nie ma większego problemu z wytrawieniem nawet 
bardzo cienkich warstw. Wkładasz płytkę podłożową do cieczy trawiącej lub pod-
dajesz ją działaniu strumienia elektronów i po kłopocie, tu wymiar nie gra więk-
szej roli, choć oczywiście nie jest obojętny. Podobnie sytuacja wygląda w przypad-
ku dyfuzji czy nakładania warstw. Jedynym widocznym problemem jest odwzoro-
wanie małych kształtów na powierzchni, czyli proces litografii. Dlatego omawiając
procesy technologiczne powiedziałem, że ten właśnie proces jest krytyczny i świad-
czy o zaawansowaniu technologii. 

Często możesz spotkać się ze stwierdzeniem, że procesor został wykonany w tech-
nologii  90  nm.  Liczba  ta  oznacza  tzw.  możliwości  odwzorowywania  kształtów 
w procesie litografii. Im jest ona mniejsza, tym mniejsze przyrządy można wyko-
nywać. Z liczbą tą związana jest tzw. jednostka λ. Nazwa technologii to 2λ. Zatem 
dla technologii 90 nm λ wynosi 45 nm. Jak się już niedługo przekonasz jednostka λ 
ma kluczowe znaczenie w procesie projektowania układów scalonych. 

 1.2. Reguły skalowania tranzystora MOS

Jedną z największych zalet tranzystorów MOS jest opracowanie stosunkowo pro-
stych reguł ich skalowania. Miniaturyzacja pozwala m.in. na: 
—  zwiększenie liczby układów (albo ich skomplikowania) na jednej płytce krze-

mowej,

—  zwiększenie gęstości upakowania, 
—  zwiększenie szybkości pracy,
—  zmniejszenie wydzielanej mocy. 

Zmniejszając wymiary, uzyskujemy coraz lepsze parametry użytkowe urządzenia, 
bez jakiejkolwiek ingerencji w sam układ. Można wręcz powiedzieć: im mniejsze, 
tym lepsze. Jednak na przeszkodzie stoją możliwości procesu litografii, które de-

 

Rysunek 1 

Wymiary tranzystora MOS

background image

5

cydują o tym, jak mały może być przyrząd. Z drugiej strony tranzystora nie można 
zmniejszać w dowolny sposób. Poszczególne jego parametry, a więc wymiary i do-
mieszkowania, są oczywiście ze sobą powiązane. Dlatego właśnie powstały proste, 
ale skuteczne metody mówiące o tym, jak zmniejszać tranzystory. Zostały one na-
zwane regułami skalowania. 

Najpopularniejszą i najwygodniejszą regułą skalowania tranzystorów MOS jest za-
proponowana we wczesnych latach 70. ubiegłego wieku przez M. Dennarda zasa-
da mówiąca o takiej zmianie parametrów przyrządu, aby zachować stałe natęże-
nie pola elektrycznego. Dzięki temu uzyskuje się bardzo zbliżone fizyczne warunki
pracy tranzystora. Mówiąc inaczej, zmniejszamy tranzystor, a on nadal pracuje po-
dobnie jak przed zmniejszeniem. Tranzystor skalujemy z określonym współczynni-
kiem, oznaczmy go α. Jeśli chcesz zmniejszyć tranzystor o połowę, to przyjmujesz 

α = 2, jeśli chcesz go zmniejszyć trzykrotnie, to α = 3 itd. Wówczas, zgodnie z re-
gułą skalowania, zmianie ulegają, ze współczynnikiem skalowania α, następujące 
parametry tranzystora (rys. 2): 
— długość i szerokość kanału — 1/α, 
— głębokość złącz drenu i źródła — 1/α, 
— grubość tlenku bramkowego — 1/α, 
— koncentracja domieszkowania podłoża — α, 
— napięcie zasilające — 1/α, 
— szerokość połączeń — 1/α. 

Dzięki temu, w zależności od przyjętego współczynnika α, zmianie ulegają również 
parametry układu scalonego: 
— wzrasta gęstość upakowania elementów — α

2

— wzrasta maksymalna szybkość pracy — α, 
— zmniejsza się pobierana moc — 1/α

2

.

Stała natomiast pozostaje gęstość mocy. 

Z czego biorą się powyższe współczynniki? Przyjrzyjmy się pierwszemu z nich. Po-
wierzchnia zajmowana na płytce przez tranzystor wynosi L · D. Jeśli każdy z wy-
miarów zgodnie z regułą skalowania zmniejszymy α razy, to zajmowana powierzch-
nia wyniesie: 

,

2

D

L

D

L

Rysunek 2 

Reguły skalowania

background image

6

czyli zmniejszy się α

2

 razy. Zatem na tej samej powierzchni będziemy mogli zmie-

ścić w przybliżeniu α

2

 razy więcej tranzystorów. Bardzo ważny, jeśli nie najważ-

niejszy,  jest  drugi  ze  współczynników,  a więc  szybkość  pracy  tranzystora.  Dzię-
ki wzrostowi maksymalnej szybkości pracy można budować układy o coraz więk-
szych częstotliwościach pracy. Stąd w komputerach procesory mają coraz więcej 
megaherców, a obecnie już gigaherców. O szybkości pracy układów scalonych po-
wiemy krótko jeszcze na końcu modułu. 

Wróćmy  do  naszego  projektu  sumatora  jednobitowego.  Stworzyłeś  projekt,  roz-
rysowałeś schemat, oddałeś do fabryki, otrzymałeś gotowy scalak. Zaczynasz go 
badać i okazuje się, że wszystko działa poprawnie, układ może wykonywać np. ty-
siąc sumowań na sekundę i do tego pobiera 4 W mocy. Po roku dowiadujesz się, że 
w innej fabryce półprzewodników opracowaną nową technologię, która pozwala 
uzyskać 4-krotnie lepszą rozdzielczość litografii. Biegniesz tam i dajesz im dokład-
nie ten sam projekt co poprzednio, nic nie zmieniasz. Czekasz i otrzymujesz goto-
wy układ. Pierwsze zaskoczenie — jest dużo mniejszy niż poprzedni. Zaczynasz go 
badać, okazuje się, że wykonuje już nie tysiąc, a cztery tysiące sumowań na sekun-
dę, co więcej zużywa na to tylko 1 W mocy. Nie zrobiłeś nic za wyjątkiem pójścia 
do innej fabryki, a masz dużo lepszy układ. 

Oczywiście  skalowanie  przy  założeniu  stałego  pola  nie  jest  rozwiązaniem  ideal-
nym. Posiada również wady, dlatego powstały inne reguły skalowania. Jedną z po-
pularniejszych jest reguła skalowania przy zachowaniu stałego napięcia zasilające-
go. Według tej reguły skalowane są wszystkie parametry, tak jak w przypadku mo-
delu stałego natężenia pola elektrycznego, z wyjątkiem napięcia zasilającego, które 
pozostaje niezmienione. Powoduje to oczywiście wzrost natężenia pola elektrycz-
nego, który jest jednak kompensowany przez poprawę parametrów technologicz-
nych, szczególnie jakości tlenku bramkowego. Trend ten widoczny jest w prakty-
ce, gdyż napięcie zasilania układów nie zmienia się tak szybko jak wymiary. Więk-
sze  napięcie  zasilania  to  dodatkowy  wzrost  szybkości  działania  układu.  Dlatego 
właśnie podkręcając procesory musisz pamiętać o zwiększeniu napięcia zasilania. 
Kosztem tego jest oczywiście wzrost wydzielanej mocy i możliwość uszkodzenia 
układu, a więc jednocześnie musisz zapewnić lepsze chłodzenie. 

W praktyce skalowanie nigdy nie odbywa się według jednego wybranego modelu, 
lecz łączy w sobie cechy każdej w wymienionych powyżej reguł. Dlatego niedawno 
powstały reguły quasi-stałego napięcia, które najlepiej opisują obserwowany od lat 
70. ubiegłego wieku trendu miniaturyzacji tranzystorów MOS. Kompromisem jest 
również  wprowadzenie  tzw.  uogólnionego  współczynnika  skalowania,  który  za-
wiera dwa parametry: α i β, opisujące, w zależności od przyjętych wartości, regułę 
stałego pola (β = 1) lub stałego napięcia (α = β). 

Skalowany parametr

Zasada skalowania

Stałe natężenie 

pola elektrycznego

Stałe napięcie  

zasilania

Quasi-stałe  

napięcie

Współczynnik 

uogólniony

Długość kanału 

1/α

1/α

1/α

1/α

Szerokość kanału

1/α

1/α

1/α

1/α

Głębokość złącz

1/α

1/α (1/α

2

)

1/α

1/α

Grubość tlenku

1/α

1/α (1/α

2

)

1/α

1/α

Koncentracja domieszkowania

α

α (α

2

)

α

α (β

2

)

Napięcie zasilania

1/α

1

1/α

1/2

β/α

Mimo że w praktyce proces skalowania wygląda trochę bardziej skomplikowanie 
niż przedstawione tu modele, musisz przyznać, że nadal jest on naprawdę prosty 
i nie  wymaga  zaawansowanych  analiz.  Dlatego,  jeśli  tylko  możliwości  technolo-

Tabela 2 

Reguły skalowania

background image

7

giczne wykonawcy są wystarczające, należy go przeprowadzić. Dostaje się niejako 
za darmo lepszy układ. 

Oczywiście proces miniaturyzacji nie jest pobawiony wad oraz nie można go prze-
prowadzać z dowolnym współczynnikiem. Jedną z największych wad jest wzrost 
kosztów wynikających z droższej technologii wykonania. 

background image

8

 2. Projektowanie i wytwarzanie  

układu scalonego

W poprzednim  temacie  przy  opisie  wykonania  układu 
sumatora  użyłem  stwierdzenia:  „idziemy  z projektem 
do fabryki”. No właśnie, w tym zdaniu pozostaje jedno 
bardzo ważne niedopowiedzenie. Z czym idziemy do fa-
bryki? Ze schematem tranzystorów? Oczywiście nie. Jak 
wiesz z poprzedniego modułu, układy scalone wykonuje 
się na powierzchni płytki podłożowej, powstaje więc py-
tanie jak rozmieścić potrzebny układ tranzystorów i po-
łączeń między nimi na powierzchni. I właśnie tym zaj-
muje  się  projektowanie  układów  scalonych,  czyli  drugi 
bardzo ważny dział mikroelektroniki. Natomiast odpo-
wiedź na pytanie z czym idziemy do fabryki brzmi: z to-
pografią układy scalonego. Topografia układu scalone-
go (rys. 3) to swego rodzaj rzut z góry układu scalonego, 
na którym jest widoczne rozmieszczenie poszczególnych 
tranzystorów oraz połączeń między nimi. W tym tema-
cie spróbujemy poglądowo odpowiedzieć na pytanie jak 
tworzy się taką topografię.

Twórca topografii układu scalonego to całkowicie nowy
zawód,  który  powstał  wraz  z rozwojem  mikroelektro-
niki. Osoba ta zajmuje się rozmieszczaniem poszczegól-
nych elementów układu na powierzchni płytki podłożo-
wej i planowaniem połączeń między nimi. Istnieją regu-
ły, które mówią jak powinno się to robić, i które za chwi-
lę przedstawię. Natomiast jasno trzeba powiedzieć, że — tak jak w wielu dziedzi-
nach wiedzy inżynierskiej — bardzo ważne jest doświadczenie i intuicja technicz-
na, podpowiadająca, jak powinny być rozmieszczane elementy, jak powinny być 
połączone itd. Samo mechaniczne stosowanie reguł często nie wystarcza. Umiejęt-
ności projektowania układów scalonych nabiera się wraz z liczbą wykonanych pro-
jektów i poznanych topografii innych układów. To dość trudny i wymagający za-
wód, ale jednocześnie bardzo dobrze płatny i poszukiwany przez pracodawców. 

Mam nadzieje, że nie masz już wątpliwości, iż przy tworzeniu topografii układu
mocno korzysta się z pomocy komputera, a konkretnie z narzędzi komputerowego 
wspomagania projektowania CAD (ang. Computer Aided Design). Projekt nasze-
go sumatora jednobitowego ma ok. 20 tranzystorów i jesteś w stanie go opanować 
— byłbyś również w stanie opanować projekt zawierający nawet kilkaset tranzy-
storów. Jednak współczesne procesory zawierają ich setki milionów i wykonanie 
takiego  projektu  bez  pomocy  narzędzi  informatycznych  jest  niemożliwe.  Zresz-
tą w tym temacie wielokrotnie będziemy wracali do zagadnienia komputerowego 
wspomagania, ponieważ bez niego nie byłoby mikroelektroniki. 

Rysunek 3 

Topografia układu scalonego 

(procesor 4004)

background image

9

 2.1. Topografia układu scalonego

Zanim przejdziemy do samodzielnego tworzenia topografii układu scalonego mu-
simy nauczyć się ją czytać (rys. 4). Pierwszą rzucająca się w oczy rzeczą jest kwadra-
towa siatka. Oczka siatki mają długość — są to wspomniane już jednostki λ. A więc 
nasz projekt wykonujemy, używając nie rzeczywistych wymiarów, lecz jednostek 
względnych λ. Dzięki temu wykonaną topografię można dowolnie skalować, nie
zmieniając  niczego.  W zależności  od  możliwości  technologicznych  danej  fabryki 
półprzewodników przyjmuje się odpowiednią wartość λ i o takich fizycznych roz-
miarach wykonuje się układ. Co więcej, reguły projektowania, które za chwilę po-
znasz, mówią dokładnie ile λ powinna mieć bramka, ile λ powinno mieć domiesz-
kowanie  itd.  Dzięki  temu  zaprojektowana  przez  nas  topografia jest uniwersalna 
— można ją było wykonać 10 lat temu technologii 0,5 µm i będzie ją można wyko-
nać niedługo w technologii 65 nm. 

Najmniejszym składnikiem układu scalonego jest oczywiście tranzystor MOS (rys. 5). 

Musisz przyznać, że jest to bardzo schematyczne przedstawienie tego przyrządu, 
ale w pełni oddające jego konstrukcję. Cienki i długi prostokąt to bramka. Oczywi-
ście nie ma potrzeby rysowania osobno tlenku bramkowego oraz polikrzemu, po-

Rysunek 4 

Projekt układu scalonego

Rysunek 5 

Tranzystor MOS

background image

10

nieważ wiadomo, że zawsze pod polikrzemem znajduje się tlenek, wystarczy więc 
jeden  prostokąt.  Bramka  dzieli  drugi  prostokąt,  który  oznacza  domieszkowanie 
źródła i drenu. Do źródła i drenu dołączone są kontakty. I tak właśnie wygląda po-
jedynczy tranzystor. Ponieważ rysunek jest w skali λ, nie ma potrzeby dobierania 
wartości domieszkowań — są one zależne od wartości λ. Wystarczy zaznaczyć ob-
szar domieszkowania, a jego wartość i głębokość dobierze już na podstawie warto-
ści λ fabryka wykonująca układ. 

Narysowanie inwertera CMOS też nie nastręcza żadnych trud-
ności  (rys.  6).  Jak  pamiętasz,  inwerter  to  połączenie  dwóch 
tranzystorów NMOS i PMOS i oba należy narysować. Oczywi-
ście jeden z nich musi znajdować się w studni o przeciwnym ty-
pie  domieszkowania  niż  podłoże.  Studnię  rysuje  się  podobnie 
jak każde inne domieszkowanie. Studnia jest podłożem tranzy-
stora i w tym przypadku podłączone jest do niej napięcie zasi-
lania. Tranzystor MOS jest przyrządem całkowicie symetrycz-
nym. Nie ma więc znaczenia gdzie jest źródło, a gdzie dren, dla-
tego wybieramy je tak, aby powstałe ścieżki były jak najkrót-
sze. Łączymy więc dren dolnego tranzystora ze źródłem górne-
go i w ten sposób otrzymujemy wyjście. Do pozostałego źródła 
dolnego tranzystora podłączamy masę, a do drenu górnego za-
silanie. Pozostaje jeszcze podłączenie wejścia do złączonych po-
likrzemem bramek obu tranzystorów. I to wszystko, w ten spo-
sób otrzymaliśmy projekt topografii inwertera. Podobnie two-
rzy się poszczególne bramki. 

Zapewne  myślisz:  „No  dobrze,  to  były  proste  projekty,  mała 
liczba tranzystorów, ale jeśli będę chciał wykonać choćby pro-
jekt  naszego  sumatora  jednobitowego,  to  połączenia  zaczną 
się  krzyżować  i co  wtedy?”.  Otóż  w zależności  od  technolo-
gii i skomplikowania układu, można nakładać wiele warstw metalizacji, które są 
od siebie oddzielone warstwami izolacyjnymi. Takie metalizacje mogą się ze sobą 
krzyżować na topografii, a w rzeczywistości nie stykają się ze sobą, ponieważ leżą
w różnych płaszczyznach. Oczywiście, jeśli istnieje taka potrzeba, to wykonuje się 
tzw. przelotkę (via), która może połączyć ze sobą metalizacje leżące na różnych po-
ziomach, trzeba to jednak wyraźnie zaznaczyć w projekcie. Najczęściej bliskie po-
łączenia realizuje się na pierwszym poziomie metalizacji, natomiast te coraz odle-
glejsze na wyższych. Przykładem może być prowadzenie magistrali masy i zasila-
nia, która musi dojść do każdego tranzystora w układzie. 

Jeśli już uda ci się wytworzyć topografię układu, to możesz już iść z nią do fabryki.
Tam na jej podstawie zostaną najpierw zaprojektowane maski do procesu litografii.
Następnie projektowany jest dalszy proces technologiczny. Szczególną uwagę nale-
ży zwrócić na wpływ później wykonywanych operacji technologicznych na wcze-
śniejsze.  Oczywiście  tutaj  też  ogromną  rolę  spełnia  komputerowe  wspomaganie 
CAM (ang. Computer Aided Manufacturing), pozwalające zaprojektować i później 
sterować całym procesem technologicznym. 

 2.2. Reguły projektowania

Jak  wspomniałem  wcześniej,  istnieją  tzw.  reguły  projektowania  układów  scalo-
nych, które jasno mówią, jak mała może być bramka, jaka powinna być minimal-
na odległość między domieszkowaniami itp. Wszystkie wymiary są oczywiście po-

Rysunek 6 

Inwerter CMOS

background image

11

dawane w jednostkach λ. Po wykonaniu topografii układu można automatycznie
sprawdzić, czy zostały spełnione wszystkie reguły projektowania. Każda reguła jest 
ma swój numer, w którym pierwsza cyfra mówi, jakiego globalnie zagadnienia do-
tyczy niezgodność. Dlatego stosunkowo łatwo można sprawdzić gdzie pojawia się 
błąd i usunąć go. 

Do najważniejszych reguł projektowania należy zaliczyć (rys. 7): 
—  r101 — minimalny rozmiar studni: 12λ,
—  r102 — minimalna odległość między studniami: 12λ,
—  r201 — minimalny rozmiar obszaru domieszkowania: 4λ,
—  r202 — minimalna odległość między dwoma obszarami domieszkowania: 4λ,
—  r203, r204 — minimalna odległość obszaru domieszkowania od studni: 6λ,

—  r301 — minimalna szerokość polikrzemu (a więc długość bramki): 2λ,

—  r304 — minimalna odległość między ścieżkami polikrzemowymi: 3λ,
—  r306 — minimalna odległość między polikrzemem a końcem obszaru domiesz-

kowania źródła i drenu: 4λ,

—  r307 — minimalna odległość wystawania bramki polikrzemowej poza obszar 

domieszkowania: 2λ,

—  r401 — minimalny rozmiar kontaktu: 2λ,
—  r402 — minimalna odległość między kontaktami: 3λ,
—  r403, r404, r405 — wystawanie odpowiednio metalu, polikrzemu i domieszko-

wania wokół kontaktu: 2λ,

—  r501 — minimalna szerokość metalizacji: 3λ,
—  r502 — minimalna odległość między ścieżkami metalizacjami: 3λ.

Rysunek 7 

Reguły projektowania

background image

12

Pozostałe reguły dotyczą rozmiarów przelotek (r600), wyższych warstw metaliza-
cji (r700) oraz padów, czyli kontaktów wyprowadzanych z układu (r800).

Zachowując powyższe reguły, zyskujemy pewność stworzenia poprawnie wykona-
nego układu. Chciałbym zaznaczyć, że reguły te przewidują pewne niedoskonało-
ści procesu technologicznego, dlatego projektując układ nie musisz ich dodatkowo 
poprawiać. A więc, jeśli np. odległość miedzy ścieżkami ma wynosić 3λ, to nie ma 
potrzeby robienia jej większej — to nic nie zmieni, a może tylko utrudnić projek-
towanie. 

Myślę, że — znając powyższe reguły — byłbyś już w stanie, przynajmniej teore-
tycznie,  zaprojektować  większość  układów  scalonych.  Oczywiście  takie  ręczne 
projektowanie  układu  jest  bardzo  żmudne.  Widać  tu  ogromną  rolę  programów 
typu CAD. Najczęściej pozwalają one wygenerować automatycznie bramki, a na-
wet  utworzyć  topografię dla zadanej funkcji logicznej. Przy projektowaniu bar-
dziej  skomplikowanych  układów  scalonych  wykorzystanie  takiego  wspomagania 
jest wręcz niezbędne i jednocześnie znacznie przyspiesza pracę nad projektem. Do-
datkowo programy pozwalają zoptymalizować m.in. długość połączeń w układzie 
oraz wykorzystywaną do jego wytworzenia powierzchnię. Nie przesadzę, jeśli po-
wiem, że bez komputerowego wspomagania nie byłaby możliwa produkcja współ-
czesnych układów scalonych. 

 2.3. Zasady projektowania

Projektując dowolny układ scalony, można skorzystać z dwóch możliwych podejść:
—  z dołu do góry, a więc zaczynając od zaprojektowania bramek i następnie skła-

dania z nich poszczególnych elementów funkcjonalnych, po dalsze łączenie ich 
w większą całość, 

—  z góry do dołu, a więc od dzielenia skomplikowanego, dużego projektu na coraz 

mniejsze logiczne części, zwane często komórkami elementarnymi i na koniec 
łączenie ich w całości. 

Oczywiście nie ma reguły, które z podejść jest lepsze, najczęściej do małych projek-
tów wykorzystuje się podejście pierwsze, do bardziej skomplikowanych podejście 
drugie. Natomiast najlepsze wyniki uzyskuje się, stosując podejście mieszane, bę-
dące połączeniem obu podejść. 

Podsumowując zdobytą dotychczas wiedzę, projektowanie układu scalonego moż-
na podzielić na następujące etapy: 
1.  Stworzenie projektu logicznego:

a)  opis tworzonego układu, na który składa się m.in. opis jego wejść i wyjść oraz 

realizowanych funkcji, 

b)  wytworzenie  na  podstawie  poprzedniego  punktu  logicznego  opisu  układu, 

składającego się z bramek logicznych i połączeń między nimi, 

c)  zastąpienie bramek przez elementy elektroniczne (etap niekonieczny), 
d)  sprawdzenie poprawności logicznej zaprojektowanego układu.

2.  Stworzenie projektu fizycznego:

a)  wstępne rozmieszczenie poszczególnych elementów logicznych układu (ang. 

floorplaning),

b)  dokładne rozmieszczenie wszystkich elementów układu (ang. placement), 
c)  stworzenie połączeń między poszczególnymi elementami (ang. routing), 
d)  utworzenie ostatecznej topografii (ang. layout),
e)  sprawdzenie fizycznej poprawności działania układu.

background image

13

3. Stworzenie projektu technologicznego: 

a)  stworzenie projektów masek do procesu litografii,
b)  zaprojektowanie poszczególnych procesów technologicznych i określenie ich 

parametrów, 

c)  utworzenie ciągu procesów technologicznych, z uwzględnieniem ich wzajem-

nych powiązań, 

d)  sprawdzenie poprawności przygotowanego procesu. 

Dopiero tak przygotowany projekt wykonuje się fizycznie. Na każdym etapie pro-
jektowania bardzo ważne jest sprawdzanie poprawności projektu. Wykryte w tej 
fazie błędy niewiele kosztują, przeważnie jedynie czas projektanta. Ich poprawie-
nie polega wyłącznie na zmianie projektu znajdującego się w pamięci komputera. 
Jeśli natomiast błąd dojdzie do fazy fizycznego wykonania, będzie kosztował o wie-
le więcej. 

Wyjaśnienia, szczególnie z informatycznego punktu widzenia, wymagają punkty 
1a i 1c. Otóż opis projektu tworzy się najczęściej za pomocą jednego z języków opi-
su sprzętu HDL. Różnią się one od znanych ci języków programowania, takich jak 
C czy Java, jednak mają również wiele typowych konstrukcji, takich jak pętle, ope-
racje logiczne itp. Zadaniem takiego opisu jest wyszczególnienie tego, jakie funk-
cje i w jaki sposób ma realizować projektowany układ. Tak stworzony opis poddaje 
się następnie kompilacji, w wyniku której uzyskuje się opis logiczny układu, a więc 
najczęściej bramek i połączeń między nimi. Taki układ jest testowany pod kątem 
tego, czy spełnia wszystkie warunki zawarte w pierwotnym opisie i czy realizuje je 
poprawnie. Zamiana opisu logicznego na układ tranzystorów najczęściej nie jest 
konieczna, gdyż kolejny kompilator (tzw. silicon compiler) potrafi z opisu logicz-
nego wytworzyć już topografię układu. Najczęściej nie tworzy on od razu topo-
grafii całego układu, lecz topografię jego poszczególnych części logicznych. Na ko-
niec są one składane i tak powstaje ostateczny projekt topografii układu. Wygląda
to stosunkowo prosto i automatycznie, jednak zapewniam cię, że w praktyce czę-
sto potrzebna jest ingerencja z zewnątrz. Uzyskana topografia poddawana jest sy-
mulacji komputerowej, która stwierdza czy wszystko funkcjonuje poprawnie. I do-
piero w tym momencie można przystąpić do wytworzenia pierwszych prototypo-
wych układów scalonych. Są one bardzo wnikliwie badane, poza ich poprawnością 
sprawdzane są oczywiście ich parametry użytkowe, odporność na zakłócenia, na 
złe warunki pracy itp. Dopiero jeśli wszystkie wymagania zostały spełnione, układ 
kierowany jest do seryjnej produkcji. 

 2.4. Wytwarzanie układu scalonego

Zależy  nam  na  jak  najmniejszej  liczbie  procesów  litografii, ze
względu na ich krytyczność. Dlatego wszystkie elementy na po-
szczególnych  warstwach  są  wytwarzane  (a przynajmniej  tak  po-
winno być) w jednym procesie. Maski zawierają wzory wszystkich 
tranzystorów  w układzie  i za  ich  pomocą  na  powierzchni  płytki 
odwzorowywane są wszystkie wzory naraz. Pozwala to zreduko-
wać liczbę procesów litografii do kilku w całym cyklu technolo-
gicznym, dzięki czemu można obniżyć koszty oraz podnieść nie-
zawodność  otrzymywanych  układów.  Co  więcej,  na  jednej  płyt-
ce podłożowej wytwarza się najczęściej wiele takich samych ukła-
dów leżących obok siebie. Dzięki temu, że płytka podłożowa ma spore rozmiary 
w stosunku do wielkości układów, nie traci się w ten sposób niepotrzebnie jej po-
wierzchni (rys. 8). 

Rysunek 8 

Wykorzystanie powierzchni 

podłoża

background image

14

Pozostałe procesy i ich kolejność są dokładnie takie, jak przedstawione w module 
czwartym, z dodaniem kolejnych warstw metalizacji. Ze względu na rosnącą licz-
bę elementów w układzie, rośnie również liczba i długość połączeń między nimi. 
Pamiętaj,  że  na  jednym  poziomie  połączenia  nie  mogą  się  krzyżować!  Aby  móc 
je wszystkie zrealizować, potrzebne są kolejne warstwy, na których te połączenia 
mogą być wykonywane. 

Zapytasz zapewne w tym momencie co z pozostałymi elemen-
tami elektronicznymi. Wiesz jak wykonać tranzystor i połą-
czenia.  A co  z rezystorem,  kondensatorem,  diodą,  przecież 
ich też możesz potrzebować w układzie? Oczywiście je rów-
nież możesz wykonać i to w tej technologii, którą poznałeś. 
Strukturą  kondensatora  jest  oczywiście  bramka  tranzystora 
MOS (rys. 9). Zatem kondensator wykonuje się tak jak bram-
kę tranzystora, czyli wytwarza się na powierzchni płytki dwu-
tlenek krzemu, na który nakłada się elektrodę. Drugą elektro-
dę przytwierdza się do podłoża i w ten sposób otrzymuje się 
kondensator. Na podstawie wzoru:

,

d

S

C

gdzie: ε — stała dielektryczna izolatora, S — powierzchnia okładek, d — odległość 
między  okładkami,  możesz  wywnioskować,  że  im  cieńszy  jest  tlenek  i im  więk-
sza powierzchnia zajmowana przez tlenek i elektrodę, tym większa jest pojemność 
kondensatora. Natomiast trzeba jasno powiedzieć, że w układzie scalonym można 
wykonywać  jedynie  kondensatory  o niewielkich  pojemnościach.  Jeśli  potrzebujesz 
większych, trzeba zrobić wyprowadzenia z układu i dołączyć ze-
wnętrzny kondensator. 

Równie łatwo wykonuje się diodę (rys. 10). Jak pamiętasz, dio-
da to po prostu złącze półprzewodników o różnych typach. Za-
tem w podłożu wykonujesz domieszkowanie o przeciwnym ty-
pie i do tego domieszkowania podłączasz jedną elektrodę, do 
podłoża  drugą  i już  masz  diodę.  Większy  problem  jest  z wy-
dałoby się najprostszym elementem, a mianowicie rezystorem. 
Można go wykonać po prostu jako połączenie dwóch elektrod 
do obszaru o określonym domieszkowaniu (rys. 11). Im większe jest domieszkowa-
nia i im mniejsza jest odległość między elektrodami, tym mniejsza jest jego rezy-
stancja. Odwrotnie, im mniejsze domieszkowanie tego obszaru i im większą odle-
głość, tym większa rezystancja. Metoda ta ma jednak ogrom-
ną wadę, ponieważ jeśli chcesz wykonać rezystor o dużej rezy-
stancji, będziesz musiał zająć sporą powierzchnię, a to kosztuje. 
Dlatego rezystorów najczęściej nie wykonuje się, a ich rolę peł-
nią po prostu tranzystory. Jak pamiętasz, tranzystor to element 
o sterowanej rezystancji. Jeśli ustawisz to sterowanie na jakąś 
ustaloną wartość, to masz rezystor i to niemal o dowolnej war-
tości! Może cię to zaskoczy, ale prawdą jest, że najtańszy i naj-
prostszy do wykonania element, to właśnie tranzystor. Dlatego 
wszystko, co tylko można wykonuje się w układzie jako tranzystor. 

Po procesie technologicznym płytka jest cięta na poszczególne układy. Proces cięcia 
musi być wykonany z niezwykłą starannością, tak aby nie uszkodzić wytworzonych 
układów. Uzyskujemy w ten sposób drobniutkie kawałki płytki krzemowej, o wy-
miarach nieprzekraczających najczęściej kilku, kilkunastu milimetrów. I to już jest 
nasz gotowy układ. Na nim znajdują się wszystkie elementy i połączenia miedzy 

Rysunek 9 

Kondensator scalony

Rysunek 10 

Dioda scalona

Rysunek 11 

Rezystor scalony

background image

15

nimi, choć trudno sobie wyobrazić jak taką drobinkę krzemu można by umieścić 
na płytce drukowanej, jak podłączyć do niej zasilanie itp. Dlatego koniecznych jest 
jeszcze kilka zabiegów zanim układ zostanie oddany do sprzedaży. 

Bardzo ważnym (jeśli nie najważniejszym) etapem jest testowanie wyprodukowa-
nego układu. Z czego wynika jego ważność? Otóż wady wykryte na tym etapie są 
jeszcze stosunkowo tanie do usunięcia. Naturalnie niepoprawnie działający układ 
wyrzuca się, gdyż nie ma możliwości naprawiania czegokolwiek wewnątrz. Stosu-
nek liczby poprawnie działających układów do liczby wszystkich wyprodukowa-
nych układów nazywany jest uzyskiem. Im jest on większy, tym lepiej, tym mniej 
odpadów. 

Wykrywanie błędów na tym etapie nie pociąga za sobą znaczących kosztów. Musisz 
pamiętać, że największym kosztem układu scalonego jest jego obudowa, nie mó-
wiąc już o umieszczeniu go później na płytce drukowanej u odbiorcy.

Moment stwierdzenia błędu

Koszt

Projekt logiczny i topograficzny

Bliski zeru

Wykonany układ 

Kilka groszy 

Opakowany układ 

Kilka złotych 

Układ zamontowany na płytce 

Kilka do kilkudziesięciu złotych 

Gotowe urządzenie 

Kilkaset złotych 

Koszty wyrzucenia niesprawnego układu w fazie testowania są nieporównywalnie 
mniejsze (ponad tysiąc razy!) od usuwania usterek u końcowego odbiorcy. Co wię-
cej, teoria niezawodności mówi wyraźnie, że najwięcej błędów pojawia się w ukła-
dzie zaraz po wyprodukowaniu. Okres ten często nazywa się śmiertelnością nie-
mowlęcą  (rys.  12).  Zadaniem  procesu  testowania  jest  właśnie  wyeliminowanie 
układów posiadających błędy „wieku niemowlęcego”. Do najczęstszych wad należy 
zaliczyć: 
— przebicie tlenku bramkowego, 
— zbyt słabe domieszkowanie, któregoś z obszarów, 
— przerwanie ścieżki, 
— zwarcie ścieżki do innej (błędy w izolacji), 
— zbyt cienkie ścieżki, które przerywają się z wyniku pracy układu. 

Musisz zdać sobie sprawę, że w takim układzie możesz mieć miliony tranzystorów 
i połączeń między nimi i każdy musi działać poprawnie! Musisz przyznać, że to 
ogromne wymagania — inaczej układ jest do wyrzucenia. To, że jednak takie ukła-
dy udaje się produkować, co więcej, możesz je kupić w sklepie i to za niewielkie 
pieniądze, świadczy o tym, jak zaawansowana i jednocześnie skuteczna jest obec-
nie technologia układów scalonych. 

Tabela 3 

Koszty znalezienia błędów 

na poszczególnych etapach 

projektowania i produkcji układu 

scalonego

Rysunek 12 

Prawdopodobieństwo 

uszkodzenia układu scalonego

background image

16

Zapewne zapytasz jak testuje się układy scalone. Oczywiście nie sprawdza się wy-
konania każdego tranzystora i każdego połączenia, byłby to raczej niemożliwe ze 
strony technicznej i bardzo kosztowne. Najczęstszą metodą jest sprawdzenie funk-
cjonalne, a więc na wejścia układu podaje się dane testowe i bada co jest na wyj-
ściu. Jeśli pojawiają się jakieś błędy, oznacza to, że układ nie działa poprawnie i jest 
wyrzucany. Oczywiście nie sprawdza się wszystkich możliwych danych wejściowy, 
ponieważ trwałoby to bardzo długo, natomiast najczęściej dobiera się takie „złośli-
we” dane, które pozwalają sprawdzić jak najwięcej. 

Na  koniec  układ  jest  pakowany  (rys.  13). 
Proces  pakowania  polega  na  dołączeniu 
do  układu  wejść  i wyjść  kontaktów,  zwa-
nych  powszechnie  pinami  lub  padami.  Na 
powierzchni  układu  znajdują  się  punkty, 
do których dołączana jest najczęściej cien-
ka  złota  nić.  Natomiast  drugi  koniec  nici 
podłączony jest do nóżki (pinu) końcowego 
układu. Na zakończenie wszystko jest zalewane w formie żywicą, która po zasty-
gnięciu stanowi twardą mechaniczną obudowę dla układu oraz izolację elektrycz-
ną. I tak wykonany układ możesz nabyć w każdym sklepie elektronicznym. Propo-
nuje ci, abyś kupił taki układ i spróbował rozbić go na części. Zobaczysz, że nóż-
ki, które wystawały z obudowy, tkwią w układzie na niewielką głębokość. Do nich 
przytwierdzone są cienkie nici, które prowadzą w głąb układu. Gdzieś wewnątrz, 
jeśli tylko będziesz dostatecznie uważny, znajdziesz malutki kawałek krzemu, do 
którego schodzą się wszystkie nitki i to właśnie jest nasz układ. 

Tak  jak  wspomniałem,  koszty  opakowania  układu  są  wielokrotnie  większe  niż 
koszty jego wykonania na podłożu krzemowym. Oczywiście po procesie pakowa-
nia układ jest ostatecznie testowany, co pozwala wykryć błędy połączenia układu 
z wyprowadzeniami i ewentualnie uszkodzenia samego układu powstałe w trakcie 
pakowania lub niewykryte w trakcie poprzednich testów. 

Często, np. w przypadku procesorów, do układu montowane są elementy mające 
za zadanie zwiększenie odprowadzania ciepła (przekładki wykonane z miedzi) lub 
zapewniające lepsze własności mechaniczne, np. odporność na uderzenia. Jednak 
nie stanowią one już integralnej części układu scalonego. 

I to wszystko, jeśli chodzi o proces wytwarzania układów scalonych. Teraz już do-
kładnie wiesz jak wykonać taki układ — od pomysłu, aż do jego fizycznej realiza-
cji w krzemie. Już nie ma żadnych niedopowiedzeń, pominiętych faktów. Jeśli te-
raz miałbyś dostęp do odpowiedniej aparatury, potrafiłbyś krok po kroku wykonać
prawdziwy układ scalony. Oczywiście wiele szczegółów związanych z projektowa-
niem i wykonywaniem układów scalonych pominąłem, m.in. sposoby wytwarza-
nia masek, metody projektowania dużych i skomplikowanych układów itd. Powiem 
więcej,  wiele  informacji,  szczególnie  z dziedziny  technologii,  jest  pilnie  strzeżo-
nych przez firmy jako ich własne rozwiązania pozwalające zachować przewagę nad
konkurencją. Dotarcie do nich jest niemożliwe i są ujawniane dopiero wtedy, gdy 
wprowadzana jest kolejna, nowsza generacja technologii. Z jednej strony takie po-
dejście hamuje rozwój, z drugiej jednak należy zrozumieć firmy, które inwestują
ogromne pieniądze w rozwój technologii. 

Rysunek 13 

Pakowanie układu

background image

17

 3. Szybkość działania  

układów scalonych

Ostatnim zagadnieniem, jakie chciałem poruszyć jest szybkość pracy układów sca-
lonych. Jest to jedno z najważniejszych, choć równocześnie najbardziej złożonych 
zagadnień przy projektowaniu i produkcji układów scalonych. Każdy przecież chce 
mieć jak najszybsze procesory, jak najszybsze pamięci itd. Zanim zajmiemy się tema-
tem zwiększania szybkość działania, powiedzmy najpierw z czego wynikają ograni-
czenia tej prędkości i co stoi na przeszkodzie, aby układ pracował wydajniej. 

 3.1. Opóźnienia

Przyczyną ograniczeń w szybkości działania układów są opóźnienia powstające na 
jego  poszczególnych  elementach.  Powodują  one,  że  sygnał,  który  pojawia  się  na 
wejściu da wynik na wyjściu dopiero po jakimś czasie. Zatem układ nie może pra-
cować za szybko, ponieważ może okazać się, że na wejściu zmieniliśmy już sygna-
ły, a nie uzyskaliśmy jeszcze poprzedniego wyniku na wyjściu. Wynik może okazać 
się wtedy niepoprawny, ponieważ na wyjściu są już inne sygnały, niektóre bramki 
mogą zdążyć na to zareagować, inne nie — trudno cokolwiek przewidzieć. Opóź-
nienia powstają zarówno na poszczególnych elementach, jak i na połączeniach. 

Opóźnienia na połączeniach wynikają z prędkości rozchodzenia się sygnału. Pręd-
kość ta jest ogromna — bliska prędkości światła. Jeśli jednak uświadomisz sobie, 
że współczesne układy pracują z częstotliwością 1 GHz, to w czasie jednego cyklu 
sygnał może przebyć kilka do kilkunastu centymetrów! Zatem opóźnienia powsta-
jące na połączeniach stają się bardzo istotne. 

Opóźnienia na bramkach wynikają z szybkości przełączania tranzystorów. Musisz 
pamiętać, że tranzystor zaczyna przewodzić, gdy pod obszar bramki zostają przy-
ciągnięte nośniki, a przestaje, gdy zostaną one usunięte. Ruch ten odbywa się ze 
skończoną prędkością, zatem od podania sygnału na wejście, aż do odpowiedniego 
ustawienia się tranzystorów w stan przewodzenia, bądź nie, mija określony czas.
Jeśli dodatkowo bramki są połączone szeregowo, tzn. wyjścia jednych bramek pod-
pięte są do wejść kolejnych, to sumaryczny czas opóźnienia takiego toru jest sumą 
opóźnień na poszczególnych elementach. Przykładem może być choćby zaprojekto-
wany sumator jednobitowy, gdzie wejścia podpięte są do inwertera (bramka NOT), 
następnie do bramek AND, te z kolei do OR i dopiero do wyjścia. Jeśli dodatkowo 
doliczymy jeszcze opóźnienia na połączeniach, to widać, że opóźnienia mogą od-
grywać istotną rolę, szczególnie w działaniu skomplikowanych układów, takich jak 
np. procesory. 

Innym bardzo istotnym problemem wynikającym z istnienia opóźnień jest wystę-
powanie zjawiska hazardu. To bardzo niekorzystne i niebezpieczne zjawisko, któ-
re może prowadzić do wielu trudnych do wykrycia błędów. Polega ono na dotar-
ciu do bramki sygnałów wejściowych z różnymi opóźnieniami. Przykładem może 
być choćby nasz jednobitowy inwerter, gdzie do bramki AND jeden sygnał dociera 

background image

18

bezpośrednio z wejścia, a drugi przez inwerter. Ten drugi na pewno będzie opóź-
niony wobec pierwszego. Na wyjściach bramki powstanie zatem chwilowo trudny 
do przewidzenia stan, który jednak dalej rozprzestrzeni się w układzie i może po-
wodować kolejne zakłócenia. 

Radzenie sobie z tym problemem jest stosunkowo trudne i najczęściej polega na 
wprowadzeniu  w niektórych  miejscach  dodatkowych  elementów  opóźniających, 
np. dwóch inwerterów. Jak pamiętasz, podwójne zanegowanie niczego nie zmienia, 
więc sygnał po przejściu dwóch inwerterów jest taki sam jak przed, ale opóźniony. 
Oczywiście wprowadzanie dodatkowych opóźnień to dodatkowe elementy, a więc 
i dodatkowe koszty, konieczne jednak, aby układ poprawnie funkcjonował. Zjawi-
sko hazardu jest bardzo trudnym do rozwiązania problemem również w skompli-
kowanych układach, np. procesorach. 

 3.2. Zwiększanie szybkości pracy układów

Opóźnienia stanowią bardzo istotny problem dla projektantów układów scalonych, 
z którym radzą sobie przez różne zabiegi projektowe. Nie ma jasnych i uniwersal-
nych zasad dotyczących tego, jak je eliminować, dużo zależy tutaj od umiejętności 
i doświadczenia projektanta. 

Istnieją natomiast uniwersalne metody zwiększania prędkości pracy układów. Jed-
ną z nich jest zwiększanie napięcia zasilającego. Powoduje ono szybsze przyciąganie 
nośników do powierzchni półprzewodnika, a więc szybsze tworzenie kanału. Tran-
zystor może się dzięki temu szybciej przełączać, co powoduje mniejsze opóźnienia 
na bramce. Jednak podnoszenie napięcia ma oczywiście swoje wady. Największą jest 
możliwość przebicia tlenku bramkowego. Pamiętaj, że ten tlenek jest bardzo cienki, 
rzędu nanometrów (!). Zbyt duże napięcie może go przebić i na trwałe uszkodzić 
układ. Poza tym większe napięcie to większa wydzielana moc i w konsekwencji tem-
peratura, która może powodować zakłócenia w pracy układu. 

Kolejnym sposobem zmniejszania opóźnień układów jest miniaturyzacja. Mniejszy 
tranzystor szybciej się przełącza, co więcej — odległości między poszczególnymi 
tranzystorami mogą być mniejsze, a więc i połączenia krótsze. 

Ostatni ze sposobów redukcji opóźnień to zabiegi projektowe, wśród których na-
leży wymienić choćby redukcję długości połączeń, równoległą pracę układów, od-
powiednie dobranie wymiarów poszczególnych elementów itp. Oczywiście sposób 
ten jest najprostszy do wprowadzenia z wymienionych. 

Połączenie wszystkich powyższych metod doprowadziło do obserwowanego obec-
nie  postępu  w dziedzinie  szybkości  pracy  układów  scalonych.  Należy  przypusz-
czać, że postęp ten będzie trwał nadal, choć raczej nie będzie już tak dynamiczny 
jak obecnie. 

background image

19

 Podsumowanie

W ten sposób doszliśmy do końca naszej przygody z mikroelektroniką. Myślę, że 
teraz już to, co znajduje się wewnątrz czarnych kosteczek umieszczonych w kompu-
terze nie stanowi dla ciebie tajemnicy. Ba, potrafiłbyś nawet takie zaprojektować.
Poznałeś już cały proces — od pomysłu, przez projekt, aż do wykonania. Zresztą 
swoją wiedzę i umiejętności potwierdzisz, wykonując samodzielnie projekt proste-
go układu scalonego. Nie chciałbym, abyś pomyślał, że większe i skomplikowane 
układy projektuje się zupełnie inaczej. Zasady są podobne, różnice tkwią natomiast 
w szczegółach — masz znacznie więcej elementów, znacznie więcej połączeń i wy-
nikających  z tego  problemów  do  rozwiązania.  Myślę  jednak,  że  mając  przedsta-
wione tu podstawy, jeśli tylko będziesz chciał, bez większych trudności uzupełnisz 
swoją wiedzę w tej kwestii, do czego oczywiście cię zachęcam. 

W module tym poznałeś szczegóły związane z mikroelektroniką. Przede wszyst-
kim dowiedziałeś się o dwóch bardzo ważnych zagadnieniach, a mianowicie o mi-
niaturyzacji oraz o sposobach projektowania układów scalonych. Mam nadzieję, 
że udało mi się pokazać również związki istniejące między mikroelektroniką a in-
formatyka i to, że jedna dziedzina bez drugiej absolutnie nie może funkcjonować. 
Co więcej, każdy dobry informatyk powinien posiadać wiedzę z dziedziny mikro-
elektroniki. 

background image

20

 Bibliografia

1.  Beck R., 1991: Technologia krzemowa, PWN, Warszawa.
2.  Europractice. Witryna internetowa. 

http://www.europractice.com/

, stan z 26 wrze-

śnia 2006 r.

3.  IBM. Witryna internetowa

http://www.ibm.com

, stan z 26 września 2006 r.

4.  Intel. Witryna internetowa. 

http://www.intel.com

, stan z 26 września 2006 r.

5.  International Technology Roadmap for Semiconductors. Witryna internetowa. 

http://pu b l i c . i t

, stan z 26 września 2006 r.

6.  Kalisz  J.,  1998:  Podstawy  elektroniki  cyfrowej,  Wydawnictwa  Komunikacji 

i Łączności, Warszawa.

7.  Marciniak W., 1984: Przyrządy półprzewodnikowe i układy scalone, Wydaw-

nictwa Naukowo-Techniczne, Warszawa.

8.  Marciniak W., 1991: Przyrządy półprzewodnikowe MOS, Wydawnictwa Na-

ukowo-Techniczne, Warszawa.

9. Massucci J., 2001: Projekt Milenium, Wydawnictwo Amber sp. z o. o., Warszawa.

10.  Napieralska  M.,  Jabłoński  G.,  2002:  Podstawy  mikroelektroniki,  Wydawnic-

twa PŁ, Łódź.

11.  University  of  California,  Berkeley.  Witryna  internetowa. 

http://www-device.

eecs.berkeley.edu/

, stan z 26 września 2006 r.


Document Outline