Rozwój PC od biurowego do multimedialnego, Studia, Informatyka, Informatyka, Informatyka


Rozwój PC od biurowego do multimedialnego

Spis Treści:
1) Wstęp
2) Spis streści
3) Procesory 8080-8086, 386, 486. Grafika VGA.
4) Karty muzyczne SB 16 oraz GUS
5) Procesor 486 DX 2 oraz szyna danych PCI.
6) 16 bitowy dźwięk, 16 bitowa paleta kolorów
7) Napędy CD-ROM
8) Windows 95 oraz Direct X
9) Direct X
10) Akceleratory i karty grafiki z akceleracją 3D.
11) nVidia Riva 128
12) Pentium MMX oraz AMD K5
13) Pentium II oraz Celeron
14) 3Dfx Voodoo 2
15) nVidia Riva TnT
16) DVD
17) AMD K6-2, PIII
18) Sound Blaster Live, AMD Athlon
19) 3Dfx Voodoo 3
20) Riva TnT 2
21) NVidia GeForce 256
22) Celeron Coppermine, Duron, PIII Tualatin
23) Pentium 4, Athlon XP



















Na początku powstania komputerów PC chyba nikt nie przypuszczał, że za około 20 lat komputery te wyewoulują z maszyn stworzonych na potrzeby zadań biurowych po sprzęt użytku codziennego potrafiącego zastąpić telewizor,magnetowid,zestaw kina domowego czy też sprowadzając możliwości całego salonu gier do domowego PC.
Złożył się na to nie tylko rozwój procesorów ale i co bardzo ważne kart graficznych w tym akceleratorów grafiki 3D oraz kart muzycznych zgodnych ze standardem Direct Sound które odciążają procesor od obliczeń związanych z przetwarzaniem dzwięku tak samo jak akcelerator graficzny odciąża procesor od obliczeń związanych z renderowaniem grafiki.
Z biegiem czasu rynek sprzętu PC który w przeszłości był stworzony do biura został napędzany przez bardzo dynamiczny rozwój sprzetu dla graczy. Gdyby nie szybki rozwój gier komputerowych stawiających coraz to większe wymagania dla sprzetu nie wiadomo czy PC rozwinoł by się tak szybko jak to się stało oraz czy rozwijał by się w kierunku komputera dla wszystkich czy też wydajnej maszyny do arkuszy kalkulacyjnych i innych zadań biurowych.
Dlatego też skupiłem się głównie na tym co powodowało najszybszy wzrost wydajności ogólnej komputera czyli rozwój sprzetu na masowy rynek gier komputerowych.

Kamienie milowe w ewolucji PC.

Kwiecień 1974: powstaje 8 bitowy procesor 8080 (2 Mhz). Sklada sie z 6 tys tranzystorów.
Jest to początek rozwoju procesorów z serji 8086

Procesory te jednak nie dawały możliwości generowania zadowalającej jakości grafiki.
Były tak powolne że praktycznie całe ich zastosowanie ograniczało się do zastosowań biurowych.

1978 - W czerwcu Intel przedstawia pierwszy 16-bitowy procesor - 8086 (4,77 Mhz). Skladal sie z 29 tys. tranzystorów.

1985 - W pazdzierniku Intel wypuszcza na rynek procesor 386 DX. Dostępne są wersje SX oraz DX różniące się posiadaniem (DX) lub też brakiem (SX) koprocesora. To właśnie rozwój koprocesora będzie jednym z głównych wydarzeń które w przyszłości będą napędzać rozwój technologji procesorów PC.

1989 - W raz w pojawieniem się na rynku procesorów 486 zaczyna się powolny rozwój kart grafiki które teraz nie ograniczają się do wyświetlania tekstu w kilku kolorach lecz potrafią generować jak na owe czasy oszałamiające efekty wizulane. W przypadku kart VGA było to 256 kolorów przy rozdzielczości 320x240.

Początek lat 90'tych - Zaczynają pojawiać się pierwsze gry wykorzystujące pełne możliwości kart graficznych VGA.
Powoli do standardów PC zaczynają wchodzić karty muzyczne. Jedną z najbardziej popularnych staje się Sound Blaster Pro firmy Creative Labs potrafiący generować dzwięk stereo. Coraz więcej gier prócz obsługi PC Speakera zawiera również obsługe kart muzycznych. W późniejszym czasie wychodzi na rynek Sound Blaster 16 w pełni obsługujący 16 bitowy dzwięk.
Na rynku konkuręcji pojawia się również Gravis Ultrasound jednak jego brak sprzętowej kompatybilnosci z SoundBlastrem powoduje brak obsługi w wielu aplikacjach. Wraz z pojawieniem się Windows pojawiają się również problemy w sterownikach do GUS'a przez co firma to w połowie lat 90'tych ogłasza zaprzestanie produkcji kart muzycznych GUS.

1992 - W marcu powstaje procesor 486 DX2. Jest to udoskonalona wersja 486 DX posiadająca mnożnik częstotliwości magistrali 2x. Intelowi przybywa konkurencji w postaci firm AMD i CYRIX.
Na rynek zaczynają wchodzić karty svga potrafiące wyświetlić 256kolorów przy rozdzielczości 640x480 jednak większość gier nadal korzysta jedynie z możliwości kart VGA. Sprzet jest nadal za mało wydajny aby pozwolić na pełne korzystanie z SVGA przy zachowaniu płynności grafiki. Jednym z waznych ograniczeń jest tutaj magistrala ISA którą w przyszłości zastąpi PCI a potem AGP.

1995 - Standardem są już komputery z magistralą PCI znacznie wydajniejszą od przestarzałej 16 bitowej ISA.
Procesory z serji 486 zostały wyparte przez Pentium. Rozpoczyna się dynamiczny rozwój kart graficznych. Pojawiają się pierwsze akceleratory grafiki 3D takie jak S3 Virge posiadające 2MB pamięci oraz potrafiące korzystać z 16 bitowej palety kolorów podczas renderowania grafiki. Gry stają się coraz bardziej dopracowane graficznie. Standardem stał się 16 bitowy dzwięk. Na rynku kart muzycznych nadal przoduje Sound Blaster ale tym razem jest to model SB 16 z pełną obsługa 16 bitowego dzwięku.

Na ryneku PC standardem stają się napędy CD-ROM.
W przesłości gdy sprzęt był na tyle mało wydajny aby ograniczać możliwości pisania gier oraz oprogramowania wystarczało kilka do kilkunastu MB aby przechować na nośniku dany program czy gre. Wraz z rozwojem sprzętu zwiększała się również objętość zajmowanego softwaru. Stosowano cora więcej tekstur, coraz więcej dzwięków o coraz lepszej jakości.
Dyskietki 3,5" pozwalały zapisać tylko 1.44MB. Kiedy nastała potrzeba stosowania nośników pozwalających przenosić setki megabajtów danych rewolucją okazał się zapis na płytach CD.
Pozwalały one na zapisanie do 650MB (później 700MB) co było wtedy wielkością ogromną. Większość dysków twardych w tym czasie dysponowała niewiele większymi pojemnościami.
W dodatku dane zapisane na CD można było odtwarzać wielekrotnie szybciej niż na dyskietce.
Ponadto dane na dyskietach często ulegały uszkodzenią z powodu delikatnej budowy samej dyskietki. Dane na CD były znacznie odporniejsze na uszkodzenia. CD miało jednak jedną dużą wade... brak możliwości zapisu bez posiadana bardzo drogich nagrywarek. Przez tą wade napędy CD chodz wyparły dyskietki w przenoszeniu gier i programów to nie wyparły ich kompletnie z obudowy pecetów przez co są one często obecne w najnowszych komputerach do dzisiaj.
Zasada działania CD wydaje się mało skomplikowana. Płyta CD podzielona jest na spiralne ścieżki podzielone na sektory. Każdy z nich zawiera 2 KB rzeczywistych informacji. Promień lasera dociera do aluminiowej powierzchni nośnika przenikając przez poilwęglanową powłokę. Spiralna powierzchnia zawiera zagłębienia (pits). Kiedy promień natrafi na ten obszar ciąg informacji zostaje odczytany przez skomplikowany układ elektroniczny i przekształcony w standardowy zbiór danych. Istnieją na płycie także obszary bez zagłębień (lands). Gdy laser na nie natrafi promienie zostaną odbite do fototranzystora.

Wraz z pojawieniem się Windows 95 wkracza DirectX.
Jeszcze niedawno nikt nie przypuszczał, że Windows stanie się dominującą platformą dla gier działających na komputerach osobistych. I to nie tylko tych prostych z grafiką 2D, ale także bardzo wymagających z rozbudowaną grafiką 3D. DOS jako platforma dla aplikacji multimedialnych przestał praktycznie istnieć. Dziś chyba na palcach jednej ręki można policzyć gry, które pracują w tym systemie. Dlaczego tak się stało? Bezpośrednia komunikacja aplikacji dosowych ze sprzętem oznacza, że twórcy gier mają do dyspozycji wydajne i szybkie metody działania. Niestety, DOS, jako znakowy system operacyjny, nie oferuje żadnego API (Application Programming Interface) wspomagającego programistów gier. Jeśli ktoś pisze program w tym systemie, sam musi zatroszczyć się o obsługę danego urządzenia, np. karty graficznej czy karty dźwiękowej. Dla każdego z nich trzeba napisać odpowiedni program obsługi. Tę niedogodność postanowił zniwelować Microsoft. Wraz z ekspansją systemu Windows 95 firma z Redmond wprowadziła zestaw bibliotek multimedialnych pod wspólną nazwą DirectX. Składa się on z następujących komponentów:

DirectDraw - podstawowy moduł grafiki 2D,
Direct3D - moduł grafiki 3D,
DirectSound - moduł obsługi dźwięku,
DirectMusic - obsługa muzyki (dopiero od wersji 6.0),
DirectInput - obsługa urządzeń wejłcia,
DirectPlay - obsługa sieci.

Biblioteka DirecX oferuje zestaw API ułatwiający programowanie gier i aplikacji multimedialnych w systemie Windows. Jednak przy wielu jej zaletach, ma jedną, zasadniczą wadę. Pod względem szybkości działania aplikacja napisana przy użyciu DirectX była znacznie mniej wydajna niż ta sama aplikacja pisana pod DOS'em dla konkretnego urządzenia. Producent sam jednak ostrzega, iż nie poleca renderingu software'owego, a jedynie z użyciem specjalizowanych akceleratorów 3D, np. 3Dfx Voodoo 1 lub 2, RIVA 128/TNT, S3 Savage itp. Stało się jednak tak, że łatwość programowania aplikacji wzięła górę nad szybkością działania.

Obecnie, pisząc aplikacje mulitmedialne, jesteśmy skazani na używanie biblioteki Microsoftu. Tym samym niemożliwe stało się bezpośrednie odwoływanie do sprzętu, np. do rejestrów karty graficznej. Niewątpliwą zaletą DirectX jest natomiast wykorzystanie podczas renderingu wszystkich możliwości zainstalowanego sprzętu. Możemy określić, czy poszczególne funkcje pisanego programu mają być realizowane sprzętowo czy programowo. Jeśli bowiem np. karta graficzna oferuje sprzętowe wspomaganie renderingu, np: Z-Buffer, cieniowanie, teksturowanie, to DirectX korzysta z tych wszystkich możliwości. Odpowiedzialny jest za to mechanizm HAL (Hardware Abstraction Layer). HAL jest interfejsem dostarczonym przez producenta urządzenia graficznego (na przykład w postaci biblioteki DLL), używanym przez DirectX do bezpośredniej współpracy z kartą graficzną. Aplikacja korzystająca z DirectX nigdy nie komunikuje się bezpośrednio z HAL. Jeśli jakaś funkcja graficzna nie jest wsparta sprzętowo, do gry - dosłownie i w przenośni - wchodzi mechanizm HEL (Hardware Emulation Layer). Następuje wtedy próba wykonania danej funkcji software'owo.

Wraz z pojawieniem się pierwszego akceleratora grafiki 3D na rynek domowych PC zaczyna się ostra konkurencja między firmami S3 oraz Martrox który w odpowiedzi na 3S Virge wypuszcza karte nazwaną Matrox Mystique posiadającą 2MB i bedącą znacznie wydajniejszą od S3 Virge. Niestety wadą Mystique jest brak niektórych funkcji renderowania grafiki 3D w tym najbardziej popularnego rozmwyania tekstur.

Jednak to dopiero wejście na rynek firmy 3DFX stało się rewolucją w świecie PC. Wraz z nadejściem procesorów Pentium MMX posiadających dodatkowe instrukcje dla koprocesora platforma PC stała się bardzo wydajną dla gier i multimediów. Gry korzystające z mocy kart 3DFX takich jak Diamond Monster 3D oraz instrukcji MMX mogły zawierać coraz więcej szczegółów, być bardziej realistyczne oraz zapewniały niesamowitą płynność (ok. 30fps) jak na owe czasy. Diamond Monster 3D jest tylko i wyłącznie akceleratorem, dlatego wymaga posiadania dowolnej karty graficznej zgodnej ze standardem VGA. Monster 3D instaluje się w jednym ze złącz PCI oraz dodatkowo podłącza się go do karty VGA. Analogowy sygnał z karty graficznej doprowadzany jest zewnętrznym kablem do Diamonda, a następnie do akceleratora podłączany jest także monitor.
Monster 3D bazuje na bardzo wydajnym jak na owe czasy chipsecie Voodoo i wykorzystuje 4 MB pamięci (2MB na bufor ramki i 2MB na tekstury). Akcelerator współpracował z systemami operacyjnymi Ms-DOS, Windows 3.1, Windows 95. Standardy z którymi jest zgodna karta to Direct3D, RealityLab 2.0, Intel 3DR oraz Criterion Renderware. Po jakimś czasie od wydanie karty pojawiły się sterowniki dodające obsługe OpenGL - opracowanego przez Silicon Graphics standardu 3D używanego w zastosowaniach CAD i CAM oraz grach.. Bezpośredni dostęp do zawansowanych możliwości karty można uzyskać wykorzystując specyfikacje API Glide. Sam chipset 3Dfx charakteryzuje się dużymi możliwościami. Do tych podstawowych można zaliczyć teksturowanie z korekcją perspektywy, bilinearne filtrowanie, MIP mapping oraz cieniowanie Gouraud wraz z modulacją tekstur. Wszystkie operacje przeprowadzane są na 24 bitach. Dodatkowo urządzenie posiada takie efekty jak mgła, przezroczystość, morphing.
Wszystko to pozwoliło wyeliminować w grach tak rzucające się w oczy wielkie piksele które teraz mogły byś rozmywane. Dało to też możłiwość tworzenia realistycznych źródeł światła które w znaczący sposób podniosły poprzeczke w jakości grafiki 3D.
Efekt ten nazywał się "świecenie soczewek", który imituje odbicia promieni słonecznych wpadających do obiektywu pod określonym kątem (kątem widzenia obserwatora). W zależności od programu obiektyw może dzięki temu skutecznie wykorzystywać np. szybę ochronną lub inną osłonę ograniczającą działanie promieni świetlnych. Efekt Lens Flaring jest szczególnie przydatny w sytuacjach, w których obserwator musi często patrzeć w górę, a więc w kierunku słońca (zastosowano go na przykład w grze Incoming).

Nvidia była wtedy małą firmą która swój debiut zaczeła kartą oparta na chipie Riva 128 posiadającej 4MB pamięci która to miała być odpowiedzią na Voodoo z 3Dfx. Riva 128 była wydajnościowo porównywalna z Voodoo. Miała jednak ta zalete że była kartą 2D oraz 3D a nie tylko dodatkową kartą 3D jak Voodoo. Jednak słaba promocja karty nie pozwoliła wyprzeć z rynku kart 3dfx'a. Rozpoczeła się jednak mocna konkuręcja dzięki której dalszy rozwój kart graficznych ruszył w bardzo szybkim tempie.

Pentium MMX:
Nowością w procesorach Pentium o oznaczeniu P55C było zwiększenie rozmiaru pamięci L1 cache do 32 KB i wprowadzenie rozszerzenia zestawu instrukcji o zestaw MMX. Pamięć L2 cache wciąż była umieszczona na płycie głównej. Procesory te zawierały 4.5 miliona tranzystorów. Najlepszymi ówczesnymi chipsetami były 430HX i 430TX Intela, w przypadku tego drugiego pamięć L2 cache mogła zaadresować jedynie 64 MB.

Marzec 1996: AMD K5

AMD wypuściło K5 chcąc konkurować z klasycznym Pentium Intela. Procesor ten był dostępny z zegarami pomiędzy 75 a 166 MHz. Wytwarzany był w procesie 0.35 mikrona, posiadał 32 KB pamięci L1 cache, a pamięć L2 cache była zintegrowana na płycie głównej. Maksymalne rozpraszanie termiczne wynosiło od 11.6 do 16 W. AMD musiało znieść zastosowanie chipsetów Intela (430VX, 430HX, 430TX) na platformie Socket5, jako że nie istniały żadne alternatywy.

- Od maja 1997 Pentium II. Procesor Pentium II platformy Slot-1, posiadający 9 milionów tranzystorów, był produkowany z dwoma różnymi rdzeniami: Klamath i Deschutes. Różniły się one obudowami i zegarem szyny FSB - 66 oraz 100 MHz. Najszybszy ówczesny
procesor stał się swego rodzaju grzejnikiem: 250-nm konstrukcja rdzenia Klamath skutkowała rozpraszaniem mocy 43 W.

- Od kwietnia 1998 Intel Celeron 233 do 533Mhz. Ten procesor (z rdzeniami Covington i Mendocino) platformy Slot-1/Socket370 był bardzo popularny wśród fanów przetaktowywania ze względu na możliwość zastosowania z chipsetem 440BX (zegar FSB od 66 do 100 MHz). Oto ciekawostka: Intel produkował Celerona 300A w technologii 0.18 µm, cechującego się rozpraszaniem mocy zaledwie 19 W. Covington nie posiadał pamięci L2 cache i pracował z zegarami 266 i 300 MHz. Intel wkrótce zaprzestał produkcji tego dziwnego procesora.

- 3Dfx Voodoo II: Kolejna rewolucja w grafice w 3D. Karty oparte na V2 była produkowane w wersjach 8 oraz 12MB. Nadal był to dodatkowy akcelerator na słaczu PCI tak samo jak pierwsze Voodoo. Dodano jednak multiteksturing który pozwalał na nakładanie 2 tekstur w jednym takcie zegara. Działo się tak dzięki dwum jednostką teksturującym (TMU) które w praktyce przyspieszyły wydajność w takich graj jak Quake o ponad 30% w stosunku do kart bez multiteksturowania. Dodano również ulepszony algorytm rozmywania tekstur nazwany filtrowaniem trilinarnym czyli trój-liniowym. Filtrowanie tekstur to inaczej łagodzenie efektów schodkowych występujących przy nakładaniu tekstur. W tym celu z położonych obok siebie tekstur pobierane są każdorazowo cztery sąsiadujące teksele i dla każdej pary wyliczana jest nowa wartość barwy. Następnie oba wyniki są ponownie ze sobą porównywane - stąd określenie "dwuliniowe". Technika dwuliniowego filtrowania powoduje bardzo wyraźną poprawę jakości grafiki, ale użyta na zbyt dużą skalę może przyczynić się do rozmycia konturów i osłabienia ostrości obrazu. Mechanizm ten jest szczególnie przydatny dla tekstur, które znajdują się najbliżej obserwatora (a więc na pierwszym planie danego obrazu). Dalszy rozwój tej koncepcji prowadzi do techniki trójliniowego filtrowania. W tym przypadku wyniki uzyskane w procesie dwuliniowego filtrowania dwóch różnych tekstur są jeszcze raz ze sobą porównywane. Taka metoda ma większą złożoność obliczeniową, ale oferuje lepszą jakość wyświetlanego obrazu.

- Nvidia TnT: Odpowiedz Nvidi na wypuszczenie na rynek przed 3dfx'a kart Voodoo 2. TnT od Nvidi była kartą 2D/3D posiadającą 16MB pamięci. Była opartą na rewolucyjnym łaczu AGP oraz posiadała pełne wsparcie dla 32bitowego koloru oraz dużych tekstur przesyłanych w razie potrzeby przez port AGP z podwójną prędkością (512MB/s) do pamięci RAM komputera. Jednak nadal wadą kart Nvidi były problemy ze współpacą z niektórymi płytami głównymi opartymi przeważnie na AMD przez co znaczna część rynku została zdominowana przez 3dfx'a. Jednak był to poczatek końca tej firmy gdy z czasem braki kart (16bitowy kolor, PCI, tekstury maks. 256x256) zaczeły wychodzić na jaw. Coraz to nowsze gry stawiały coraz większe wymagania z którymi karty 3Dfx'a nie zawsze dobrze sobie radziły.

- Wchodzenie na rynek napędów DVD. Rozpoczeło to rewolucje w technologji odtwarzania filmów będąc bezpośrednią konkuręcją dla magnetowidu a nawet kin. Nośniki DVD pozwalają zmieścić do 17GB danych co pozwala na zapisanie filmu z jakościa nieporównywalnie lepszą do wszystkich innych sposobów odtwarzania. Ponadto umożliwia wybranie wersji językowej czy też bezpośredni przeskok do wybranych akcji z filmu oraz dołączać dodatkowe mini filmiki obrazujące proces powstawania filmu oraz wywiady z aktorami.
Prócz filmów możliwe było również nagrywanie danych na płytke DVD co jednak do dzisiaj nie odniosło sukcesu z powodu wysokiej ceny nośników DVD oraz bardzo wysokich kosztów ich nagrywania. W przyszłości jednak powinny one wyprzeć nosniki CD których pojemność jest nieporównywalnie mniejsza.
Oznaczenia prędkości napędów DVD różnią się od napędów CD-ROM. DVD pierwszej generacji odzczytywały dane z prędkością ok. 1350 KB/s (1x), zatem np. napęd 2x odczytuje dane z prędkośćia 2,7 MB/s. Obecne napędy pracują z prędkością do ok. 10x.
płyty te mogą pomieścić od 4,7 do 17 GB. Jest to spowodowane techniki dwuwarstwowej. Górna warstwa wykonama jest z półprzepuszczalnego materiału. W zależności z której warstwy mają być odczytane dane długość fali lasera jest zwiększana lub zmniejszana.
Należy wspomieć, że napędy DVD posiadają o wiele lepszą metodę korekcji błędów (RS-PC). W przypadku oglądania filmów w formacie DVD na PC nie wystarczy tylko czytnik DVD. Potrzebny jest jeszcze dekoder MPEG-2. Obecnie karty graficzne oferują dekododowanie DVD, jednak część tego procesu jest realizowana programowo dlatego do tego celu wymagany jest procesor od 300 MHz wzwyż.
Standardami zapisu danych na DVD są:

Video DVD- służy do zapisywania filmów w tym formacie. Pojemność od 4,7 do 17 GB (ok. ośmiu godzin video)
DVD-Audio- standard zapisu dźwięku. Oferuje zapisanie do sześciu torów dźwiękowych, dźwięku o częstotliwości próbkowania do 192 kHz i rozdzielczości do 24 bitów.
DVD-R- standard zapisu danych. Pojemność do 4,7 GB.
DVD-RAM- technologia pozwalająca na wilokrotny zapis płyt DVD. Pojemność do 5,2 GB.

- Maj 1998: K6-2 z 3DNow Następcą klasycznego K6 AMD został K6-2, rozbudowany o zestaw instrukcji 3DNow!. Dostarczały dodatkowej wydajności w kilku grach 3D dzięki specjalnie napisanym sterownikom. W porównaniu z K6, pamięć L1 cache została podwojona do 64 KB, a wolniejsza pamięć L2 cache pozostała na płycie. Liczba tranzystorów wynosiła wówczas 9.3 miliona, a AMD przeszło na proces 0.25-mikronowy.


- Od października 1999 Pentium III: Pentium III z rdzeniem Coppermine w wersji Socket370 było dostępne z zegarami pomiędzy 500 a 1133 MHz. Niektóre modele były produkowane jako warianty FC-PGA II.
"Rozszerzone Pentium II" w wersji Slot-1 było dostępne z zegarami pomiędzy 450 a 1000 MHz. PIII z rdzeniem Katmai wyposażono w 512 KB zewnętrznej pamięci L2 cache, natomiast rdzeń Coppermine posiada 256 KB tejże pamięci.

- Sound Blaster Live od Creative Labs. Wraz z pojawieniem sie nowej karty musycznej od Creativa pojawił się nowy standard dźwięku 3D nazwany EAX. Pozwalał on na stosowanie całej gamy efektów dźwiękowych w grach oraz podczas zwykłego słuchania muzyki.

- Sierpień 1999: AMD Athlon
Pierwszy Athlon K7 pojawił się w postaci rdzenia Pluto w wersji SlotA. Procesory te oferowały zegary pomiędzy 500 a 700 MHz. Wytwarzany w procesie 0.25 mikrona, układ zawierał ponad 22 miliony tranzystorów i mocno spychał w cień intelowskie procesory Pentium II i III. Wkrótce później AMD poszło krok naprzód wypuszczając mniejszy rdzeń Orion (K75), wytwarzany w procesie 0.18 µm. Dzięki temu możliwe stało się osiągnięcie częstotliwości do 1000 MHz. 512 KB pamięci L2 cache było umieszczonych na zewnątrz układu w module procesora.

- 3DFX Voodoo 3. Karty z procesorem Voodoo3 są ukoronowaniem długiego panowania firmy 3dfx na rynku, zawierają całą esencję poprzednich chipestów: multitexturowanie z Voodoo2, doskonałą jakość obrazu 2D z Banshee, oraz wyśmienitą wydajność kart Voodoo2SLI, stanowić mają sztandarowy produkt firmy 3dfx, wchodzącej na nową ścieżkę marketingu.
Zrezygnowano z produkcji kart w wersji add-on bedących osobnym akcleleratorem na karcie PCI (jak w V1 i V2) a zaczeto produkować karty tylko 2D/3D.
Zarówno szybkość, wydajność jak i jakość obrazu była rewelacyjna. Mimo niezłego dodatkowego filtrowania i poprawienia jakości obrazu w stosunku do Voodoo2, chipset Voodoo3 będzie ustępował jakością najnowszym kartom - choć bardzo nieznacznie.
Jednak wady technologiczne jakie 3Dfx kontynuował w Voodoo 3 pochodziły również z poprzednich chipsetów. Karta nadal nie obsługiwała 32 bitowego koloru oraz nie umiała wykorzystywać łącza AGP to przesyłania tekstur które były obraniczane do rozmiarów 256x256 pikseli. W późniejszym czasie spowodowało to dominacje rynku przez karty Nvidi takie jak TnT2.

-Riva TnT2: Chipset TNT przeszedł kurację odmładzającą, która w zasadzie poza lepszymi osiągami karty nie wniosła w konstrukcję chipa wiele nowego prócz zwiększonym taktowaniem a co za tym idzie większą wydajnością w stosunku do TnT1. Technologia wykonania w 0.25 microna pozwoliła producentowi na zwiększenie częstotliwości taktowania rdzenia i pamięci które występowały w 3 modelach: 125/150 MHz, 150/183, oraz najmocniejszy TnT2 Ultra 175/200MHz, dodatkowo różniące się ilością zainstalowanej pamięci: 16 lub 32 MB.
Karta ta wyparła z rynku Voodoo 2 dając Nvidi potężne zyski dzięki którym stała się niemal monopolistą na rynku kart graficznych do domowych PC. Firmy takie jak Matrix czy 3S nie nadążały z konkurowaniem Nvidi. Chipsety konkurencji były mało wydajne i często bardzo problematyczne w działaniu (np. 3S Savage).

-GeForce 256 ze sprzetowym T&L od Nvidi. GeForce jest następcą kart z serji Riva. Jak wszystkie karty Nvidi jest to karta 2D i 3D w jednym posiadająca złącze AGP o poczwórnej prędkości (kompatybilne z AGP 1x i 2x). Nowością i rewolucją w grafice było zastosowanie po raz pierwszy w karcie graficznej do domowego użytku technologji Transformation and Lighting (T&L). nVidia była wręcz przeczulona na punkcie zwracania uwagi, że GeForce nie jest akceleratorem 3D tylko procesorem graficznym 3D (GPU). Karta faktycznie może obliczać ramkę obiektów i rzucać światło. Gdy inne karty zajmowały się tylko nakładaniem tekstur na wcześniej przygotowane objekty przez procesor komputera to GF potrafił robić to wszystko samodzielnie odciążając przez to główny procesor w komputerze. Wymaga to jednak aby aplikacja wspomagała sprzętowe T&L co z początku było dużym problemem bo mało która gra wykorzystywała możliwości GeForce w tym zakresie. Dopiero około roku 2001 zaczeły się pojawiać w większej ilości gry pisane pod sprzętowe T&L a nowy DirectX 7 wymusił korzystanie z tej technologji.
Drugim rewolucynym pomysłem jaki zastosowała Nvidia była kompresja tekstur. Dzięki temu programiści mogli stosować tekstury o bardzo wysokiej rozdzielczości bez konieczności ładowania ich do pamięci ram poprzez łacze AGP. Zwiększyło to znacznie wydajność a technologia kompresji jest rozwijana do dzisiaj.

- Styczeń 2000: Celeron II
W tym okresie szyna FSB procesorów Celeron (z rdzeniem Coppermine) była taktowana zegarem 100 MHz. Liczba tranzystorów tych procesorów wynosiła 18.6 milionów, a rozpraszanie termiczne sięgało 33 W.

- Czerwiec 2000: Duron

Pojawiła się również "odchudzona" wersja Athlona platformy Socket462, posiadająca ćwiartkę jego pamięci L2 cache (64 KB) - znana również pod swoją nazwą kodową Spitfire. Oznaczało to, że pamięć L1 cache o wielkości 128 KB, była dwukrotnie większa od pamięci L2 cache. Liczba tranzystorów wynosiła 25 milionów, a układ wytwarzany był w procesie 0.18 mikrona. Zegar szyny FSB miał częstotliwość 100 MHz.

- Celeron/Pentium III/1000 do 1400: Od stycznia 2000 do lipca 2001

Procesory z rdzeniem Tualatin dostępne były w trzech podstawowych wersjach: Celeron III z 256 KB pamięci L2 cache i 100-MHz szyną FSB, Pentium III z 256 KB pamięci L2 cache i 133-MHz szyną FSB, posiadający sprzętowy pre-odczyt danych oraz bardzo wydajny Pentium III-S z 512 KB pamięci L2 cache.

- Listopad 2000: Pentium 4
W Pentium 4 wprowadzono interesującą zmianę: pamięć L1 cache instrukcji została zastąpiona pamięcią mikrooperacji, pozwalającą na zapamiętanie 12 000 &mikro;-opów. Pojawiły się cztery wersje tej rodziny: rdzeń Willamette z 256 KB pamięci L2 cache i 100-MHz szyną FSB - teraz znany jako Celeron 4 ze 128-KB pamięci L2 cache, Northwood z 512 KB pamięci L2 cache i 100-/133-MHz szyną FSB oraz Celeron ze 128 KB pamięci L2 cache i 100-MHz szyną FSB. Wprowadzenie Pentium 4 z obsługą hiperwątkowości - w postaci 3-GHz modelu - wyznaczyło nową górną granicę na skali rozpraszania termicznego - 81.8 W.

- Październik 2001: Athlon XP
Następcą Athlonów opartych na rdzeniu Thunderbird stał się rdzeń Palomino. Jednocześnie AMD wprowadziło swój system numerowania modeli, który nie odnosił się już bezpośrednio do częstotliwości zegara rdzenia. Produkcja wciąż odbywała się w procesie 0.18 mikrona, a liczba tranzystorów zatrzymała się na 37.5 miliona. Pojawiło się również parę nowych rzeczy. Zintegrowana została dioda termiczna, mimo iż z początku nie było płyt głównych zdolnych do jej obsługi. W rdzeniu Palomino producent zaimplementował również obsługę rozszerzeń SSE. Jeżeli chodzi natomiast o pamięć podręczną, nie było żadnych zmian.

- Czerwiec 2002: Athlon XP 1700+ do 2800
AMD zwiększa nacisk rdzeniem Thoroughbred: wersja Thoroughbred "B" składa się z ośmiu zamiast z siedmiu warstw poprzednika "A". Co więcej, pojawiły się różnice w zegarze szyny FSB. Modele XP 1700+ do XP 2400+ pracowały ze 133-MHz zegarem, natomiast modele XP 2600+ i XP 2800+ zdolne były do pracy ze 166-MHz zegarem szyny FSB. Ten ostatni wspomniany procesor nie dotarł do sklepów, choć egzemplarze udostępniono prasie do testów.

Pozdsumowanie

Szybki postęp w dziedzinie informatyki poszerzył możliwości przeciętnego komputera PC na tyle aby stał się on sprzętem codziennego użytko o możliwościach nieporównywanie szerokich w stosunku do sprzetów AGD takich jak wideo które stworzone jest w jednym tylko celu (zapis/odczyt video i audio) lub radia które potrafi jedynie odgrywać dzwięk ze stacji radiowych. Komputer PC może obecnie być i radiem po wmontowaniu tunera telewizyjno-radiowego jak i telewizora przy podłaczeniu TV do karty graficznej z tv-out jak i wydajnej stacji roboczej lub serwera który kiedyś musiał mieć rozmiary dużej szafy obecnie wygląda tak samo jak każdy inny domowy PC z tą różnicą że może posiadać np. dwa wydajne procesory Xeon. Firma Microsoft lansuje PC jako sprzęt zarządzający innym sprzetem domowym. Lodówki z wbudowanym dostępem do internetu gdzie w razie braku jakiegoś produktu lodówka sama poprzez internet zamówi potrzebne artykóły oraz poprzez skanowanie kodów paskowych sprawdzi date przydatności... takie urządzenia już istnieją. Nie sa jednak w powrzechnym użyciu jednak dynamiczny rozwój mocy komputerów oraz sprzetu peryferyjnego z pewnością będzie napędzał wchodzenie PC do coraz to większej liczby urządzeń codziennego użytku a instniejące już rozwiązania techniczne poprzez wprowadzanie coraz to nowszych technologji będą tanieć i stawać się coraz bardziej dostępne dla nas wszystkich.



Wyszukiwarka