background image

 

I.

 

Metody badań strukturalnych 

1)

 

Budowa materii - -powtórka (poziomy struktury, model Bohra)  

Materia – składnik wszystkich obiektów we wszechświecie. 
Stany skupienia: ciało stałe, ciekłe, gazowe, plazma. 
 

 

 
Różne poziomy struktury: 
-Struktura żelaza 0,04nm 
- str. metaliczna miedzi 0,361nm 
- str. dyslokacyjna  stali austenitycznej 0,5 

µ

- s. ziarnowa żelaza 50

µ

- s. dwufazowa 20

µ

 
Poziomy struktury, które decydują o właściwościach materiałów: 
10

-1

  obiekt materialny 

10

-3

  mikrostruktura 

10

-4

  kryształ 

10

-8

  komórka elementarna 

10

-10

 atom 

10

-15

 neutron, proton, elektron 

10

-18

 kwark d, kwark u 

 
Co doprowadziło do powstania modelu Bohra: 
Max Planck –emisja promieniowania elektrycznego w ciele doskonale czarnym odbywa się w sposób ciągły lub dyskretnie –
>skwantowanie energii przynajmniej w odniesieniu do procesu emisji i substancji światła. 
 
1913 – N. Bohr – skwantowanie poz. Energetycznej atomu wodoru 
Bohr- wyjaśnił skwantowanie poziomów energet. 
 
Model budowy atomu Bohra
  
Bohr przyjął wprowadzony przez Ernesta Rutherforda model atomu, według tego modelu elektron krąży wokół jądra jako 
naładowany punkt materialny, przyciągany przez jądro siłami elektrostatycznymi. Przez analogię do ruchu planet wokół Słońca model 
ten nazwano "modelem planetarnym atomu". 
 
POSTULATY Bohra: 

1)   Orbitalny moment pędu elektronu jest skwantowany. Może on przybierać dyskretne wartości  

 

gdzie  n = 1,2,3...,  – stała Plancka podzielona przez 2π.  

background image

 

2)  Podczas zmiany orbity, której towarzyszy zmiana energii elektronu, atom emituje foton. Energia fotonu równa jest różnicy 

między energiami elektronu na tych orbitach  

 

gdzie  

E

2

 i E

1

 – energie elektronu, odpowiednio, końcowa i początkowa,  

h – stała Plancka,  

ν - częstotliwość fotonu.  

 

2)

 

Falowe właściwości materii (hipoteza de Broglie’a, doświadczenie Davisona i Germera, kwantowomechaniczny opis atomu)  

Louis de Broglie tworzy teorie fal materii w ramach koncepcji Bohra, uzyskuje naturalną interpretację: stany stabilne elektronów w 
modelu planetarnym Bohra odpowiadają elektronowym falom stojącym. 
Hipoteza de Broglie'a polegała na tym, aby każdej cząstce o różnym od zera pędzie przypisać falę, o określonej długości i 
częstotliwości. 

 

 
gdzie : 
λ − długość fali cząstki,  
h − stała Plancka,  
p − pęd cząstki.  

Doświadczenie Davissona i Germera (1927 r.)Dyfrakcja elektronów na podwójnej szczelinie. Davisson i Germer wykorzystali 
fakt, że dysponując wiązką elektronów o określonym pędzie, będą w stanie teoretycznie określić długość fali tych elektronów. Na tej 
podstawie (znając teoretycznie wyznaczoną długość fali) potrafili tak dobrać kryształ, aby można było zaobserwować zjawisko 
interferencji. W swoim doświadczeniu wykorzystali kryształy niklu. Zaobserwowany obraz interferencyjny, który uczeni 
wytłumaczyli dyfrakcją fal płaskich, stał się pierwszym dowodem na falową naturę cząstek. 

Na rysunku przedstawiono schemat aparatury pomiarowej wykorzystanej przez Davissona i Germera. 

 

 

Kwantowomechaniczny opis atomu 

Najnowszym modelem budowy atomu jest model kwantowo-mechaniczny-matematyczny. 
W  teorii  kwantowo-mechanicznej  za  pomocą  równań  matematycznych  opisuje  się  zachowanie  elektronu  będącego  w  ruchu  wokół 
jądra jako pewne funkcje i pozwala to określić, atom jako układ mniejszych cząstek elementarnych, w którym to układzie możemy 
wyróżnię dwie sfery: 
-sferę dodatnią naładowanego jądra i sferę elektronową w postaci chmury ujemnego ładunku. 
Trzy cząstki elementarne 
Jądro= p- proton + n- neutron = nukleony 
ē - elektron – chmura elektronowa 
ē -negaton  

background image

 

e+- pozyton 
 
Pierwiastek  chemiczny  to  substancja,  która  nie  może  być  podzielona  na  inne,  prostsze  substancje  poprzez  reakcje  chemiczne. 
Znanych  jest  ponad  100  pierwiastków,  sklasyfikowanych  w  układzie  okresowym.  Pierwiastkiem  nazywamy  zbiór  atomów  o  takiej 
samej liczbie protonów w jądrze.  
Liczba protonów zawartych w jądrze atomu danego pierwiastka nazywa się liczbą atomową i oznacza się dużą literą Z. 
Liczba  masowa  to  całkowita  liczba  protonów  i  neutronów  w  jednym  atomie  pierwiastka.  Liczba  masowa  pierwiastka  może  być 
różna, ponieważ liczba neutronów może się zmieniać. 

 

3)

 

Podstawy spektroskopii optycznej 

Spektroskopia,  dział  fizyki  atomowej  i  jądrowej  oraz  chemii  atomowej  badający  struktury  energetyczne  (budowę  i 

właściwości) cząsteczek, atomów, jąder atomowych i cząstek elementarnych (w historycznym znaczeniu nazwy) poprzez 
obserwację i analizę rozkładu energii (widm) promieniowania emitowanego, pochłanianego lub rozpraszanego przez dany 
obiekt fizyczny. 
 

Spektroskopia  dzieli  się  wg  rodzaju  badanego  promieniowania  na:  radiospektroskopię,  spektroskopię  mikrofalową, 

spektroskopię  optyczną  (z  podpodziałem  na  spektroskopię  promieniowania  podczerwonego,  spektroskopię  światła 
widzialnego  i  spektroskopię  promieniowania  ultrafioletowego),  spektroskopię  rentgenowską,  spektroskopię 
promieniowania  gamma,  spektroskopię  promieniowania  beta,  spektroskopię  promieniowania  alfa,  spektroskopię 
neutronową. 
 
Podział spektroskopii optycznej 
a) w bliskim i próżniowym nadfiolecie 100 - 300 nm 
b) w zakresie widzialnym 360 - 830 nm 
c) w bliskiej (2.5-15 µm), średniej, dalekiej podczerwieni 
12000-50 cm-1 
 
Ciało ogrzane do wysokiej temperatury, poddane wyładowaniu elektrycznemu lub naświetleniu promieniowaniem o 
odpowiedniej d ługości fali samorzutnie emituje promieniowanie elektromagnetyczne. Widmo spektroskopowe to 
zarejestrowany obraz promieniowania rozłożonego na poszczególne długości fal, częstotliwości lub energie. 
 

 

Jeżeli świecący gaz składa się z oddzielnych, nieoddziałujących ze sobą atomów, to jego widmo nazywamy atomowym 
lub liniowym. 

 

Jeżeli ciało jest gazem składającym się z wieloatomowych cząsteczek lub cieczą to jego widmo jest widmem pasmowym. 
Przepuszczając przez badane ciało promieniowanie o widmie ciągłym otrzymujemy widmo absorpcyjne, w którym 
obserwujemy ciemne linie odpowiadające długościom fal promieniowania pochłoniętego przez to ciało. 

 

 

4)

 

Odkrycie promieniowania rentgenowskiego 
 

Najważniejsi  badacze  promieni  rentgenowskich:  W.  Crookes,  J.  W.  Hittorf,  E.  Goldstein,  H.  Hertz,  P.  Lenard,  Hermann  von 

Helmholtz, Thomas Edison, Nikola Tesla, Charles Barkla, oraz Wilhelm Conrad Roentgen. 
 

Jedne  z  najwcześniejszych  badań  ->  William  Crookesa  oraz  Johanna  Wilhelma  Hittorfa.  Obserwowali  powstające  w  lampie 

próżniowej  promieniowanie,  które  pochodziło  z  ujemnej  elektrody.  Promienie  te  powodowały  świecenie  szkła  w  lampie.  W  1876 
roku  Eugen  Goldstein  nazwał  je  promieniowaniem  katodowym.  Nie  było  to  jednak  promieniowanie  rentgenowskie,  tylko  strumień 
elektronów o dużej energii.  

Następnie  W.  Crookes  badał  efekty  wyładowań  elektrycznych  w  gazach  szlachetnych  ->  jeżeli  umieści  w  pobliżu  lampy  kliszę 

fotograficzną,  to  ulega  ona  naświetleniu  i  pojawiają  się  na  niej  cienie  przedmiotów,  które  przesłaniały  lampę.  Głównym  źródłem 

background image

 

wspomnianego efektu było promieniowanie  nazwane później "X", powstające  w  wyniku gwałtownego  wyhamowania  elektronów – 
promieni katodowych. 
 

 1892r. H. Hertz rozpoczął eksperymenty, nad przenikaniem promieni katodowych przez cienkie warstwy metalu, np. aluminium, 

a jego student P. Lenard kontynuował te badania i opracował wersje lampy katodowej i analizował przenikanie promieni przez różne 
materiały. 
 

1887r  Nikola  Tesla  rozpoczął  badania  nad  tym  samym  zagadnieniem.  Eksperymentował  z  wysokimi  napięciami  i  lampami 

próżniowymi. Opublikował on wiele technicznych prac nad udoskonalonymi lampami z jedną elektrodą. Tesla potrafił wytworzyć na 
tyle silne promieniowanie katodowe ->jego negatywny wpływ na istoty żywe. W 1892 roku -> promienie katodowe mogą służyć do 
obserwacji wnętrza ciała człowieka i wykonał szereg fotografii. Nie opublikował tych wyników, wysyłał zdjęcia do W. Roentgena. 
 
Hermann von Helmholtz sformułował równania opisujące promieniowanie katodowe, z których wynikała możliwość ich dyspersji. 
 

1895r.  Wilhelm  Röntgen  rozpoczął  obserwacje  promieni  katodowych  podczas  eksperymentów  z  lampami  próżniowymi.  28 

grudnia 1895 roku opublikował on wyniki swoich badań w czasopiśmie Würzburgskiego Towarzystwa Fizyczno-Medycznego. Było 
to  pierwsze  publiczne  ogłoszenie  istnienia  promieni  rentgenowskich,  dla  których  Roentgen  zaproponował  nazwę  promieni  X, 
obowiązującą do chwili obecnej  w  większości  krajów (m.in.  w  krajach anglosaskich). Potem  wielu  naukowców zaczęło je określać 
jako promienie rentgena (nazwa obowiązująca m.in. w Polsce i w Niemczech). Za odkrycie promieni X Roentgen otrzymał pierwszą 
nagrodę Nobla w dziedzinie fizyki w 1901 roku. 

 

5)

 

Wiązania (liczby kwantowe,  orbitale, powstanie pasm energetycznych w ciele stałym, kwantowomechaniczny i klasyczny 
opis wi
ązań)  

Liczby kwantowe 

Nazwa liczby 

kwantowej 

Symbol 

Możliwe 

wartości 

Liczba możliwych 

wartości 

Wielkość 

kwantowa 

Znaczenie 

Główna 

1,2,3… 

nieograniczona 

Energia 

decyduje o 

wielkości 

orbitalu 

Poboczna 

0,1,2,…,(n-1) 

zależy od n 

(głównej liczby 

kwantowej) i 

wynosi: n 

Moment pędu 

informuje nas o 

kształcie 

orbitalu 

Magnetyczna 

m

l

 

Liczby 

całkowite od 

–L do L 

zależy od l 

(pobocznej liczby 

kwantowej) i 

wynosi (2l+1) 

rzut momentu 

pędu na 

wyróżniony 

kierunek 

decyduje o 

orientacji 

przestrzennej 

orbitalu 

Spinowa 

m

s

 

-1/2 lub 1/2 

rzut spinu na 

wyróżniony 

kierunek 

decyduje o 

orientacji 

przestrzennej 

spinu 

 

Orbitale  -  funkcją  falową  jednego  elektronu,  której  kwadrat  modułu  określa  gęstość  prawdopodobieństwa  napotkania  elektronu  w 
danym punkcie przestrzeni. 
 
Powstanie pasm energetycznych w ciele stałym – Pasma powstają, ponieważ:  
a) elektrony związane z pojedynczym atomem zajmują dyskretne poziomy energetyczne 
b)  w  sieci  krystalicznej  ciała  stałego  elektrony  poruszają  się  w  polu  elektrycznym  wytworzonym  przez  inne  atomy  w  rezultacie 
prowadzi to do rozszczepienia poziomów energetycznych i powstanie pasm energetycznych.  
Najważniejsza rolę odgrywają 2 pasma: 
 a) walencyjne – nie wzbudzone atomy elektronów walencyjnych (w dielektryku całkowicie zapełnione)  
b) najbliższe pasmo atomów wzbudź. tych elektronów nosi nazwę pasma przewodnictwa  
Przedział energii zabronionej między tymi pasmami stanowi przerwę energetyczną. Stopień zapełnienia pasma wal. I wart. przerwy 
energetycznej  stanowią  o  własnościach  ciał  stałych  (elektr.,  cieplnych,  optycznych,  magnetycznych)  Szerokość  pasm  zabronionych 

background image

 

jest  tego  samego  rzędu  co  szerokość  pasm  dozwolonych.  Wraz  ze  wzrostem  energii  szer.  pasm  dozwolonych  zwiększa  się,  a 
wzbronionych maleje. 
 
Kwantowomechaniczny opis wiązań – 

 

Atomy w cząsteczce zachowują swoja indywidualność. 

 

Wiązanie pomiędzy atomami powstaje wtedy, gdy odległość między nimi jest tak mała, że następuje przenikanie się ich 
powłok walencyjnych (warunek konieczny lecz nie wystarczający). 

 

Aby powstało wiązanie, na przenikających się orbitalach atomowych muszą znajdować się niesparowane elektrony.  

 

Spiny nakładających się chmur elektronowych muszą być skierowane antyrównolegle. 

 

Przenikające się chmury elektronowe są opisywane  nowymi funkcjami, tzw. orbitalami cząsteczkowymi (molekularnymi).  

 

Liczba wiązań kowalencyjnych, jakie może utworzyć atom, powinna być równa maksymalnej liczbie pojedynczo 
obsadzonych orbitali. 

 

Zaangażowane w wiązaniu elektrony pozostają zlokalizowane między atomami. 

 

Wiązania pojedyncze opisywane są orbitalem cząsteczkowym σ.  

 

Pary elektronowe tworzące wiązania wielokrotne opisywane są jednym orbitalem σ i jednym lub dwoma orbitalami π .   

 
Klasyczny opis wiązań  
1.  Wi
ązania  siłami  van  der  Waalsa  -  wzajemne  oddziaływania  elektrostatyczne  pomiędzy  dipolami  cząsteczkowymi,  pomiędzy 
cząsteczkami  pozbawionymi  momentów  dipolowych  lub  atomami  (tzw.  oddziaływania  dyspersyjne).  Przyczyną  wystąpienia 
oddziaływania  van  der  Waalsa  są  trwałe  oraz  wyindukowane  momenty  dipolowe  w  cząsteczkach  lub  -  w  przypadku  oddziaływań 
dyspersyjnych - chwilowe asymetrie rozkładu ładunku w cząsteczce lub atomie. Oddziaływania van der Waalsa są oddziaływaniami 
bliskiego zasięgu. 
 
2. Wiązania jonowe - Istotą tego wiązania jest elektrostatyczne oddziaływanie między jonami o różnoimiennych ładunkach. 
Wiązanie to powstaje najczęściej między metalem a niemetalem.  
Dążenie do oktetu – 8 elektronów na ostatniej powłoce. 
Elektroujemność mówi o tym, czy atom chętniej oddaje, czy przyłącza elektron. 
 

Elektroujemnośc wg. Millikana 

X = ½( l+E ) 

l – energia potrzebna do usunięcia elektronu 
E – powinowactwo do elektronu. 

Różnica elektroujemności 

x = |xa – xb| 

xa – elektroujemność pierwszego pierwiastka 
xb – elektroujemność drugiego pierwiastka 
 
3. Wiązania kowalencyjne – związane jest z „nagromadzeniem” ładunku pomiędzy atomami tworzącymi cząsteczkę lub ciało stałe. 
 
4. Wiązania metaliczne – Elektrony zostają „uwspólnione” w całym krysztale. Jony dodatnie tworzą sztywną sieć i są jakby 
zanużone w morzu ładunków ujemnych. 
 
6)

 

Przypomnienie  podstawowych  pojęć  z  krystalografii  (Komorka  elementarna,  kierunki  sieciowe,  płaszczyzny  sieciowe, 
oznaczenia)  

Komórka elementarna – równoległościan oparty na wektorach translacji prymitywnych.  

Odtwarzanie całej struktury można otrzymać przez powtórzenie różnych elementów, ale komórka elementarna jest najprostszym 
elementem, którego powtarzanie odtwarza sieć. 

Kierunki sieciowe – w celu określenia kierunku prostej sieciowej, należy poprowadzić prostą równoległą do prostej przechodzącej 
przez punkty sieciowe i przechodzącą przez początek układu współrzędnych, a następnie podać współrzędne dowolnego punktu, 
leżącego na tej prostej. 

Wartości uvw są zawsze sprowadzane do zbioru najmniejszych liczb całkowitych. Wyznaczane w opisany sposób wskaźniki 
nazywane są wskaźnikami Millera. 

Płaszczyzny sieciowe -  W celu określenia wskaźnika płaszczyzny, należy określić długość odcinków odciętych na osiach układów 
współrzędnych przez rozpatrywaną płaszczyznę oraz podać odwrotność tych odcinków. Następnie należy zredukować odwrotność 
długości odcinków do najmniejszych liczb całkowitych.  

Oznaczenia –  w ogólnym przypadku współrzędne położenia oznaczane są [uvw] natomiast rodziny kierunków sieciowych <uvw>. 
Współrzędne ujemne oznacza się przez dodanie nad nimi poziomych kresek. 

background image

 

7)

 

Właściwości, otrzymywanie i zastosowania promieniowania rentgenowskiego  

Promieniowanie rentgenowskie powstaje przy przejściach elektronów na wewnętrzne powłoki elektronowe atomu, jego długości 
zawarte są w przedziale 0,1 pm do ok. 50 nm, tj. między promieniowaniem gamma i ultrafioletowym. 
Zastosowanie: 
- medycyna 
- prześwietlają bagaże na lotniskach 
- pomagają w defektoskopii i budowaniu konstrukcji stalowych  
- każdy odbiornik telewizyjny emituje promienie X, które jednak nie przedostają się przez szybę odbiornika 
- używane są w fizyce jądrowej (mikroskopy elektronowe, cyklotrony, akcelatory) 
- wykorzystywane są w badaniach pierwiastkowego składu chemicznego substancji oraz struktur kryształów 
Własności promieniowania X: 
- są niewidzialne, ale wywołują fluorescencję 
- wywołują jonizację powietrza  
- wiele substancji fosforyzuje przy naświetlaniu promieniami X 
- emulsje fotograficzne są czułe na promienie X, powodujące zaczernienie kliszy 
- w próżni mają prędkość światła 
- rozchodzą się po liniach prostych, ich tor nie zakrzywia się w polu magnetycznym ani elektrycznym 
- padając na ciało naelektryzowane powodują, że ciało to traci ładunek, 

 

8)

 

Promieniowanie synchrotronowe  

 
W  miarę  wzrostu  energii  przyspieszonych  cząstek,  pole  magnetyczne  jest  zwiększone,  by  zachować  stały  promień  obiegu  cząstek. 

Elektrony  są  przyspieszane  na  kilku  etapach,  aby  móc  osiągnąć  końcową  energię  rzędu  gigaelektronowoltów  (GeV).  Elektrony 
znajdują  się  wewnątrz  pierścienia  z  próżnią  i  poruszają  się  po  zamkniętym  obwodzie,  przez  to  okrążając  pierścień  ogromną  liczbę 
razy. Zmiana kierunku jest formą przyspieszenia i stąd elektrony emitują promieniowanie o energii rzędu gigaelektronowoltów. Efekt 
relatywistyczny  sprawia,  że  promieniowanie  nie  przebiega  izotropowo,  lecz  uzyskuje  się  skierowany  do  przodu  stożek 
promieniowania.  To  sprawia,  że  promieniowanie  synchrotronowe  jest  jednym  z  najjaśniejszych  źródeł  promieniowania  X.  W 
promieniowaniu  synchrotronowym  powstają  fotony  o  szerokim  zakresie  energii,  od  kilku  do  kliku  tysięcy  eV.  Przyspieszenie  w 
geometrii  płaskiej  powoduje,  że  promieniowanie  jest  spolaryzowane  liniowo,  gdy  obserwowane  w  płaszczyźnie  orbitalnej  oraz 
spolaryzowane kołowo, gdy obserwowane przy niewielkim kącie do tej płaszczyzny.  

Innymi słowy: 
P.S.  -  promieniowanie  elektromagnetyczne,  wysyłane  przez  naładowane  cząstki  (na  ogół  elektrony),  przemieszczające  się  z 

relatywistycznymi  szybkościami  w  polu  magnetycznym.  Elektrony  przemieszczają  się  po  spirali  o  powiększającym  się  promieniu, 
emitując  promieniowanie  w  obszarze  wąskiego  stożka,  którego  oś  jest  równoległa  do  wektora  szybkości  chwilowej  Tak  samo  jak 
światło latarni morskiej, stożek ten raz na obrót przechodzi przez linię widzenia obserwatora, który ogląda krótkotrwałe błyski. Kiedy 
elektronów  jest  duża  ilość,  ich  błyski  zlewają  się  oraz  możemy  zaobserwować  ciągłe  promieniowanie,  którego  widmo  odbiega 
znacznie  od  typowego  widma  promieniowania  doskonale  czarnego  (definiowanego  krzywą  Planck'a).  Istotną  własnością  tego 
promieniowania  jest  jego  polaryzacja.  Częstotliwość  wysyłanego  promieniowania  uzależniona  jest  od  energii  elektronu  oraz 
natężenia  pola  magnetycznego.  Wypromieniowywanie  energii  przez  elektron  powiązane  jest  z  jej  pomniejszeniem  się,  dlatego 
częstotliwość  emitowanej  fali  pomniejsza  się,  natomiast  promień  spiralnego  toru  ulega  powiększeniu.  Ciągłość  promieniowania 
synchrotronowego w czasie potrzebuje występowania źródła relatywistycznych elektronów, które jest dostarczane cały czas nowych 
cząsteczek. 

 

ma intensywne widmo ciągłe, sięgające od podczerwieni do obszaru rentgenowskiego 

 

jest silnie skupione  

 

ma dokładną strukturę impulsową  

 

posiada dobrze znane i łatwo wyliczalne własności 

 

jest spolaryzowane liniowo i eliptycznie. 

 

mieszaniną promieniowania elektromagnetycznego o różnych długościach fali i o jedynych w swoim rodzaju własnościach 

 

bardzo intensywne promieniowanie 

 

do badań struktur elektronowych i geometrycznych atomów, z których składa się materia 

background image

 

 

 

9)

 

Wykorzystywanie elektronów do badania struktury  
 

 

Elektrony mają ładunek elektryczny i oddziaływają silnie z materią, wnikają bardzo płytko. 

 

Zjawisko ugięcia elektronów pozwala na badania strukturalne powierzchni oraz bardzo cienkich warstw. 

 

Dyfrakcja elektronów (ED) – obrazy  w   mikroskopie elektronowym;  metoda informuje o przemianach  fazowych i defektach 
struktury (stos. w metaloznawstwie). Dośw. C. J. Davissona i L. H. Germera Dwa warianty: 

o

 

D.e.  wysokiej  energii  (zast.  w  układach  wielowarstwowych)  HEED.  Dyfrakcja  zachodzi  w  różnych  cienkich 
warstwach a wynik pomiaru dotyczy układu jako całości. 

o

 

D.e.  D.  elektronów  odbitych  wysokiej  energii  (RHEED).W  metodzie  tej  elektrony  padają  na  badany  materiał 

pod małym katem (3 – 5)

°

 

Ultraszybka dyfrakcja elektronów (UED) – duża czułość  

 

Dyfrakcja elektronów niskiej energii (LEED) – umożliwia określenie topografii 

Strukturę  materiałów  krystalicznych  można  analizować  za  pomocą  mikroskopu  elektronowego  wykorzystując  metody 

dyfrakcyjne. Jedna z najważniejszych metod badań struktury krystalicznej jest oparta na wykorzystaniu efektu dyfrakcji elektronów 
na  płaszczyznach  atomowych  kryształu.  Wśród  kilku  sposobów  tworzenia  obrazu  dyfrakcyjnego,  najczęściej  wykorzystywana  jest 
dyfrakcja  punktowa.  Utworzenie  punktu  dyfrakcyjnego  jest  wynikiem  rozproszenia  elektronów  na  atomach  znajdujących  się  w 
węzłach  sieci  kryształu.  Elektrony  przyśpieszone  wysokim  napięciem,  np.  200  kV,  posiadają  jednakową  energię,  (200  keV)  co 
oznacza, że wiązka przyśpieszonych elektronów ma ściśle określoną długość fali (promieniowanie monochromatyczne). Tor takiego 
elektronu,  który  przelatuje  w  pobliżu  jądra  atomu,  ulega  zakrzywieniu  pod  wpływem  oddziaływania  elektrostatycznego  między 
dodatnim ładunkiem jądra a ujemnym ładunkiem elektronu. Kierunek ruchu elektronu zmienia się tym silniej im bliżej jądra przeleci 
elektron.  Mówimy  wtedy  o  rozproszeniu  sprężystym,  w  którym  energia  elektronu  praktycznie  nie  ulega  zmianie  i  porusza  się  on  z 
taką samą prędkością jak wcześniej. Rozproszenie elektronów od atomów uporządkowanych w sieci krystalicznej, powoduje, zatem 
powstanie  fali  spójnego  promieniowania  rozproszonego  w  różnych  kierunkach  od  centrów  rozpraszania,  którymi  są  poszczególne 
atomy  w  sieci  krystalicznej.  W  szczególnych  warunkach  wiązka  rozproszona  może  ulec  wzmocnieniu  powodując  powstanie 
punktowych refleksów  na ekranie  mikroskopu. Punkty dyfrakcyjne powstają 

w określonej odległości od środka ekranu, zależnej od 

długości fali promieniowania, rodzaju sieci i odległości między płaszczyznami atomowymi.

 

10)

 

Wykorzystywanie neutronów do badania struktury  

 

Neutrony nie posiadają ładunku elektrycznego i oddziałują tylko z jądrami (reakcje jądrowe). Nie powodują jonizacji 

 

Trudno je rejestrować 

 

Najsilniejsze neutrony o niższych energiach. 

 

Trudno je wytworzyć 

 

Zalety dyfrakcji neutronów:  

 

Dają informacje o rozmieszczeniu lekkich elektronów (H, C -> substancje organiczne) w strukturach zawierających 

pierwiastki cięższe (dod. info z porównania wyników dla różnych izotopów [dla NaH i NaD]) 

 

umożliwiają wyznaczenie struktur magnetycznych  

 

dają informacje o rozmieszczeniu pierwiastków o podobnym Z nierozróżnialnych za pomocą pr. X 

 

dokładniejsza niż pr. X czy e- informacje o położeniu i drganiach termicznych atomów 

 

Neutronografia (ND) - C.G. Shull. Stosuje się przy badaniach pod wysokim ciśnieniem oraz przy wyznaczaniu struktur 
magnetycznych. Dyfraktometry neutronów, ze względu na wymagane natężenia wiązek neutronów, instalowane są przy 
reaktorach atomowych. 

Skonstruowanie reaktorów jądrowych wytwarzających wiązki neutronów o dużym natężeniu  pozwoliło na ich wykorzystanie 

do  badań  struktury  krystalicznej.    Większość  wytwarzanych  w  reaktorach    neutronów  to  tzw.  neutrony  termiczne,  o  energii 

background image

 

kinetycznej  odpowiadającej  temperaturze  T=400K    Odpowiadająca  im  długość  fali  wynosi    kilka  Å.    Precyzyjne 
wyselekcjonowanie  neutronów  o    dobrze  określonej  energii  odbywa  się  za  pomocą  monochromatora  krystalicznego,  którego 
działanie    tak  jest  analogiczne  do  działania  siatki  dyfrakcyjnej  wobec  promieniowania  widzialnego.    Otrzymane  w  ten  sposób 
monochromatyczne neutrony wykorzystuje się w neutronowej metodzie Debey’a -Sherrera lub w metodzie obracanego kryształu.  
Wiązkę  neutronów  stosuje  się  przede  wszystkim  do  badania  uporządkowania  magnetycznego,    badania  przejść  fazowych  
( porządek- nieporządek) oraz  położeń atomów wodoru w ciałach stałych, cząsteczkach i układach biologicznych.  

 

11)

 

Oddziaływanie  promieniowania  elektromagnetycznego  z  materią  (zjawisko  fotoelektryczne,  zjawisko  Thomsona, 

zjawisko Comptona, kreacja i anihilacja par)  

Zjawisko fotoelektryczne 
 

Zjawisko fotoelektryczne (zewnętrzne) polega na wybijaniu elektronów z powierzchni metalu przez padającą wiązkę światła 

o odpowiedniej częstości (nie zależy od natężenia światła, gdyż natężenie zwiększa tylko ilość emitowanych fotonów). 

 

Ilość energii E zawarta w fotonie związana jest z jego częstotliwością następującą zależnością  

E = hν,  gdzie: h – stała Plancka, ν - częstotliwość 

 
 

Jeden kwant światła (foton), zupełnie niezależnie od pozostałych, przekazuje całą swoją energię elektronowi. Gdy elektron 

emitowany jest z powierzchni metalu, wtedy jego energia kinetyczna wynosi:  

E

max

 = hν – P 

 
gdzie: P = hν

0,

 jest tzw. pracą wyjścia – charakterystyczną dla metalu minimalną 

energią, która pozwala elektronowi opuścić jego powierzchnię, a ν

0

 – częstotliwością, poniżej której nie ma emisji elektronów. 

 
 

W efekcie fotoelektrycznym wewnętrznym energia fotonu też jest całkowicie pochłaniana przez elektron, ale elektron nie jest 

uwalniany,  jak  to  ma  miejsce  w  zjawisku  fotoelektrycznym  zewnętrznym,  przenosi  się  do  pasma  przewodnictwa  zmieniając  tym 
samym własności elektryczne materiału (Fotoprzewodnictwo). Zjawisko to zachodzi tylko wówczas, gdy energia fotonu jest większa, 
niż wynosi szerokość pasma wzbronionego (odległość energetyczna między pasmem walencyjnym a pasmem przewodnictwa). 
 
Zjawisko Comptona 
 
 

Zjawisko  Comptona  polega  na  zmianie  długości  fali  promieniowania  rentgenowskiego  podczas  rozpraszania  promieni 

rentgenowskich na cząstkach naładowanych. 
 

 

 
 

W swoich doświadczeniach Compton stosował wiązkę promieniowania rentgenowskiego o ściśle określonej długości fali λ

1

 i 

kierował  ją  na  grafitową  tarczę.  Dla  różnych  kątów  rozproszenia  mierzył  on  natężenie  rozproszonego  promieniowania 
rentgenowskiego w funkcji długości fali. 

 
 
 
 
 

Rys. Natężenie wiązki rozproszonej pod kątem w zależności od długości fali (λ = 
λ

1

, λ'= λ

2

). 

 
 

background image

 

 
 
 
 

Łatwo  zauważyć,  że  chociaż  wiązka  padająca  zawiera  w  zasadzie  jedną  długość  fali  λ

1

,  rozkład  natężenia  rozproszonego 

promieniowania rentgenowskiego ma maksima dla dwu długości fali. Jedna długość fali równa jest długości fali padającej, druga λ

2

 

jest  od  niej  większa  o  wielkość  ∆λ.  To  tak  zwane  przesunięcie  komptonowskie,  które  zmienia  się  wraz  
z kątem, pod którym obserwujemy rozproszone promieniowanie rentgenowskie. 
 
Compton  zinterpretował  te  wyniki  doświadczenia  postulując,  że  padająca  wiązka  promieniowania  rentgenowskiego  nie  jest  falą,  a 

strumieniem fotonów, z których każdy ma energię 

. Rozpraszanie jest wynikiem zderzenia fotonu z elektronem swobodnym, 

który przed zderzeniem jest nieruchomy. 
Ponieważ  padające  fotony  podczas  zderzeń  przekazują  część  swojej  energii  elektronom,  rozproszony  foton  musi  mieć  energię 

mniejszą od energii fotonu padającego, a zatem niższą częstotliwość 

, co z kolei daje większą długość fali 

. Taka 

interpretacja Comptona jakościowo wyjaśnia obserwowaną zmianę długości fali wiązki rozproszonej. 
 
Przesunięcie komptonowskie ∆λ: 

 

 
 
gdzie: λ

e

 = jest to tzw. komptonowska długość fali elektronu 

 
Zjawisko Thomsona 
 
 

Proces rozpraszania fotonów bez zmiany długości fali nazywany jest rozpraszaniem Thomsona. 

 
 

Thomson  rozważał  promieniowanie  rentgenowskie  jako  wiązkę  fal  elektromagnetycznych.  Drgający  wektor  pola 

elektrycznego  fali  działa  na  elektrony  atomów  tarczy.  W  rezultacie  na  elektron  działa  siła  wprawiająca  go  w  drgania,  a  więc 
wywołująca  ruch  przyspieszony.  Elektron  poruszający  się  ruchem  przyspieszonym  wypromieniowuje  fale  elektromagnetyczne  o  tej 
samej  częstotliwości  co  fale  padające  oraz  będące  z  nimi  w  zgodnej  fazie.  Tak  więc  elektrony  atomów  mogą  pochłaniać  energię  z 
padającej wiązki promieniowania rentgenowskiego i rozpraszać ją we wszystkich kierunkach. Przy tym długość fali promieniowania 
rozproszonego jest taka sama jak promieniowania padającego. 
 

 

Dla 

  dominuje  rozpraszanie  Thomsona.  Gdy  przechodzimy  do  zakresu  promieniowania  rentgenowskiego 

rozpraszanie  Comptona  zaczyna  odgrywać  coraz  większą  rolę,  szczególnie  dla  tarcz  rozpraszających  złożonych  z  atomów  o  małej 
liczbie atomowej.  
 
W przypadku takich tarcz elektrony nie są silnie związane w atomach i w konsekwencji zmiana długości fali w procesie rozpraszania 
na  elektronie,  który  w  rezultacie  zostaje  uwalniany,  staje  się  łatwo  mierzalna.  W  przypadku  promieniowania  gamma,  dla  którego 

można przyjąć, że 

, energia fotonu staje się tak duża, iż w procesie zderzenia elektron jest zawsze uwalniany i w rezultacie 

dominuje rozpraszanie komptonowskie. 
 
Kreacja i anihilacja par 
 
 

W procesie tym foton o wysokiej energii traci wskutek zderzenia z jądrem całą swą energię hν i jej kosztem powstaje para 

cząstek - elektron i pozyton, mających pewną energię kinetyczną. 

 

background image

10 

 

 

W  procesie  tworzenia  par  energia  przekazana  jądru  ulegającemu  odrzutowi  jest  zaniedbywana,  ponieważ  jądro  ma  dużą 

masę.  Obie  cząstki  mają  jednakowe  energie  spoczynkowe  m

0

c

2

.  Wyprodukowany  pozyton  ma  nieco  większą  energię  kinetyczną, 

ponieważ  w  wyniku  oddziaływania  kulombowskiego  wytworzonej  pary  z  dodatnio  naładowanym  jądrem  występuje  przyspieszenie 
pozytonu i hamowanie elektronu. 
 
 

Możemy stwierdzić, że minimalna energia fotonu, zwana inaczej energią progową, potrzebna do wytworzenia pary cząstek, 

wynosi  2m

0

c

2

,  czyli  1,02  MeV,  co  odpowiada  długości  fali  0,012Å.  Jeżeli  długość  fali  jest  mniejsza,  a  tym  samym  energia  jest 

większa od energii progowej, to wytworzona para cząstek ma oprócz energii spoczynkowej również pewną energię kinetyczną. 
 
 

Ze  zjawiskiem  kreacji  par  ściśle  związany  jest  proces  odwrotny  zwany  anihilacją  par.  Polega  on  na  tym,  że  gdy 

spoczywające  cząstki  -  elektron  i  pozyton  -  znajdują  się  blisko  siebie,  wtedy  łączą  się  ze  sobą  i  ulegają  anihilacji.  W  rezultacie 
następuje unicestwienie dwóch cząstek materialnych, w miejsce których powstaje promieniowanie elektromagnetyczne.  
 
 

W  wyniku  występowania  zjawiska  fotoelektrycznego  oraz  kreacji  par  zachodzi  całkowita  absorpcja  fotonów, 

natomiast zjawisko Comptona i zjawisko Thomsona prowadzą do rozpraszania

 fotonów. 

 

12)

 

Fizyczne podstawy metod dyfrakcyjnych 

Zjawiska falowe  
 
 

Powierzchnia  falowa  to  zbiór  punktów  ośrodka  dających  się  połączyć,  będących  w  tej  samej  fazie  drgań.  

Z punktu widzenia kształtu powierzchni falowej fale dzielą się na:  
- koliste – zaburzenie punktowe,  
- płaskie – zaburzenie liniowe.  
 
ZASADA HUYGENSA: 
I. Każdy punkt ośrodka po dojściu do niego zaburzenia staje się źródłem nowej fali kulistej.  
II. Wypadkowa fal cząstkowych tworzy powierzchnię falową. 
 
Rozchodząca się fala mechaniczna może ulegać następującym zjawiskom:  
Ugięciu (dyfrakcji), odbiciu, załamaniu, interferencji i polaryzacji. 
 
Dowodem słuszności I cz. zasady Huygensa jest zjawisko ugięcia fali (dyfrakcja):  
 
Dyfrakcja fali, inaczej nazywana ugięciem fali, jest zjawiskiem polegającym na zmianie kształtu powierzchni falowej (zmianie 
kierunku promieni fali) na skutek pokonania przez falę przeszkody.  

 

 
Zjawisko odbicia fali to zmiana kierunku rozchodzenia się fali w danym ośrodku na granicy  
z innym ośrodkiem.. 

 

background image

11 

 

Kąt odbicia jest równy kątowi padania  α = α’ 
 
 
Załamanie fali – jeżeli fala przechodzi przez granicę dwóch ośrodków, różniących się prędkością rozchodzenia się fali, to ulega 
załamaniu.  

 

 
gdzie: v

1

, v

2

 – prędkości rozchodzenia się fal w ośrodku pierwszym i drugim. 

 

 
Interferencja to nakładanie się fal rozchodzących się z dwóch lub większej liczby źródeł. Nakładanie się fal zachodzi bezkolizyjnie, 
fale przenikają się nawzajem. W wyniku interferencji może wystąpić wzmocnienie lub wygaszenie fali. Interferencja możliwa jest 
tylko dla fal o tych samych długościach (częstotliwościach) i stałej różnicy faz. 
 
Wzmacnianie zachodzi w miejscach, w których spotykają się dwa grzbiety lub dwie doliny fal. Wygaszenie występuje w miejscach 
spotkania się doliny jednej fali z grzbietem drugiej fali. 
 

           

 

W punkcie S zachodzi wygaszenie.                 W punkcie S zachodzi wzmocnienie. 
 
Z

1

, Z

2

 – miejsca wzbudzenia fal;  

r

1

, r

2

 –drogi przebyte przez fale od miejsca wzbudzenia do punktu nałożenia S. 

 
 
Zjawiska świadczące o naturze korpuskularnej światła 
- zjawisko fotoelektryczne zewnętrzne; 
- zjawisko Comptona; 
- promieniowanie ciała doskonale czarnego; 

 

13)

 

Dyfrakcyjne metody badania monokryształów  

Metoda Lauego 

Wykorzystuje się w tej metodzie promieniowanie rentgenowskie polichromatyczne a obiekt badań czyli monokryształ jest w czasie 
badania nieruchomy.    

Równania Lauego dla trójwymiarowej sieci  

background image

12 

 

A ( cos α1-  cos α0) =hλ 

B( cos β1 – cos B0)=hλ 

C(cos γ1- cos γ0) =hλ 

Atomy kryształu rozpraszają promienie dając interferencje na trzech stożkach wokół trzech osi. Przecięcia stożków występujące dla 
różnych długości fal określają kierunki najsilniejszej interferencji co objawia się w postaci najsilniejszych plamek na kliszy. Metoda 
informuje o symetrii kryształu , często służy do przestrzennej orientacji kryształu . Istnieje możliwość badań kinetyki strukturalnych 
przemian  fazowych.  W  promieniowaniu  synchrotronowym  (duże  napięcie  )  pomiar  trwa  do  10ps.  Amplituda  fali  rozproszonej  na 
komórce  elementarnej  zawiera  w  sobie  informacje  o  położeniach  atomów.  Stąd  niezbędne  są  pomiary  natężeń  refleksów 
dyfrakcyjnych . Jest to generalna zasada wszystkich metod dyfrakcyjnych bez względu na rodzaj stosowanego promieniowania.  

W  doświadczeniu  Lauego  promienie  Rentgena  po  przejściu  przez  otwory  w  płytkach  ołowiowych  (kolimator),  tworzyły  wąską 
wiązkę  padająca  na  cienka  płytkę  siarczku  cynku.  Na  kliszy  fotograficznej  ,  która  znajdowała  się  za  kryształem  powstał  obraz 
dyfrakcyjny  tego  kryształu.  Obraz  ten  występował  jako  wyraźna  plamka  pośrodku  obrazu  i  szeregu  rozrzuconych  symetrycznie 
plamek. Próbka jest zamocowana na główce goniometrycznej. Fale o różnej długości zostają rozproszone w różnych kierunkach które 
spełniają  równanie  Bragga  dla  danej  długości.  Otrzymujemy  na  kliszy  różne  punkty  dla  różnych  długości  fali.  Układ  plamek  ma 
symetrię taka jak kierunek w krysztale wzdłuż którego pada fala.  

Na  podstawie  uzyskanych  obrazów  można  zorientować  się  czy  dany  obiekt  jest  monokryształem  ,  bliźniakiem  czy  obiektem 
polikrystalicznym, jaka jest symetria kryształu, zorientować kryształ w przestrzeni zgodnie z wybrana osią w celu dalszych badań.  

Od równania Lauego można przejść do równania Bragga  

2

2

2

2

2

2

2

1

c

l

b

k

a

h

d

+

+

=

       hkl – wskaźniki Millera 

Równanie Bragga 

λ=2dsinѲ 

Metoda Bragga 

Odegrała ona dużą role w analizie strukturalnej i spektralnej. Wykorzystuje się w niej promienie monochromatyczne które ulega 
dyfrakcji na monokrysztale. Metoda Bragga znalazła zastosowanie głownie w spektrometrii rentgenowskiej do jakościowej i 
ilościowej analizy chemicznej materiałów.  

Monokryształ jest umieszczany na obrotowym stoliku z jedną płaszczyzna prostopadła do stolika o znanych wskaźnikach promienie 
padają na płaszczyznę monokryształu przecinając pod katem prostym oś jego obrotu. Metoda ta uzyskuje refleksy różnych rzędów 
pochodzące tylko od jednej rodziny równoległych płaszczyzn krystalicznych. Metoda ta umożliwia zidentyfikowanie pierwiastka 
który wysłał promieniowanie a pomiar natężenia refleksu pozwala określić zawartość w analizowanym materiale.  

Metoda obracanego kryształu   

W metodzie tej wykorzystuje się monochromatyczne promieniowanie rentgenowskie padające na monokryształ ustawiony jedną z osi 
krystalograficznych prostopadle do padającej wiązki promieni. Kryształ jest obracany wokół osi i jest większe prawdopodobieństwo 
spełnienia równia Bragga.  

14)

 

Dyfrakcyjne metody badań polikryształów i materiałów ceramicznych  

Metoda Debye’a-Sherrera-Hulla DSH 

Jest to podstawowa metoda badań substancji polikrystalicznych w której stosuje się monochromatyczne promieniowanie 
rentgenowskie. Obiektem badań jest próbka składająca się z setek lub tysięcy krystalitów najczęściej 0,1 – 10 um ułożonych 
bezładnie do padającej wiązki promieni. Długość fali jest w tej metodzie stała refleksy uzyskuje się od tych płaszczyzn krystalitów 
które spełniają prawo bargla. Metoda ta pozwala wyznaczyć jedną wielkość charakteryzująca sieć krystaliczną a mianowicie 
odległość międzypłaszczyznową d. Stwarza to możliwość określenia parametrów komórki krystalicznej. Metoda ta znalazła 
zastosowanie w ilościowej i jakościowej analizie fazowej , w precyzyjnym pomiarze stałych sieciowych , w wyznaczaniu wielkości 
krystalitów i zniekształceń sieciowych oraz badania tekstury.  

background image

13 

 

Ogniskowanie Bragg Brentano 

Promieniowanie wytworzone na obwodzie lampy rentgenowskiej pada na kryształ monochromatora który na zasadzie odbicie Bragga 
wybiera z polichromatycznej wiązki promieniowania .  

Zasada działania polega na zsynchronizowanym obrocie próbki o kat Ѳ i układu rejestrującego o kat 2Ѳ. Dla każdego położenia 

kątowego rejestrowany jest kat 2Ѳ oraz odpowiadające mu natężenie odbitego od próbki promieniowania. Otrzymuje się informacje o 

strukturze krystalicznej,  skaldzie fazowym , teksturze i innych właściwościach.  

Na podstawie linni dyfrakcyjnych można okreslic symetrie komórki  

θ

λ

sin

2

*

2

2

2

l

k

h

a

+

+

=

 

 

15)

 

Symetria kryształów i sposoby określania  

Elementy  symetrii  kryształów  –  prawidłowe  powtarzanie  się  w  przestrzeni  jednakowych  pod  względem  geometrycznym  i 
fizycznym części kryształów: np. ścian, krawędzi, naroży określane jest mianem symetrii kryształów. 

Symetria przejawia się w postaciach, strukturze i właściwościach fizycznych kryształów. 

Symetrię  określa  się  za  pomocą  tzw.  makroskopowych  elementów  symetrii,  czyli  dających  się  zaobserwować  na  wielościennej 
postaci kryształu. 

Proste elementy symetrii kryształu  

 

środek symetrii – punkt położony wewnątrz kryształu, który ma tę własność, że na dowolnej prostej przeprowadzonej przez 
ten  punkt,  w  jednakowej  od  niego  odległości,  znajdują  się  jednakowe  pod  względem  geometrycznym  i  fizycznym  punkty 
kryształu. 

 

oś symetrii – prosta, wokół której powtarzają się jednakowe części kryształu, przy czym te części mogą się powtarzać co kąt 
α = 60°, 90°, 120°, 180°, 360°, liczbę n = 360/α nazywa się odwrotnością osi symetrii; w kryształach możliwe są osie jedno-, 
dwu-, cztero-, sześciokrotne. 

 

płaszczyzny  symetrii  –  płaszczyzny  dzielące  kryształ  na  dwie  części  pozostające  względem  siebie  w  takim  stosunku  jak 
przedmiot do swego obrazu w zwierciadle płaskim. 

SPOSOBY 

      W metodzie Lauego wąska wiązka równol., polichromatycznych (tzn. o różnych długościach fal) promieni rentgenowskich pada 
na nieruchomy monokryształ; obraz dyfrakcyjny, powstający w wyniku odbicia promieni rentgenowskich przez płaszczyzny sieciowe 
kryształu ( Bragga równanie), jest rejestrowany na płaskiej błonie fot. umieszczonej prostopadle do kierunku  wiązki padającej; jeśli 
wiązka padająca jest równol. do osi lub płaszczyzny symetrii monokryształu, to refleksy (ślady wiązek odbitych) na rentgenogramie, 
tzw.  lauegramie,  są  rozmieszczone  zgodnie  z symetrią  tego  kierunku.  Metodą  Lauego  nie  można  wykryć  w monokrysztale  środka 
symetrii, wobec czego monokryształ można zakwalifikować jedynie do jednej z 11 tzw. klas dyfrakcyjnych (a nie do jednej z 32 klas 
krystalograficznych). Metodę Lauego stosuje się do określania makroskopowej symetrii monokryształów ( kryształu symetria); oprac. 
ją 1912 M. von Laue, W. Friedrich i P. Knipping. 

        W  metodzie  obracanego  kryształu  wąska  wiązka  równol.,  monochromatycznych  (o  jednej  długości  fali)  promieni 
rentgenowskich  pada  na  obracający  się  monokryształ,  zazwyczaj  prostopadle  do  jego  osi  obrotu,  którą  jest  prosta  sieciowa, 
najczęściej oś krystalograf.; wiązki promieni rentgenowskich, odbitych od płaszczyzn sieciowych, dają na błonie fot. (cylindrycznie 
otaczającej  monokryształ)  refleksy  układające  się  wzdłuż  równol.  linii  zw.  warstwicami;  otrzymany  rentgenogram  nazywa  się 
dyfraktogramem warstwicowym. Metodą obracanego kryształu wyznacza się rozmiary komórki elementarnej i typ sieci Bravais'go 
(rentgenostrukturalna analiza). Metodę obracanego kryształu oprac. 1919 E. Schiebold. 

       W  metodzie  kołysanego  kryształu  kryształ,  zamiast  pełnego  obrotu  o 360°,  wykonuje  (powtarzające  się  wielokrotnie):  obrót 
o niewielki kąt i powrót do punktu wyjścia. 

       W  celu  wyznaczenia  grupy  przestrzennej  i struktury  kryształów  stosuje  się  przede  wszystkim  metody  goniometryczne  oraz 
czterokołowy dyfraktometr rentgenowski 

 
 

background image

14 

 

16)

 

Dyfrakcyjna rentgenowska analiza fazowa  

Metodami rentgenowskiej analizy dyfrakcyjnej można: 
- badać strukturę kryształów 
- identyfikować substancje krystaliczne i odróżniać substancje krystaliczne od bezpostaciowych 
- wykonywać ilościową analizę fazową i oznaczać przemiany fazowe 
- badać naprężenia wewnętrzne w krysztale i deformację sieci krystalicznej 
- badać grubość warstw na różnych materiałach 
- oznaczać teksturę i określać budowę ciał krystalicznych, w których zachodzi już częściowe uporządkowanie położenia atomów, 
jonów i cząsteczek  
 
W celu rozwiązania każdego z tych zadań stosuje się różne metody: 
- bada się odpowiednimi metodami ciała mono- i polikrystaliczne 
- obraz dyfrakcyjny rejestruje się metodą fotograficzną lub za pomocą liczników 
- stosuje się promieniowanie mono- lub polichromatyczne 
 
Przykłady zastosowania rentgenowskich metod dyfrakcyjnych 
Rentgenowska jako
ściowa analiza fazowa 
Przedmiotem rentgenowskiej analizy fazowej jest identyfikacja składu fazowego metodą dyfrakcji promieni rentgenowskich.          
Analiza fazowa polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu dyfraktometru rentgenowskiego.  
Przeznaczone  do  analizy  próbki  lite  powinny  mieć  kształt  prostopadłościanu  o  wymiarach  zewnętrznych  (34mm  ?  1mm)×(30  ¸ 
55mm)×(0.1  ¸  4mm),  lub  jak  największą  płaską  powierzchnię  i  wymiary  pozwalające  na  ukrycie  próbki  w  zamkniętej  dłoni. 
Przeznaczone  do  analizy  próbki  proszkowe  muszą  posiadać  cechy  umożliwiające  równomierne  rozprowadzenie  ich  na  podłożu 
szklanym o powierzchni > 1 cm

2

. W każdym przypadku krystality badanej substancji muszą być większe od 1mm, aby mogło w nich 

zajść zjawisko dyfrakcji. 
Wynik  analizy  zawiera  opis  zidentyfikowanych  faz  krystalicznych  oraz  dyfraktogram  zestawiony  z  modelami  dyfraktogramów 
zidentyfikowanych faz. 

 

Przykładowy wygląd dyfraktogramu rentgenowskiego (dolny wykres) zestawionego z modelem dyfraktogramu rentgenowskiego 
metalicznego aluminium (górny wykres)oraz modelem dyfraktogramu fazy Mn12Si7Al5 (wykres środkowy). 
Rentgenowska ilościowa analiza fazowa 
Przedmiotem rentgenowskiej analizy fazowej jest ilościowe oznaczenie składu fazowego metodą dyfrakcji promieni rentgenowskich. 
Rentgenowska ilościowa analiza fazowa musi być poprzedzona analizą jakościową.  
Wynik analizy zawiera opis zidentyfikowanych faz krystalicznych wraz z oznaczonym udziałem procentowym, a także dyfraktogram 
zestawiony z modelami dyfraktogramów zidentyfikowanych faz. 
Rentgenowska jakościowa analiza tekstur 
Przedmiotem  rentgenowskiej  jakościowej  analizy  tekstur  jest  identyfikacja  rozkładu  uprzywilejowanych  orientacji 
krystalograficznych metodą dyfrakcji promieni rentgenowskich.    
Analiza tekstur polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu trójosiowego goniometru i dyfraktometru 
rentgenowskiego.  
Przeznaczone  do  analizy  próbki  lite  powinny  mieć  kształt  prostopadłościanu  o  wymiarach  zewnętrznych  (34mm  ?  1mm)×(30  ¸ 
55mm)×(0.1 ¸ 4mm). Krystality badanej substancji muszą być większe od 1mm, aby mogło w nich zajść zjawisko dyfrakcji. 
Wynik analizy tekstur zawiera opis wskaźników składowych tekstury oraz figury biegunowe.  
 

background image

15 

 

 

 

Przykładowy wygląd figury biegunowej przedstawiającej teksturę walcowania na zimno metali o sieci regularnej ściennie 

centrowanej. 

Rentgenowska ilościowa analiza tekstur 
Przedmiotem  rentgenowskiej  ilościowej  analizy  fazowej  jest  ilościowe  oznaczenie  składowych  tekstury  metodą  dyfrakcji  promieni 
rentgenowskich. Rentgenowska ilościowa analiza tekstur musi być poprzedzona analizą jakościową.  
Wynik  analizy  zawiera  opis  zidentyfikowanych  (opisanych  przy  użyciu  wskaźników  Millera)  orientacji  krystalograficznych  wraz  z 
oznaczonym udziałem procentowym, a także wykresy figur biegunowych. 
Rentgenowski pomiar stałej sieciowej 
Przedmiotem  pomiaru  stałej  sieciowej  jest  wyznaczenie  parametru  sieci  a  (komórki  elementarnej)  metodą  dyfrakcji  promieni 
rentgenowskich w substancjach krystalizujących w układzie regularnym. 
Pomiar polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu dyfraktometru rentgenowskiego.  
Przeznaczone  do  analizy  próbki  lite  powinny  mieć  kształt  prostopadłościanu  o  wymiarach  zewnętrznych  (34mm  ?  1mm)×(30  ¸ 
55mm)×(0.1  ¸  4mm),  lub  jak  największą  płaską  powierzchnię  i  wymiary  pozwalające  na  ukrycie  próbki  w  zamkniętej  dłoni. 
Przeznaczone  do  analizy  próbki  proszkowe  muszą  posiadać  cechy  umożliwiające  równomierne  rozprowadzenie  ich  na  podłożu 
szklanym o powierzchni >1 cm

2

. W każdym przypadku krystality badanej substancji muszą być większe od 1mm, aby mogło w nich 

zajść zjawisko dyfrakcji. 
Wynik analizy zawiera wartość liczbową przypisaną parametrowi a komórki elementarnej wraz z jednostkami [Å] lub [nm]. 
 
17)

 

Badania mikrostruktury i defektów sieci krystalicznej w transmisyjnej mikroskopii elektronowej  

Badania na mikroskopie transmisyjnym o napięciu 100 kV wymagają przygotowania cienkich próbek o grubości 2000 – 3000 Å. Tak 
cienkie próbki można uzyskać w dwojaki sposób: 

1.

 

Metody pośrednie (tzw. repliki) 

W badaniu nie prześwietla się samej próbki a jedynie jej replikę tj. cienką błonkę wiernie odwzorowującą topografię 
powierzchni. Replika powinna spełniać warunki: 

-

 

 dokładnie odwzorowywać powierzchnię, 

-

 

 być trwała (odporność mechaniczna, chemiczna) 

-

 

 być bezpostaciowa (ze względu na wysoką zdolność     rozdzielczą mikroskopu 

-

 

łatwo oddzielać się od powierzchni próbki, 

-

 

 być kontrastowa i łatwa do interpretacji. 

Repliki wykonuje się jako: 

a)

 

Jednostopniowe (na powierzchnię nakłada się cienką warstwę masy plastycznej i ją odrywa), 

b)

 

Dwustopniowe np. triafol – węgiel (najpierw wykonuje się matrycę powierzchni z łatwo rozpuszczalnego plastiku o nazwie 
triafol a następnie na tą matrycę naparowuje się węgiel), 

c) Repliki ekstrakcyjne; kolejne etapy przygotowania to: 

-

 

 trawienie szlifu metalograficznego tak aby rozpuścić jedynie osnowę, a nie rozpuścić wydzieleń, 

-

 

 naparowanie powierzchni próbki warstwą węgla (ok.200 Å) 

-

 

 elektrolityczne oddzielenie błonki węglowej od powierzchni próbki. 
 

2.

 

Metody bezpośrednie (tzw. cienkie folie) 

Metody bezpośrednie (cienkie folie)- umożliwiają: 

a)

 

Badania struktury 

b)

 

Obserwacje defektów sieciowych 

c)

 

Obserwacje procesów wydzieleniowych 

d)

 

Obserwacje przemian fazowych 

e)

 

Obserwacje procesów odkształcania i rekrystalizacji 

 

Grubość folii zależy od użytego napięcia przyśpieszającego i od liczby atomowej badanego metalu np. dla 100 kV grubość 

folii aluminiowej może wynosić 3000 Å a dla ołowiu 1000 Å 

background image

16 

 

Metody wykonywania cienkich folii: 

 

Polerowanie elektrolityczne 

 

Metody strugi – szybkie polerowanie elektrolityczne 

Polerowanie elektrolityczne – etapy: 

-

 

 Wstępne ścienianie próbki (szlifowanie, polerowanie       mechaniczne) do grubości ok. 100 µm. 

-

 

 Chemiczne lub elektrolityczne polerowanie do grubości ok. 10 µm (konieczne dla usunięcia warstw powierzchniowych 
odkształconych w wyniku mechanicznego szlifowania. 

-

 

 Ostateczne polerowanie elektrolityczne dla osiągnięcia wymaganej grubości przy zachowaniu gładkości powierzchni. 

 

II.

 

Metody badania właściwości mechanicznych i twardości 

18)

 

Czynniki określające właściwości mechaniczne materiałów  

 

Udarność  -  odporność  materiału  na  obciążenia  dynamiczne.  Do  wykonywania  tych  badań  wykorzystuje  się  urządzenia 
umożliwiające  przyłożenie  dużej  siły  w  krótkim  czasie,  zwane  najczęściej  młotami  udarowymi.  Najczęściej  spotykanym 
urządzeniem jest młot Charpy'ego. 

 

Zmęczenie materiału - zjawisko pękania materiału pod wpływem cyklicznie zmieniających się naprężeń. 

 

Twardość  -  twardością  określa  się  odporność  materiału  na  odkształcenia  trwałe,  które  powstają  pod  wpływem  sił 
skupionych,  działających  na  małą  powierzchnię  materiału,  wywołanych  przez  wciskanie  odpowiedniego  wgłębnika. 
Twardość nie jest stałą materiałową, a więc porównywanie twardości jest możliwe w zakresie tylko jednej metody. 

Skale 

 

Mohsa 

 

Brinella 

 

Rockvela 

 

Vickersa 

(te czynniki podał Skulski dla nadgorliwych inne czynniki) 

 

Wytrzymałość  -    materiału  jest  jego  mechaniczną  właściwością,  określającą  zdolność  materiału  do  przeciwstawiania  się 
działaniu sił zewnętrznych, które powodują przejściowe lub trwałe jego odkształcenie a nawet zniszczenie. 

 

Moduł sprężystości - wielkość określająca sprężystość materiału. 

 

Granica plastyczności - to wartość naprężenia przy której zaczynają powstawać nieodwracalne odkształcenia plastyczne. 

 

Wytrzymałością  zmęczeniową  (lub  granicą  zmęczenia)  nazywamy  takie  maksymalne  naprężenie  dla  danego  cyklu 
naprężeń, przy którym element nie dozna zniszczenia po osiągnięciu umownej granicznej liczby cykli naprężeń 

 

Odporność na pełzanie - maksymalne naprężenie potrzebne do spowodowania odkształcenia wskutek pełzania o określonej 
wielkości w określonym czasie. 

 

19)

 

Statyczna próba rozciągania  

Podstawowa metoda badań wytrzymałościowych materiałów konstrukcyjnych. Rozciąga się odpowiednio wykonany pręt o przekroju 
okrągłym wykorzystując urządzenie - zrywarka. W czasie próby rejestruje się zależność przyrostu długości próbki od wielkości siły 
rozciągającej  oraz  Naprężenia  w  próbce  oblicza  się  dzieląc  siłę  rozciągającą  przez  pole  przekroju  poprzecznego  próbki 
(uwzględniając przewężenie lub nie). Rejestruje się granice sprężystości, przewężenie próbki i siłę zrywającą próbkę. 

Wykres  -  początkowo  wzrost  naprężenia  powoduje  liniowy  wzrost  odkształcenia.  W  zakresie  tym  obowiązuje  prawo  Hooke'a.  Po 
osiągnięciu  naprężenia  R

sp

,  zwanego  granicą  sprężystości  materiał  przechodzi  w  stan  plastyczności,  a  odkształcenie  staje  się 

nieodwracalne.  Przekroczenie  granicy  sprężystości,  zauważalne  w  okresie  chwilowego  braku  przyrostu  naprężenia,  powoduje 
przejście  materiału  w  stan  plastyczny.  Dalsze  zwiększanie  naprężenia  powoduje  nieliniowy  wzrost  odkształcenia,  aż  do  momentu 
wystąpienia  zauważalnego,  lokalnego  przewężenia  zwanego  szyjką.  Naprężenie,  w  którym  pojawia  się  szyjka,  zwane  jest 
wytrzymałością na rozciąganie R

m

. Dalsze rozciąganie próbki powoduje jej zerwanie przy naprężeniu rozrywającym R

u

Metale – znaczne odkształcenie plastyczne, 
Ceramika, szkło – zniszczenie już w zakresie odkształceń sprężystych 

Wykres  przedstawia  dwie  linie.  Przerywana  pokazuje  naprężenie  rzeczywiste  obliczane  przy  uwzględnieniu  przewężenia  próbki. 
Linia ciągła pokazuje wykres naprężenia obliczanego przy uwzględnieniu pola wyjściowego próbki. Czyni się tak, by zaobserwować 
wartość R

m

, będącą lokalnym maksimum krzywej. 

background image

17 

 

 

 
Właściwości wytrzymałościowe określane w próbie rozciąganiaWłaściwości wytrzymałościowe charakteryzują opór materiału 
próbki na odkształcanie lub pękanie.  Zależność „siła — wydłużenie". W przypadku różnych metali polikrystalicznych i stopów 
uzyskuje się różnorodne kształty krzywych.  

Granica  proporcjonalności  R

  jest  to  maksymalne  naprężenie,  przy  którym  materiał  próbki  zachowuje  się  zgodnie  z  prawem 

Hooke'a (przyrostom naprężenia odpowiadają proporcjonalne wydłużenia sprężyste).  
 
Granica spr
ężystości R

s

 to naprężenie, które powoduje umowne odkształcenie trwałe.  

 

Granica plastyczności. naprężenie, po osiągnięciu której materiał nie powróci do stanu poprzedniego.

 

 
Wyraźna  granica  plastyczności  R

e

  jest  to  naprężenie  odpowiadające  największej  sile  F

e

,  po  osiągnięciu  której  następuje  wyraźny 

wzrost wydłużenia rozciąganej próbki przy niezmiennym lub obniżonym obciążeniu: 

Granica ta odpowiada górnej granicy plastyczności R

eH

Dolna granica plastyczności, która często nazywana jest fizyczną granicą plastyczności.  

Wytrzymałość  na  rozciąganie.  Zwiększanie  naprężeń  powyżej  wyraźnej  granicy  plastyczności  powoduje  przywrócenie  stanu 
równowagi  pomiędzy  obciążeniem  a  odkształceniem.  Opór  odkształcania  wzrasta  przy  intensywnym  rozwoju  odkształcenia 
plastycznego. Do obciążenia maksymalnego próbka zachowuje swój pierwotny kształt. Wydłużenie następuje równomiernie na całej 
długości  pomiarowej.  Przy  maksymalnej  sile  makrorównomierność  odkształcania  zostaje  zakłócona.  W  pewnej  części  próbki,  w 
pobliżu koncentratora naprężeń, który znajdował się w próbce już w stanie wyjściowym lub powstał w czasie rozciągania (najczęściej 
w okolicy środka długości pomiarowej), rozpoczyna się umiejscowione odkształcanie, które doprowadza do lokalnego zmniejszania 
przekroju poprzecznego próbki powstawania szyjki. Maksymalna siła F

m

 podzielona przez pole przekroju pierwotnego próbki S

0

 daje 

wartość umownego, granicznego naprężenia rozciągającego, które nazywa się wytrzymałością na rozciąganie R

m

W  materiałach  plastycznych  po  osiągnięciu  wytrzymałości  na  rozciąganie  dalsze  rozciąganie  powoduje  spadek  siły,  doprowadzając 
do zerwania przy sile F

u

. Naprężenie odpowiadające tej sile nazywamy naprężeniem zrywającym. 

Właściwości plastyczne określane w statycznej próbie rozciągania 

Wielkościami charakteryzującymi właściwości plastyczne materiału są: wydłużenie względne, wydłużenie równomierne i 
przewężenie. 

Wydłużenie względne (procentowe) stosunek trwałego wydłużenia bezwzględnego długości pomiarowej próbki po rozerwaniu do 
początkowej długości pomiarowej próbki, wyrażony w procentach. 

Względne wydłużenie równomierne A

r

 określa względne wydłużenie próbki, odpowiadające równomiernemu odkształceniu, które 

zachodzi do momentu pojawienia się szyjki.  

Względne  przewężenie  Z  zmniejszenie  pola  powierzchni  przekroju  poprzecznego  próbki  w  miejscu  rozerwania  w  odniesieniu  do 
pola powierzchni jej przekroju pierwotnego 

 

 

 

background image

18 

 

Charakterystyki mechaniczne metali  

TECHNOLOGICZNE 

WYTRZYMAŁOŚCIOWE 

- lejność 

- skurcz odlewniczy 

- ciągliwość 

- plastyczność 

- granica plastyczności 

- wydłużenie 

- przewężenie 
- skrawalność 

- hartowność stali 

-  spawalność 

 

-  udarność 

- wytrzymałość 

- na rozciąganie 

- na zginanie 

- na ściskanie 

- na zmęczenie 

- bez karbu 

- z karbem 

 

20)

 

Metody badania twardości  

Metoda Rockwella
Próba ta Polega na dwustopniowym wciskaniu w badany materiał stożka diamentowego lub kulki stalowej.. Podstawą określenia 
twardości jest pomiar trwałego przyrostu głębokości odcisku, który jest wyrażony w jednostkach twardości HR. Twardość odczytuje 
się bezpośrednio na wyskalowanym czujniku. 
Wgłębnika stożkowego używa się do twardych metali i ich stopów, wgłębnika kulkowego do miększych materiałów. 
 
Wzory:  Dla stożka HRC = 100 – h

śr

/0,002                      dla kulki HRC = 130 – h

śr

/0,002         

 
 Zalety:  
- można mierzyć mat.  miękkie i twarde.  
- duża szybkość pomiaru 
Wady:     
- błędy powstające przez pomiar głębokości odcisku 
- duża ilość skal umownych, skąd konieczność porównywania ich przy pomocy tablic. 
 
Metoda Brinella 
Polega na wciskaniu wgłębnika pod obciążeniem F, w postaci hartowanej kulki stalowej o średnicy D, w powierzchnię badanego 
materiału, w czasie T. Średnica odcisku kulki stalowej – d.  
HB=P/F [N/mm

2

Zalety: 
-jedna skala twardości 
-można badań stopy niejednorodne 
Wady: 
-nie nadaje się do pomiaru materiałów twardych 
-uciążliwy pomiar średnicy odcisku (lupa lub soczewka z przymiarem milimetrowym) 
 
Metoda Vickersa 
Pomiar polega na wciskaniu wgłębnika w kształcie ostrosłupa prawidłowego o kącie wierzchołkowym 136 stopni. 
P- siła, a-długość boku utworzonego odcisku 
HV  
-jednoznaczność oznaczeń (w przybliżeniu) z metodą brinella do twardości 300 
_nadaje Się do pomiaru twardości bardzo małych przedmiotów 
-nadaje się do pomiarów mat. Miękkich jak i twardych 
-duża dokładność pomiarów 
Wady: 
-nie nadaje się do pomiarów twardości materiałów o strukturze gruboziarnistej i niejednorodnej 

 

III. Metody nieniszczące akustyczne 

21)

 

Fale akustyczne i ich propagacja w ciałach stałych 

Fale  dźwiękowe  są  podłużnymi  falami  mechanicznymi.  Mogą  one  rozchodzićsięw  ciałach  stałych,  cieczach,  gazach.  Materialne 
cząstki  ośrodka  w  którym  rozchodzi  się  fala,  drgają  wzdłuż  linii  prostek  pokrywającej  się  z  kierunkiem  propagacji  fali.  Zakres 
częstości  jakie  mogą  mieć  podłużne  fale  mechaniczne  jest  bardzo  szeroki  przy  czym  falami  dźwiękowymi  nazywamy  fale  o  takich 

background image

19 

 

częstościach które w działaniu na ludzkie ucho i mózg wywołują wrażenie słyszenia. Zakres tych czestości rozciągający się od około 
20 Hz do około 20000 Hz nazywany jest zakresem słyszalnym. 
FALA POPRZECZNA  to taka fala, której cząsteczki ośrodka drgają w kierunku prostopadłym do kierunku rozchodzenia się fali. 
Powstanie  fali  poprzecznej  wiąże  się  ze  zmianą  kształtu  ciała,  a  więc  może  się  ona  rozchodzić  jedynie  w  ośrodkach  mających 
sprężystość postaci (głównie w ciałach stałych). Cząsteczki ośrodków doskonale sprężystych wykonują drgania harmoniczne, zatem 
fala poprzeczna rozchodząca się w takim ośrodku ma postać sinusoidy Np. drgania struny. 

 

ODBICIE FALI I POCHŁANIANIE ENERGII AKUSTYCZNEJ NA GRANICY DWÓCH OŚRODKÓW 

 

Fala  napotykająca  na  swojej  drodze  inny  ośrodek  podlega  częściowo  odbiciu  a  część  jej  energii  przenika  do  drugiego 

ośrodka. Fala  która przeniknęła da drugiego ośrodka charakteryzowana jest przez  współczynnik pochłaniania. Kierunek  fali odbitej 
można wyznaczyć z zasad ruchu falistego – kąt padania jest równy kątowi odbicia 

Fala dźwiękowa może rozchodzić się w każdym ośrodku materialnym, przy czym im jest większa gęstość tego ośrodka tym prędkość 
jej jest większa. Dlatego z największą prędkością fala dźwiękowa porusza się w ciałach stałych. 
 
Propagacja polega na przemieszczaniu się drgań cząstek ośrodka materialnego. Dlatego fale mechaniczne a więc i fale dźwiękowe nie 
mogą rozchodzić się w próżni. W próżni rozchodzi się tylko drugi typ fal zwanych falami elektromagnetycznymi. 
Prędkość rozchodzenia się dźwięku (fal podłużnych) w ciałach stałych jest znacznie większa niż w powietrzu 
Nie umiem nic znaleźć na temat propagacji w ciele stałym !! odpadam 

 

W  przypadku  ciał  stałych  termin  "fala  uderzeniowa"  jest  zwykle  rozumiany  jako  fala  naprężeń  ściskających  o  wielkiej  amplitudzie 
lub impuls ciśnienia, który powoduje niemal natychmiastowy wzrost naprężeń lub ciśnienia w środku – przechodząca fala zwiększa 
gęstość ciała w kierunku swojego ruchu detonacja (przestrzeń C-J). 
Fale  o  wielkiej  amplitudzie  powstają  w  Ziemi  w  wyniku  takich  zjawisk,  jak  podziemna  eksplozja,  trzęsienie  ziemi  lub  uderzenie 
meteorytu. W laboratorium mogą być one wytwarzane pod kontrolą i są bardzo użyteczne zarówno w geofizyce, jak i badaniach ciał 
stałych. 
Przejście fali uderzeniowej przez ciało stałe powoduje zmiany w stanie fizycznym materiału. Może ona np. spowodować przesunięcia 
atomów,  zmiany  poziomów  energetycznych  elektronów  i  zmienić  bilans  energii  wewnętrznej.  Pomiary  zachowania  się  ciał  stałych 
poddanych silnym impulsom ciśnienia rzuciły nowe światło na podstawowe właściwości ciał stałych i doprowadziły do zastosowania 
fali  uderzeniowej  w  medycynie  –  poprzez  ogniskowanie  wiązki  ultradźwięków  na  kamieniach  nerkowych  można  spowodować  ich 
skruszenie (metoda litotrypsji) czy do rozwoju takich użytecznych metod przemysłowych, jak wybuchowe platerowanie i zgrzewanie, 
wybuchowe  cięcie  i  kształtowanie,  uderzeniowe  wprasowywanie  proszków  w  stałe  części  maszyn,  wybuchowe  roboty  ziemne  (np. 
wykopy) i wytwarzanie nowych materiałów o szczególnych właściwościach. 
Eksperymentatorzy zwykle wytwarzają fale uderzeniowe  w materiałach za pomocą eksplozji przyłożonego materiału wybuchowego 
albo przez uderzenie pocisku o dużej prędkości wystrzelonego z działa lub przyspieszonego przez eksplozję 

 

22)

 

Defektoskopia  

 

Defektoskopia,  nie  niszcząca  metoda  badań  uszkodzeń  i  wykrywania  defektów  w  przedmiotach,  głównie  metalowych  (odlewach, 
odkuwkach,  spawach  itp.).  Ze  względu  na  wykorzystywane  w  badaniu  zjawiska  fizyczne  rozróżnia  się  defektoskopię  gamma, 
rentgenowską, luminescencyjną, magnetyczną i elektromagnetyczną oraz ultradźwiękową. 
Defektoskopia  gamma  i  rentgenowska  polega  na  prześwietlaniu  przedmiotu  odpowiednim  promieniowaniem  przenikliwym  i 
rejestracji  obrazu  za  pomocą  odpowiednich  klisz,  wizualizacji  na  ekranach  elektrooptycznych  i  scyntylacyjnych  lub  rejestracji 
licznikowej. 
 
W defektoskopii luminescencyjnej pokrywa się badany przedmiot cieczą luminescencyjną, która  wnika  w  szczeliny i pozostaje  w 
nich  po  usunięciu  nadmiaru  cieczy  z  powierzchni.  Po  oświetleniu  tak  przygotowanego  przedmiotu  światłem  ultrafioletowym 
obserwuje się wyraźne świecenie szczelin i rys wypełnionych śladami cieczy luminescencyjnej. 
 
W defektoskopii magnetycznej przedmiot z ferromagnetyku pokrywa się proszkiem ferromagnetycznym, który gromadzi się wzdłuż 
szczelin powierzchniowych, wizualizując je. 
 
W  defektoskopii  elektromagnetycznej  bada  się  takie  parametry  materiału  jak  nasycenie  namagnesowania,  przenikalność 
magnetyczną, oporność właściwą itp. Odstępstwa od wartości wzorcowych dla danego materiału wskazują na defekty struktury. 
 

background image

20 

 

W defektoskopii ultradźwiękowej bada się rozchodzenie się fali akustycznej wysokiej częstości w danym przedmiocie. Stosuje się 
tu metody: echa, cienia, rezonansu, impedancji oraz drgań własnych. 

 

IV. Metody cieplne i metody badania właściwości cieplnych 

 

23)

 

Czynniki określające właściwości cieplne materiałów  

 
Pojemnością  cieplną  substancji  nazywa  się  ilość  ciepła  potrzebną  do    podniesienia  temperatury  tej  substancji  o  jeden  stopień. 
Pojemność  cieplna    przypadająca  na  jednostkę  masy  substancji  nazywa  się  ciepłem  właściwym  i  wyraża  się    w  J/  (kg  •  K).  Ciepło 
właściwe nie jest wartością stałą i zależy głównie od temperatury.  Ciepło właściwe wielu substancji krystalicznych, bezpostaciowych 
i szklistych wzrasta  wraz ze wzrostem temperatury. 
 
Rozszerzalność    temperaturowa    charakteryzuje  zjawisko  zmiany    wymiarów  substancji  wraz  ze  zmianą  temperatury.    Przyrost 
długości  przypadający  na  jednostkę  długości  spowodowany  wzrostem    temperatury  o  IK  nazywa  się  współczynnikiem 
temperaturowej  rozszerzalności  liniowej.    Zjawisko  rozszerzalności  temperaturowej  ciał  stałych  jest  spowodowane  drganiami  
atomów  w  siatce  krystalicznej,  w  których  intensywność  wzrasta  wraz  ze  wzrostem    temperatury.  Podczas  ogrzewania  pewne 
materiały  wykazują  nagłe  zmiany    współczynnika  rozszerzalności  temperaturowej.  Zmiany  te  są  spowodowane  głównie    przez 
przebudowę siatki krystalicznej zachodzącą w  niektórych substancjach w  określonych temperaturach.  
 
Przewodność cieplna  jest określona współczynnikiem przewodności cieplnej. Jest to ilość ciepła, która w jednostce czasu przepływa 
przez  jednostkę  powierzchni,    gdy  różnica  temperatury  w  ciele  przewodzącym  ciepło  równa  jest  ∆K  na  jednostkę    długości.  W 
technice współczynnik przewodności cieplnej wyraża się W/ (m • K). 

 

24)

 

Metody kalorymetryczne  

Metody kalorymetryczne to: 
- TG (pyt 27) 
- DTG (pyt 27) 
- DTA (pyt 27) 
- DSC  
W  różnicowej  kalorymetrii  skaningowej  (ang.  Differential  Scanning  Calorimetry  –  DSC)  rejestruje  się  energię  konieczną  do 
sprowadzenia do zera różnicy temperatur między próbką i substancją odniesienia. Podobnie jak w DTA, obie próbki ogrzewa się lub 
chłodzi  w  sposób  kontrolowany,  a  krzywa  DSC  odzwierciedla  ilość  ciepła  wymienionego  przez  próbkę  z  otoczeniem  w  jednostce 
czasu w funkcji czasu (t) lub temperatury (T): 
Skaningowa  kalorymetria  różnicowa  DSC  –  technika  służąca  do  pomiarów  mocy  cieplnej,  a  dokładniej  zmiany  różnicy  strumienia 
cieplnego powstającego między próbką badaną i referencyjną w trakcie przemiany termicznej. 
DSC  polega  na  utrzymywaniu  tych  samych  temperatur  dla  próbki  badanej  i  próbki  odniesienia  oraz  pomiarze  różnicy  strumienia 
ciepła  dostarczanego  do  obu  próbek.  Eksperyment  może  być  przeprowadzany  w  warunkach  izotermicznych  lub  w  warunkach 
narastającej temperatury. 
Kalorymetry różnicowe z kompensacją mocy  
Próbka  badana  i  próbka  referencyjna  znajdują  sie  w  identycznych  oddzielnych  termicznie  izolowanych  piecykach,  które  są 
niezależnie sterowane. Tak aby temperatura obu próbek sie utrzymywała na stałym poziomie. Różnica pomiaru temperatur powstaje, 
jeżeli  badana  próbka  pochłania  lub  wydziela  więcej  ciepła  niż  próbka  referencyjna.  Mierzonym  sygnałem  jest  moc  dostarczana  do 
elementów grzejnych prób. 
Kalorymetry typu przypływ ciepła  
Kalorymetry  tego  typu  nazywają  się  Heat  flux  DSC  lub  kalorymetry  Calveta.  Jako  czujnik  pomiarowy  stosuje  się  jedno  z  dwu 
rozwiązań konstrukcyjnych: stosy termopar lub tzw. plate  detector. Wielkość  mierzona  w obu przypadkach jest różnica temperatur 
między próbkami. 
Przegląd zastosowania DSC 
- analiza fazowa 
- oznaczanie składu chemicznego i czystości 
- pomiar ciepła przemian fazowych i reakcji chemicznej 
- wyznaczanie ciepła właściwego substancji 
- wyznaczanie parametrów kinetycznych reakcji 
- wyznaczanie temperatury zeszklenia 

 

25)

 

Przewodnictwo cieplne i metody badania  

Mechanizmy przepływu ciepła: 
- przewodnictwo – przepływ ciepła do części gorących do zimnych, materia nie przepływa, 
- promieniowanie – każde ciało emituje promieniowanie elektromagnetyczne w temperaturze powyżej 0 K, 
- konwekcja – ruch molekuł płynu wywołany różnicą gęstości wynikającą z różnicy temperatur. 

background image

21 

 

Przewodnictwo cieplne – występuje w materiale, gdy ciepło przepływa od części gorących do zimnych. Brak przepływu materii. 
Zależy od składu chemicznego materiałów, wiązań międzyatomowych oraz struktury. W przypadku jednowymiarowym: 

[ ]

mK

W

W

s

J

dt

dQ

dx

dT

S

dt

dQ

=

=

=





=

=

Φ

λ

λ

      

 ,      

gdzie: dT/dx – gradient temperatury, 
Φ – strumień cieplny (dQ/dt – energia cieplna przepływająca w czasie dt), 
λ – współczynnik przewodnictwa cieplnego, 
S – pole powierzchni przekroju, przez który przepływa strumień). 
Współczynnik przewodnictwa cieplnego w ogólnym przypadku będzie sumą dwóch składowych: λ = λ

e

 + λ

s

, gdzie λ

e

 i λ

s

 to 

odpowiednio: przewodnictwo elektronowe i sieci. 
Kwantowane drgania określa się jako fonony, a składowa λ

s

 traktowana jest jako składnik fononowy. 

Ciepło jest to energia jaką, układ o wyższej temperaturze przekazuje znajdującemu się z nim w kontakcie cieplnym układowi o 
niższej temperaturze w procesie dochodzenia obu układów do równowagi cieplnej. W procesie tym energia wewnętrzna układu o 
wyższej temperaturze maleje, a energia wewnętrzna układu o niższej temperaturze rośnie. 
Najpopularniejsze metody termoanalityczne badania przewodnictwa to: 
- termiczna analiza różnicowa DTA, 
- termograwimetria TG,  
- skaningowa kalorymetria różnicowa DSC, 
- analiza termocząstkowa (EGA) i termiczna analiza emanacyjna (EGD) – rejestrujące   objętość i skład chemiczny gazowych 
produktów reakcji, 
- termodylatometria – rejestruje liniowe zmiany wymiarów próbki, 
- analiza termomechaniczna – rejestruje zmianę niektórych właściwości mechanicznych, 
- termosonimetria – rejestrująca natężenie efektów akustycznych towarzyszących reakcjom, 
- termoelektrometria – rejestrująca przewodnictwo, oporność oraz pojemność elektryczną, 
- termomagnetometria – rejestrująca zmiany podatności magnetycznej, 
- termooptometria – rejestrująca zmiany zespołu własności optycznych substancji.  

 

26)

 

Analizy DTA, TG, DTG  

 

Termiczna analiza różnicowa DTA  
DTA    umożliwia    wykrywanie    efektów    cieplnych,    które    towarzyszą    przemianom    fizycznym    lub    chemicznym.    Polega    na  
rejestracji    różnicy    temperatur    pomiędzy    substancją    badaną    a    substancją  wzorcową  (odniesienia),  względem  czasu  lub 
temperatury.  Substancja    odniesienia    musi    zostać    dobrana    tak,    aby    w    danym    zakresie    temperatur    nie  podlegała  żadnym 
przemianom  fizycznym  lub  chemicznym  (najczęściej  stosuje  się  Al2O3  lub  MgO).  Termiczna    analiza    różnicowa    pozwala    na  
identyfikację    związków,    które    w    badanym    zakresie  temperatur  ulegają  przemianom  egzotermicznym  lub  endotermicznym.  A 
wśród nich wyróżnić można:  
- reakcje chemiczne (utlenianie, redukcja, dysocjacja, synteza),  
- procesy fizyczne, głównie przemiany fazowe:  
- ze zmianą stanu skupienia (sublimacja, wrzenie, topnienie, krystalizacja) 
- bez zmiany stanu skupienia (przemiany polimorficzne).  
Zasada metody  
Ogrzewa  się  w  piecu  jednocześnie  i  w  takich  samych  warunkach  badaną  próbkę  oraz  próbkę  wzorcową – taką, w której nie 
zachodzą  żadne  przemiany  termiczne.  Przy  czym  należy  tak  prowadzić    ogrzewanie,  by  zależność  temperatury  od  czasu  miała 
charakter  liniowy.    Aby    można    było    zmierzyć    interesującą    różnice    temperatur    DT    próbki    i    próbki    wzorcowej,    w    obu  
próbkach  umieszczone  są  termoelementy.  Połączone  są  one  z  reszta  układu  tak  by  była możliwość wyznaczenia DT. Jeżeli  w  
próbce  nie  zachodzą  żadne  reakcje  przebiegające  z  efektem  cieplnym,  temperatury  obu próbek są takie same (Ts=Ti). Czyli 
DT=0. Jeżeli w próbce zajdą takie reakcje DT będzie różna od 0. 
TG 
Termograwimetria  polega  na  rejestrowaniu  zmian  masy  substancji  podczas  ogrzewania    lub  studzenia    w  funkcji  czasu  lub 
temperatury lub na pomiarze zmiany masy substancji ogrzewanej izotermicznie w  funkcji czasu. Używane do tego celu urządzenia 
nazywa się termowagami.  Składa  się  ono  z wagi,  gdzie  do  szalki  przymocowany  jest  tygiel  z  badaną  próbką  umieszczony w 
ogrzewanym piecu (wzrost lub spadek temperatury ma charakter liniowy). Strata ciężaru może być spowodowana:  
- dysocjacją termiczną połączoną z utratą np. wody, dwutlenku węgla,  
- sublimacją,  
- utlenianiem z wydzieleniem produktów gazowych. 
DTG 
W  termograwimetrii  różnicowej  równolegle  obok  próbki  badanej  ogrzewana  jest  próbka  kontrolna  z  obojętnego  materiału,  nie 
ulegającego żadnym przemianom termicznym. Wnioskowanie prowadzi się na podstawie różnic zmian temperatur obu próbek. 
 
27)

 

Dylatometria  

 

Dylatometria  jest  jedną  z  technik  badania  przemian  fazowych  zachodzących  w  stali  w  stanie  stałym.  Metoda  ta  pozwala  na 

monitorowanie ewolucji przemian w czasie rzeczywistym poprzez obserwacje zmiany wymiarów próbki podczas cyklu termicznego. 
Jest to również jedna z klasycznych technik najczęściej używanych do określania temperatury początku i końca przemian fazowych 

background image

22 

 

Metody  dylatometryczne  wykorzystują  zjawisko,  że  kiedy  w  materiale  zachodzi  przemiana  fazowa  jego  siec  krystaliczna  jest 
przebudowywana, co powoduje zmianę objętości właściwej. 
 

Badania  dylatometryczne  polegają  na  pomiarze  zmian  wymiarów  (zwykle  jednego  wymiaru)  próbki  materiału  w  funkcji 

temperatury,  czasu  lub  jednocześnie  temperatury  i  czasu.  Konstrukcje  dylatometrów  różnią  się  od  siebie  zasadniczo  sposobem 
pomiaru  wydłużenia.  Dylatometr  różnicowy  rejestruje  zmianę  różnicy  wydłużenia  pomiędzy  próbką  wzorcową  a  próbką  badaną. 
Dylatometr bezwzględny rejestruje bezpośrednio powiększoną zmianę  wydłużenia próbki badanej. Celem badań dylatometrycznych 
jest  wyznaczenie  temperaturowego  i  czasowego  początku  i  końca  przemian  fazowych  zachodzących  podczas  założonych  zabiegów 
cieplnych poprzez naśladowanie tych zabiegów w dylatometrze. Oznacza to np. możliwość opracowania wykresów kinetyki przemian 
przechłodzonego  austenitu  oraz  badanie  przemian  zachodzących  podczas  odpuszczania  stali.  Dylatometr  jest  także  dobrym 
urządzeniem do wyznaczania współczynników rozszerzalności liniowej ciał stałych. Tego rodzaju badania przeprowadza się w próbie 
nagrzewania ze znormalizowaną szybkością. 
 

V. Metody badania właściwości dielektrycznych, piezoelektrycznych  

i ferroelektrycznych 

28)

 

Czynniki określające właściwości dielektryczne materiałów  

DIELEKTRYKI   ciała bardzo  słabo przewodzące prąd elektryczny, opór właściwy (rezystywność elektryczna) jest większy od 10

7

-

10

m; dielektryki mają bardzo mało swobodnych ładunków elektrycznych , a o ich właściwościach elektrycznych decydują ładunki 

związane,  mogące  wykonywać  tylko  ograniczone  ruchy  względem  położeń  równowagi;  zewn.  pola  elektrycznego    powodują 
polaryzację  dielektryków  —  niewielkie  przesunięcie  ładunków  dodatnich  i  ujemnych  względem  siebie;  indukowane  pole  elektr. 
częściowo  kompensuje  wewnątrz  dielektryków  zewnętrzne  pole  elektr.;  najważniejszą  wielkością  charakteryzującą  dielektryki  jest 
przenikalność  elektryczna;  przenikalność  elektr.  dielektryków  zależy  od  częst.  zmian  zewn.  pola  elektr,  a  niektórych  dielektryków, 
np, kryształów jonowych, także od temperatury; dielektrykami mogą być zarówno ciała stale jak ciecze i gazy;  wg teorii pasmowej 
ciała stale  są dielektrykami jeśli przerwa energ.  między pasmami podstawowym i przewodnictwa jest  większa od 2 eV; dielektryki 
mają ogromne zastosowanie prakt., gł. w konstrukcjach elektro- i radiotechnicznych.  
Ładunki zwi
ązane w dielektrykach  
W  dielektrykach  ładunki  związane  mogą  wykonywać  ograniczone  względem  położenia  równowagi  ruchy,  ruchy  te  decydują  o 
własnościach elektrycznych dielektryka. 
Jeżeli  w  polu  elektrycznym  (elektrostatycznym)  znajdzie  się  przewodnik  (w  którym  nie  płynie  prąd  elektryczny),  to  ładunki 
swobodne przesuną się tak, że wewnątrz ciała nie będzie pola elektrycznego. 
W  dielektryku  ładunki  nie  mogą  się  swobodnie  przesuwać  ale  może  dojść  do  przesunięcia  się  ładunków  elektrycznych  dodatnich 
względem ujemnych (powstaną dipole elektryczne), zjawisko to nazywamy polaryzacją dielektryka. Makroskopowo postrzegamy to 
zjawisko  jako  gromadzenie  się  ładunków  na  powierzchni  dielektryka  (obojętnego  jako  całość),  ładunki  te  zmniejszają  pole 
elektryczne  w  dielektryku  w  stosunku  do  zewnętrznego  pola  elektrycznego  (wektor  E),  co  można  opisać  jako  występowanie  w 
dielektryku 

dodatkowego 

pola 

elektrycznego 

(wektor 

D) 

zwanego 

polem 

indukcji 

elektrycznej. 

Jeżeli  dielektryk  jest  izotropowy,  to  wektory  E  i  D  mają  ten  sam  kierunek  i  dla  wielu  substancji  przy  niezbyt  dużym  polu 
elektrycznym i przy niezbyt dużych częstotliwościach zmian pola (E) indukowane pole (D) jest proporcjonalne do pola zewnętrznego, 
współczynnik  proporcjonalności  (ε)  jest  nazywany  przenikalnością  dielektryczną  substancji  i  jest  wielkością  charakterystyczną  dla 
danej substancji. 
Własno
ści dielektryków 
Dielektryki  charakteryzują  się  własnościami  elektrycznymi,  których  wartości    w  głównej  mierze  określają  ich  przydatność  do 
spełniania zadań w aparaturze elektronicznej. 
 Są to: 

-

 

 Wytrzymałość dielektryczna 

-

 

 Oporność właściwa skrośna i powierzchniowa 

-

 

 Przenikalność elektryczna względna 

-

 

 Współ strat dielektrycznych 
 
Inne własności dielektryków: 

a)

 

Mechaniczne 
-    Wytrzymałość 

-

 

Rozciąganie 

-

 

Zginanie 

-

 

Udarność 
b) Fizyczne  

-

 

Gęstość 

-

 

Lepkość 

-

 

Rozszerzalność cieplna 

-

 

Odporność na temperaturę 
c) Chemiczne  

-

 

 Odporność na utlenianie 

-

 

 odporność na działanie kwasów i zasad 
d) Technologiczne 

-

 

Podatność na procesy obróbkowe 

-

 

Podatność na odkształcenia plastyczne  

-

 

Skrawalność 

background image

23 

 

-

 

Zdolność do spiekania 

Własności cieplne  
- ciepło  właściwe 
- przewodnictwo cieplne 
-rozszerzalność termiczna 
Wszystkie te własności określone są  przez  drgania atomów danego ciała. 
 
29)

 

Dyspersja przenikalności elektrycznej 

Dyspersja, rozproszenie, zmienność, zróżnicowanie jednostek zbiorowości statystycznej z uwagi na pewną cechę mierzalną. Im 
bardziej wartości cechy jednostek są skupione dookoła swej średniej, tym mniejsza jest dyspersja i odwrotnie – im bardziej są 
rozproszone, tym większa jest dyspersja. 
 
Liczbową ocenę dyspersji przeprowadzamy za pomocą miar dyspersji, z których najpowszechniej stosowane są: wariancja, 
odchylenie standardowe lub przeciętne, rozstęp (obszar zmienności), odchylenie ćwiartkowe (kwartylowe), współczynnik zmienności. 

Dyspersja w światłowodzie 

Impuls biegnący w falowodzie ulega wydłużeniu (rozmyciu), co ogranicza maksymalną częstotliwość sygnału przesyłanego przez 
falowód. Zjawisko to jest wynikiem dyspersji, fale świetlne biegnące w falowodzie nie mają dokładnie jednakowej długości fali, ale 
różnią się nieznacznie. W wyniku różnic w prędkości poruszania się fal o różnych długościach, fale wysłane jednocześnie nie 
docierają do odbiornika w tym samym czasie. W rezultacie na wyjściu pojawia się szerszy impuls, który rośnie wraz ze wzrostem 
długości światłowodu. Przepływność transmisyjna włókna jest więc określona przez to, jak blisko siebie można transmitować kolejne 
impulsy bez ich wzajemnego nakładania się na siebie (przy zbyt bliskich impulsach zleją się one w światłowodzie w jedną ciągłą 
falę). Dyspersja ogranicza długość światłowodu, przez który może być transmitowany sygnał. Rozróżnia się dwa typy dyspersji – 
dyspersję międzymodową występującą w światłowodach wielomodowych oraz dyspersję chromatyczną występującą w włóknach 
jednomodowych. 

Dyspersja dielektryczna 
Zależność podatności (i przenikalności) od częstotliwości pola elektrycznego nazywa się dyspersją dielektryczną. Pociąga ona za sobą 
zależność od częstotliwości także współczynnika załamania, co jest przyczyną powstania zjawiska rozszczepienia światła. 
      Dyspersja                          Przewodnictwo 

             

 

- krzywa przewodnictwa jest zwierciadlanym odbiciem krzywej dyspersji 

 

30)

 

Metody badania właściwości dielektrycznych  

Ważniejsze właściwości dielektryczne materiałów elektroizolacyjnych to:  
A)

 

rezystywność skrośna i powierzchniowa,  

B)

 

współczynnik strat dielektrycznych i przenikalność elektryczna 

C)

 

wytrzymałość elektryczna,  

D)

 

odporność na łuk elektryczny 

Ad. A Rezystywność skrośna 

ρ

v jest to stosunek napięcia stałego przyłożonego do elektrod, do wartości ustalonej natężenia 

prądu płynącego między elektrodami na skroś próbki, z wyłączeniem tej części prądu, która płynie po powierzchni próbki, odniesiony 
do 1 m2 powierzchni elektrody pomiarowej i 1 m grubości próbki. 

 

(

)

ε

ε

ε

τ

s

G

0

ε

ε

ε

ε

s

'

background image

24 

 

Rezystywność powierzchniowa 

ρ

– jest to stosunek napięcia stałego przyłozonego do elektrod, do wartości ustalonej 

natęzenia prądu płynącego przez warstwę zaadsorbowanej na powierzchni próbki wilgoci, zanieczyszczeń i sadzy, odniesiony do 1m 
długości elektrod i do 1m odległości między elektrodami.  

W celu wyznaczenia rezystywności dielektryka, próbkę umieszcza się w odpowiednim układzie elektrod i przykłada napięcie 

stałe o określonej wartości. Mierzy się cały prąd lub jego składowe: powierzchniową i skrośną. Mierzymy więc rezystancję skrośną 
lub powierzchniową, a potem przeliczamy ją na wartości rezystywności. 

Do pomiarów wykorzystujemy teraomomierz umożliwiający pomiar rezystancji w zakresie 10

8

 -10

18

 [

]. Pomiary 

wykonujemy dla napięć 250 lub 500V. Do zacisków teraomomierza przyłącza się układ elektrod z próbką w środku, zgodnie z 
rysunkiem. Przy pomiarze rezystancji skrośnej elektroda ochronna eliminuje wpływ rezystancji powierzchniowej, a przy pomiarze 
rezystancji powierzchniowej wpływ rezystancji skrośnej. Dodatkowo spełnia ona role ekranu dla elektrody pomiarowej od pól 
obcych. Rysunek przedstawia układ elektrod do pomiaru rezystancji próbek. 

Układ do 

pomiaru rezystancji skrośnej 

E

1

 – elektroda pomiarowa (krążek) 

E

2

 – elektroda ochronna (pierścień) 

E

3

 – elektroda napięciowa (krążek) 

Układ do pomiaru rezystancji powierzchniowej 
E

1

 – elektroda pomiarowa (krążek) 

E

2

 – elektroda napięciowa (pierścień) 

E

3

 – elektroda ochronna (krążek) 

 
Ad. B Współczynnik strat dielektrycznych tg δ - wielkość niemianowana charakteryzująca dielektryki. Wartość tę wyznacza tg δ -
 tangens kąta strat dielektrycznych, czyli stosunek natężenia składowej rzeczywistej (czynnej) IR do składowej urojonej (biernej) IC 
prądu elektrycznego płynącego przez dielektryk w zmiennym polu elektrycznym: 

 

Na wykresie wektorowym prądu płynącego w dielektryku kąt ten 
jest zawarty pomiędzy wektorem prądu i jego składową bierną. W praktyce posługujemy się tgjako współczynnikiem stratności 
dielektrycznej. Jest on zależny od temperatury, częstotliwości oraznapięcia przyłożonego, gdy jego wartość zbliżona jest do 
napięcia jonizacji. Poniższy przedstawia rysunekschemat zastępczy dielektryka rzeczywistego oraz wykres wektorowy prądów w 
takim dielektryku. 

 

Pomiary przenikalności elektrycznej 
umieszczenie dielektryka między elektrodami kondensatora próżniowego o pojemności Co powoduje wzrost jego pojemności do 
wartości Cx. Ze wzoru wynika, że względna przenikalność elektryczna: 

background image

25 

 

ε

x

 = 

 

względna przenikalność elektryczna εr materiału izolacyjnego wyraża się stosunkiem pojemności Cx kondensatora, w którym 
przestrzeń między elektrodami i wokół elektrod jest całkowicie wypełniona materiałem izolacyjnym, do pojemności Co tych samych 
elektrod w próżni. 
Metoda stałoprądowa czasowej odpowiedzi (Metoda Hamona ) 
Metoda Hamona time response (czasowej odpowiedzi) polega na badaniu w funkcji czasu przebiegu prądu ładowania dielektryka jako 
odpowiedzi na jednostkowy skok napięcia stałego polaryzującego próbkę lub prądu rozładowania wskutek gwałtownego zaniku 
napięcia stałego i zwarcia próbki. Metodę tę stosuje się w układzie przedstawionym na rysunku poniżej - powszechnie służącym do 
pomiarów prądów absorpcji i resorpcji oraz rezystancji skrośnej. 

 

Stosując  przekształcenie  Fouriera  dla  czasowej  odpowiedzi  prądowej  dla  dielektryków  liniowych,  można  wyznaczyć  dyspersyjne 
(częstotliwościowe) zależności składowej czynnej ε′(ω) i biernej ε″(ω) przenikalności elektrycznej. 

 

- Metoda zmiennoprądowa rejestracji wartości chwilowych 

 

Rejestruje się chwilowe wartości prądu  układzie pomiarowym przedstawionym na poniższym rysunku, zasilanym z funkcyjnego 
generatora sinusoidalnego małej częstotliwości. Metoda jest oparta na rejestracji chwilowych wartości prądu, który przepływa przez 
kondensator z badanym dielektrykiem między okładkami, oraz napięcia przyłożonego do elektrod. 
 

 

Metody mostowe. Mostek Vince’a.  
Pomiary przenikalności elektrycznej ε i  współczynnika strat dielektrycznych tg

δ

  w zakresie częstotliwości 0,1–10 Hz wykonuje się, 

mierząc  pojemność  elektryczną  mostkiem  Vince’a  którego  schemat  przedstawiono  na  poniższym  rysunku.  Mierzoną  próbkę 
reprezentują pojemność Cx i równolegle do niej przyłączona rezystancja R

x

background image

26 

 

 

Mostek jest zasilany z dwóch zsynchronizowanych  generatorów  niskoczęsto-tliwościowych o napięciach  wyjściowych U

U

o tej 

samej fazie. W stanie równowagi: 

 

Pomiary w zakresie częstotliwości akustycznych ( dalej metody mostkowe) 
W zakresie częstotliwości akustycznych pomiary przenikalności elektrycznej i współczynnika strat dielektrycznych wykonuje się 
zawsze metodą pośrednią, umieszczając badany materiał między elektrodami, które razem z nim tworzą kondensator. 
Pomiary pojemności elektrycznej i współczynnika strat dielektrycznych wykonuje się metodami mostkowymi lub napięciowo-
prądowymi. Stosuje się mostki czteroramienne ze wszystkimi gałęziami biernymi i mostki transformatorowe. 
Mostki czteroramienne bierne 
Wszystkie układy mostków z gałęziami biernymi można sprowadzić do mostka czteroramiennego typu Wheatstone’a, zawierającego 
gałęzie o impedancjach zespolonych Z

1

Z

2

Z

Z

4

, źródło zasilające mostek napięciem przemiennym U oraz wskaźnik równowagi 

WZ 

 

W stanie równowagi  mostka,  gdy prąd  w gałęzi  wskaźnika zera I

= 0, impedancje zespolone gałęzi  mostka  spełniają  warunek: 

Z

1

Z

4

=Z

2

Z

oraz warunek równowagi argumentów: φ

1

4

2

 
Mostek Scheringa 

background image

27 

 

Schemat wysokonapięciowego mostka Scheringa przedstawiono na rysunku poniżej. Mostek ten różni się od mostków 
niskonapięciowych tym, że uziemione jest źródło zasilania, a gałąź wskaźnika zera nie. Wynika to stąd, że mostek pracuje przy 
wysokim napięciu i na elementach R

3

C

R

4

, dostępnych dla obsługi, nie może pojawić się wysokie napięcie. 

 

W stanie równowagi mostka spełnione są równania: 

 

Mostki transformatorowe 
Mostki transformatorowe mają zastosowanie w szerokim zakresie częstotliwości (15–250MHz) ze względu na: 

 

małą liczbę elementów mostka wskutek wprowadzenia zasilania układu bezpośrednio do gałęzi mostka,  

 

dużą dokładność pomiaru i jej bardzo małą zależność od czasu, temperatury i napięcia,  

 

możliwość bezpośredniego uziemienia ekranów i pierścieni ochronnych, a więc pomiaru pojemności kondensatorów 

trójelektrodowych bez dodatkowych obwodów ochronnych 

Metody napięciowo-prądowe pomiaru impedancji 
Metody napięciowo-prądowe pomiaru impedancji, nazywane też metodami wolto-amperomierzowymi, polegają na bezpośrednim 
pomiarze miernikami fazoczułymi prądu przepływającego przez badany obiekt i spadku napięcia na tym obiekcie . Rozwój technik 
mikroprocesorowych spowodował, że obecnie metody te należą do najnowocześniejszych i najczęściej stosowanych. W prawie 
wszystkich współczesnych niskonapięciowych przyrządach do pomiarów impedancji w zakresie częstotliwości od ok. 10 Hz do 1 
MHz wykorzystuje się tę metodę. Zasadę pomiaru impedancji pojemnościowej tymi metodami przedstawiono na rysunku poniżej 

 

 
Układ z rysunku a) ma tę wadę, że potencjał napięcia U

jest podwyższony względem masy, co utrudnia jego pomiar woltomierzem 

fazoczułym  z  jednym  zaciskiem  znajdującym  się  na  masie.  Wady  tej  nie  ma  układ  przedstawiony  na  rysunku  b),  w  którym 
impedancję określa się, mierząc spadek napięcia U

na impedancji Z

i napięcie na generatorze U

g

 

background image

28 

 

Ad.  C  Wytrzymałość  elektryczna –  największa  wartość  natężenia pola  elektrycznego,  jaka  może  istnieć  w dielektryku (izolatorze) 
bez wywołania przebicia.  
Wytrzymałość  definiowana  jest  zgodnie  z  powyższą  normą  jako  „utrata,  przynajmniej  chwilowa,  właściwości  elektroizolacyjnych 
ośrodka  pod  wpływem  natężenia  pola  elektrycznego”.  Wytrzymałość  elektryczna  dielektryka  jest  określana  jako  stosunek  wartości 
napięcia przebicia Up do średniej grubości badanej próbki dielektryka d, zgodnie ze wzorem: 

 gdzie, 

U

p

  –  jest  napięciem  przebicia  wyrażonym  w  wartości  skutecznej  dla  napięć  sinusoidalnych  lub  wartością  maksymalną  dla  napięć 

nieokresowych, [V], 
d – jest grubością próbki w miejscu przebicia, [mm] 
Przy  próbach  wytrzymałości  elektrycznej  materiałów  stałych  wykonuje  się  zazwyczaj  pomiary  napięcia  przebicia  próbek  nie 
przekraczających  3  mm.  Definiuje  się  również  długotrwałą  wytrzymałość  elektryczną,  gdzie  napięcie  jest  zmieniane  skokowo  i 
utrzymywane  przez  pewien  okres,  na  przykład  1  min.  W  ten  sposób  napięcie  jest  podwyższane,  aż  do  napięcia  przebicia  próbki 
układu izolacyjnego. 
 
Ad.D Odporno
ść na łuk elektryczny  
Jest  to  zdolność  dielektryka  do  przeciwstawiania  się  powstawaniu  mostków  przewodzących  trwale  lub  przejściowo,  rozkładowi 
chemicznemu lub zniszczeniu mechanicznemu (np. pęknięciom). 

W zależności od metody badania odporności na działanie łuku, jest odpowiednio określany czas próby w sekundach (badanie 

odporności  na  łuk  elektryczny  o  małym  natężeniu  prądu  przy  wysokim  napięciu)  lub  liczba  uderzeń  łuku  elektrycznego, 
zainicjowanego  przewodem  zapłonowym  do  powstania  ścieżki  przewodzącej  (badanie  przy  dużym  natężeniu  prądu  i  niskim

 

napięciu). 

 

31)

 

Spektometria dielektryczna 

Spektroskopia  dielektryczna   oraz  jej  odmiana  (spektroskopia  impedancyjna) to metoda  spektroskopowa pozwalającą  badać 

właściwości dielektryczne materiału  w  funkcji  częstotliwości  oraz  amplitudy  przyłożonego pola  elektrycznego.  Tym  samym, 
umożliwia  ona  badanie  oddziaływania  zewnętrznego  pola  elektrycznego  ze  stałymi  bądź  indukowanymi momentami  dipolowymi w 
badanej próbce. 

Istotą  spektroskopii  dielektrycznej  jest  badanie  efektów  związanych  z  oddziaływaniem  zewnętrznego,  zmiennego  pola 

elektrycznego z badaną substancją (dielektryka polarnego) i pomiar wielkości charakteryzujących reakcję tego układu na przyłożone 
pole  (najczęściej  zespolonej  przenikalności  dielektrycznej  ε*(ω)).  Ważne  materiały  takie  jak   lekarstwa,  polimery,  ciekłe  kryształy, 
układy biologiczne są najczęściej obdarzone momentem dipolowym o dużej wartości, dzięki czemu świetnie nadają się do badań za 
pomocą spektrometru dielektrycznego. 

Spektroskopia  impedancyjna  oznacza  pomiar  liniowej,  elektrycznej  odpowiedzi  badanego  materiału  na  pobudzenie  małym 

sygnałem elektromagnetycznym w szerokim paśmie częstotliwości i analizę tej odpowiedzi w celu uzyskania użytecznej informacji o 
fizykochemicznych właściwościach badanego materiału. 

 definicji impedancji Z(ω) wynika że każdy pomiar będzie się sprowadzał do określenia wartości amplitudy prądu płynącego przez 

obiekt i przesunięcia fazowego między tym prądem a przyłożonym napięciem 
 
32)

 

Zjawisko piezoelektryczne i jego zastosowania  

Piezoelektryczność  to  zjawisko  generowania  potencjału  elektrycznego  przez  elementy  poddawane  mechanicznemu  ściskaniu  lub 
rozciąganiu,  lub  na  odwrót  zmiany  wymiarów  tych  elementów  na  skutek  przykładania  do  nich  potencjału  elektrycznego.  Wielkość 
potencjału wytworzonego w ten sposób jest wprost proporcjonalna do wielkości przyłożonej siły. Zjawisko to jest odwracalne. 
 
Zjawisko  piezoelektryczne  lub  efekt  piezoelektryczny  –  zjawisko  fizyczne  polegające  na  mechanicznej  deformacji  kryształu  pod 
wpływem  zewnętrznego  pola  elektrycznego  (zjawisko  piezoelektryczne  odwrotne),  a  także:  na  powstawaniu  na  przeciwległych 
ś

cianach kryształów ładunków elektrycznych przeciwnego znaku w wyniku deformacji kryształu (zjawisko piezoelektryczne proste). 

Piezoelektryczność występuje w tych kryształach, które nie mają swojego środka symetrii, np. w kryształach kwarcu. Materiały takie 
nazywane są piezoelektrykami. 
 

 Proste zjawisko piezoelektryczne polega na indukowaniu ładunków elektrycznych Q na powierzchni dielektryka pod działaniem 

naprężeń mechanicznych.  

 (14.1) 

W  równaniu  (14.1)  S  oznacza  powierzchnię  elektrod  nałożonych  na  dielektryk,  d  –  moduł  piezo-elektryczny,  σ  –  naprężenie. 
Naprężeniem nazywamy stosunek siły F działającej na powierzchnię S do wielkości tej powierzchni  

 (14.2) 

Jednostką naprężenia jest N/m

czyli Pa.  

background image

29 

 

Odwrotne zjawisko piezoelektryczne polega na deformacji piezoelektryka pod wpływem pola elektrycznego:  

 (14.3)  
gdzie: η – deformacja względna, d – moduł piezoelektryczny (taki sam jak  w zjawisku prostym), E – natężenie pola elektrycznego. 
Deformacja  względna  jest  to  stosunek  zmiany  rozmiaru  ciała  do  rozmiaru  początkowego,  np.  przyrostu  długości  do  długości 
początkowej. Deformacja względna jest wielkością niemianowaną.  

Z  równań  (14.1)  oraz  (14.3)  wynika,  że  w  zjawisku  piezoelektrycznym  związek  między  siłą  i  indukowanym  przez  tę  siłę 

ładunkiem elektrycznym oraz natężeniem pola elektrycznego i indukowaną tym polem deformacją jest liniowy.  

 

Własności piezoelektryczne kryształów i ciekłych kryształów są wykorzystywane praktycznie w: 

 

generowaniu dźwięków (np. głośniki oparte na elementach piezoelektrycznych) 

 

rejestracji dźwięków (mikrofony oparte na elementach piezoelektrycznych) 

 

detekcji drobnych drgań (np. w czujnikach sejsmicznych, alarmach samochodowych itp.) 

 

do wytwarzania iskry elektrycznej (np. w zapalniczkach) 

 

płytki piezoelektryczne wycięte z kwarcu, rzadziej z turmalinu znajdują zastosowanie w radiotechnicznej aparaturze 
nadawczej do stabilizowania częstości drgań (rezonator kwarcowy), w aparatach do badania materiałów przy pomocy 
ultradźwięków (defektoskopia) 

 

33)

 

Metody badania właściwości piezoelektrycznych  
Metody badania własności piezoelektrycznych materiałów można podzielić na statyczne, kwazistatyczne i dynamiczne.  

– Metody statyczne polegają na bezpośrednim pomiarze ładunków piezoelektrycznych indukowanych na powierzchniach kryształu 

pod  wpływem  zewnętrznych  naprężeń  mechanicznych,  lub  na  pomiarze  odkształcenia  kryształu  pod  wpływem  zewnętrznego 
pola elektrycznego.  

–  Metody  kwazistatyczne  polegają  na  pomiarze  deformacji  kryształu  pod  wpływem  periodycznie  zmiennego  pola  elektrycznego 

(odwrotne zjawisko piezoelektryczne) lub pomiarze ładunku generowanego na powierzchni kryształu pod wpływem zmiennych 
naprężeń mechanicznych (zjawisko proste) o częstości znacznie mniejszej od częstości rezonansowych badanych próbek.  

–  Metody  dynamiczne  polegają  na  pomiarze  częstości  rezonansowych  i  antyrezonansowych  drgań  własnych  płytek  wyciętych  z 

materiałów  piezoelektrycznych  (kryształów,  ceramik  lub  folii)  oraz  wyznaczaniu  parametrów  zastępczych  obwodów 
elektrycznych  tych  próbek  (badaną  probkę  opisujemy  jako  obwód  elektryczny  złożony  z  pojemności  elektrycznej  C, 
indukcyjności L rezystancji R

p

, oraz równolegle do niego dołączonej pojemności własnej próbki C

0

).  

Wśród  metod  dynamicznych  szczególne  znaczenie  ma  metoda  rezonansu-antyrezonansu.  W  płytce  powstaje  fala  stojąca
Częstotliwości  rezonansowe  płytek  określone  są  rozmiarami  i  prędkością  rozchodzenia  się  dźwięku  w  płytce,  a  prędkość 
współczynnikiem sprężystości i gęstością. 
 
W  metodzie  rezonansu-antyrezonansu  wykorzystuje  się  fakt,  że  drgająca  płytka  piezoelektryczna  pod  względem  elektrycznym 
zachowuje  się,  jak  szeregowy  obwód  RLC.  Poniżej  zostanie  udowodnione,  że  tak  rzeczywiście  jest.  Załóżmy,  że  płytka  jest 
piezoelektryczna, tj.powstaje ładunek Q proporcjonalny do wychylenia X, a przyłożeniu siły F towarzyszy powstanie napięcia U: 

background image

30 

 

sin

'

2

:

1

1

1

:

'

2

2

m

U

Q

k

I

dt

dl

m

y

otrzymujem

dt

dI

dt

x

d

I

dt

dQ

dt

dx

Q

x

ą

c

podstawiaj

U

F

U

F

Q

x

x

Q

x

Q

=

+

+

=

=

=

=

=

=

=

α

α

α

β

α

α

α

α

α

α

α

α

α

α

 

 

VII. Metody badania właściwości magnetycznych i zastosowanie magnetyków w metodach badawczych 

 

43) Metody badań struktury domenowej ferroelektryków  
- Metoda mikroskopu polaryzacyjnego 
Dla próbek przeźroczystych i dla monokryształu 
 

 

S-źródło światła 
P- polaryzator 
K- kryształ (badana próbka) 
A-analizator 
O- obiektyw mikroskopu 
 
Schemat metody mikroskopu polaryzacyjnego: 

 

Schemat pokazuje wzajemne położenie polaryzatora P, analizatora A i kryształu K. 
Zastosowanie: badanie przemian fazowych metodą mikroskopu polaryzacyjnego 
- Metoda trawienia: 
Kryształ zanurza się na pewien czas i do określonego kwasu. Dobiera się takie kwasy, aby dodatnie i ujemne  końce domen trawiły 
się z różną prędkością. 
Wadą tej metody jest to, że jest to metoda niszcząca. Nadaje się tylko do badania statyki struktury domen. 
Zalety: Mamy jednoznaczną inf. o domenach i granicach domen. 
 
- metoda transmisyjnego mikroskopu elektronowy (TEM): 

Służy do badania bardzo cienkich warstw (poniżej 0,1 

µ

m grubości) 

 
Inne metody badań struktury domenowej: 
- metoda topografii rentgenowskiej 
- metody osadzania naładowanych proszków 
- metoda rosy 

background image

31 

 

- metody z wykorzystaniem mat. Elektroluminescencyjnych i ciekłych kryształów 
- metoda dekoracji 
 
44) Statyczne metody magnetyczne  
W polu jednorodnym dipole doznają obrotu bez przesunięcia.  
W polu niejednorodnym: 

Z

H

V

M

F

Z

H

F

=

α

 

Czynniki określające właściwości powierzchniowe: 
Badania powierzchni ciała stałego dostarczają istotnych informacji na temat składu chemicznego, natury strukturalnej i zjawisk 
fizycznych zachodzących na powierzchni struktury. 
 
Metoda Magnetyczna  
Zasada wykrywalności  
Magnesowanie obiektów stałym, przemiennym polem magnetycznym. Wykrywanie zmiany strumienia magnetycznego: proszki 
magnetyczne przetworniki indukcyjnościowe (efekt Faradaya)  
Zastosowania  
Wykrywanie nieciągłości powierzchniowych i podpowierzchniowych w obiektach z materiałów ferromagnetycznych. Pomiar 
naprężeń i jakości materiałów  
Ograniczenia  
Brak możliwości zastosowania dla materiałów niemagnetycznych.  
Naprężenia tylko na powierzchni  
Zalety  
Prostota prowadzenia badań metodami magnetycznymi.  
Nieduże wymagania dotyczące stanu powierzchni  
Materiały badane  
Stale ferromagnetyczne, nikiel kobalt  
Rodzaje wykrywanych nieciągłości  
Wykrywanie nieciągłości powierzchniowych: pęknięć i nieciągłości podpowierzchniowych. Pomiar jakości materiału powierzchni 
oraz stanu naprężeń. 
 

VIII. Metody badania składu chemicznego i powierzchni 

65) Czynniki określające właściwości powierzchniowe 

Badania  powierzchni  ciała  stałego  dostarczają  istotnych  informacji  natury  poznawczej,  jak  również  posiadają  ważny  aspekt 
praktyczny  (informacje  dotyczą  składu  chemicznego,  natury  strukturalnej  i  zjawisk  fizycznych  zachodzących  na  powierzchni 
struktury). 
 
Przykłady zjawisk zachodzących na powierzchni kryształu: 

a)

 

nowa struktura 

b)

 

wydzielenie atomów jednego pierwiastka na powierzchni 

c)

 

adsorpcja 

d)

 

utworzenie na powierzchni nowego związku - chemisorpcja 

 
66) Jonowa mikroskopia polowa (FIM – Field Ion Microskopy) 
 
Metoda otrzymywania obrazów powierzchni. 
Tylko do badania metali (wysoka próżnia). 
Wytwarza się jony, które bombardują powierzchnię metalu, wyrywają z tej powierzchni inne jony. Przyspieszone jony trafiają w 
ekran fluorescencyjny i powodują świecenie. Na ekranie -> układ plamek odpowiada strukturze powierzchni. 
 
68) Mikroskop tunelowy 

Mikroskop ze skanującą sondą. Uzyskanie obrazu powierzchni jest możliwe dzięki wykorzystaniu zjawiska tunelowego. Nad 
powierzchnią próbki, która może być wykonana tylko z materiału przewodzącego prąd elektryczny, umieszczona jest sonda (igła), 
którą można poruszać w sposób kontrolowany. Ramię trzymające igłę mocowane jest do aparatury poprzez odpowiednio 

background image

32 

 

skonstruowany układ piezoelektryczny (tzw. skaner piezoelektryczny), który pod wpływem napięcia elektrycznego zmienia w 
niewielkim stopniu swe wymiary, a tym samym zmienia położenie igły umożliwiając jej przesuwanie się nad próbką. 
 
69) Mikroskop AFM i MFM  

AFM 
Do obrazowania powierzchni wykorzystuje się siły oddziaływania międzyatomowego, na zasadzie przemiatania ostrza nad lub pod 
powierzchnią próbki. Umożliwia to obserwowanie powierzchni próbki.Drgająca sonda lekko „dziobie” powierzchnię próbki.Zmiany 
amplitudy drgań dźwigienki związane z ukształtowaniem powierzchni próbki służą do wytworzenia obrazu topograficznego. 

 

Zastosowanie do sporządzanie mikroskopowych  map:  
• ukształtowania powierzchni – topografia 
• sił tarcia 
• adhezji 
  
MFM 
Mikroskop sił magnetycznych (MFM: Magnetic Force Microscope). Ostrze pokryte cienką warstwą ferromagnetyka wibruje z 
częstotliwością bliską rezonansowej poruszając się blisko badanej powierzchni. Poprzez modulację częstości z jaką wibruje dźwignia 
mikroskop rejestruje namagnesowanie badanej powierzchni. Zmiany te są indukowane przez zależność pola magnetycznego od 
odległości ostrze - próbka. Jest on używany do badania struktur domen magnetycznych powierzchni głowic i nośników 
magnetycznych, np. dysków twardy.