Miesięcznik ISSN 0033-2089, e-ISSN 2449-9528 - rok powstania: 1960
Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
Mieczysław Nowak, Roman Barlik
Poradnik inżyniera energoelektronika. Tom1
Wydawnictwo WNT, Warszawa 2014, wyd. II zmienione;
400 str., 253 rys.)
Mieczysław Nowak, Roman Barlik, Jacek Rąbkowski
Poradnik inżyniera energoelektronika. Tom 2
Wydawnictwo WNT, Warszawa 2015, wyd. II zmienione;
523 str., 634 rys.)
Nakładem Wydawnictwa NT ukazały się dwa tomy Poradnika
inżyniera energoelektronika, poświęconego analizie, projektowaniu,
konstrukcji i eksploatacji urządzeń energoelektr więcej » Czytaj za darmo! »
Funkcja niejednoznaczności jest powszechnie wykorzystywana
przez osoby projektujące systemy radarowe jako narzędzie
do badania i analizy różnych typów sygnałów sondujących,
pozwalające określić dla konkretnych sygnałów m. in.
rozróżnialność odległościową, a także rozróżnialność dopplerowską
- związaną z powodującą efekt Dopplera prędkością
przemieszczania obiektu. Funkcja niejednoznaczności daje
również pojęcie o tym w jakiego typu aplikacjach radarowych
może znaleźć zastosowanie dany sygnał sondujący.
Niestety nie istnieją żadne analityczne metody służące do
syntezy sygnału sondującego na podstawie zadanego a priori
kształtu funkcji niejednoznaczności [3]. Dlatego też projektowanie
sygnału sondującego o pożądanych właściwościach
funkcji niejednoznaczności jest oparte przede wszystkim na
wiedzy i zdobytym doświadczeniu projektanta systemów radarowych.
Funkcja niejednoznaczności jest dwuwymiarową
funkcją (definiowaną wzorem 1) przedstawiającą wpływ efektu
Dopplera na wynik korelacji wykonywanej w odbiorniku radarowym
za pomocą filtracji dopasowanej [3, 4].
, (1)
gdzie: fd - częstotliwość dopplerowska,τ - opóźnienie sygnału,
u(t) - zespolona obwiednia sygnału sondującego,
zaś * symbolizuje sprzężenie zespolone.
Na rys. 1 została przedstawiona przykładowa funkcja
niejednoznaczności. Zwykle do analizy wykorzystuje się trójwymiarowe
wykresy tych funkcji. W celu uzyskania większej
przejrzystości na wykresach przedstawiane zostały wartości
bezwzględne bez podnoszenia do kwadratu, przy czym
wartości funkcji oraz obydwie osie są najczęściej znormalizowane.
2 2 2 *
( , ) ( ) ( )
-
f = u t u t - e dt
j f t
d
d
Funkcja niejednoznaczności posiada kilka istotnych właściwości
[3, 5]:
1. Niezależnie od rodzaju sygnału sondującego funkcja osiąga
maksymalną wartość na początku układu współrzędnych
(przy braku dopplerowskiego przesunięcia częstotliwości
fd i zerowym czasie opóźnienia sygnału τ), która
wy więcej »
Układ drgający jest rezonatorem mechanicznym, którego zadaniem
jest przekształcenie energii elektrycznej, dostarczanej
z generatora, na energię drgań mechanicznych o zadanej
częstotliwości oraz amplitudzie [9]. W skład układu drgającego
wchodzą: przetwornik ultradźwiękowy, falowód pośredniczący
- koncentrator oraz sonotroda. Budowę typowego układu
drgającego przedstawiono na rys.1.
Rolą przetwornika ultradźwiękowego jest przetworzenie
energii elektrycznej na energię drgań mechanicznych.
Koncentrator, stosuje się w celu dopasowania sonotrody
do przetwornika ultradźwiękowego, tak aby na powierzchni
roboczej sonotrody uzyskać wymaganą przez daną technologię
wartość amplitudy drgań mechanicznych. Sonotroda,
zwana także narzędziem, ma za zadanie przekazać energię
drgań mechanicznych do obciążenia (np. do wody w przypadku
technologii mycia ultradźwiękowego). Przekazywana
w ten sposób energia oraz moc jest zależna od wartości
amplitudy drgań mechanicznych na powierzchni roboczej
sonotrody, tzn. powierzchni, przez którą zostaje wypromieniowana
energia w postaci fal akustycznych do obciążenia.
Wartość amplitudy drgań mechanicznych w układach drgających
o niewielkim poborze mocy jest liniowo zależna od
napięcia pobudzania elektrycznego. W układach drgających
o stosunkowo dużym poziomie poboru mocy ~kW i znacznej
amplitudzie drgań mechanicznych ~10 μm układ drgający
zaczyna zachowywać się jak nieliniowy oscylator zbliżony
zachowaniem do oscylatora Duffinga [2, 3]. Zachowanie to
ma istotny wpływ na funkcjonalność układu drgającego i jego
zdolność do przekazywania energii do obciążenia, dlatego
też ważnym jest aby zachowani więcej »
Technologia wytwarzania organicznych diod elektroluminescencyjnych
(OLED) jest od wielu lat przedmiotem intensywnych
badań nie tylko jednostek naukowych, jak również
ośrodków przemysłowych, prowadzących prace badawczo-
-rozwojowe. Niewątpliwie duże zainteresowanie diodami
OLED spowodowane jest ich wieloma zaletami, do których
należą m.in. szeroki kąt widzenia, niski pobór prądu oraz
potencjalna możliwość produkcji elastycznych wyświetlaczy
[1-3]. Jednakże pomimo wielu zalet diody OLED obecnie
nie znalazły szerokiego zastosowania w różnych obszarach
oświetlenia. Jedną z przyczyn takiego stanu jest ich ograniczony
czas życia, który wynosi obecnie około 10 000 h
zgodnie z danymi przedstawionymi przez firmę Novaled
[4]. Na jego długość wpływa proces degradacji diod OLED,
spowodowany zarówno czynnikami zewnętrznymi (tlen, wilgoć),
jak i wewnętrznymi (wzajemna reakcja związków zastosowanych
do wytwarzania warstw funkcjonalnych oraz ich
rozkład) [5-8].
Proponowanym w niniejszej pracy rozwiązaniem zabezpieczania
diod OLED przed wpływem tlenu i wilgoci jest prowadzenie
procesu ich wytwarzania w warunkach beztlenowych
i kontrolowanym poziomie wilgotności oraz stosowanie
procesu hermetyzacji. W dużych przemysłowych ośrodkach
badawczo-rozwojowych, oprócz wytwarzania diod w pomieszczeniach
o dużej czystości i w obecności gazu obojętnego,
stosowane są procesy hermetyzacji, polegające na
nakładaniu wielu warstw różnych związków. Proces ten wymaga
jednak użycia specjalistycznej i kosztownej aparatury.
Natomiast przedstawione w niniejszym artykule wyniki badań
dotyczą diod więcej »
Dzięki swoim unikalnym właściwościom nanorurki węglowe
są przedmiotem intensywnych badań wielu grup badawczych
z różnych dziedzin nauki i techniki. Charakteryzuje je sprężystość
i elastyczność, duże przewodnictwo cieplne, odporność
chemiczna, ogromna wytrzymałość mechaniczna - moduł
Young’a wynosi ~1TPa, co czyni z nich jednym z najmocniejszych
materiałów [1]. Najciekawsze są jednak właściwości
elektryczne, które zmieniają się w zależności od średnicy
i chiralności (skrętności) - mogą wykazywać przewodnictwo
elektryczne metaliczne lub półprzewodnikowe. Najbardziej
interesującym z punktu widzenia praktycznego zastosowania
nanorurek jest wykazywane przez nie zjawisko zimnej emisji
polowej [2-5]. Zalety wynikające z właściwości mechanicznych
i fizyko-chemicznych w połączeniu z kształtem nanorurek
sprawiają, że obiekty te są bardzo obiecującym materiałem
na emitery polowe, już praktycznie stosowanym. Pojedyncze
nanorurki wykorzystywane są jako źródła elektronów między
innymi w skaningowych mikroskopach elektronowych, natomiast
warstwy nanorurek są idealne jako katody w urządzeniach
próżniowych, elektronicznych czy optoelektronicznych
takich jak: lampy elektronowe (fluorescencyjne, mikrofalowe,
rentgenowskie), wyświetlacze FED (field emission display),
urządzenia litograficzne wykorzystujące wiązkę elektronową
[6-12]. Ze względu na możliwość uzyskania wysokiej emisji
elektronowej z nanorurek w niskich polach elektrycznych
(w porównaniu do tradycyjnych emiterów polowych) dąży się
do wprowadzenia na szeroką skale przemysłową urządzeń
bazujących na emiterach zbudowanych z nanorurek węglowych.
Zanim jednak zagoszczą na dobre w naszym życiu codziennym
należy zoptymalizować zarówno warunki otrzymywania
warstw nanorurek jak i sam mechanizm zjawiska emisji
elektronowej z tychże warstw pod kątem wydajności i stabilności
emisji. Najefektywniejszą metodą wytwarzania warstw
nanorureksą procesy CVD (chemical vapour deposition) i ich
m więcej »
Bezrdzeniowe przetworniki prądowy pracujące na zasadzie
cewki Rogowskiego coraz częściej zastępują tradycyjne przekładniki
transformatorowe do pomiaru prądów w energetyce.
Zasada działania bezrdzeniowego przetwornika jest dobrze
opisana w literaturze [1]. Napięcie na wyjściu przetwornika jest
proporcjonalne do pochodnej mierzonego prądu, przy czym
dla wyższych częstotliwości (powyżej kilkudziesięciu kHz) jest
ono modyfikowane przez transmitancję elektrycznego obwodu
zastępczego przetwornika. Dla częstotliwości poniżej kilku
kHz przetwornik reprezentuje sobą źródło napięciowe o rezystancji
wewnętrznej wynikającej z rezystancji przewodu, z którego
jest wykonany. W przypadku przetworników wykonanych
w technologii wielowarstwowych obwodów drukowanych
przewód jest zastąpiony ścieżką mozaiki obwodu drukowanego.
Rezystancja przetwornika wraz z rezystancją wejściową
wzmacniacza sygnału przetwornika tworzy dzielnik napięciowy.
W dzielniku tym rezystancja przetwornika, wynikająca
z rezystancji ścieżki miedzi tworzącej przetwornik, zmienia się
z temperaturą o 0,39% na stopień. Z kolei rezystancja wejściowa
wzmacniacza sygnału przetwornika, określona przez
rezystory termo-kompensowane, pozostaje stała. Powoduje
to zmianę podziału dzielnika z temperaturą, co wprowadza
błąd pomiaru.
Zależność stopnia podziału dzielnika
wejściowego od temperatury
Elektryczny układ zastępczy bezrdzeniowego przetwornika
prądowego pracującego na zasadzie cewki Rogowskiego został
przedstawiony na rys. 1. Napięcie wyjściowe przetwornika
występuje na zaciskach 2-2’, do których jest dołączony
układ przetwarzający o rezystancji wejściowej Ro.
Transmitancja prądowo-napięciowa przetworn więcej »
Prowadzone od przeszło 20 lat w ITR prace badawcze dotyczące
systemów pomiarowych, w szczególności w zakresie
mikroprocesorowych urządzeń zabezpieczeniowych (EAZ), zaowocowały
ich wdrożeniem głównie w rozdzielnicach średnich
napięć (SN). Wieloletnia współpraca z największymi wytwórcami
rozdzielnic SN (ELEKTROBUDOWA S.A., ABB S.A., ZPUE
S.A., ELEKROMONTAŻ S.A., ELEKTROMETAL S.A.) w sposób
bezpośredni inspiruje inżynierów do poszukiwań rozwiązań
i podejmowania badań, które wychodzą naprzeciw potencjalnym
użytkownikom. Postęp w technologiach elektronicznych
i teleinformatycznych powoduje, że konstruktorzy rozdzielnic
stawiają przed naukowcami zadania, których celem jest zintegrowanie
i miniaturyzacja obwodów pierwotnych i wtórnych
rozdzielnic. Ponieważ w dużej mierze decydują o tym stosowane
układy do pomiaru wszystkich parametrów elektrycznychi
zabezpieczeń, dlatego też badania skoncentrowane są na
integracjii wprowadzaniu nowych mechanizmów związanych
z inteligencją stacji energetycznej. Jeśli chodzi o tradycyjne
obwody wtórne w rozdzielnicach (tzw. celki pomiarowe niskiego
napięcia /nn/), to w ostatnich 15. latach nastąpił znaczący
postęp w tym zakresie. Wypełnienie luki innowacyjnej w wymienionym
obszarze, było możliwe m.in. dzięki opracowaniu
i wdrożeniu kilku nowych generacji cyfrowych zespołów zabezpieczeń
(EAZ).W ITR już na początku lat 90-tych opracowano
pierwsząw Polsce aplikację urządzenia mikroprocesorowego
integrującego algorytmy zabezpieczeń, pomiaru, sterowania
i automatyk. Zdobyte doświadczenia w tym obszarze, pozwoliły
na dalszy rozwój i znaczący postęp w tym zakresie.
Pierwsze aplikacje mikroprocesorowych
urządzeń EAZ
Na początku lat 90. zespoły badawcze z Instytutu Tele-i Radiotechnicznego
(ITR), Instytutu Energetyki (IEn) i Zakładów
Wytwórczych Aparatury Wysokiego Napięcia (ZWAR) podjęły
się opracowania cyfrowego urządzenia EAZ, które miało zastąpić
dotychczasowe urządzenia analogowe (SMAZ) stosowane
w ro więcej »
Nowoczesne systemy elektroniczne zwłaszcza przeznaczone
do nadzoru i ochrony systemów elektroenergetycznych
wyposażonych w system łączności nie mogą obejść się bez
systemów podtrzymania pracy na czas zaniku zasilania. Do
zasilania urządzeń EAZ stosuje się oprócz zasilania podstawowego
zasilanie pomocnicze np. z przekładników napięciowych.
Inną klasą rozwiązań jest zasilanie urządzeń
z zewnętrznego systemu UPS bazującego na podtrzymaniu
akumulatorowym. Jednak rozwiązanie takie wymaga dodatkowych
układów ładowania, monitorowania sprawności
baterii akumulatorów oraz jej serwisowania. Istotnym problemem
są też znaczące koszty oraz duże rozmiary takiego
rozwiązania niepozwalające na zabudowanie we wnętrzu
obudowy, w celu jego pełnej integracji z urządzeniem.
Wraz z rozwojem technologii możliwe stało się wytwarzanie
kondensatorów dwuwarstwowych o pojemności setek
faradów i napięciu pojedynczych voltów. Te kondensatory
nazwane zostały superkondensatorami (ang. supercapacitor,
supercap). Najważniejszą cechą superkondensatora
jest jego bardzo duża pojemność, a przez to bardzo duża
gęstość energii na jednostkę masy, sięgająca 10Wh/kg dla
typowych rozwiązań. Zaistniała więc praktyczna możliwość
ich użycia w krótkoterminowych zasobnikach energii zintegrowanych
z urządzeniem, dla potrzeb przedłużonego podtrzymania
zasilania urządzeń. Czas ten jest wystarczający
dla przygotowania urządzenia do wyłączenia, sygnalizacji
jego stanu dla urządzeń zewnętrznych, jak również przesłania
informacji diagnostycznej o monitorowanym obiekcie do
systemu nadrzędnego. Zasilacz sieciowy wraz z zasilaczem
pomocniczym czerpiącym więcej »
Silicon nitride (SiNx) and diamond like carbon (DLC) thin films
has already found a wide range of applications in electronic
and optical industry [1,2]. These films have a number
of useful properties such as low density, resistance to high
temperatures, low electrical conductivity, thermal shock resistance,
abrasion and oxidation resistance [3-5]. Due to high
hardness and the etching selectivity with SiO2, silicon nitride is
used as a planarization layer - CMP - stop (Chemical Mechanical
Polishing) in STI technology (Shallow Trench Isolation).
SiNx with thickness ranging from 50 nm to 200 nm is also an
excellent antireflective, passivation and protective coating for
silicon solar cells [6]. For both passivation and protective purposes
silicon nitride and DLC films provide a diffusion barrier
against water molecules and sodium ions [7]. Moreover, both
materials exhibit very good chemical stability and inertness,
qualities which are important in the design of reliable biochemical
and biomedical devices [8].
For most of the optical and sensing applications, thickness,
optical and mechanical properties of thin films play
a critical role in performance of the device [9,10]. Properties
such as refractive index of SiNx films can be tuned from those
similar to Si3N4 (n = 2.0) to those of amorphous silicon (n = 3.5)
[8]. Whereas refractive index of DLC films varies with with the
hydrogen content and the sp2/sp3 ratio, exhibiting values from
1.8 to 2.2 in the infrared spectral range. Moreover, both films
show very low optical absorption in the infrared and due to
these excellent optical properties, waveguides based on the
films have transmission losses as low as 0.1 and 0.3 dB/cm
for SiNx and DLC films respectively [8-10]. Similarly, as in the
case of optical properties, good mechanical properties of DLC
and SiNx films, i.e. hardness and Young’s modulus play a significant
role in the proper operation of the optical system.
In th więcej »
Przy projektowaniu generatorów sygnałów zasilających piezoelektryczne
przetworniki ultradźwiękowe oraz układy drgające
wychodzi się najczęściej od charakterystyk impedancyjnych
mierzonych w funkcji częstotliwości sygnału pobudzenia. Ze
względu na istnienie sprzężenia elektro-mechanicznego w takim
układzie mierzone charakterystyki mają charakter krzywych
rezonansowych - takich jak pokazana na rys.1a. Z tego
też powodu obciążenie układu generatora ultradźwiękowego
modeluje się poprzez szeregowy lub równoległy układ rezonansowy
RLC, przy czym najczęściej wykorzystuje się model
szeregowy ze względu na prostą interpretację fizyczną. Model
taki pokazano na rys.1b. Przyjmuje się, że pojemność C0S odzwierciedla
pojemność własną elementów piezoelektrycznych
(np. krążków ceramicznych umieszczonych pomiędzy elektrodami),
natomiast elementy Rs, Ls oraz Cs modelują efekt piezoelektryczny.
Analogicznie do obwodu przedstawionego na
rys.1b charakterystykę przetwornika można również modelować
równoległym obwodem rezonansowym o elementach RL,
CL, LP i szeregowej pojemności Cos. Choć modele te są równoważne
w rozumieniu odwzorowania charakterystyk to różnią
się interpretacją fizyczną. W modelu szeregowym przyjmuje
się, że układ znajduje się w rezonansie mechanicznym pracując
w częstotliwości f1 i uzyskując w ten sposób maksimum
wydajności mechanicznej, której miarą jest amplituda drgań
czoła układu drgającego. W modelu równoległym natomiast
przyjmuje się, że maksimum amplitudy drgań układu przypada
na częstotliwość f2. Brak całkowitej równoważności w omówionych
modelach ma duże znaczenie praktyczne ze względu
na metodykę projektowania układów wyjściowych generatorów
ultradźwiękowych. Większość współczesnych rozwiązań
stosuje model szeregowy celem zwiększenia sprawności
stopnia wyjściowego poprzez wprowadzenie kompensacji pojemności
Cos zewnętrznym elementem indukcyjnym. W zależności
od przyjętego modelu zastępczego przeprowadza się
typowo ko więcej »
Elastyczne obwody drukowane umożliwiają uzyskanie
oszczędności przestrzeni i obniżenie masy sprzętu elektronicznego.
Na podłoża obwodów elastycznych stosuje się
różne materiały, np. folie poliimidowe i poliestrowe. O rodzaju
zastosowanego materiału decydują: konstrukcja obwodu elastycznego,
technologia montażu, a także parametry pracy gotowego
podzespołu elektronicznego.
Elastyczne (giętkie) obwody drukowane mają takie same
zadania jak obwody sztywne, czyli zapewnienie mechanicznie
stabilnego podłoża dla realizacji połączeń elektrycznych między
elementami układu elektronicznego. Również schemat
budowy płytki elastycznej jest taki sam jak płytki sztywnej,
tzn. płytka elastyczna składa się z podłoża dielektrycznego,
na którym znajduje się warstwa przewodząca, a w wypadku
większej ilości warstw połączenia między nimi realizowane są
przy użyciu otworów metalizowanych. Natomiast główna różnica
pomiędzy omawianymi typami obwodów drukowanych
to ich elastyczność, która zapewnienie wymusza stosowanie
odmiennych materiałów podłożowych. Natomiast materiałem
przewodzącym w obydwu przypadkach jest miedź, która jest
materiałem wysoce elastycznym i znakomicie sprawdza się
w obwodach giętkich. Obwody giętkie jak i sztywne mogą więcej »
We współczesnych urządzeniach elektronicznych bazujących
na zminiaturyzowanych komponentach efektywne odprowadzanie
ciepła jest bardzo ważnym zagadnieniem. Z uwagi
na bardzo duże różnice w przewodności cieplnej powietrza
i ciał stałych to właśnie PCB jest bardzo istotnym elementem
odprowadzającym ciepło bezpośrednio z podzespołów
elektronicznych. Właściwości termiczne, a w szczególności
przewodność cieplna płytek PCB wykonanych z popularnych
laminatów FR-4 coraz częściej okazują się być niewystarczające
do skutecznego odprowadzenia wytworzonego w podzespołach
elektronicznych ciepła, wymuszając zastosowanie
radiatorów o dużej masie i wymiarach. Na rynku dostępne
są jednak nowe technologie produkcji PCB pozwalające na
skuteczniejsze odprowadzanie ciepła z komponentów elektronicznych.
Dzięki lepszemu przewodzeniu ciepła wymiary płytki
mogą być mniejsze, rzadziej występuje też potrzeba stosowania
radiatorów. Możliwe staje się projektowanie mniejszych
urządzeń o wysokiej niezawodności (obniżenie temperatury
pracy komponentów spowalnia ich degradację) [1] bez drastycznego
zwiększenia kosztów produkcji. Związek niezawodności
komponentów z ich temperaturą pracy i rosnąca gęstość
mocy w układach scalonych sprawia, że coraz większa
waga przywiązywana jest do analizy termicznej elektroniki.
W fizyce klasycznej wyróżnia się trzy sposoby przepływu
ciepła: przewodzenie, konwekcja i radiacja. Ciepło z układu
elektronicznego do otoczenia przekazywane jest głównie
przez konwekcję, ale dla projektanta elektroniki to przewodzenie
jest najbardziej istotnym zjawiskiem, ponieważ chłodzenie
komponentów (niewyposażonych w radiatory) odbywa się za
pośrednictwem płytki PCB, do której jest przekazywane ciepło
z obudowy elementów. Lepsze przewodnictwo cieplne podłoża
oznacza niższą temperaturę pracy komponentów. Rezystancje
termiczne kilku materiałów najczęściej występujących w urządzeniach
elektronicznych zostały przedstawione w tabeli 1.
Tab. 1. Pr więcej »
Tradycyjne, konwencjonalne przekładniki używane powszechnie,
wykorzystują zasadę transformacji, wynikającą
ze zjawiska indukcji elektromagnetycznej. Są to głównie przekładniki
rdzeniowe, charakteryzujące się dużymi gabarytami,
dużą masą, nieliniowością charakterystyk magnetycznych
rdzeni, dużą mocą przenoszoną przez przekładnik, wytwarzaniem
szkodliwego pola magnetycznego, wąskim pasmem pomiarowym
oraz niską dynamiką wynikającą z efektu nasycania
się rdzenia magnetycznego. Dobre przekładniki powinny
charakteryzować się małą wartością rozproszenia oraz małą
wartością prądu jałowego. Ponieważ pracują one w obiektach
energetycznych np. rozdzielnicach średniego napięcia /
SN/ (ok. 30 kV), to konstrukcja ich wymaga właściwej izolacji
napięciowej między uzwojeniem pierwotnym i wtórnym oraz
doskonałej izolacji samego uzwojenia pierwotnego. Znamionowe
prądy pierwotne wynoszą od kilkudziesięciu A do kilku
kA, a prądy zwarciowe osiągają wartość kilkudziesięciu kA.
Ze względu na rozwój nowych technologii, przekładnikom
stawia się nowe wymagania dotyczące częstotliwości transformowanych
sygnałów oraz czułości i dynamiki pomiarowej.
Analiza znanych rozwiązań pod kątem
ich zastosowań w rozdzielnicach
energetycznych
Dużo firm produkuje przekładniki konwencjonalne o podwyższonych
częstotliwościach pracy, ale o bardzo ograniczonych
parametrach dynamicznych i mocowych. Przekładniki
takie muszą być dopasowane do prądu znamionowego
(5-120% In) i nie nadają się do stosowania w rozdzielnicach
SN, np. do pomiarów stanów rozruchowych silników (do 6 In)
oraz stanów zwarciowych (20÷60 In).
Przetworniki zbudowane przy użyciu hallotronów lub
magnetorezystywnych czujników pola magnetycznego są
znane i wykorzystywane od kilkunastu lat. Produkuje je wiele
firm, a najbardziej popularne są czujniki firmy LEM. Należy
podkreślić, że czujniki Halla są wrażliwe na wpływ temperatury,
wymagają więc zastosowania odpowiednich układów kompensacyjnych.
Jakkolwiek więcej »
Rynek półprzewodników mocy wzbogacił się w ostatnim czasie
o tranzystory typu MOSFET wykonywane w technologii
węglika krzemu (SiC). W literaturze opisano wiele konstrukcji
tranzystorów MOSFET wykorzystujących dwutlenek krzemu
(SiO2) wytwarzany w procesie utleniania termicznego węglika
krzemu jako dielektryk bramkowy [1-3]. W istocie zdolność
do tworzenia naturalnego dielektryka, jakim jest SiO2, jest
wymieniana jako jedna z najbardziej istotnych zalet SiC [4].
Opracowano wiele metod poprawy jakości interfejsu SiO2/
SiC w celu wdrożenia technologii dielektryka bramkowego do
produkcji (np. [5-7]). Niestety zastosowanie SiO2 jako dielektryka
bramkowego wiąże się również z pewnymi problemami,
do których zalicza się przede wszystkim niższa w porównaniu
z SiC względna przenikalność elektryczna, skutkująca
degradacją w obszarze dielektryka pod wpływem wysokiego
pola elektrycznego oraz mała pojemność bramki tranzystora
przekładająca się na stosunkowo duże niestabilności napięcia
progowego wytworzonych z wykorzystaniem tej technologii
przyrządów [4]. Z tego też względu celowe jest wykorzystanie
w technologii węglika krzemu dielektryków typu high-k, dzięki
którym możliwe jest ograniczenie negatywnego wpływu opisywanych
powyżej czynników. W artykule przedstawiono wyniki
analizy prądów stymulowanych termicznie (TSC) dla struktury
z podwójnym dielektrykiem SiO2/ZrO2.
Metoda TSC
Metoda TSC jest jedną z metod pomiarowych pozwalających
na bezpośredni pomiar parametrów pułapek w strukturach
MOS. Pomiar polega na naładowaniu stanów pułapkowych
poprzez oświetlenie struktury promieniowaniem o odpowiedniej
długości fali lub zapewnienie odpowiedniej polaryzacji
elektrycznej struktury testowej, a następnie schłodzeniu
struktury testowej do takiej temperatury, aby uzyskać efekt
"wymrożenia" nośników znajdujących się w stanie pułapkowym.
Efekt "wymrożenia" nośników polega na osiągnięciu tak
niskiej temperatury próbki, przy której prawdopodobieństw więcej »
Ogniwa fotowoltaiczne - wprowadzenie
Ogniwa fotowoltaiczne, będące częściami składowymi baterii
słonecznych, konstruuje się w oparciu o efekt fotowoltaiczny,
czyli zjawisko fizyczne polegające na powstaniu siły elektromotorycznej
w ciele stałym pod wpływem promieniowania
świetlnego. Zjawisko to odkrył w 1839 roku francuski fizyk
Aleksander Edmond Becquerel [1]. Określenie "ogniwo fotowoltaiczne"
jest równoznaczne z określeniem "ogniwo słoneczne",
które jest używane, kiedy padające światło pochodzi
od słońca. Fotowoltaika została uznana za akceptowalny
obszar badań, dopiero po wprowadzeniu koncepcji fotonu
i elektronu z początkiem mechaniki kwantowej, gdy zostały
przygotowane modele naukowe do radzenia sobie z koncepcją
absorpcji światła. A większe zainteresowanie naukowców
i społeczeństwa wzbudziła na początku lat pięćdziesiątych
XX wieku, wraz z początkiem rozwoju krzemowej technologii
tranzystorowej. W 1954 roku, Calvin Fuller i Gerald Pearson
z Bell Labs, odkryli, że sprawność prostowników krzemowych,
zmienia się w zależności od ich czystości oraz warunków
oświetleniowych. Zaobserwowali, że prostowniki przekształcają
4% przychodzącego światła słonecznego w energię elektryczną.
Wraz z Darryl Chaplin, koledzy, Calvin Fuller i Gerald
Pearson stworzyli zespół do pracy nad tym, co nazwali "krzemową
baterią słoneczną Bella". Analizy ekonomiczne wykazały
jednak, że w danym momencie nie ma komercyjnie opłacalnej
aplikacji dla krzemowych ogniw słonecznych na Ziemi,
ale została ona szybko znaleziona w przestrzeni kosmicznej.
Wyścig w przestrzeni kosmicznej rozpoczął się późnych latach
pięćdziesiątych. Poszukiwano dla satelitów źródła zasilania
długoterminowego, które byłoby małe i lekkie oraz było
alternatywą dla paliw konwencjonalnych i baterii, które były
zbyt duże i ciężkie. Poszukiwane cechy miały ogniwa fotowoltaiczne
(PV), a program kosmiczny w USA stworzył realny
przemysł krzemowych ogniw słonecznych [2-4].
W ciągu ostatni więcej »
Niejednokrotnie Zakład Innowacji Montażu Elektronicznego
napotyka w swoich pracach na problem lutowności elementów
elektronicznych. Dotyczy to zarówno elementów przechowywanych,
jak również elementów "teoretycznie nowych".
Pomimo tego, że elementy "teoretycznie nowe" są oryginalnie
zapakowane przez producenta to, pomimo zastosowania
właściwych warunków procesu lutowania, sprawiają one trudności
podczas procesu lutowania w postaci nieprawidłowego
zwilżania ich wyprowadzeń, a nawet jego braku. Problem ten
w ostatnim okresie pojawia się z coraz większym nasileniem.
Spowodowane to może być tym, że wielu nowopowstających
producentów elementów elektronicznych nie ma w pełni dopracowanej
technologii zabezpieczania lutowności swoich
wyrobów, lub też elementy pochodzące z tzw. "pewnego
źródła" faktycznie są elementami wyprodukowanymi przez
producenta podszywającego się pod znaną firmę. Innym źródłem
braku lutowności elementów mogą być nieprawidłowe
warunki ich przechowywania od momentu produkcji poprzez
magazynowanie do momentu dystrybucji na rynku. To samo
dotyczy, a może nawet w większym stopniu odnosi się do
firm pośredniczących w dystrybucji elementów. Dość często
praktykowanym sposobem "odmładzania" elementów jest ich
przepakowywanie przez firmy pośredniczące w dystrybucji do
nowych opakowań.
Innym aspektem obniżenia lutowności wyprowadzeń elementów
elektronicznych jest zbyt długie ich składowanie od
momentu produkcji do momentu zastosowania. Powodem
tego jest najczęściej fakt polegający na tym, że wielu projektantów
urządzeń elektronicznych korzysta w swoich opracowaniach
ze znanych sobie od lat struktur elektronicznych,
które już dawno przestały być produkowane i dostępne są na
rynku jedynie w niewielkich ilościach. Bardzo często takie elementy
są magazynowane od długiego czasu w bliżej nieokreślonych
warunkach.
Wpływ warunków przechowywania
elementów elektronicznych na ich lutowność
Lutowność wyprowadzeń elementów elektro więcej »
Jedną z głównych przyczyn wybuchu metanu i pyłu węglowego
jest wadliwa praca sieci elektroenergetycznej. Iskrzenie czy też
przegrzewanie się instalacji może prowadzić do zainicjowania
wybuchu metanu a w konsekwencji i pyłu węglowego, co stanowi
śmiertelne zagrożenie dla pracujących w kopalniach ludzi
i prowadzi do ogromnych strat materialnych. Aby do tego nie
dopuścić w kopalniach stosowany jest ciągły monitoring rezystancji
upływności kabli elektroenergetycznych. W sieciach kopalnianych
kontrola stanu izolacji jest realizowana przez pomiar
rezystancji izolacji względem ziemi i jest ona w stanie dostarczyć
wystarczająco wcześnie informację ostrzegawczą o stopniowej
utracie właściwości elektrycznych i mechanicznych izolacji,
związanej z działaniem niekorzystnych czynników takich jak
temperatura, wilgotność, żrące opary, oraz naprężenia i udary
mechaniczne. Natomiast test wysokim napięciem wykonywany
przed każdą operacją łączeniową eliminuje możliwość podania
napięcia na uszkodzony kabel. Prowadzenie ciągłej kontroli
umożliwia podjęcie odpowiednio szybko działań zapobiegawczych
i niedopuszczenie do osiągnięcia stanu, w którym zadziałanie
zabezpieczeń powoduje przerwę w dostawie energii.
Najistotniejszą jednak funkcją układów do badania stanu izolacji
kabli SN jest zapewnienie bezpieczeństwa ludzi.
Kontrola upływności
W sieciach kopalnianych szc więcej »
W ramach realizacji zadań projektu "Rodzina inteligentnych
ognioszczelnych stacji transformatorowych przeznaczonych
do współpracy z siecią Smart Grid" powstał Hybrydowy Górniczy
Sterownik Polowy. Charakteryzuje się on ponadprzeciętnymi
właściwościami w stosunku do produktów konkurencyjnych
realizujących podobną funkcję podstawową - sterowanie
i zabezpieczanie odpływu niskiego napięcia w warunkach zagrożenia
wybuchem metanu i pyłu węglowego.
Innowacyjne rozwiązanie sterownika
polowego
Na poniższym rysunku zaprezentowano sterownik polowy
umożliwiający stacji transformatorowej w sieci Smart Grid.
Ten rodzaj sieci staje się powoli standardem w energetyce.
Transmisja w sieci Smar Grid jest realizowana zgodnie
ze standardem IEC 61850 przy czym warstwą fizyczną jest
ETHERNET. Wszystkie realizowane przez sterownik pomiary
udostępnione są za pośrednictwem standardu IEC 61850,
które dzięki temu mogą być wykorzystane do monitorowania
odpływów lub zdalnego sterowania.
Zaprezentowany powyżej sterownik polowy ma również
możliwości projektowania logiki działania. Użytkownik końcowy
sterownika może dowolnie (zgodnie z nadanymi przez
producenta uprawnieniami) modyfikować działanie sterownika
nie tylko w zakresie nastaw zabezpieczeń, ale również
może projektować własne zachowanie się algorytmów zabezpieczeń.
Wszystko to uzupełnione jest możliwością tworzenia
przez użytkownika własnej logiki działania takiego sterownika,
a więc również stacji transformatorowej, w której jest użyty
jako sterownik odpływu.
Zaprezentowany sterownik jest z punktu widzenia dyrektywy
ATE więcej »
Na wystawie Audio Video Show 2015
firma Sennheiser przedstawiła nowy referencyjny
zestaw słuchawkowy, oferujący
bezprecedensowe doświadczenia
akustyczne. Łączy on w sobie wyjątkową
koncepcję budowy wzmacniacza ze
starannie dobranymi materiałami oraz
najwyższą jakością wykonania. Orpheus
to dzieło sztuki, a dzieła sztuki mają
swoją cenę. Ten zestaw, wytwarzany
w całości w Niemczech, będzie kosztować
około 50 tys. EUR i będzie dostępny
od przyszłego więcej » Czytaj za darmo! »
Celem artykułu jest porównanie wydajności obliczeniowej mikrokontrolerów
wykorzystujących rdzenie z rodziny Cortex M
na przykładzie mikrokontrolerów STM32.
Mikrokontrolery ARM Cortex M stają się w ostatnich latach
coraz popularniejsze wypierając z rynku mikrokontrolery
8- i 16-bitowe. Rodzina Cortex M, będąca podzbiorem rodziny
Cortex która to z kolei jest podzbiorem architektury ARM,
przeznaczona jest do wykorzystania w mikrokontrolerach
ogólnego przeznaczenia i dzieli się na kilka podkategorii (M0,
M1 itp.). Rodzina ta rozszerzyła się w ostatnim roku o nową
wersję rdzenia - Cortex M7 - najbardziej wydajny z dostępnych
rdzeni serii M. W tabeli 1 zawarto krótkie porównanie
parametrów rdzeni z rodziny Cortex M [1].
Firma ARM zajmuje się projektowaniem różnorodnych
rdzeni architektury ARM (tzw. IPcore). Poszczególni producenci
elementów półprzewodnikowych implementują następnie
wybrane wersje rdzeni uzupełniając je o peryferia
i pamięci FLASH oraz RAM tworząc gotowy procesor lub mikrokontroler.
W związku z taką polityką dostępne są na rynku
mikrokontrolery różnych firm implementujące ten sam rdzeń
procesora jednak różniące się prędkością pracy, rozmiarami
pamięci i dostępnymi peryferiami. W prezentowanym artykule
przedstawiono porównanie parametrów mikrokontrolerów
z rdzeniami rodziny Cortex M produkowanych przez firmę
STMicroelectronics w popularnej serii STM32. W serii tej występują
mikrokontrolery wyposażone w rdzenie M0+, M3, M4
oraz najnowszy M7. W tabeli 2 zestawiono wybrane parametry
poszczególnych serii mikrokontrolerów z rodziny STM32.
W rodzinie tej dostępny jest duży wybór mikrokontrolerów różniących
się osiągami i peryferiami nawet w obrębie serii opartych
na tym samym modelu rdzenia Cortex. Mikrokontrolery te
posiadają bogaty zestaw peryferiów które obejmują przetworniki
analogowo-cyfrowe, cyfrowo-analogowe, liczniki (timery),
interfejsy komunikacyjne SPI, UART itp. Niektóre modele posiadają
również peryferia mn więcej »
Minimalizacja gabarytów oraz zwiększenie niezawodności
współczesnych urządzeń elektronicznych to nie tylko obniżenie
kosztów, ale również większa gęstość upakowania komponentów.
Wiąże się to z koniecznością odprowadzania coraz
większej ilości ciepła z urządzeń o coraz mniejszych rozmiarach
[1, 2]. Jednak nadmierna liczba przelotek termicznych
(ang. thermal vias), stosowanych do odprowadzania ciepła
z elementów SMD do radiatorów w klasycznej technologii PCB
opartej na laminacie szklano epoksydowym FR4, zmniejsza
wytrzymałość mechaniczną materiału, jak również ogranicza
powierzchnię oddawania ciepła. Jednym z przykładów rozwiązań,
które pozwalają konstruować wysoko sprawne urządzenia
o minimalnych gabarytach są materiały o podłożu metalowym
z izolacją ceramiczną (ang. Isulated Metal Substrate,
IMS) [3, 4]. Materiałem bazowym struktury IMS (nazywanym
podłożem) jest płyta wykonana najczęściej ze stopu aluminium
(rzadziej jest to płyta miedziana). Stopy aluminium są bardzo
dobrymi przewodnikami ciepła. Ich współczynnik przewodnictwa
cieplnego λ kształtuje się na poziomie 200 W/m*K (dla porównania
λ dla laminatu FR4 wynosi około 0,26 W/m*K). Samo
podłoże stanowi radiator i to nie tylko dla elementów elektronicznych,
ale również dla mozaiki ścieżek obwodu PCB, co
pozwala na znaczne zwiększenie ich obciążalności prądowej.
Obwody PCB/IMS charakteryzują się równomiernym rozkładem
temperatur na całej swojej powierzchni, a temperatura
elementu wydzielającego moc jest znacznie niższa niż w przypadku
zastosowania klasycznego obwodu drukowanego. Stosowanie
obwodów PCB/IMS przyczynia się do obniżenia stopnia
komplikacji konstrukcji, znacząco podnosi niezawodność
oraz powoduje skrócenie czasu produkcji nowych urządzeń.
W Polsce technologia IMS znajduje dotychczas zastosowanie
przede wszystkim przy produkcji wysoko wydajnych źródeł
światła, bazujących na diodach LED dużej mocy [5, 6].
W pracy badano jakość połączeń lutowanych wykon więcej »
Bezrdzeniowy przetwornik prądowy pracujący na zasadzie
cewki Rogowskiego jest indukcyjnym przetwornikiem pomiarowym
prądu na napięcie. Stanowi rodzaj bezrdzeniowego
transformatora, którego pierwotnym uzwojeniem jest przewód
wiodący prąd, a wtórnym są rozmieszczone toroidalnie dookoła
przewodu zwoje pomiarowe. Jest stosowany w energetycznych
układach pomiarowych.
Do wykorzystania możliwości pomiarowych przetwornika
[1] potrzebny jest układ współpracujący, którego zadaniem
jest wzmocnienie sygnału użytecznego, skorygowanie jego
charakterystyki częstotliwościowej - napięcie na wyjściu
przetwornika jest proporcjonalne do pochodnej mierzonego
prądu - i zamiana sygnału na pożądaną postać wyjściową.
W przeważającej większości zastosowań bezpośredni sygnał
wyjściowy z przetwornika dochodzi do urządzeń automatyki
energetycznej w postaci analogowej. W pewnych sytuacjach
jest konieczne przesłanie sygnału pomiarowego na większą
odległość. Ma to miejsce wówczas, gdy przetwornik jest częścią
autonomicznego, prądowego, inteligentnego sensora
pomiarowego, APSP, współpracującego z oddaloną automatyką
zabezpieczeniową [2]. Wówczas stosuje się zamianę
sygnału pomiarowego na postać cyfrową za pomocą układu
przetwarzającego zintegrowanego z przetwornikiem. W torze
przetwarzania sygnału z przetwornika na początku znajduje
się analogowy układ kondycjonujący gdzie sygnał pomiarowy
jest wstępnie wzmocniony i poddany operacji filtracji. Dalszą
część tworzy układ próbkujący, który pobiera próbki sygnału
pomiarowego z przetwornika synchronicznie z zewnętrznym
sygnałem wyzwalającym. Próbki sygnału przetwornika po dodatkowej
obróbce cyfrowej trafiają do układu transmisji.
Układ przetwarzania sygnału wyjściowego
przetwornika
Układ przetwarzania zintegrowany z przetwornikiem został
przedstawiony na rysunku 1.
Zdjęcie przedstawia przetwornik zbudowany z wielowarstwowych
płytek więcej »
Elementem architektury rozdzielni energetycznej automatyzowanej
zgodnie ze standardem IEC 61850 jest urządzenie
typu Merging Unit. Ma ono za zadanie przetworzyć sygnały
analogowe z przekładników prądowych i napięciowych na
postać cyfrową, sformatować otrzymane dane cyfrowe zgodnie
ze standardem IEC 61850-9-2 a następnie udostępnić
te dane na szynie procesowej rozdzielni, którą tworzy sieć
Ethernet.
W ostatnim okresie pojawiły się opracowania sensorów
prądowych o wyjściu cyfrowym. Jednym z nich jest Autonomiczny
Prądowy Sensor Pomiarowy, APSP [1], gdzie dane
pomiarowe pojawiają się w postaci próbek cyfrowych mierzonego
sygnału analogowego. Warunkiem koniecznym zastosowania
tych sensorów w rozdzielniach automatyzowanych
zgodnie z IEC 61850 jest możliwość synchronizacji procesu
pobierania próbek do skali czasu UTC oraz agregacji próbek
w pakiety do wysyłania na szynę procesową. W ITR zostało
opracowane urządzenie pod nazwą Koncentrator Danych,
pełniące funkcję urządzenia typu Merging Unit, wyposażone
w układ generujący sygnały synchronizujące dla sensorów
prądowych APSP oraz w odbiorniki ciągów próbek cyfrowych
- wartości próbkowanych w terminologii normy IEC 61850,
z tych sensorów.
Budowa Koncentratora Danych
Schemat blokowy Koncentratora Danych został przedstawiony
na rys. 1. MGSS jest Modułem Generacji Sygnału Synchronizującego,
OCXO jest wysokostabilnym termostatowanym
generatorem kwarcowym. MODUŁ PRZETWARZANIA
SYGNAŁÓW ANALOGOWYCH zawiera moduł MASH, który
jest Multiplekserem Analogowy więcej »
Historia procesu normowania protokołów przesyłania cyfrowych
danych pomiarowych z elektronicznych przekładników
prądowych sięga roku 2002, kiedy to powstała norma
IEC 60044-8, w której zdefiniowano pojęcie urządzenia o nazwie
Merging Unit zbierającego dane - wartości próbkowane
(dość powszechna jest terminologia angielskojęzyczna -
sampled values) z indywidualnych sensorów prądu i napięcia
i udostępniającego te dane w postaci próbek cyfrowych innym
urządzeniom. Pierwszą normą, która opisywała sposób transformacji
danych pomiarowych zdefiniowanych w IEC 60044-8
w ramki standardu Ethernet była edycja pierwsza części
standardu IEC 61850 dotycząca próbek cyfrowych. Norma
IEC 61850-9-2 definiuje odwzorowanie wartości próbkowanych
analogowych sygnałów prądów i napięć fazowych na
standard Ethernet. To właśnie w normie IEC 61850-9-2 pojawiło
się pojęcie szyny procesowej. Szyna procesowa zrealizowana
w technice sieci Ethernet nie wyklucza jednak zdefiniowanego
w standardzie IEC 61850-9-1 przesyłania danych
w połączeniach typu punkt - punkt.
W artykule opisano sposób oraz procedury formatowania
danych do wysłania na szynę procesową w urządzeniu Koncentrator
Danych, pełniącym funkcję urządzenia typu Merging
Unit.
Formatowanie danych na szynę
procesową zgodnie z IEC 61850-9-2
Norma IEC 61850-9-2 stanowi uzupełnienie normy IEC
61850-9-1 w zakresie odwzorowania SCSM (ang. Specific
Communication Service Mapping) dla wartości próbkowanych
przesyłanych wg standardu ISO/IEC 8802-3. [1] Ta część
standardu definiuje odwzorowanie modelu klas wartości próbkowanych
IEC 61850-7-2 na ISO/IEC 8802-3.
Tab. 1. Model OSI i odniesienie do profili
Tabl. 1. OSI model with reference to the profiles
Aplikacja
Prezentacja Profil A
Sesja
Transport
Profil T
Sieć
Łącza danych
Warstwa fizyczna
Na potrzeby transmisji wartości próbkowanych można
zdefiniować dwa profile - tabela 1:
- Profil A - aplikacyjny, jest zbiorem specyfi więcej »
Wyroby elektryczne i elektroniczne poddawane są badaniom
głównie w celu sprawdzenia ich właściwości funkcjonalnych
oraz potwierdzenia zgodności z wymaganiami dyrektyw nowego
podejścia. Wśród tych badań szczególne ważne są
badania odporności na narażenia środowiskowe i elektromagnetyczne.
Badania te mają na celu potwierdzenie, że dany
wyrób będzie prawidłowo funkcjonował w określonym środowisku,
do którego został przeznaczony. Dla systemów alarmowych
i ich elementów tego rodzaju badania przeprowadzane
są zgodnie z wymaganiami norm PN-EN 50130-4 [1]
i PN-EN 50130-5 [2]. Według tych norm badania odporności
na narażenia środowiskowe obejmują próby klimatyczne
(takie jak suche gorąco, zimno, zmiany temperatury, wilgotne
gorąco stałe i cykliczne) oraz mechaniczne (np. udary
pojedyncze, uderzenia, spadki swobodne i wibracje sinusoidalne).
Natomiast badania odporności na narażenia elektromagnetyczne
dotyczą następujących testów: wyładowania
elektrostatyczne, szybkie, elektryczne stany przejściowe,
udary elektromagnetyczne, pola elektromagnetyczne, zaburzenia
przewodzone indukowane przez pola o częstotliwości
radiowej oraz zapady, krótkie przerwy i zmiany napięcia zasilania.
W trakcie tych badań wyroby są poddawane narażeniom
o rodzajach i poziomach odpowiadających narażeniom spotykanym
w warunkach rzeczywistych. W czasie przykładania
narażeń wyrób znajduje się w stanie pracy, realizując typowe
dla niego funkcje. Dokonuje się obserwacji zachowania
się wyrobu pod wpływem narażeń oraz rejestracji zmian jego
określonych parametrów. Następnie przeprowadza się ocenę
tych danych, która polega na sprawdzeniu, czy zarejestrowane
zmiany mieszczą się w granicach określonych we
wcześniej ustalonych wymaganiach (kryteriach). Gdy fakt ten
ma miejsce rezultat oceny wyników badań jest pozytywny.
W przeciwnym przypadku negatywny. Tak więc celem oceny
jest określenie, czy dany wyrób spełnia czy nie spełnia ustalone
wymagania.
Badania odporności wy więcej »
W związku z realizacją projektu deteH (UDA-POIG.
01.03.01-14-071/08-11) opracowany został czujnik wodoru
oraz związków wodoru. Elementem aktywnym czujnika są
nanostrukturalne warstwy węglowo-palladowe (C-Pd). Zasada
działania opracowywanego czujnika opiera się na zmianach
jego właściwości elektrycznych pod wpływem wodoru
absorbowanego przez warstwę. Do badań wpływu gazów na
rezystancję warstw C-Pd wykonany został skomputeryzowany
system wykorzystujący stanowisko pomiarowe do pomiaru
zmian rezystancji pod wpływem gazu [1]. W stanowisku
tym rezystancja warstwy mierzona jest metodą pośrednią[2],
poprzez pomiar spadku napięcia na rezystorze wzorcowym.
Schemat elektryczny układu pomiarowego przedstawiony
jest na rys. 1.gdzie Ub - napięcie zasilające, Ur - spadek napięcia na rezystorze
wzorcowym, R - rezystancja rezystora wzorcowego.
Skomputeryzowany system pomiarowy
Skomputeryzowany system pomiarowy umożliwia jednoczesny
pomiar wielu napięć oraz sterowanie przebiegiem
doświadczeń poprzez zaprogramowane włączanie lub
wyłączanie zaworów odcinających dopływ gazów. System
pomiarowy składa się z komputera klasy PC (Personal
Computer) pracującego pod kontrolą systemu operacyjnego
Windows (XP, 7 lub 8), dedykowanej aplikacji
oraz mikrokontrolera ADuC 845 firmy Analog Devices [3].Schemat blokowy komputerowego systemu pomiarowego
przedstawiony jest na rys. 2.
Aplikacja zainstalowana na komputerze, jak również program
sterujący mikrokontrolerem ADuC845, zostały napisane
w Instytucie Tele- i Radiotechnicznym. Program sterujący
pracą mikrokontrolera AduC845 został napisany w języku C
w środowisku uVision firmy "Keil"[4-6]. Algorytm programu został
przedstawiony na rys. 3.
Rys. 1. Schemat elektryczny układu pomiarowego rezystancji
warstwy (B - Źr więcej »
Tak zwana obrona aktywna [1] jest jednym ze sposobów ochrony
pojazdów oraz obiektów stacjonarnych przed pociskami
przeciwpancernymi. Współcześnie, szczególnie niebezpieczną
bronią przeciwpancerną są pociski podkalibrowe. Mają one
duży zasięg, ale ich użycie jest możliwe jedynie przy użyciu
odpowiedniej armaty. Innym rodzajem amunicji przeciwpancernej
są pociski z głowicami kumulacyjnymi wystrzeliwanymi przy
użyciu stosunkowo lekkich wyrzutni bezodrzutowych. Zasięg
tych pocisków jest stosunkowo mały, ale z uwagi na łatwość
przenoszenia i użycia mogą być stosowane w walkach w warunkach
bezpośredniej styczności z przeciwnikiem. Ochrona przed
pociskami przeciwpancernymi może być realizowana przy użyciu
specjalnego opancerzenia lub systemu kratownic umieszczanych
na powierzchni chronionego obiektu. Uzupełnieniem
takich rozwiązań jest stosowanie urządzeń radiolokacyjnych
wykrywających nadlatujący pocisk [2, 4-6] i uruchamiających
aktywne systemy przeciwdziałania. Jednym z wariantów systemów
przeciwdziałania są tak zwane inteligentne antypociski.
Są to pociski wystrzeliwane przy użyciu materiału miotającego
lub z napędem rakietowym. Istotnym elementem antypocisków,
poza głowicą wybuchową, są głowice detekcyjne zwiększające
efektywność destrukcyjnego oddziaływania na atakujący
pocisk przeciwpancerny zagrażający chronionemu obiektowi.
Na potrzeby takich zastosowań prowadzone są prace mające
na celu opracowanie miniaturowych głowic detekcyjnych, przeznaczonych
do instalowania w antypociskach zwalczających
pociski przeciwpancerne. Głowice te mają wykrywać zbliżający
się pocisk przeciwpancerny, określać wzajemne położenie oraz
inicjować detonację antypocisku w bezpiecznej odległości od
chronionego obiektu, w momencie zapewniającym największą
skuteczność rażenia zwalczanego pocisku przeciwpancernego.
Prace nad głowicami detekcyjnymi obejmują zarówno opracowywanie
projektów układów odbiorczych i przetwarzania sygnałów
jak również dotyczą więcej »
Kryptowaluta (ang. cryptocurrency), czy inaczej waluta kryptograficzna
to pieniądz wirtualny bazujący na prawach i procedurach
kryptografii. Ujmując ściślej, to rozproszony system
księgowy, wykorzystujący funkcje kryptograficzne, w którym
zostają zapisane utajnione informacje o transakcjach i stanie
posiadania umownych jednostek w taki sposób, aby nikt poza
właścicielem nie miał do tych danych dostępu.
W istocie kryptowaluta to system informatyczny, który
generuje wirtualne jednostki pieniężne i umożliwiają obrót
tymi jednostkami kontrolowany metodami kryptograficznymi
w sposób autonomiczny, niezależny od twórców systemu,
administracji i otoczenia prawnego. Kryptografia wdziera się
zresztą powszechnie do aplikacji internetowych, w których
niezbędne są procedury uwiarygadniania [3, 11, 12].
Kryptowaluty na rynku
Kryptowaluty są już faktem rynkowym. W roku 2009 pojawiła
się pierwsza koncepcja kryptograficznego pieniądza wirtualnego
o nazwie Bitcoin [1]. Był to powszechnie dostępny
w internecie zespół aplikacji informatycznych, stanowiący
kombinację różnych procedur i algorytmów kryptograficznych,
poprzednio ze sobą niewiązanych: Funkcji Skrótu, drzew Merkla,
Dowodu Pracy (Proof-of-Work) oraz całego instrumentarium
kryptografii klucza publicznego. Obecnie ta kryptowaluta
jest najbardziej rozpowszechnioną kryptowalutą na świecie
[2, 3, 4].
Kryptowalut może być nieskończenie wiele Każdy bowiem
użytkownik internetu może stworzyć swoją kryptowalutę i "puścić"
ją w obieg. Otwartą sprawą jest, czy nowo powołany
kryptopieniądz znajdzie użytkowników, którzy zaangażują
swoje tradycyjne środki lub pracę dla zdobycia nowych jednostek,
a także czy znajdą się ci, którzy będą przyjmować te
jednostki w zamian za towary czy usługi. Stale więc powstają
w sieci klony Bitcoina, ale też i nowe, oryginalne systemy
kryptowalutowe, wykorzystujące środowisko internetowe:
otwarte oprogramowanie oraz sieć P2P.
Obecnie notuje się ponad 300 kryptowalut więcej »
Podczas działań bojowych stres podnosi w organizmie żołnierza
poziom kortyzonu, tzw. hormonu stresu, który zwiększa
poziom cukru we krwi i jednocześnie powoduje produkcję
noradrenaliny - hormonu i neuroprzekaźnika powodującego
szybsze bicie serca i większy przypływ krwi do mięśni, przygotowując
jednocześnie organizm do walki. Jednak zamiast
pomagać, wysoki poziom kortyzonu i noradrenaliny przeszkadza
na nowoczesnym polu walki w szybkiej ocenie sytuacji
i koncentracji powodując przez to kłopoty z pamięcią krótkotrwałą
oraz percepcją (Wyniki badań zespołu psychiatrów
z Uniwersytetu Yale i wojskowego Narodowego Centrum Leczenia
Zespołu Wstrząsu Pourazowego w West Haven). Aby
przeciwdziałać ww. "dysfunkcji percepcji" prowadzone są badania
nad podawaniem żołnierzom dehydroepiandrosteronu
(DHEA) oraz neuropeptypu Y- neuroprzekaźnika działającego
między innymi przeciwlękowo. Jednocześnie trwają prace
nad realizacją przezczaszkowej stymulacji magnetycznej
TSM (ang. Transcranial Magnetic Stimulation), która umożliwia
wyłączenie określonych części mózgu poddanych promieniowaniu
magnetycznemu (Aktualne prace ekspertów z Instytutu
Technologii Wojskowej w Massachusetts Institute of
Technology w Bostonie). TMS pozwala na częściową blokadę
mózgu na bodźce zewnętrzne lub stymulację emocji, wywoływanie
sztucznych wizji lub ograniczanie bądź pobudzanie
złości. Kluczowe trendy takie jak mikrowłókna (mogące zmieniać
kolor, chronić przed falą uderzeniową, ekstremalnymi
temperaturami, promieniowaniem oraz atakiem chemicznym
i biologicznym), egzoszkielet (zwiększający siłę mięśni i wytrzymałość
żołnierza a także stabilność podczas celowania)
bądź broń dopasowana do indywidualnych cech żołnierza stanowić
będą o podstawowych cechach Przyszłego Żołnierza
na polu walki [1, 3].
Aby jednak opisywana skuteczność była maksymalna, to
oprócz wyżej wymienionych, do systemu percepcji żołnierza
musi być dostarczana optymalna porcja informacji, a sam
interfe więcej »
Niniejszy artykuł jest szóstym i zarazem już ostatnim z prezentowanej
czytelnikom dłuższej serii artykułów, których tematyka
dotyczy prowadzonych przez autorów badań w obszarze tzw.
generatorów struktur gramatycznych [1-5]. Jak już wielokrotnie
pokazano w poprzednich artykułach, głównym zadaniem
pełnionym przez opracowywane przez autorów generatory
struktur gramatycznych jest umożliwienie ich użytkownikom
budowania za ich pomocą poprawnych składniowo zdań należących
do danego języka naturalnego. Podejście takie doprowadziło
w konsekwencji do wypracowania koncepcji tzw.
języków kontrolowanych, czyli takich, które stanowią pewien
podzbiór języków naturalnych, na których są wzorowane, przy
czym każde zdanie wygenerowane w języku kontrolowanym
powinno być jednocześnie poprawnym składniowo zdaniem
danego języka naturalnego, ale w drugą stronę zachodzenie
tego rodzaju prawidłowości nie jest już wymagane, czyli w danym
języku naturalnym mogą istnieć zdania, które lingwiści
uznaliby za całkowicie poprawne, a które nie należą do opartego
na nim języka kontrolowanego [6].
Języki kontrolowane posiadają zwykle, w porównaniu z językami
naturalnymi stanowiącymi ich pierwowzór, znacznie
okrojoną gramatykę, ograniczoną najczęściej do zbioru reguł,
które są absolutnie niezbędne do tworzenia w danym języku
zdań o niezbyt zawiłej budowie. Natomiast wszystko, co w danym
języku naturalnym jest w pewnym sensie nadmiarowe, powinno
zostać bezwzględnie pominięte w specyfikacji wzorowanego
na nim języka kontrolowanego. Zbiór reguł składniowych
języka kontrolowanego jest najczęściej zbiorem zamkniętym,
natomiast zwykle istnieje możliwość dowolnej rozbudowy zasobów
jego leksyki w celu dostosowania danego języka kontrolowanego
do wybranych zastosowań dziedzinowych [7].
Główną zaletą języków kontrolowanych jest wysoki stopień
więcej »
Sympozjum Młodych Uczonych WILGA, w letniej edycji, jest
absolutnym ewenementem w skali kraju, w dziedzinie fotoniki
i elektroniki. Gromadzi setki doktorantów. Letnia edycja Sympozjum
WILGA 2015 na temat Zastosowań Fotoniki, Zaawansowanych
Systemów Elektronicznych i Inżynierii Internetu
odbyła się w dniach 23-31 maja br. Sympozjum zgromadziło
ponad 350 uczestników, głównie młodych uczonych działających
w takich dziedzinach jak: optyka, optoelektronika, fotonika,
technologia elektronowa, elektronika, oraz zastosowania.
Zaprezentowano ponad 300 prac zgromadzonych w kilku
głównych nurtach tematycznych, między innymi: bio-fotonika,
optyczne sieci czujnikowe, współ - projektowanie i integracja
systemów hybrydowych fotoniczno - elektroniczno - mechatronicznych,
projektowanie, testy i utrzymanie dużych systemów
funkcjonalnych, Internet przedmiotów, i inne. Jak przystało na
Sympozjum Młodych Uczonych, sesje trwały od rana, często
do północy, a w kilku przypadkach nawet dalej. Młodzi prezenterzy
byli dumni, że pierwszy raz w życiu prezentują prace badawcze
o tak znakomitej nocnej porze. I co więcej, sala obrad
w okolicach północy była nadal pełna. Wynikało to zapewne
z tego, że naukowe sesje nocne odbywały się po wzmacniającej
sesji grillowej, sponsorowanej częściowo przez IEEE.
Artykuł przedstawia wybrane grupy prac w niektórych nurtach
tematycznych omawianych na Sympozjum WILGA 2015.
Fotonika jest dziedziną aktywizującą a nawet wręcz
determinującą postęp w wielu obszarach nauki i techniki.
Wzbudza ona znaczne zainteresowanie młodych uczonych, inżynierów i fizyków. To zainteresowanie wzrasta jeszcze
bardziej gdy fotonika jest poprawnie nauczana w sposób
nowoczesny i atrakcyjny na uniwersytecie. Wymaga to także
pewnej "reklamy". Młodzi badacze wymagają pewnej początkowej
zachęty aby aktywnie wejść w interesujący obszar
badawczy i zanurzyć się w eksperyment z poświęceniem.
Systemy funkcjonalne służące różnym celom praktycznym,
którym więcej »