profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Cienkie warstwy ZnO wytwarzane techniką magnetronowego rozpylania katodowego: mikrostruktura i funkcjonalność (Michał Borysiewicz, Marek Wzorek, Krystyna Gołaszewska, Eliana Kamińska, Anna Piotrowska)
Tlenek cynku (ZnO) jest półprzewodnikiem o strukturze krystalicznej wurcytu, charakteryzującym się szeroką przerwą energetyczną (3,4 eV), wysoką energią wiązania ekscytonów (60 meV) i łatwością domieszkowania typu n. Własności te czynią go obiektem intensywnych badań nad zastosowaniami w przezroczystej elektronice [1], optoelektronice [2-4] i fotowoltaice [5-7]. Dzięki aktywnej chemicznie powierzchni stosowany jest w czujnikach [8-10]. Podobieństwo pod względem szerokości przerwy wzbronionej, struktury krystalicznej i stabilności termicznej sprawia, że ZnO jest naturalnym kandydatem do integracji z GaN i 4H-SiC. W celu pełnego wykorzystania jego potencjału na skalę przemysłową niezbędne jest zastosowanie technik wytwarzania kompatybilnych z rygorami produkcyjnymi dotyczącymi wysokiego stopnia kontroli nad strukturą i składem chemicznym wytwarzanego materiału przy relatywnie niskich kosztach. Techniką spełniającą te warunki jest magnetronowe rozpylanie katodowe (ang. sputtering). Najnowsze rozwiązania technologiczne dla magnetronowego rozpylania katodowego umożliwiają niespotykaną wcześniej kontrolę jakości i morfologii wytwarzanych warstw materiałowych. Kontrola ich czystości i składu chemicznego możliwa jest dzięki zastosowaniu wydajnych systemów pompowania, umożliwiających osiągnięcie ultra wysokiej próżni oraz wysokiej czystości gazów procesowych i tarcz stosowanych do rozpylania materiałów. Zastosowanie w reaktorach rozpylania katodowego ceramicznych grzejników pozwala na dostarczenie dodatkowej energii do osadzanych cząstek, skutkując osiąganiem wysokiej jakości krystalograficznej. Rozbudowane narzędzia diagnostyki umożliwiają dokładne zrozumienie i projektowanie procesów osadzania. W niniejszym artykule omówione zostaną możliwości kontroli mikrostruktury i funkcjonalności cienkich warstw ZnO jakie daje najnowszej generacji reaktor magnetronowego rozpylania katodowego. W szczególności, artykuł zostanie podzielony na dwi... więcej»

Nanosłupki ZnO o wysokiej jakości - technologia i zastosowania (Bartłomiej S. Witkowski, Łukasz Wachnicki, Sylwia Gierałtowska, Jarosław Kaszewski)
Tlenek cynku (ZnO) jest półprzewodnikiem z grupy II-VI, który jest niezwykle intensywnie badany w ciągu ostatnich 10 lat w różnych dziedzinach fizyki i inżynierii materiałowej. ZnO ma prostą przerwę energetyczną, która wynosi w przybliżeniu 3,4 eV w temperaturze pokojowej, dzięki czemu jest przezroczysty w widzialnym zakresie światła [1, 2]. ZnO dzięki swoim fizycznym i chemicznyn właściwościom ma potencjalnie szerokie zastosowania [1, 3, 4], m.in jako przezroczysta elektroda w ogniwach słonecznych [5] i diodach LED [6]. ZnO jest również atrakcyjnym materiałem w przemyśle detektorów promieniowania UV i czujników związków chemicznych, gdzie niezwykle ważna jest rozbudowana powierzchnia materiału. Ponadto nanosłupki ZnO wysokiej jakości są atrakcyjnym materiałem dla fotowoltaiki, ze względu na niską koncentrcję nośników i długie drogi dyfuzji swobodnych nośników (w stosunku do amorficznej struktury), a rozbudowana powierchnia zwiększa ilość absorowanego światła (zmniejsza współczynnik odbicia). Niniejsza praca przedstawia technologię wzrostu nanosłupków ZnO z roztworu wodnego, która jest powszechnie stosowana do wzrostu różnego rodzaju nanostruktur, w szczególności nanoproszków [8]. Referencje [9-12] opisują różne warianty tej metody. Wszystkie te sposoby mają wspólne cechy: wzrost jest bardzo wolny (np. wzrost nanosłupków o wysokości 500 nm i grubości 40 nm trwa 4 godziny), a podłoża użyte w procesach są najpierw pokrywane cienką warstwą lub nano-kryształkami ZnO, które zarodkują wzrost. Jest to związane z faktem, ża zarodkowanie ZnO o strukturze krystalicznej wurcytu jest generalnie trudne. Nasze podejście jest znacznie prostsze, do zarodkowania nanosłupków zostały użyte nanocząstki złota (standardowo używana warstwa ZnO również może być używana do zarodkowania). Dzięki tej metodzie możliwy jest wzrost nanosłupków na różnego rodzaju podłożach w bardzo niskiej temperaturze (50şC) w stosunku do inncyh metod wzrostu nanosłupków... więcej»

Symulacje cienkowarstwowych tranzystorów polowych z kanałem z amorficznego In-Ga-Zn-O (Jakub Grochowski, Jakub Kaczmarski, Andrzej Taube, Eliana Kamińska, Anna Piotrowska)
W ostatnich latach obserwuje się globalne trendy poszukiwania nowych materiałów dla przemysłu elektronicznego [1]. Tradycyjne materiały, takie jak krzem, nie posiadają wystarczająco dobrych właściwości dla zastosowań między innymi w przezroczystej elektronice [2]. Z drugiej strony, podejście eksperymentalne stosowane do poszukiwania nowych materiałów jest czasochłonne i generuje wysokie koszty. Symulacje komputerowe pozwalają odkrywać właściwości nowych materiałów minimalizując potrzebę prowadzenia prac eksperymentalnych. Dla zastosowań w obszarze elektroniki przezroczystej nowe materiały półprzewodnikowe powinny łączyć wysoką ruchliwość nośników ładunku z wysokim poziomem transmisji optycznej w widzialnym zakresie widma promieniowania elektromagnetycznego. Wymagania te spełniają przezroczyste półprzewodniki tlenkowe o amorficznej mikrostrukturze [3]. Tranzystory cienkowarstwowe (TFT) z kanałem z tych materiałów zyskały zainteresowanie, jako przyrządy sterujące pracą pikseli w płaskich wyświetlaczach [4]. W XXI wieku dostępność i stosunkowo niski koszt mocy obliczeniowej umożliwia zastosowanie komputerowo wspomaganego modelowania materiałów amorficznych o nowej funkcjonalności. W pierwszej części niniejszego opracowania prezentujemy motywację do podjęcia badań w dziedzinie amorficznych półprzewodników tlenkowych, w szczególności nad tlenkiem indowo-galowo-cynkowym (a- IGZO). W dalszej części przedstawiamy przegląd stanu wiedzy w dziedzinie symulacji tranzystorów TFT z kanałem z amorficznego IGZO oraz wyniki naszych badań, w szczególności wyniki obliczeń numerycznych dotyczących wpływu grubości oraz wymiarów geometrycznych kanału, i grubości dielektryka na właściwości elektryczne TFT. Zaprezentujemy ponadto wyniki ekstrakcji krzywej gęstości stanów (DOS) w funkcji energii w kanale tranzystora. Motywacja Zasadniczą motywacją do badań nad amorficznymi półprzewodnikami tlenkowymi jest przekonanie o nieustannie rosnącym znacze... więcej»

Struktury kwantowe ZnMgO/ZnO/ZnMgO wykonywane metodą MBE (Adrian Kozanecki, Jacek Sajkowski, Marcin Stachowicz, Ewa Przeździecka, Marcin Syperek)
Tlenek cynku i jego stopy np. z Mg są intensywnie badane ze względu na potencjalnie szerokie możliwości zastosowań w urządzeniach optoelektronicznych takich, jak źródła światła UV [1], selektywne detektory UV [2], lasery UV, przezroczyste tranzystory cienkowarstwowe [3] i szereg innych. Dla poszczególnych zastosowań konieczna jest inżynieria przerwy energetycznej. Stapienie ZnO z MgO pozwala na zwiększenie przerwy energetycznej z 3,3 eV dla ZnO o strukturze wurcytu do 7,8 eV dla MgO, które ma strukturę kubiczną typu NaCl. Niedopasowanie strukturalne ZnO i MgO powoduje, że przy wzroście ZnMgO pojawia się poważny problem separacji faz dla zawartości Mg powyżej 40% [4]. Dlatego celowe jest staranne kontrolowanie składu ZnMgO i dla większości zastosowań utrzymywanie go poniżej 30% dla zachowania wysokiej jakości warstw ZnMgO. Niezwykle cenną zaletą ZnO jest wysoka wartość energii wiązania ekscytonu swobodnego, wynosząca 60 meV. W studniach kwantowych ZnMgO/ZnO/ZnMgO energia wiązania ekscytonu może wzrosnąć nawet do 100 meV, co pozwala myśleć o skonstruowaniu urządzeń optoelektronicznych, wykorzystujących rekombinację ekscytonów swobodnych w temperaturze pokojowej. Wysoka wartość energii wiązania ekscytonu wiąże się bezpośrednio z małym promieniem bohrowskim, wynoszącym zaledwie ok. 1,8-2,0 nm. Tak mała wartość promienia Bohra powoduje, że dla obserwacji efektów związanych z kwantowym efektem rozmiarowym konieczne jest otrzymywanie struktur kwantowych o szerokościach mniejszych niż 2*aB, a więc ~4 nm. Z tego samego powodu dla zbadania procesów tunelowania pomiędzy studniami kwantowymi, np. w układach studni sprzężonych lub wielostudni, konieczne jest stosowanie barier ZnMgO o grubościach poniżej 2-3 nm. W tej pracy zaprezentowane są badania struktur ZnMgO/ ZnO/ZnMgO otrzymywanych metodą epitaksji z wiązek molekularnych (z ang. MBE). W szczególności przedstawione zostaną wyniki prac nad układami asymetrycznych studni podwójnych, ... więcej»

Powłoki optyczne do zastosowania na panele szklane (Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Michał Mazur, Agata Poniedziałek)
Nanoszenie powłok optycznych na powierzchnię różnych przedmiotów ma na celu nadanie ich powierzchni określonych właściwości optycznych. Najczęściej oznacza to modyfikację wartości współczynnika odbicia światła (Rλ). Nałożenie powłoki optycznej może także mieć na celu wytworzenie takiego przyrządu optycznego jak np. lustro czy filtr. Najprostszą powłokę można otrzymać przez naniesienie na podłoże pojedynczej warstwy z innego materiału. Obecnie do wytwarzania różnych rodzajów powłok w szerokim zakresie spektralnym powszechnie stosowane są tlenki, np. TiO2, SiO2, Al2O3, Ta2O5, oraz fluorki (np. MgF2, CaF2) [1, 2]. Poza dobrą przezroczystością i odpowiednią wartością współczynnika załamania światła (tabela 1) istotnym kryterium, które może zadecydować o możliwości zastosowania tych materiałów na powłoki może być też kompatybilność metody ich nanoszenia z technologią wytwarzania gotowego produktu [1-3]. Teoretyczne podstawy projektowania powłok optycznych rozwijane były między innymi przez A. MacLeoda [4]. Podstawy te oparte są o rozwiązanie układu równań Maxwella dla fali TE (transverse electrical) i polegają na wyznaczeniu wartości współczynników odbicia (Rλ) i transmisji (Tλ) światła. W szczególności, projektowanie powłok polega przede wszystkim na opracowaniu modelu ich struktury. Należy w nim uwzględnić takie parametry jak np.: 1) rodzaj i parametry podłoża, 2) rodzaj i parametry materiałów zastosowanych na poszczególne warstwy, 3) liczba i sposób ułożenia warstw na podłożu, 4) grubości poszczególnych warstw [1, 2]. Wymienione elementy składowe dobierane są w taki sposób, aby uzyskać jak najlepszą zgodność teoret... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Ferroelektryczna ceramika PLZT do zastosowań w detekcji podczerwieni (Andrzej Łoziński)
Układ ceramiczny PLZT jest modyfikowaną lantanem ceramiką z cyrkoniano - tytanianu ołowiu PbZrO3 - PbTiO3 (PZT). Zatem jest roztworem stałym (Pb,La)(Zr,Ti)O3. Jak wynika z zapisu, jony La3+ występują wymiennie z jonami Pb2+, zaś jony Zr4+ z jonami Ti4+ w sieci krystalicznej. Modyfikacja ceramiki PZT jonami lantanu wpływa w sposób istotny na równowagę fazową układu. Wiele kompozycji układu PLZT ma właściwości ferroelektryczne i obserwuje się w nich różne efekty, między innymi optoelektryczne i piroelektryczne. Idealna komórka typu perowskitu ma centrosymetryczną strukturę regularną. W wyniku małych różnic wymiarów promieni jonów wchodzących w skład roztworu stałego struktura ta może być zdeformowana do struktury trygonalnej, tetragonalnej lub ortorombowej. Różnice w wartościowości jonów mogą powodować występowanie wakancji w sieci. Skład kompozycji podaje się zazwyczaj za pomocą trzech liczb x/y/100-y, gdzie y wyraża molową zawartość cyrkonu Zr, (100-y) tytanu Ti, zaś x wyraża w procentach atomowych udział lantanu La zastępującego ołów Pb w sieci krystalicznej. Ceramika PLZT jest transparentna w zakresie długości fal od około 0,4 do 7 μm, czyli w całym zakresie promieniowania widzialnego i bliskiej podczerwieni, oraz części zakresu średniej podczerwieni. Kompozycje ferroelektryczne charakteryzują się znacznym współczynnikiem piroelektrycznym. Technologie wytwarzania ceramiki PLZT Klasyczny proces wytwarzania ceramiki opiera się na obróbce cieplnej ziaren proszków o żądanej strukturze krystalicznej. Uzyskuje się w ten sposób ceramikę objętościową, która wymaga obróbki mechanicznej (cięcie, szlifowanie, polerowanie). Zastosowanie technik grubowarstwowych pozwala uzyskiwać warstwy ceramiczne o żądanych kształtach i rozmiarach bez obróbki mechanicznej. Minimalna uzyskiwana grubość warstw jest rzędu stu mikrometrów. Obie technologie wymagają znacznych temperatur syntezy, w granicach 1100…1200oC. Technologia cienkowar... więcej»

Polska premiera HUAWEI Ascend P7
Firma HUAWEI prezentowała na polskim rynku najnowszy smartfon serii Ascend P - HUAWEI Ascend P7. Grubość zaledwie 6,5 mm sprawia, że następca popularnego modelu Ascend P6, jest jednym z najcieńszych smartfonów 4G LTE na świecie. Elegancka, metalowa obudowa pokryta szkłem, unikalne funkcje aparatu fotograficznego umożliwiające m.in. wykonywanie panoramicznych autoportretów czy 10-poziomowy, a... więcej»

Właściwości fotokatalityczne wielowarstwowych powłok antyrefleksyjnych (Damian Wojcieszak, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Frank Placido, Shigeng Song)
Rola powłoki antyrefleksyjnej (AR) polega na minimalizowaniu odbić światła od powierzchni podłoża na które została naniesiona. Jej działanie oparte jest na zjawisku interferencji światła (wygaszanie odbitych fal o jednakowej amplitudzie, ale przesuniętych w fazie). Z kolei wielowarstwowe powłoki AR wykorzystują efekt wielokrotnej interferencji. Składają się one z wielu naprzemiennie ułożonych warstw o różnych grubościach, wykonanych z materiałów o różnych właściwościach optycznych [1-4]. Istotnym parametrem optycznym cienkich warstw stosowanych w konstrukcji powłok optycznych jest zwłaszcza wartość współczynnika załamania światła (n) [1, 2]. Na rysunku 1 przedstawiono przykładowe charakterystyki cienkich warstw TiO2 i SiO2, które są powszechnie stosowane do wytwarzania m.in. powłok antyrefleksyjnych. Są to materiały typu H i L, czyli o dużej (TiO2) i małej (SiO2) wartości n. Jeśli chodzi o dwutlenek tytanu to materiał ten, oprócz dużej przezroczystości dla światła widzialnego, posiada szereg innych zalet. Jest on nietoksyczny, stabilny chemicznie, termicznie i mechanicznie, a także wykazuje aktywność fotokatalityczną [5-7]. Dlatego, jest on stosowany tak powszechnie w konstrukcji różnego typu powłok i filtrów optycznych. W wypadku typowych powłok antyrefleksyjnych na bazie TiO2 i SiO2 jako górną warstwę, która ma kontakt z otoczeniem (powietrzem atmosferycznym), stosuje się dwutlenek krzemu, czyli materiał o mniejszym współczynników załamania światła. Natomiast, gdy ułożenie poszczególnych warstw w powłoce AR jest odwrotne, wraz ze wzrostem grubości warstwy typu H (np. TiO2) maleje poziom przezroczystości całej powłoki AR. Na rysunku 2 przeds... więcej»

Ocena jakości energii elektrycznej w obiektach przemysłowych - badania eksperymentalne (TOMASZ TARASIUK, JANUSZ MINDYKOWSKI, PIOTR GNACIŃSKI, MARIUSZ SZWEDA, ANDRZEJ PIŁAT, MARIUSZ GÓRNIAK)
Rozwój nowych technologii w zakresie wytwarzania i użytkowania energii elektrycznej, z jednej strony umożliwia zwiększenie efektywności energetycznej, zaś z drugiej strony istotnie zmienia charakterystyki energii elektrycznej w systemach elektroenergetycznych. Przede wszystkim zauważalny jest stały wzrost liczby i mocy odbiorników o nieliniowych charakterystykach oraz coraz powszechniejsze wykorzystanie odnawialnych i rozproszonych źródeł energii elektrycznej. W tym kontekście należy wspomnieć zwłaszcza o energetyce wiatrowej i, w dalszej kolejności, solarnej. Efektem tych zmian są obserwowane coraz większe poziomy zniekształceń napięć i prądów w systemach elektroenergetycznych, problemy z bilansowaniem mocy związane ze zmienną i trudną do kontrolowania mocą źródeł i związane z tym możliwe zmiany częstotliwości składowej podstawowej. Towarzyszy temu rozwój technik informacyjnych oraz nowych technologii w zakresie cyfrowego przetwarzania sygnałów, komunikacji, sterowania itp. Połączenie wyżej wspomnianych technik i technologii umożliwia integrację różnych elementów złożonego systemu elektroenergetycznego, prowadząc do powstania w pełni inteligentnych systemów elektroenergetycznych (ISE). Istotnym elementem tych systemów będzie inteligentna infrastruktura pomiarowa [1], umożliwiająca dwukierunkową komunikację pomiędzy wszystkimi uczestnikami rynku energii elektrycznej. Dodatkowo, aby zwiększyć korzyści związane z integracją licznych rozproszonych źródeł energii elektrycznej, często o małej mocy oraz ograniczyć problemy związane z niezawodnością dostaw dla kluczowych odbiorców (szpitale, centra danych, systemy bezpieczeństwa), proponuje się wprowadzanie lokalnych podsystemów elektroenergetycznych o wyraźnie określonych elektrycznie granicach, zawierających rozproszone źródła energii elektrycznej i odbiorców o różnym charakterze, czyli ... więcej»

Zastosowanie materiałów elektrochromowych do kamuflażu optycznego fotowoltaicznych źródeł zasilania urządzeń wojskowych (Adam JANUSZKO, Marcin SZCZEPANIAK)
Zastosowanie baterii słonecznych w urządzeniach wojskowych daje możliwość korzystania z niewyczerpalnego źródła energii elektrycznej, jakim jest energia słoneczna. Ze względu na realizacje długotrwałych operacji militarnych (również podczas misji zagranicznych) na otwartej przestrzeni niosą one ryzyko utraty zasilania urządzeń militarnych. Uzasadnione jest więc wykorzystanie tego typu alternatywnych źródeł energii - rysunek 1. Innym przykładem implementacji mogą być autonomiczne i bezobsługowe systemy obserwacyjne lub ochronny zasilane z akumulatorów, co przedstawia rysunek 2. Wykorzystanie baterii słonecznych daje możliwość ich ładowania minimalizując konieczność bezpośredniej ingerencji człowieka, a także eliminuje konieczność uruchamiania innych źródeł energii np. głośnych agregatów prądotwórczych, demaskujących obecność tych systemów. Problemem w zastosowaniu tych źródeł zasilania jest ich stosunkowo niski stopień kamuflażu w szczególności w zakresie widzialnym oraz podczerwieni, co obrazuje rysunek 3. Nie zapewniają one skutecznej ochrony, innymi słowy są one widoczne i demaskujące. Niewątpliwie obiecujące w tym zakresie staje się zastosowanie nowoczesnych, funkcjonalnych powłok elektrochromowych dla ogniw fotowoltaicznych. Rys. 1. Zastosowanie ogniw fotowoltaicznych w różnych militarnych aplikacjach [1... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Charakteryzacja przyrządów kluczujących pod względem zastosowania w generatorach ultradźwiękowych dużej mocy (Krystian Król, Witold Kardyś, Łukasz Krzemiński, Marcin Kiełbasiński, Bohdan Młynarski )
Technologia ultradźwiękowa znajduje coraz większe zastosowanie w przemyśle przy zgrzewaniu tworzyw sztucznych i metali, czy też przy wykorzystaniu efektu kawitacji do czyszczenia detali przemysłowych oraz rozdrabniania półproduktów płynnych [1]. Wszystkie wymienione przemysłowe zastosowania technologii ultradźwiękowej wymagają zastosowania przetworników oraz układów drgających dużej mocy. W tego typu konstrukcjach wiele parametrów użytkowych zależy od paramentów generatorów sygnałów elektrycznych zasilających przetworniki ultradźwiękowe. Wraz ze wzrastającą mocą układów drgających zmieniają się również wymagania oraz konstrukcja stopni wyjściowych generatorów ultradźwiękowych zasilających przetworniki. Współcześnie moc dysponowana generatorów ultradźwiękowych pracujących z częstotliwością 18-20 kHz może dochodzić nawet do 4-6 kW [2]. Zwiększa to znacznie wymagania stawiane przyrządom półprzewodnikowym pracującym jako klucze w stopniach wyjściowych generatorów. Muszą się one charakteryzować wysokim dopuszczalnym prądem pracy, wysokim napięciem blokowania, a jednocześnie zapewnić optymalne warunki przełączania ze względu na stosunkowo wysokie częstotliwości pracy powodujące wzrost udziału strat komutacyjnych. W artykule analizie poddano właściwości dynamiczne półprzewodnikowych elementów kluczujących spełniających wymagania stawiane stopniom wyjściowym generatorów dużej mocy tzn. cechujących się prądami ciągłymi pracy na poziomie 20-30 A, napięciem blokowania większym niż 700 V. Warunki takie spełniają dwie konstrukcje przyrządów półprzewodnikowych - tranzystory IGBT wykonywane w technologii krzemowej oraz obecne od niedawna tranzystory MOSFET wykonywane w technologii węglika-krzemu. Analizie poddano właściwości dynamiczne tych rozwiązań. Konstrukcja wyjściowego układu falownika Ponieważ model zastępczy elektromechanicznego układu drgającego, pokazany na rys. 1, jest równoważny układowi rezonansowemu, musi być on pobudzany na... więcej»

Realizacja systemu blokad międzypolowych z użyciem standardu IEC 61850 (Andrzej Gacek, Leszek Książek)
Blokady międzypolowe to sygnały przesyłane pomiędzy polami rozdzielczymi stacji w ramach realizacji algorytmów obejmujących więcej niż jedno pole rozdzielcze. Przykładem automatyk realizujących skomplikowane funkcje przełączeniowe, wykorzystujących sygnały blokad międzypolowych są m.in.: SZR, AUPZ, AWSC. W klasycznych rozwiązaniach stacji rozdzielczych połączenia pomiędzy polami rozdzielczymi wykonywane są w postaci przewodów elektrycznych. Jest to rozwiązanie dość kosztowne i narażone na działanie zakłóceń elektromagnetycznych. Rozwój techniki, w szczególności systemów teleinformatycznych, umożliwił przesyłanie sygnałów pomiędzy polami rozdzielczymi za pomocą interfejsów komunikacyjnych. W energetyce od niedawna stosowany jest specjalizowany standard IEC 61850 uwzględniający specyfikę tej dziedziny przemysłu, wykorzystujący sieć światłowodową. Wprowadzenie ujednoliconego standardu komunikacyjnego, jakim jest IEC 61850, pozwala na bezpośrednie współdziałanie urządzeń różnych producentów. Specjalna usługa wchodząca w skład tego standardu o nazwie GOOSE, pozwala na bardzo szybkie przekazywanie w obrębie sieci teletransmisyjnej informacji o zdarzeniach zaistniałych w urządzeniach podstacji. Standard IEC 61850 opiera się na komunikacji urządzeń stacyjnych za pomocą sieci lokalnej typu Ethernet z prędkością 100 Mbit/s. W warstwie sieciowej i transportowej stosowany jest stos protokołów TCP/IP, zaś w warstwie aplikacji wykorzystuje się protokół MMS. Standard IEC 61850 zawiera zalecenia dotyczące wymiany informacji na poziomie stacji (magistrala stacji), na poziomie urządzeń pierwotnych (magistrala procesu), jak również bezpośredniej wymiany informacji pomiędzy urządzeniami na zasadzie "każdy z każdym". Standard określa też struktury danych przedstawiające elementy funkcjonalne urządzeń oraz mówi w jaki sposób należy je użyć, by uzyskać strukturę reprezentującą daną funkcjonalność urządzenia stacji. Standard IEC 61850 stosuje obiek... więcej»

Nowoczesne techniki montażu 3D (Wojciech Stęplewski, Grażyna Kozioł, Józef Gromek, Piotr Ciszewski, Tomasz Krzaczek)
Trend w kierunku miniaturyzacji, zwiększenia szybkości działania, funkcjonalności i niezawodności urządzeń elektronicznych powoduje pojawianie się na rynku nowych podzespołów i technologii ich sprzężenia oraz montażu. Nowoczesne, mobilne urządzenia multimedialne wymagają bardzo krótkich czasów połączeń procesora i pamięci. Wymusza to zapotrzebowanie na rozwiązania gwarantujące maksymalne skrócenie czasu cyklu odczyt-zapis, przy jednoczesnym niskim zużyciu energii i niskim poziomie szumów i przesłuchów. Najszybszą metodą zapewnienia tych wymagań jest bezpośrednie połączenie pamięci z procesorem poprzez spiętrzanie, czyli nabudowywanie jednej struktury nad drugą. Obecnie jedną z najszybciej rozwijających technologii spiętrzania jest technologia Package on Package (PoP). Technologia PoP polega na piętrowym montażu techniką lutowania jednego lub kilku układów pamięciowych na położonym niżej układzie procesora, montowanym na płytce obwodu drukowanego. Układ procesora oraz pamięci zamknięte są w obudowach typu BGA (Ball Grid Array). Bliskość struktur półprzewodnikowych sprzyja korzystaniu z szybkich połączeń szerokopasmowych i tym bardziej zmniejsza zapotrzebowanie na powierzchnię na płytce drukowanej [1, 2]. Ten sposób montażu przy zwiększonej gęstości upakowania poprawia szybkość działania układów i odporność na zakłócenia elektromagnetyczne (EMC), pozwala również na wcześniejsze przetestowanie każdego z elementów struktury PoP osobno. Szczególnie jest to ważne dla układów logicznych, ponieważ potrzebują one często dużo bardziej skomplikowanej metodologii testowania. Architektura układów PoP pozwala na integrację układów logicznych o wysokiej wydajności (element dolny modułu) z pamięciami o dużych pojemnościach (element górny modułu) w elastycznym opakowaniu 3D. W ten sposób układy te stały się ciekawym rozwiązaniem w urządzeniach multimedialnych: smartfonach, tabletach, aparatach cyfrowych, urządzeniach GPS itp., gdzie ważna je... więcej»

Ocena jakości połączeń lutowanych w elektronicznym montażu powierzchniowym (Tomasz Serzysko, Janusz Borecki)
Proces technologiczny montażu elektronicznego jest końcowym etapem procesu produkcyjnego, w którym ostatecznie kształtuje się jakość wyrobu elektronicznego. Proces technologiczny elektronicznego montażu powierzchniowego (SMT) można podzielić na następujące etapy: - nakładanie przez szablon pasty lutowniczej (spoiwa lutowniczego) na pola lutownicze płytki obwodu drukowanego, - układanie elementów elektronicznych SMD (ang. Surface Mounted Device) na powierzchni płytki obwodu drukowanego, - przetapianie spoiwa lutowniczego. - kontrola końcowa wyrobu gotowego. Kontrola wyrobu gotowego jest czynnością wieloetapową. Wykonuje się ją bezpośrednio po procesie lutowania między innymi poprzez kontrolę wizualną pod mikroskopem optycznym oraz badanie elektryczne zmontowanego zespołu. Sprawdza się wtedy zgodność produktu z projektem i przeprowadza obserwację położenia elementów na polach lutowniczych oraz obserwację poszczególnych połączeń lutowanych. Podczas takiej kontroli można wykryć ewentualne wady połączeń takie jak przesunięcie wyprowadzeń elementu względem pól lutowniczych, efekt nagrobkowy, niezwilżenia czy odwilżenia pól lutowniczych. Dostarcza ona również informacji na temat istnienia lub braku połączenia elektrycznego. Formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa główne zadania, jakimi są: - przyłączenie elementów elektronicznych do sieci połączeń obwodu elektrycznego montowanego urządzenia, oraz - mechaniczne zamocowanie elementów na powierzchni płytki obwodu drukowanego. Jakość połączeń lutowanych zależy od wielu czynników, do których należy zaliczyć: parametry prowadzenia procesu montażu elektronicznego, rodzaj pasty lutowniczej, wielkość pól lutowniczych na płytce obwodu drukowanego oraz rodzaj lutownej powłoki ochronnej na powierzchni pól lutowniczych. Prezentowane w niniejszej pracy wyniki, przedstawiają ocenę jakości połączeń lutowanych z zastosowaniem bezołowiowych past lu... więcej»

System mechatroniczny do badań struktur elektroniki organicznej (Tadeusz KOZŁO WSKI, Roman WOŹNIAK, Janus z WÓJCIK, Jerzy ZAJĄC)
Kontrola jakości procesów produkcyjnych elektroniki organicznej, również w przypadku produkcji małoseryjnej i prototypowej wymaga opracowania metod pomiarowych mogących charakteryzować właściwości fizyczne wytwarzanych elementów np. w strukturach próbnych. Aby scharakteryzować badane struktury konieczne jest wykonywanie pomiarów odizolowanych rezystorów, tranzystorów FET, a także kondensatorów i wyznaczanie stąd parametrów materiałowych i technologicznych. Problem połączenia badanych struktur do urządzeń pomiarowych można rozwiązać opracowując odpowiednie probery do ostrzowego badania struktur w atmosferze ochronnej. W Instytucie Tele- i Radiotechnicznym skonstruowano model probera umożliwiający elektryczne sprzęganie urządzeń pomiarowych z badanymi strukturami organicznymi na podłożach płaskich. W przyszłości zostanie opracowany model drugiej wersji probera do badania struktur na podłożach zakrzywionych mocowanych na bocznej powierzchni walca. Prober jest wyposażony w podsystem wizualizacji z kamerą i zmotoryzowanym obiektywem o zmiennym powiększeniu i ostrości, a także z automatycznym doborem ekspozycji kamery. Pozwala to na łatwą pracę w komorze rękawicowej z atmosferą ochronną. Prober sterowany jest przez autonomiczny sterownik przemysłowy mogący współpracować z nadrzędnym systemem pomiarowym. Architektura probera Opracowany model probera (rys. 1) zawiera podsystem wizualizacji, kompletne napędy w osiach X, Y, Z i... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Programowa implementacja kontrolera magistrali CAN w lokalnych sieciach sensorowych (Kazimierz KAMUDA, Mariusz SKOCZYLAS, Jerzy ŚWIĘCH, Włodzimierz KALITA)
Kontroler CAN wykonuje ściśle określone funkcje w układach elektronicznych współpracujących z magistralą CAN. Podstawową funkcją kontrolera jest sprzętowa realizacja protokołu magistrali CAN, która obejmuje generowanie pakietów danych według specyfikacji standardu CAN, odbiór danych oraz obsługę błędów. Dzięki kontrolerowi układ mikroprocesorowy współpracujący z magistralą jest odciążony od dodatkowych obliczeń. Mikrokontroler, który wcześniej został skonfigurowany do wysyłania i odbierania wiadomości na magistralę, musi jedynie dostarczyć kontrolerowi określone wartości identyfikatora i danych do kontrolera CAN, a cała reszta funkcji potrzebnych do działania w tym systemie jest realizowana w tym układzie scalonym. Najczęściej kontroler magistrali CAN realizowany jest w postaci sprzętowej w mikrokontrolerze, bądź w formie oddzielnego układu scalonego. Możliwa jest jednak programowa implementacja kontrolera, dzięki której typowy mikrokontroler 8 bitowy będzie mógł odbierać i wysyłać dane na magistrali. Wprowadzenie programowej implementacji wiąże się pewnymi ograniczeniami. Będą nimi mniejsza ilość wolnej pamięci flash oraz większe obciążenie procesora na czas odbierania i przetwarzania danych. Jednak w wielu przypadkach wady te nie dyskredytują tego rozwiązania. Programowa implementacja niesie ze sobą też wiele zalet, takich jak mniejsze koszty urządzenia, możliwość działania z wykorzystaniem tanich mikrokontrolerów oraz znaczne ograniczenie poboru mocy związanego z pracą dodatkowego układu kontrolera CAN. Koncepcja programu Program implementujący funkcje kontrolera magistrali CAN nie musi w pełni odzwierciedlać działania sprzętowego kontrolera CAN. Wynika to z faktu, że istnieje tylko kilka funkcji niezbędnych do wymiany danych na magistrali, więc szereg działań kontrolera może zostać pominięte lub zastąpione. Program, który został opracowany można podzielić na trzy części. W pierwszej części znajdują się funkcje, bez któ... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Using the hyperbolic algebra for efficient analysis of nonlinear switched dynamical circuits (Zdzisław Trzaska )
Nonlinear dynamical systems of various natures (electrical, chemical, biological, mechanical, astrophysical, etc.) quite often exhibit complex dynamical behavior and undergo bifurcations when one or more parameters change. Such complex behavior requires new mathematical tools that better describe properties of the dynamic processes and systems [1-3]. Overall, it is known that the non-smooth signals can make investigations quite drudging. Analyses of oscillations with essentially unharmonic, non-smooth or maybe discontinuous time shapes are especially diffcult. This is caused by the fact that the methods for nonlinear dynamic systems were originally developed within the paradigm of smooth oscillations based on the classical theory of differential equations, usually avoiding non-differentiable and discontinuous functions. Over the last three decades, a general interest in developing tools to incorporate the non-smooth and discontinuous signals has grown significantly. Presently, many theoretical and applied areas of dynamical systems and processes cover high-energy phenomena accompanied by highly non-linear spatio-temporal behavior, making the classical smooth methods inefficient in almost all cases [4-6]. The main purpose of this paper is to show a uniform basis suitable for analyses of non-harmonic shape oscillations resulting from the non-smooth or discontinuous excitations. The tool presented in this work employs a non-smooth approach as an efficient mean to analyze nonlinear dynamical switching circuits. The approach is built on the idea of non-smooth time transformation (NSTT) proposed originally for nonlinear and smooth models [7-9]. The NSTT is based on the explicit links between the hyperbolic algebra and impact dynamics, an approach analogous to the conventional complex number analysis and harmonic oscillatory processes [10-13]. Therefore, it is expected that the hyperbolic algebra and hyperbolic numbers can overcom... więcej»

Elektrochemiczny czujnik samopolaryzujący do naskórnego pomiaru prężności tlenu w krwi tętniczej (Tadeusz Pałko, Włodzimierz Łukasik, Józef Przytulski)
Prężność tlenu pO2 we krwi tętniczej jest ważnym parametrem obrazującym ilość tlenu rozpuszczonego w osoczu, wyrażonym w jednostkach ciśnienia oddziaływującego na osocze. W warunkach prawidłowych w krwi tętniczej pO2 ≈ 80 mm Hg (10,6 kPa), a w powietrzu atmosferycznym pO2 ≈ 154 mm Hg (21 kPa). Parametr ten umożliwia wykrycie zarówno niedotlenienia krwi tętniczej jak i groźbę wystąpienia zatrucia tlenowego, co może ujawnić się w trakcie leczenia w komorze hiperbarycznej lub leczenia czystym tlenem. Przedmiotem niniejszego artykułu jest elektrochemiczny czujnik samopolaryzujący do nieinwazyjnego naskórnego pomiaru prężności tlenu we krwi tętniczej oparty na ogniwie galwanicznym zwanym też komor-pomiarową Mackeretha oraz wyposażony w układ termoregulacji do grzania i termostatowania badanego miejsca obszaru tkankowego skóry i wnętrza czujnika, aby zapewnić wystarczająco dobrą dyfuzję tlenu z krwi w naczyniach kapilarnych do komory pomiarowej czujnika. Dotychczas znane i stosowane czujniki do nieinwazyjnego pomiaru prężności tlenu pO2 we krwi tętniczej metodą naskórną działają na zasadzie opisanej przez Clarka w artykule [1] odnoszącym się do pomiaru pO2 bezpośrednio w krwi metodą in vitro. Na przełomie lat 1970-tych i 1980-tych i później, zasada ta została zmodyfikowana, udoskonalona i rozszerzona do nieinwazyjnych pomiarów naskórnych pO2 w krwi tętniczej. Główna modyfikacja czujników naskórnych w stosunku do mierzących pO2 bezpośrednio w krwi polegała na wprowadzeniu układu termoregulacji do podgrzewania obszaru pomiarowego. W czujnikach pO2 opartych na zasadzie Clarka wykorzystuje się zjawiska oksyredukcyjne zachodzące na powierzchni, odpowiednio dobranych i spolaryzowanych z zewnętrznego źródła napięcia, elektrod zanurzonych w odpowiednim wodnym elektrolicie, najczęściej KCl do którego dyfunduje tlen przez membranę o właściwościach hydrofobowych tzn. nieprzepuszczającą cząsteczek wody z badanego środowiska. Na... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Demonstrator radaru szumowego z interferometrycznym pomiarem kierunku (Paweł Roszkowski, Mateusz Malanowski)
Radary szumowe (ang. noise radars) są to radary wykorzystujące sygnał szumowy, losowy lub chaotyczny do oświetlania obserwowanych obiektów oraz przetwarzanie korelacyjne powracającego echa dla optymalnej filtracji i detekcji sygnału radiolokacyjnego. Zainteresowanie takiego typu radarami występuje głównie w aplikacjach militarnych ze względu na ich niskie prawdopodobieństwo przechwycenia LPI (ang. Low-Probability-of-Interception), dobrą kompatybilność elektromagnetyczną - EMC (ang. ElectroMagnetic Compatibility) oraz możliwości utajonego operowania na nieprzyjaznym terenie - tzw. koncepcja Stealth Radar. Radar szumowy posiada bardzo dobre możliwości detekcyjne obiektów z uwagi na brak niejednoznaczności pomiaru odległości ani prędkości bistatycznych obiektów, zachowując wysoką rozróżnialność i dokładność pomiaru. W artykule przedstawiono radar szumowy z falą ciągłą (istnieją także radary szumowe impulsowe), w którym zastosowano oddzielne anteny dla nadawania i odbioru, dzięki czemu nie jest potrzebna skomplikowana aparatura do przełączania nadawanie/odbiór. Gdy odseparujemy o pewną odległość antenę nadawczą i odbiorczą powstaje konfiguracja radaru bistatycznego (w odróżnieniu od konfiguracji monostatycznej w której anteny odbiorca i nadawcza znajdują się w tym samym miejscu). Przykładową geometrię bistatyczną w przygotowanym scenariuszu testowym przedstawia rys. 1. Radar w konfiguracji bistatycznej posiada wiele korzyści wynikających z geometrii, które stwarzają potencjalne możliwości detekcji obiektów typu stealth [3]. Związane jest to ze zwiększaniem się prawdopodobieństwo ustawienia się wybranych elementów obiektu prostopadle do siecznej kąta pomiędzy kierunkiem padania fali oświetlającej i kierunkiem na odbiornik radaru. Wykorzystanie geometrii bistatycznej ogranicza również kontrolę charakterystyki odbicia obiektu poprzez kształtowanie powierzchni i planowanie misji, tak by stać się niewidzialnym dla radaru aktywnego... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
A method for identifi cation of static and dynamic characteristics of a non-zero chirp Mach-Zehnder optical intensity modulator for application in OOK fi ber optic communication line (ZBIGNIEW LACH)
Performance parameters of an On-Off-Keying (OOK) fi ber optic communication line: chromatic dispersion, parameters of polarization mode dispersion, optical signal to noise ratio, can be learned from distortion of the received signal. For this purpose the signal that outputs the transmitter of the line shall be known at the receiving end, which normally is not the case. In one approach to fi x this defi ciency the lacking signal can be retrieved from a detected data sequence through the use of a known model of static and dynamic characteristics of the optical modulator. Parameters of such a model shall be measured at the transmitter and communicated to the receiver end via some separate data network. Although optical phase is lost in non-coherent receivers, possible phase modulation in a transmitter [1, 2] affects optical intensity of a signal being propagated through a dispersive medium, hence the complete knowledge on how data sequence in a modulator is transformed to optical fi eld is indispensable. In applications to a non-coherent OOK communication line direct phase measurements shall be avoided. This calls for a suitable method that allows learning modulator static and dynamic characteristics from intensity data only. The problem is on the crossing of system identifi cation and fi ber optics domains. It is the focus of this paper to fi nd from the plethora of identifi cation methods [3, 4] the one that fi ts the particular needs of the considered application. The paper focuses on a transmitter with a Mach-Zehnder optical modulator and extends results from [5] where a method for estimation of a Mach-Zehnder (MZ) modulator static characteristics from intensity measurements was introduced. Static and dynamic characteristics of a Mach-Zehnder modulator A Mach-Zehnder optical modulator converts an electronic driving signal to corresponding optical intensity and possibly some associated optical phase variation. Such phase vari... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 kΩ [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 kΩ w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Zastosowanie stereowizji we wspomaganiu operatorów monitoringu wizyjnego (Julian Balcerek, Adam Dąbrowski, Adam Konieczka)
Wśród zagrożeń występujących we współczesnym środowisku zurbanizowanym rozróżniamy katastrofy naturalne, wypadki i popełniane przestępstwa. Na przestrzeni wielu lat ludzie wypracowali metody przeciwdziałania zagrożeniom. Techniczne metody są oparte na obserwacji, wykrywaniu i, w miarę możliwości, na eliminacji lub ograniczeniu skutków występowania zagrożeń. Jednym ze sposobów obserwacji są systemy monitoringu wizyjnego. Obsługa systemu monitoringu nastręcza jednak wielu problemów. Długotrwałe oglądanie obrazu przez operatora jest monotonne i nużące. W związku z tym po pewnym czasie słabnie uwaga i koncentracja operatora. W ostatnich latach są rozwijane techniczne możliwości wspomagania obsługi systemu monitoringu wizyjnego, odnoszące się do obserwowanych osób i obiektów. Osoby mogą być automatycznie wykrywane, śledzone i liczone [1]. Rozpoznawane są twarze, płeć i sposób chodu [2]. Wykrywane jest przekraczanie linii na dworcach kolejowych, przechodzenie na czerwonym świetle, czy też pozostawianie bagaży przez podróżnych [1, 3]. Dym i ogień również mogą być wykrywane [3]. Istnieją metody do automatycznego wykrywania, rozpoznawania, śledzenia i zliczania pojazdów oraz do wykrywania zatorów drogowych [4, 5]. Zabronione manewry wykonywane przez kierujących pojazdami, takie jak: parkowanie i skręcanie w niedozwolonych miejscach lub jazda w niewłaściwym kierunku na drogach jednokierunkowych również są wykrywane [3]. Numery tablic rejestracyjnych mogą być automatycznie odczytywane, a kolizje i wypadki drogowe wykrywane [6, 7]. Techniczne możliwości wspomagania operatorów monitoringu wideo poprawiają wydajność w przypadku średnio skomplikowanych zadań. Jednak dowiedziono, że operator, który jest skupiony na prostym zadaniu, ma nawet lepszą wydajność, kiedy nie korzysta z systemów do automatycznej analizy sygnału wideo [8]. Jednym z głównych wymogów stawianych operatorowi monitoringu wizyjnego jest zdolność utrzymywania koncentracji... więcej»

Iteracyjna metoda usuwania szumu impulsowego z obrazów cyfrowych (Adam Konieczka, Julian Balcerek, Adam Dąbrowski)
Podczas rejestracji obrazów z wykorzystaniem kamer i aparatów cyfrowych dochodzi do przekłamań wartości niektórych pikseli. Przekłamania te są widoczne jako zmniejszenie szczegółowości drobnych detali obrazu bądź jako niejednolity kolor na gładkich powierzchniach. Zapis oraz transmisja obrazów są także źródłem zmiany wartości poszczególnych pikseli. Takie przypadkowo zmienione piksele, określane jako szum impulsowy o zmiennych wartościach, są bardzo zauważalne dla ludzkiego oka [1, 2]. Do usuwania szumu impulsowego stosuje się wiele metod. Do najpopularniejszych należy filtracja medianowa, która skutecznie usuwa taki rodzaj szumu z gładkich powierzchni. Niestety, fragmenty o dużej szczegółowości, takie jak tekstury czy krawędzie, ulegają rozmyciu. W celu redukcji tego efektu zaproponowano filtry CWM (center weighted median filter) [3] oraz SWM (softswitching median filter) [4]. W ostatnich latach pojawiło się wiele zmodyfikowanych i udoskonalonych filtrów działających w oparciu o medianę. Do najistotniejszych można zaliczyć: peak-and-valley filter (PV) [5], extremum and median filter (EM) [6], minimummaximum exclusive mean filter (MMEM) [6] oraz pre-scanned minmax center-weighted filter (PMCW) [7] i decision-based median filters [8]. W artykule zaproponowano prosty i efektywny algorytm do wykrywania i usuwania szumu impulsowego wykorzystujący maskę o wymiarach 3×3 piksele. Wykrycie pikseli szumowych odbywa się w oparciu o dynamicznie dobierany próg detekcji, a odszumianie wykorzystuje filtrację medianową i uśrednianie. W dalszej części artykułu opisano sposób ustalania progu detekcji pikseli zaszumionych oraz metodę odszumiania pikseli uznanych za zaszumione. Rozdział "Przebieg i wyniki eksperymentów" prezentuje przeprowadzone eksperymenty oraz uzyskane wyniki odszumiania dla standardowych obrazów testowych wyrażone w decybelach, przykładowe odszumione obrazy oraz porównanie uzyskanych wyników z innymi, dostępnymi w literatu... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Kształtowanie szumu w fonicznych przetwornikach a/c i c/a sigma-delta (MARCIN LEWANDOWSKI, ZBIGNIEW KULKA)
Szczególnie istotną rolę w systemach zapisu i odtwarzania dźwięku, określanych jako systemy hi-fi (high-fidelity), odgrywają wielobitowe (16-24-bitowe) przetworniki analogowo-cyfrowe (a/c) i cyfrowo-analogowe (c/a), pracujące z częstotliwościami próbkowania do 96/192 kHz, tworzące odrębną klasę przetworników fonicznych (audio converters) [1]. Przetworniki a/c i c/a działające z wykorzystaniem modulacji impulsowo-kodowej (PCM - pulse-code modulation), zwane powszechnie konwencjonalnymi przetwornikami PCM są stosowane w cyfrowej technice fonicznej od początku jej rozwoju. Przetwarzanie analogowego sygnału fonicznego na sygnał cyfrowy metodą kodowania PCM polega na wykonaniu trzech zasadniczych operacji: próbkowania równomiernego (ze stałym okresem próbkowania), wielobitowego kwantowania liniowego (ze stałym krokiem kwantowania) i kodowania. Wynikiem przetwarzania jest cyfrowy sygnał foniczny w formacie PCM, charakteryzowany przez częstotliwość próbkowania fS i rozdzielczość słów wyjściowych N w bitach. Przetworniki PCM mogą pracować z częstotliwością próbkowania (szybkością) Nyquist’a fN (Nyquist-rate PCM converters), tj. fS ≥ fN = 2·fm, gdzie fm jest pasmem analogowego sygnału wejściowego. Częściej jednak pracują z nadpróbkowaniem (oversampled PCM converters) i wówczas częstotliwość próbkowania fS = L·fN, gdzie L jest współczynnikiem nadpróbkowania (oversampling ratio) równym fS /(2·fm ), którego wartości mogą wynosić 2, 4, 8 lub 16. Choć nadpróbkowanie umożliwia zwiększenie stosunku sygnału do szumu SNR (signal-to-noise ratio) oraz uproszczenie konstrukcji analogowych filtrów dolnoprzepustowych (FDP) na wejściu przetwornika a/c (ochronnego, antyaliasingowego) i wyjściu przetwornika c/a (rekonstruującego, antylustrzanego), to jednak pociąga za sobą konieczność użycia cyfrowego filtru decymacyjnego na wyjściu przetwornika a/c i cyfrowego filtru interpolacyjnego na wejściu przetwornika c/a. Foniczne p... więcej»

Analiza układu integratora kluczowanego z nieidealnym kluczem (Grzegorz Domański, Bogumił Konarzewski, Robert Kurjata, Janusz Marzec, Krzysztof Zaremba , Michał Dziewiecki, Marcin Ziembicki, Andrzej Rychter)
Jednym z powszechnie stosowanych układów odbioru sygnału z fotodiod w systemach dyfuzyjnej tomografii optycznej [1] jest układ integratora kluczowanego [2]. Szum w takim układzie ma kilka przyczyn, a jedną z nich jest nieidealny charakter klucza. Rzeczywisty, nieidealny klucz, wstrzykuje ładunek podczas swojego przełączania oraz wykazuje skończoną rezystancję w stanie otwarcia. Ten drugi czynnik, czyli rezystancja klucza, może mieć znaczenie wszędzie tam, gdzie ze względu na niski poziom sygnału, stosowane są długie czasy integracji prądu z fotodiody, a więc na przykład w systemach tomografii optycznej. Analiza szumowa integratora kluczowanego sprzężonego z fotodiodą Ogólny schemat układu fotodiody dołączonej do integratora kluczowanego przedstawiono na rys. 1.Zawiera on fotodiodę podłączoną do wejścia odwracającego wzmacniacza operacyjnego. W pętli sprzężenia zwrotnego umieszczony jest klucz K o rezystancji Rf w stanie rozwarcia oraz dołączona równolegle pojemność Cf . Załóżmy, że na fotodiodę padają w losowych chwilach fotony, które generują impulsy prądowe ze średnią częstością re. Zgodnie z pierwszym twierdzeniem Campbella [4] średnia wartość sygnału wyjściowego uwy jest równa (1) gdzie he(t) - odpowiedź układu na pobudzenie jednoelektronowe. Wariancja sygnału wyjściowego σ 2uwy jest, zgodnie z drugim twierdzeniem Campbella [4], równa: (2) Analiza odpowiedzi układu w dziedzinie częstotliwości i czasu Dla dowolnej częstotliwości, przy pominięciu wpływu charakterystyki częstotliwościowej... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Krótki przegląd technik biometrycznych do rozpoznawania osób (Mirosława Plucińska )
Biometria zajmuje się pomiarem i selekcją indywidualnych, fizjologicznych lub behawiorystycznych cech organizmów żywych oraz udoskonalaniem metod pomiaru i wyboru najbardziej niepowtarzalnych osobniczo parametrów. Obecnie istnieje na rynku szereg technik biometrycznych wykorzystywanych w systemach kontroli dostępu i uwierzytelniania osób. Techniki te są ciągle rozwijane i ulepszane, a także pojawiają też nowe techniki. Najnowszym trendem są multibiometrie, czyli łączenie kilku technik biometrycznych, co zwiększa pewność prawidłowego rozpoznawania osoby i podwyższa bezpieczeństwo systemów je wykorzystujących. Prace nad wykorzystaniem biometrii do celów rozpoznawania osób koncentrują się głównie na łatwo dostępnych cechach fizycznych. Wstępnie techniki biometryczne przydatne do uwierzytelniania osób można podzielić na trzy podstawowe grupy: 1. Techniki biometryczne znane od dawna: - rozpoznawanie rysów twarzy, - rozpoznawanie odcisku palca, - rozpoznawanie kształtu dłoni, - rozpoznawanie siatkówki oka, - rozpoznawanie tęczówki oka, - rozpoznawanie głosu. 2. Techniki biometryczne obecnie preferowane: - rozpoznawanie naczyń krwionośnych palca, - rozpoznawanie naczyń krwionośnych dłoni. 3. Techniki biometryczne przyszłości: - rozpoznawanie głosu (nowej generacji), - multibiometrie, w tym rozpoznawanie odcisku palca + naczyń krwionośnych palca. Interesujące są również techniki rozpoznawania cech behawioralnych takich, jak: - sposób pisania odręcznego (prędkość, nacisk, kąt), - sposób uderzania w klawisze klawiatury, - sposób mówienia (ruch ust), mimika. Prowadzone są także badania nad uwierzytelniania osób za pomocą rozpoznawania np.: geometrii uszu, odcisku kostek dłoni, chodu danego człowieka. Opis technik biometrycznych Rozpoznawanie rysów twarzy Rozpoznawanie geometrii twarzy jest wygodnym środkiem rozpoznawania - "swoją twarz masz zawsze ze sobą". Użytkownik spogląda w kamerę, która rejestruje obraz. Po obróbce i mat... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros )
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

System akwizycji danych operacyjnych i pogodowych dla farmy fotowoltaicznej (Jacek Stępień, Konstanty W. Marszałek, Tomasz Matuska)
Farma fotowoltaiczna realizuje operację konwersji energii promieniowania słonecznego na energię elektryczną. W związku z koniecznością zapewnienia odpowiedniego poziomu nasłonecznienia paneli fotowoltaicznych, farmy budowane są w różnych, czasami odległych od terenów urbanizacyjnych miejscach. Jednocześnie systemy sterowania i nadzoru poprawności pracy systemu fotowoltaicznego wymagają posiadania często bardzo rozbudowanej infrastruktury komputerowej. Transfer danych do miejsc obsługi odpowiedzialnych za kontrolę stanowi istotny element systemu nadzoru nad prawidłowym funkcjonowaniem obiektu. Kompletne systemy sterowania i nadzoru są oferowane obecnie przez wielu producentów i nie stanowi żadnego problemu zbudowanie infrastruktury kontrolno-sterującej dla urządzeń pracujących na farmie [1-4]. Opisany w artykule system pomiarowy nie jest alternatywą dla rozwiązań tego typu, stanowi jakby pewne ich uzupełnienie. Opracowany, uniwersalny interfejs pomiarowy pozwala na dołączenie urządzenia do dowolnego układu czujnikowego, realizującego pomiary w trybie napięciowym lub prądowym, dzięki możliwości dopasowanie poziomu sygnału do zakresu optymalnego dla systemu akwizycji danych oraz transmisję za pomocą modemu GPR S (ang. General Packet Radio Service) do serwera realizującego wizualizację lub np. wyposażonego w aplikację do analizy efektywności pracy systemu fotowoltaicznego. System jest mobilny, niezależny od infrastruktury komputerowej farmy i bardzo elastyczny (możliwe jest rozbudowanie układu o kolejne moduły bez modyfikacji pozostałej części systemu). Został wykorzystany w pracach badawczych przy wdrażaniu wiatrowo- słonecznej elektrowni hybrydowej. Opis systemu fotowoltaicznego Opisywany system akwizycyjny testowany był na obiekcie przemysłowym tj. hybrydowej elektrowni wiatrowo-słonecznej budowanej w ramach realizacji projektu "Badania nad opracowaniem wytycznych, technik i technologii dla systemów kompensacji mocy biernej,... więcej»

Toshiba AT10A-103
Firma Toshiba Europe, oddział w Warszawie, udostępniła naszej redakcji swój nowy tablet oznaczony AT10A-103. Tablet jest przenośnym komputerem większym nieco niż telefon komórkowy, którego główną, widoczną cechą jest duży ekran dotykowy (Multi-Touch). W przeciwieństwie do większości klasycznych urządzeń tablety nowszego typu nie mają fizycznej klawiatury, użytkownik posługuje się klawiaturą wirtualną dotykając ekranu palcem.W odróżnieniu od kompu... więcej»

Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Per-unit-lenght parameters calculations for cable harnesses (Włodzimierz KALITA, Kazimierz KAMUDA, Dariusz KLEPACKI, Wiesław SABAT)
The mathematical analysis of electrical signal propagation communication interfaces requires a good knowledge about per-unitlength parameters of wires. It is especially important for analysis of circuits operated in high frequency range. The influence of p.u.l parameters on signal propagation in transmission lines describes the telegraph equation. For cable harnesses (with common coupled particular single wires) the p.u.l parameters have a form of R, L, C, G matrices [1-8]. P.U.L parameters calculations - theory The method of moments which belongs to the approximate methods allows the determination of distribution of electromagnetic fields (and their characteristic values) with much lower power consumption of calculations compared to the other methods. The analytical equations describing continuous electromagnetic field (in space and time domain) are transformed into a discrete system of algebraic equations. The quantities characterizing electromagnetic field in dielectric media can be determined from the Poisson equation described for the considered wire system: (1) The electric potential in any point P of homogenous dielectric media with permittivity εm (without wire insulation) considered in 2D (Fig.1a) can be determined from general solution of equation (1) with given conditions: (2) where sμ is a lateral surface of wire. With good conductivity of wires it can be assumed that the potential μ on the perimeter of ( ) ... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Impedance matching between antenna and chip in RFID transponder of UHF Band (Piotr Jankowski-Mihułowicz, Wojciech Lichoń, Grzegorz Pitera, Mariusz Węglarski)
Radiative coupling radio frequency identification (RFID) systems of the UHF band (860 to 960 MHz) [1] work in the range of far field where emitted wave (of frequency f0) is not only a data carrier but first of all an energy source (of power density S). The electromagnetic field is generated by a read/write device (RWD). The RWD antenna together with transponder antennas comprise a radio communication arrangement which has to be wave and impedance matched. It should be emphasised that the classical impedance matching of a transmitter and receiver is established only between the RWD output and connected antenna (50 Ω). If a transponder appears in the interrogation zone (IZ), it can be supplied with energy and the data can be exchanged (Fig. 1a) but the backscattering modulation is used to send answers back to the RWD. In the transponder backscattering response the emitted wave is only partially reflected towards the RWD because of switching load impedance of the internal chip - this process is extremely power-saving but also conveyed energy has limited amount. The minimal power PTmin (chip sensitivity) is required for activating communication process (Fig. 1b). Appropriate communication mechanisms are defined by ISO protocols, e.g. ISO/IEC 18000-6 (EPC Class 1 Gen 2), 18000-4 for UHF band. They determine the interrogation zone which is a basic application parameter of RFID systems. The IZ is a space zone around the RWD antenna which boundaries are dependent first of all on the transponder antenna construction and impedance matching to the chip input and can be estimated by using e.g. Monte Carlo method [2]. So, the specific parameters of the chip and target application have to be... więcej»

Metody syntezy komparatorów z wykorzystaniem języka Verilog w środowisku Quartus II (Marek Gruszewski )
W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przesyłania i przetwarzania informacji. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CPLD) oraz bezpośrednio programowalne macierze bramek (FPGA) [1]. Rozbudowany układ cyfrowy na ogół przedstawia się jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych [2-5]. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy bloków funkcjonalnych w strukturach CPLD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach (оd 64 bitów wzwyż). Znane metody syntezy standardowych bloków funkcjonalnych ukierunkowane są na elementy małej skali integracji (typu bramki) i nie uwzględniają całkowicie właściwości nowej bazy elementowej (CPLD/FPGA). Do takich bloków funkcjonalnych należą m.in. komparatory binarne. Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy, klasycznych oraz nowatorskich [6-10]. W pracach [7, 8] badania przeprowadzono za pomocą środowiska MAX+PLUS II. Ponieważ język AHDL i pakiet MAX+PLUS II nie jest obecnie rozwijany przez firmę Altera, to istotne jest opracowanie metod syntezy komparatorów dużych rozmiarów (pracujących ze słowami dużych rozmiarów) za pomocą współcześnie wykorzystywanych języków opisu sprzętu takich jak: VHDL i Verilog. W ostatnim czasie coraz większą popularność zdobywa język Verilog [11, 12], który wspierany jest przez większość producentów oprogramowania do projektowania układów cyfrowych. W pracy przedstawiono różne metody syntezy komparatorów z wykorzystaniem języka Verilog: równoległe, szeregowe, równoległo- szeregowe, а także równoległo-szeregowe z wykorzystaniem edytora graficznego. Badania eksperymentalne przeprowadzono w środowisku Quartus II firmy Alter... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»