profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Zastosowanie energoelektronicznego modulatora prądu w układzie aktywnej kompensacji równoległej (Michał Krystkowiak)
Szczególnie istotnym problemem współczesnej elektroenergetyki i energoelektroniki jest polepszenie jakości przekształcania energii elektrycznej. Głównymi kryteriami oceny układów wykorzystujących przekształtniki energoelektroniczne są ich wskaźniki energetyczne, a zwłaszcza odkształcenie prądu pobieranego z sieci oraz współczynnik mocy. W przypadku niedostatecznie dużej mocy zwarciowej sieci konsekwencją pobierania odkształconego prądu jest odkształcenie napięcia sieciowego, które często przekracza dopuszczalny poziom. Może to doprowadzić do nieprawidłowej pracy urządzeń, a w skrajnym przypadku nawet do ich uszkodzenia. Ponadto obecność wyższych harmonicznych w widmie prądu sieci przyczynia się do wzrostu strat mocy czynnej. W konsekwencji poszukuje się rozmaitych metod polepszenia jakości przekształcania energii. Jednym z nich jest stosowanie aktywnych kompensatorów równoległych [1, 2]. W artykule zaprezentowano opracowaną strukturę aktywnego kompensatora równoległego z zaimplementowanym dodatkowym energoelektronicznym modulatorem prądu. Rozwiązanie to pozwala m.in. na znaczące polepszenie właściwości dynamicznych układu. W konsekwencji, w porównaniu z konwencjonalnymi rozwiązaniami kompensatorów aktywnych, możliwa jest poprawa efektywności działania układu w przypadku konieczności kompensacji prądu sieci o dużej szybkości zmian (dużej stromości narastania). Przedstawiono dwa opracowane tryby pracy opisywanego przekształtnika, a mianowicie: tryb pracy czasowej oraz tryb pracy równoległej. W pierwszym trybie pracy dodatkowy modulator prądu jest aktywowany tylko w chwili konieczności kompensacji prądu sieci o dużej szybkości zmian. Natomiast w drugim trybie pracy klucze głównego modułu kompensatora oraz współpracującego z nim modulatora prądu pracują jednocześnie w ciągu całego okresu napięcia sieci. Przy odpowiednim przesunięciu fazowym impulsów załączających pozwala to na zwiększenie dokładności odwzorowania w wyjściowym s... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Porównanie intensywności kawitacji w temperaturach 50 i 60°C roztworów wybranych soli przy częstotliwościach ultradźwięków 26 i 38 kHz (Bogdan Niemczewski )
Oczyszczanie ultradźwiękowe w roztworach wodnych prowadzi się najczęściej stosując, ze względu na reakcje chemiczne roztworów z zanieczyszczeniami, substancje alkaliczne lub kwasy. Czasami jednak rodzaj usuwanych zanieczyszczeń powoduje, że bardziej efektywne są inne środki oczyszczające, na przykład utleniacze, reduktory lub same tylko środki powierzchniowo czynne a nawet, z powodu wysokiej intensywności kawitacji, woda bez żadnych dodatków. Woda bowiem, jak to uznawano dotychczas, jest cieczą zdolną kawitować najintensywniej, przy czym temperatura jej maksymalnej kawitacji wynosi 35ºC [1, 2]. Publikacje autora z ostatnich lat dowodzą jednak, że przy zastosowaniu ultradźwięków o częstotliwości 34…39 kHz i wysokiej mocy, roztwory niektórych substancji alkalicznych kawitują, zwłaszcza w podwyższonych temperaturach, intensywniej niż woda. Fakt ten stwierdzono dla roztworów 1…2-procentowych Na3PO4 przy częstotliwości 34 kHz, a przy częstotliwości 38 kHz również dla licznych innych roztworów substancji alkalicznych [3-5]. Powstaje pytanie, czy jest to cechą wyłącznie substancji o odczynie alkalicznym, czy też odczyn nie ma tu istotnego znaczenia. Jeżeli również niektóre inne sole zdolne byłyby w pewnych warunkach podwyższać intensywność kawitacji, to można byłoby je wykorzystywać do maksymalizacji intensywności kawitacji, a tym samym maksymalizacji efektywności oczyszczania ultradźwiękowego. Przedmiotem pracy zreferowanej w niniejszym artykule jest próba porównania wpływu na intensywność kawitacji dodatku do wody różnych soli nieorganicznych. Przyjęto 3-procentowe stężenia nadźwiękawianych roztworów, ponieważ jak wykazały wcześniejsze badania, przy tej zawartości soli w roztworze wpływ stężenia na spadek intensywności kawitacji jest jeszcze stosunkowo niewielki [4]. 35 użytych do prób soli przy częstotliwości 26 kHz i 23 przy częstotliwości 38 kHz oczywiście daleko nie wyczerpuje palety rozpuszczalnych w wodzie... więcej»

Formal analysis of destination reachability under given restrictions for multi-path routing in Network on Chip (Piotr Dziurzański)
Networks on Chips (NoCs) have proved their assets as a mean of communication for future Multi-Processor Systems on Chips (MPSoCs) [2]. The majority of research in this field, however, assumes the mesh NoCs and a single-path wormhole switching utilizing the XY routing algorithm [3]. This assumptions deteriorates the potential of NoCs. As we checked in our earlier work [6], for typical multimedia algorithms the NoCs’ links are far from being utilized in a balanced way. Similarly, using the state-of-the-art XY routing algorithm, a number of links is not utilized at all while others are characterized with a large number of contentions. Thus the relatively large portion of links in a mesh can be omitted without any influence on the total transfer or latency of the NoC. It is not necessary to have a number of paths between two nodes if, due to the XY routing algorithm, only one of them can be utilized. This is in sheer contrast with the traditional computer networks, where multi-path routings are omnipresent. This fact can be explained with the difference in router requirements between these two networks scales. In NoCs the implementation cost of mechanisms needed for streams splitting and joining is significant both in terms of time and chip area. The benefits of higher utilization of links and improved balance is often lost by the additional spatial and/or temporal requirements [10]. The situation may look a bit different in case of the typical multimedia data processing system, which are usually computation- intensive and utterly dominated by data. MPSoCs realizing these algorithms are characterized with a relatively large amount of data transmitted between cores, what requires the guarantee of sufficient bandwidth of the connections to work in real-time. As a transfer pattern is the same during relative long time, i.e., during executing the same application in NoC, contentions are especially likely to occur, as it was show... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Światłowodowy czujnik siły bazujący na interferometrze Sagnaca z dwójłomnym światłowodem fotonicznym (Cezary Kaczmarek)
Interferometr Sagnaca zawierający odcinek światłowodu dwójłomnego ma wiele właściwości, które czynią go podzespołem o szerokim zastosowaniu zarówno w telekomunikacji jak i w sensoryce światłowodowej. Jedną z tych właściwości jest niezależność od polaryzacji wejściowej wiązki światła. Inną jest periodyczność widma wiązki wyjściowej i odbitej interferometru, którego okres zależy od długości odcinka światłowodu dwójłomnego, a nie od długości pętli. Interferometr Sagnaca ze światłowodem dwójłomnym jest wykorzystywany w telekomunikacji optycznej jako filtr WDM [1]. W sensoryce podzespół ten ma zastosowanie jako czujnik wielu wielkości fizycznych i chemicznych [2, 3] oraz jako dyskryminator długości fali dla czujników z siatkami Bragga [4]. Zastosowanie w interferometrze Sagnaca dwójłomnego światłowodu fotonicznego zamiast konwencjonalnego światłowodu dwójłomnego, radykalnie poprawia parametry metrologiczne i użytkowe tego podzespołu. Ta poprawa wynika z właściwości dwójłomnych światłowodów fotonicznich, głównie bardzo małego wpływu zmian temperatury i znacząco większej dwójłomności modowej w porównaniu z konwencjonalnymi światłowodami dwójłomnymi. Dla interferometru ze światłowodem dwójłomnym produkowanego przez Blaze-Photonics zmiany okresu widma pod wpływem zmian temperatury wynoszą 0,05 pm/K, natomiast przesunięcie widma pod wpływem zmian temperatury wynosi 0,25...0,3 pm/K [5, 6]. Duża wartość dwójłomności światłowodów fotonicznych pozwala znacząco zredukować ich wymaganą długość w czujnikach z interferometrem Sagnaca. W artykule przedstawiono czujnik siły o zakresie 0...50 N, w układzie interferometru Sagnaca z dwójłomnym światłowodem fotonicznym typu PM-1550-01 wyprodukowanym przez Blaze... więcej»

Analiza możliwości wykorzystania siatek długookresowych w strukturach gradientowych światłowodów planarnych (Tomasz Kotyczka, Roman Rogoziński)
Obecnie w przemyśle elektronicznym wraz z dynamicznym rozwojem technologii, obserwować można nieustanne dążenie do miniaturyzacji układów, a tym samym redukcji kosztów ich produkcji. Układy elektroniczne stają się coraz mniejsze, tańsze oraz bardziej energooszczędne. Coraz popularniejsze stają się jednostki zintegrowane, w których poszczególne komponenty urządzenia elektronicznego produkowane są w postaci pojedynczego układu. Podobną tendencję widać w dziedzinie układów optycznych. Z dobrze opanowanymi technologiami produkcji, bazując na materiałach wysokiej jakości, można wytwarzać układy optoelektroniczne z dużą precyzją oraz w sposób wysoce powtarzalny. Urządzenia optyczne w stosunku do swoich elektronicznych odpowiedników charakteryzują się przede wszystkim niewrażliwością na obecność oraz zmiany pola elektrycznego i magnetycznego. Mogą pracować w skrajnie trudnych warunkach, a także często dzięki swojej budowie ich czas życia znacząco się wydłuża. Głównym motorem ciągłego postępu oraz poszukiwania nowych rozwiązań jest potrzeba automatyzacji oraz kontroli i nadzoru wszelkiego rodzaju procesów. Dotyczy to zarówno wszystkich gałęzi przemysłu jak również technologii medycznych gdzie główny nacisk kładzie się na niezawodność oraz precyzję działania. Wszędzie gdzie występują trudne warunki lub wymagana jest nieustanna kontrola projektuje się czujniki, które z duża dokładnością oraz w krótkim czasie pozwolą na detekcję pożądanych parametrów. W raz z rozwojem telekomunikacji znaczącą role zaczęły odgrywać układy wytwarzane bezpośrednio na włóknach. Do przykładów takich rozwiązań należą chociażby lasery światłowodowe [16], pompy optyczne, wszelkiego rodzaju czujniki płynów oraz gazów, a także filtry [3, 5, 6, 13, 15]. Te ostatnie oparte są na siatkach długookresowych LPG (Long Period Fiber Grating) [13]. Umożliwiają one sprzęganie mocy poszczególnych modów propagujących się w światłowodzie. Ze względu jednak na ograniczenia mat... więcej»

System pomiarowy do dynamicznej spektroskopii widma emisyjnego plazmy TR-OES do diagnostyki plazmy wyładowania jarzeniowego w układzie magnetronowym zasilanym impulsowo (Artur Wiatrowski)
Stale rosnące wymagania stawiane cienkim warstwom nanoszonym przy obniżonym ciśnieniu, a stosowanym m.in. w medycynie, mikroelektronice, magnetycznych i optycznych nośnikach danych, są motorem poszukiwań nowych sposobów ich wytwarzania. Celem poszukiwań są między innymi: 1) zwiększenie wydajności otrzymywania (poszukiwane są wysoce efektywne procesy rozpylania), 2) zwiększenie czystości warstw (wskazana eliminacja gazowej atmosfery roboczej procesów) oraz 3) możliwość wpływania na właściwości warstw przez zmianę parametrów technologicznych procesów nanoszenia - np. parametry sygnału elektrycznego pobudzającego wyrzutnię. W wypadku procesów rozpylania stałoprądowego jest to tylko wartość energii dostarczanej do źródła. Duże nadzieje wiązane są z metodami PVD (ang. Physical Vapor Deposition) wykorzystującymi impulsowe zasilanie źródła osadzanego materiału, w tym z metodą impulsowego rozpylania magnetronowego. Rozpylanie magnetronowe to obecnie jedna z najszerzej stosowanych metod otrzymywania cienkich warstw. Na jej atrakcyjność wpływa możliwość nanoszenia warstw na podłoża o dużych powierzchniach i szeroki zakres zmienności parametrów podczas procesów osadzania. Impulsowe odmiany tej metody np. HIPIMS (ang. High Power Impulse Magnetron Sputtering) [1-4], czy też metoda Impulsowego Magnetronowego Autorozpylania (ang. Pulsed Self-Sustained Magnetron Sputtering) [5, 6] otwierają nowe możliwości technologiczne pokazując, że rozwój technologii otrzymywania cienkich warstw za pomocą magnetronu jest kontynuowany. Charakterystyczną cechą procesów rozpylania impulsowego jest fakt, iż w czasie trwania każdego impulsu zasilającego wyrzutnię magnetronową (tON) występuje faza inicjowania wyładowania (napięcie anoda-katoda rzędu pojedynczych kV), po czym ma miejsce faza właściwego rozpylania (wymagana stabilizacja/ ograniczanie prądu katody). Natomiast w czasie każdego wyłączenia impulsu zasilającego (tOFF) występuje faza wygaszania wyład... więcej»

Barierowe struktury detekcyjne - nowe możliwości (Piotr Martyniuk, Andrzej Kowaleski, Waldemar Gawron, Antoni Rogalski)
Konieczność chłodzenia kriogenicznego detektorów promieniowania podczerwonego IR (Infrared Radiation) jest główną przeszkodą ograniczającą ich szerokie zastosowania. Biorąc ten fakt pod uwagę, szczególne znaczenie mają prace dotyczące niechłodzonych HOT (Higher Operation Temperature) detektorów z zakresu średniej MWIR (Medium Wave Infrared Radiation) 3…8 μm i dalekiej podczerwieni LWIR (Long Wave Infrared Radiation) 8…16 μm. Kluczowym elementem w procesie projektowania wysokotemperaturowych struktur detekcyjnych pracujących w wymienionych zakresach IR jest maksymalizacja wydajności kwantowej i minimalizacja prądu ciemnego. Wśród mechanizmów generujących prąd ciemny w strukturze detekcyjnej należy wyróżnić mechanizmy tunelowe pasmo - pasmo BTB (Band - To - Band Tunneling), tunelowanie przez poziomy pułapkowe TAT (Trap Assisted Tunneling), procesy generacyjno - rekombinacyjne (GR) Augera, procesy GR przez centra pułapkowe Shockley-Read-Halla (SRH) i prądy upływności powierzchniowej. Prądy uwarunkowane procesami GR Augera i procesami tunelowymi BTB/TAT można teoretycznie ograniczyć poprzez konstrukcje elementów składowych detektora z supersieci (SLs) II rodzaju T2SLs (Type II Superlattices), szczególnie z zwiŕzków naleýŕcych do tzw. rodziny 6.1 Ĺ AIIIBV (InAs, GaSb i AlSb) [1]. Niekorzystne, z punktu widzenia konstrukcji wysokotemperaturowych detektorów, procesy GR SRH i prądy upływności powierzchniowej można zredukować poprzez implementację odpowiednio dopasowanych barier do struktury detekcyjnej. Dobór bariery odgrywa decydującą rolę ze względu na dopasowanie sieciowe, jak również wysokość bariery w paśmie przewodnictwa i paśmie walencyjnym. Często wysokość energetyczna barier jest przypadkowa i trudno ją kontrolować technologicznie. Pierwszymi strukturami barierowymi były detektory heterozłączowe HgCdTe stosowane w celu zwiększenia osiągów detektorów poprzez ograniczanie prądów dyfuzyjnych z obszaru a... więcej»

Automatyczny pomiar pojemności złączowej półprzewodnikowego złącza p-n (Ireneusz Brzozowski, Szymon Wawszczak, Piotr Bratek, Andrzej Kos)
Pojemność złączowa (barierowa) jest jednym z ważniejszych parametrów diod półprzewodnikowych, a zwłaszcza w przypadku zastosowania w układach dużej częstotliwości. Pojemność złączowa jako główny parametr zaporowo spolaryzowanego złącza ma również znaczny udział w przypadku poboru energii w układach scalonych [1]. W wielu przypadkach sposobność szybkiego i możliwie dokładnego pomiaru tej pojemności jest nieoceniona. W przypadku warikapów i waraktorów jest to najważniejszy parametr. Co więcej, możliwość uzyskania charakterystyki pojemnościowo- napięciowej może być także bardzo cenna. Ponadto, oprócz wartości pojemności dla konkretnych napięć polaryzujących diodę taka charakterystyka pozwala na wyznaczenie innych ważnych parametrów złącza, np. potencjału barierowego czy profilu domieszkowania. W artykule przedstawiono stanowisko pomiarowe umożliwiające automatyczne wyznaczanie charakterystyk pojemnościowo- napięciowych złączy półprzewodnikowych i na tej podstawie ekstrakcję niektórych parametrów diod. Stanowisko składa się ze specjalnego układu pomiarowego oraz oprzyrządowania kontrolno- pomiarowego, które jest sterowane za pomocą aplikacji napisanej w środowisku LabVIEW, przez magistralę GPIB. W dedykowanym module pomiarowym zastosowano metodę rezonansową pomiaru pojemności. Wybór metody pomiarowej Z pośród wielu metod pomiaru pojemności kondensatorów można wymienić techniczną, mostkową, rezonansową i inne. Nie wszystkie z nich nadają się do zastosowania w przypadku pomiaru pojemności złączowej diody. Niektóre z nich wymagają dobrej liniowości elementu, dużej dobroci lub stałości napięcia do niego przyłożonego [2]. Tymczasem dioda półprzewodnikowa to element nieliniowy, a więc jej parametry zmieniają się wraz z napięciem polaryzującym. W szczególności pojemność złączowa, ale również rezystancja szeregowa, dobroć itd. W związku z tym dla uzyskania dobrej dokładności pomiarów należy zapewnić małą amplitudę składowej zmiennej n... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Inteligencja obliczeniowa, zastosowania biomedyczne i ontologiczne bazy wiedzy, Wilga 2012 (Ryszard S.Romaniuk)
Kryptografia, bezpieczeństwo sieci pomiarowych Rozproszone sieci kontrolno-pomiarowe, monitorujące krytyczne parametry, wymagają pewnej formy bezpieczeństwa. Szeroki rozkład geograficzny sieci, zbierającej istotne dane przez niezabezpieczone kanały komunikacyjne powoduje, że taka sieć jest podatna na ataki cyfrowe. Kryptograficznie bezpieczny sprzętowy generator liczb przypadkowych dedykowany do zabezpieczenia takich sieci jest badany przez zespół w IRE PW (prof. W. Winiecki) oraz ISE PW (prof. T. Adamski). Motywacją i usprawiedliwieniem badań nad bezpieczeństwem systemów kontrolno pomiarowych jest: sieci takie charakteryzują się znaczną asymetrią mocy obliczeniowej, kanały komunikacji radiowej mają wąskie pasmo, kanały komunikacji fotonicznej mają szerokie pasmo, zasilanie z baterii jest dosyć skromne i wymaga oszczędności energii lub zastosowania technologii energy/power harwesting. Radiowe kanały komunikacyjne RF lub otwarte optyczne są podatne na dodanie informacji, intencjonalną zmianę informacji, interferencję, itp. Istnieje potrzeba zastosowania bezpiecznych podsystemów komunikacyjnych dla takich sieci. Projektowany pod-system bazuje na sprzętowym generatorze liczb losowych, analogicznym do stosowanych w systemach kryptograficznych. Generator prawdziwych liczb losowych TRNG bazuje na nieprzewidywalnym zjawisku losowym, np. szumie białym. Generator liczb pseudolosowych PRNG bazuje na deterministycznym algorytmie obliczeniowym. System zrealizowano na generatorze chaotycznym z zastosowaniem procesora ATmega oraz oprogramowania Python (P. Czernik, IRE PW). W modelu zastosowano generator liczb losowych RDieHarder z zastosowaniem interfejsu GNU R. Zrealizowany TRNG był testowany i okazał się wystarczającym rozwiązaniem dla systemów pomiarowych o asymetrycznych zasobach. Lepsza przypadkowość była osiągana dla mniejszych częstotliwości próbkowania. Bity przypadkowe w przykładowym słowie 10-bitowym są rozmieszczone nierównomi... więcej»

Możliwości zastosowania elementów rozszerzonej rzeczywistości w urządzeniu fotografii laserowej (Marek Piszczek, Mikołaj Zarzycki)
Żyjemy w społeczeństwie, w którym informacja a przede wszystkim dostęp do niej, stanowi bardzo cenne i pożądane dobro. Rozwój technologiczny oferuje nam dostęp do bardzo zróżnicowanych źródeł udostępniających dane dzięki różnym technologiom. To dzięki wynalezieniu druku mamy m.in. tak wszechstronny dostęp do materiałów tekstowych i graficznych, a dzięki rozwojowi kinematografii, a później telewizji dostęp do informacji wizualnych stał się jeszcze bardziej powszechny (rys. 1). Dzięki wynalezieniu telefonu i rozwoju radiotechniki audio-informacje przekazywane są szybko i na duże odległości (rys. 2). Zwróćmy jednak uwagę, że każda z tych technologii jest ściśle dostosowana do naszych możliwości percepcyjnych audio-wizualnych. Zdajemy sobie jednak sprawę z możliwości naszych modalności zmysłowych. Tworząc nowe rozwiązania budujemy swego rodzaju protezy pozwalające nam zdobywać informacje jakich nie dostarczają nam nasze zmysły. Każda z wymienionych technologii w istotny sposób przyczyniła się do rozwoju społeczeństwa informacyjnego. Ważniejsze jest jednak to, że w dalszym ciągu poszukujemy nowych, bardziej wydajnych rozwiązań. W Instytucie Optoelektroniki WAT już od kilku lat prowadzone są badania m.in. nad technologiami, które mogą mieć swój wkład w rozwój potencjału systemów informacyjnych. Jedno z tych rozwiązań dotyczy metody kadrowania przestrzenno- czasowego, a drugie tzw. Rozszerzonej Rzeczywistości. Pierwsze z rozwiązań dotyczy możliwości obrazowania ściśle zdefiniowanej trójwymiarowej przestrzeni za pomocą Urządzenia Fotografii Laserowej (UFL). Uzyskiwane dwuwymiarowe obrazy "fragmentu przestrzeni 3D" nie są efektem syntezy komputerowej lecz wynikiem bezpośredniego procesu akwizycji danych. Druga z technologii dotyczy sposobu syntezy informacji będącej połączeniem danych świata realnego oraz danych syntezowanych komputerowo. Wynikowa informacja zostaje udostępniona użytkownikowi w sposób dostosowany do jego możliwości p... więcej»

Fractional-order harmonic oscillators (Zdzisław Trzaska )
In the last two decades, integral and differential calculus of an arbitrary (or fractional) order has become a subject of great interest in numerous areas of physics, biology, economics and other sciences [1], [4]. This state resulted of the fact that nowadays the behavior of many dynamical systems can be properly described in terms of the theory of fractional order systems. The growing number of such applications indicates that there is a significant demand for better mathematical models of real objects, and that the fractional calculus provides one possible approach on the way to more adequate mathematical modelling of real objects and processes. Notice that in the literature, the terms “fractional order calculus (FOC)", or “fractional order dynamical system (FODS)" are often in using where “fractional" actually means “non-integer". For example, d 0.5 f (t) dt 0.5 is the so-called “semi-differentiation". We emphasize that many real dynamical systems are better characterized using fractional order dynamic models based on fractional calculus of differentiation or integration of non-integer orders. This approach is accepted today as a new tool that extends the descriptive power of the conventional calculus, supporting mathematical models that, in many cases, describe more accurately the dynamic response of actual systems in various applications. While the theoretical and practical interest of these fractional order operators is nowadays well established, its applicability to science and engineering can be considered an emerging topic. Among other, the need to numerically compute the fractional order derivatives and integrals arises frequently in many fields, especially in electronics, telecommunications, automatic control and digital signal processing [7], [8]. Basic characterization of fractional order systems Models and representations To explain precisely a multitude of diverse physical phenomen... więcej»

Analiza parametrów anteny typu F umieszczonej w pobliżu ciała człowieka (Łukasz Januszkiewicz, Piotr Wasilewski)
która znalazła zastosowanie zarówno w paśmie fal ultra krótkich jak i mikrofal. Duża popularność tej anteny wynika z jej niewielkich rozmiarów w porównaniu z innymi antenami zasilanymi niesymetrycznie, takimi jak unipol ćwierćfalowy lub antena typu T. Antena zasilana jest niesymetrycznie, a jej impedancja wejściowa może być równa 50 Ω, dzięki czemu nie jest konieczne stosowanie układów dopasowujących w przypadku podłączenia anteny do bardzo wielu stosowanych obecnie nadajników. Anteny tego typu znalazły liczne zastosowania w systemach łączności ruchomej instalowanych w pojazdach [1-2] oraz po wprowadzeniu pewnych modyfikacji (tzw. planarna antena typu F - PIFA) również w terminalach przenośnych systemów komórkowych [3-4]. Anteny typu F mogą być wykonane w technice obwodów drukowanych. Kształt odpowiednio zmodyfikowanej litery F przyjmuje wtedy warstwa metalizacji ułożona na podłożu dielektrycznym. W takim wykonaniu anteny typu F znalazły bardzo szerokie zastosowanie np. w miniaturowych nadajnikach bezprzewodowych sieci sensorowych [5] lub nadajnikach bezprzewodowych sieci komputerowych [3, 6]. Kolejnym popularnym zastosowaniem są miniaturowe transceiwery pracujące w paśmie 2,4 GHz w protokole ZigBee. Producenci miniaturowych nadajników bardzo często przedstawiają w dokumentacji układów kształt obszaru metalizacji obwodu drukowanego tworzącego antenę, bądź też wykonują ją na płytkach testowych, na których umieszczone są miniaturowe nadajniki [7, 8]. Na rysunku 1 przedstawiono wymiary oraz widok anteny typu F zrealizowanej w technice obwodów drukowanych, która została umieszczona na płytce testowej nadajnika ZigBee firmy Chipcon [7]. Ze względu na bardzo małe rozmiary płytek testowych z modułami ZigBee i ich niewielki pobór energii możliwe byłoby wykorzystanie ich do realizacji bezprzewodowych sieci sensorowych działających w pobliżu ciała człowieka. Sieci tego typu mogą realizować różnorodne funkcje związane np. z monito... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
System optycznego przekazywania informacji dla osób niewidomych z wykorzystaniem telefonu z systemem operacyjnym Android (Adam Łutkowski, Paweł Poryzała, Piotr Skulimowski)
Rozwój techniki cyfrowej umożliwia projektowanie oraz wdrażanie wielu rozwiązań ułatwiających życie oraz normalne funkcjonowanie w społeczeństwie osobom niewidomym i słabowidzącym. Wiele z tych urządzeń wspomaga samodzielne poruszanie się w środowisku miejskim (bazując przy tym na danych pozyskanych z systemu GPS). Z ankiet przeprowadzonych z osobami z dysfunkcją wzroku wynika, że bardzo duży problem stanowi dla nich poruszanie się wewnątrz nieznanych im budynków, np. użyteczności publicznej, gdzie systemy nawigacyjne zawodzą z powodu braku sygnału GPS oraz braku dokładnych planów pomieszczeń [1]. Znalezienie odpowiedniego pokoju (w przychodni lekarskiej, urzędzie) możliwe jest wyłącznie przy wsparciu osób widzących. Odczyt tabliczek informacyjnych, nawet z użyciem specjalistycznego oprogramowania instalowanego na telefonach komórkowych, jest bardzo trudny. Motywacją do rozpoczęcia prac nad opisywanym systemem optycznego przekazywania informacji było umożliwienie osobom niewidomym uzyskania informacji o przeznaczeniu pomieszczeń w budynkach użyteczności publicznej. Istnieją podobne systemy działające w oparciu o systemy znaczników radiowych, jednak wymagają one, aby użytkownik wyposażony był w specjalistyczne urządzenie do ich odczytu [2, 3]. Innym rozwiązaniem jest zastosowanie tabliczek zapisanym alfabetem Braille’a. Aktualizacja informacji przekazywanych niewidomym jest w tym przypadku kosztowna (wymaga zastosowania drogich wyświetlaczy pisma Braille’a, bądź wymiany tabliczek w przypadku aktualizacji danych). Opisany w niniejszym artykule system wykorzystuje kamerę dostępną w każdym współczesnym telefonie komórkowym i tani wyświetlacz LED. Koncepcję działania systemu przedstawiono na rys. 1a. Aplikacja zainstalowana na telefonie komórkowym osoby niewidomej analizuje obraz rejestrowany przez kamerę. W przypadku odnalezienia w obrazie znacznika odpowiednio kieruje osobę niewidomą (pomaga jej ustawić telefon w op... więcej»

Symulacje i modelowanie tranzystorów HEMT AlGaN/GaN - wpływ przewodności cieplnej podłoża (Andrzej Taube, Mariusz Sochacki, Jan Szmidt)
Mimo obecności na rynku komercyjnie dostępnych tranzystorów HEMT na bazie azotku galu prowadzone są prace nad optymalizacją konstrukcji oraz dalszą poprawą parametrów tych przyrządów. Proces optymalizacji struktury przyrządu wymaga uwzględnienia wielu parametrów konstrukcyjnych. Zwiększa to koszty i czas jego realizacji. Stąd bardzo duże zainteresowanie zastosowaniem symulacji komputerowych do modelowania przyrządów półprzewodnikowych na bazie azotku galu. Obecnie na rynku istnieje wiele symulatorów przyrządów półprzewodnikowych, takich jak np. MEDICI i Sentaurus Device firmy Synopsys, czy ATLAS firmy Silvaco [1]. W każdym z nich zaimplementowano moduły i parametry materiałowe służące do symulacji przyrządów z azotku galu. Jednakże, duża część zaimplementowanych wartości parametrów modeli, jak i samych właściwości GaN i azotków z grupy III-N rożni się istotnie od danych eksperymentalnych bądź oszacowanych przy pomocy symulacji metodą Monte Carlo. Modelowanie oraz symulacje tranzystorów HEMT na bazie azotków stanowią od lat poważne wyzwanie. Wynika to z dużej liczby parametrów tranzystora zależnych od właściwości danego materiału a także z konieczności uwzględniania specyficznych właściwości azotków i budowanych na ich bazie hetero struktur, takich jak zjawiska polaryzacji efekty cieplne czy efekty kwantowe w obszarze kanału tranzystora. W pracy przedstawiono wyniki symulacji charakterystyk elektrycznych tranzystora HEMT na bazie heterostruktury Al0.28Ga0.72N/GaN. W pierwszej części artykułu przedstawiono wpływ przewodności cieplnej podłoża na charakterystyki tranzystora HEMT Al0.28Ga0.72N/GaN. Druga część artykułu dotyczy badania wpływu poziomu domieszkowania warstwy barierowej oraz trawienia warstwy barierowej pod kontaktem bramki na charakterystyki elektryczne tranzystora HEMT. Wykonano także symulacje charakterystyk tranzystora MOS-HEMT dla różnych grubości oraz wartości stałych... więcej»

Symulacje i modelowanie zaawansowanych struktur tranzystorów HEMT AlGaN/GaN (Andrzej Taube, Mariusz Sochacki, Jan Szmidt )
W celu poprawy parametrów tranzystorów HEMT na bazie GaN opracowano nowe, bardziej zaawansowane struktury. Należą do nich m.in. struktury z domieszkowaną warstwą AlxGa1-xN oraz tranzystory z heterostrukturą AlxGa1-xN/AlN/GaN. Tranzystory HEMT na bazie GaN są typowo tranzystorami normalnie włączonymi z kanałem wbudowanym. Ogranicza to zastosowanie tych przyrządów w układach cyfrowych oraz zwiększa stopnień złożoności układów analogowych. W celu uzyskania tranzystora z kanałem zbogacanym stosowane m.in. trawienie warstwy barierowej pod kontaktem bramki [2]. Powoduje to zmniejszenie koncentracji 2DEG pod kontaktem bramki w rezultacie prowadząc do zwiększenia napięcia progowego Vth do wartości powyżej 0 V. Zastosowanie w tranzystorze HEMT bramki MIS zamiast bramki Schottky’ego powoduje zmniejszenie prądu upływu bramki w stanie włączenia tranzystora, co powoduje zwiększenie maksymalnego napięcia bramki prowadząc do zwiększenia prądu wyjściowego tranzystora. Zastosowanie bramki MIS zmniejsza także niekorzystny efekt spadku prądu po poddaniu struktury stresom napięciowym (tzw. efekt current collapse) [3, 4]. W drugiej części artykułu przedstawiono wyniki symulacji bardziej złożonych struktur HEMT. Przeprowadzono symulacje tranzystora HEMT Al0.28Ga0.72N/GaN z domieszkowaną warstwą barierową i różną głębokością trawienia warstwy barierowej w obszarze bramki oraz tranzystora MOS-HEMT z warstwą dielektryka podbramkowego o różnej stałej dielektrycznej i różnej grubości. Wpływ domieszkowania warstwy Al0.28Ga0.72N na charakterystyki tranzystora HEMT Przyjmując strukturę tranzystora identyczną jak w pierwszej części artykułu wykonano symulację dla koncentracji domieszki równej kolejno 5×1017 cm-... więcej»

Zastosowanie metod fluorymetrycznych w analizie paliw płynnych (Aneta Bombalska, Miron Kaliszewski, Monika Mularczyk -Oliwa, Maksymilian Włodarski, Krzysztof Kopczyński)
Zjawisko fluorescencji jest charakterystyczną cechą licznych cząstek biologicznych i związków organicznych. Wynika ono z przejść elektronowych wywołanych promieniowaniem elektromagnetycznym o odpowiedniej długości fali. Techniki fluorescencyjne wykorzystywane są często w diagnozie i terapii nowotworów [1, 2], rozpoznawaniu wczesnych zmian próchnicowych [3, 4], czy wykrywaniu potencjalnych czynników zagrożenia biologicznego [5, 6]. Podstawą wspomnianych metod jest luminescencja fluoroforów, takich jak: między innymi endogenne porfiryny, melanina, beta-karoten, dinukleotyd flawinoadeninowy (FAD), dinukleotyd nikotynoamidoadeninowy (NAD), aminokwasy (tryptofan, tyrozyna i fenyloalanina) i pochodne pirydoksyny zawarte w elastynie, kolagenie i innych białkach. Za pomocą fluorescencji można nie tylko określić czy mamy do czynienia z materiałem biologicznym, ale również czy badany materiał biologiczny przejawia funkcje życiowe czy też nie. Mało dotychczas rozpoznany jest obszar zastosowania technik fluorescencji do analizy paliw płynnych. Wchodzące w ich skład węglowodory aromatyczne wykazują zdolność emisji zaabsorbowanego promieniowania. W niniejszej pracy przedstawiamy charakterystyki fluorescencyjne paliw płynnych ze szczególnym uwzględnieniem wyboru linii wzbudzającej, umożliwiającej rozróżnienie badanych rodzajów paliw. Z uwagi na sezonową zmienność domieszek do paliw, badania przeprowadzono dla paliw letnich i zimowych. Celem prowadzonych badań jest utworzenie o długości 639 nm sprzęgniętą ze światłowodem nadawczym uchwytem wykonanym z podzespołów Thorlabs typu SM1. Do detekcji wykorzystano opracowany interfejs optoelektroniczny [6] podłączony do komputera poprzez moduł akwizycji DAQ3000 IOtech. Mikrogrzejnik zasilano z zasilacza sygnałów arbitralnych HM8143 Hameg, sterowanego z wyjścia analogowego modułu akwizycji. W eksperymentach stosowano taką samą objętość paliwa wynoszącą 4,5 mm3. Dla optrody z przetwornikiem UV z rys... więcej»

Przetworniki obrotowo-impulsowe jako czujniki przemieszczeń i przesunięcia fazowego układów mechatronicznych (Izabela Krzysztofik, Janusz Tuśnio, Zbigniew Koruba)
Większość wykonujących ruch obrotowy zespołów maszyn może być zamodelowanych jako układy dyskretne, składające się z punktów materialnych i brył doskonale sztywnych (elementy inercyjne) połączonych elementami odkształcalnymi (bezmasowymi), obdarzonych sprężystością i tłumieniem [1]. Parametry tak zamodelowanych rzeczywistych układów mechatronicznych w postaci masy, momentów bezwładności, sprężystości i tłumienia mają wpływ na właściwości dynamiczne (charakterystyki przejściowe) obiektu badań oraz na jego ruch względem elementu napędzającego w stanie ustalonym. Skutkiem istnienia wymienionych czynników mogą być drgania obiektu podczas procesu przejściowego (rozruchu i hamowania) a także podczas pracy. Występowaniu tych zjawisk zapobiega odpowiedni dobór relacji pomiędzy sprężystością, tłumieniem i momentem bezwładności tak, by projektowany układ mechatroniczny zamiast członu oscylacyjnego stawał się członem inercyjnym, najczęściej drugiego rzędu. Wspomniane działanie nie zapobiega jednak przesunięciu fazowemu pomiędzy wirującym elementem napędzającym (silnikiem) a odbiornikiem energii. Przesunięcie fazowe ma istotne znaczenie w eksploatacji odpowiedzialnych i precyzyjnych urządzeń, a szacunkowe obliczanie jego wartości nie zawsze jest wystarczające, chociażby ze względu na tłumienie układu, które w różnych warunkach klimatycznych oraz z upływem czasu ulega zmianom. W układach mechatronicznych o dużej sztywności kąty wzajemnego przemieszczenia (skręcenia), a tym samym przesunięcia fazowego wirujących, obciążonych momentem elementów maszyn są niewielkie (rzędu ułamka stopnia), a ich pomiar może odbywać się za pomocą klasycznych mostków tensometrycznych. Istotny problem stanowi przekazanie sygnału różnicowego (o wartości rzędu pojedynczych miliwoltów lub mniej) z wirujących elementów maszyn do układu obróbki. Ze względu na znaczne zakłócenia układów komutacji stosowane są wtedy między innymi telemetryczne układy transmisji danyc... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Wieloprocesorowy system kontrolno-pomiarowy analizatora NDIR (Zbigniew Rudolf, Marek Orzyłowski, Krzysztof Jasek)
Kontrola jakości paliw stałych powinna obejmować badania ich kaloryczności oraz zawartości substancji, które w procesie spalania wytwarzają produkty zanieczyszczające środowisko. Dlatego też badania jakości paliw, przeprowadzane w kopalniach oraz elektrowniach i elektrociepłowniach, obejmują przede wszystkim pomiar zawartości węgla i siarki. W wyniku spalania paliw stałych w Polsce powstaje rocznie ok. 15 mln. ton popiołów. Zależnie od składu mogą one być stosowane jako dodatki do betonów i konstrukcji drogowych, poprawiając ich parametry i eliminując kłopotliwe składowanie niewykorzystanych popiołów. Utylizacja popiołów do wspomnianych celów wymusza również badania ich składu, zwłaszcza pod kątem zanieczyszczeń węglem oraz związkami siarki. Niniejszy artykuł dotyczy opracowania automatycznego analizatora zawartości węgla i siarki w popiołach i paliwach stałych, który bazuje na analizie składu produktów ich spalania. W wyniku spalania próbki węgla lub popiołu uzyskuje się gazy, w których mierzy się zawartość CO2 oraz SO2. Do przemysłowych pomiarów stężeń CO2 i SO2 powszechnie stosuje się analizatory NDIR (ang. Non-Dispersive-InfraRed) działające na zasadzie absorpcji promieniowania podczerwonego [1, 2]. Charakteryzują się one dużą selektywnością i trwałością. Analizatory NDIR mogą zawierać różnego typu detektory promieniowania, a do najczęściej stosowanych należą optopneumatyczne i piroelektryczne. W Instytucie Tele- i Radiotechnicznym przy współpracy z Wojskową Akademią Techniczną, w poprzednich latach został opracowany analizator zawartości węgla i siarki w paliwach stałych, działający na wspomnianej zasadzie [2], w którym obróbka sygnału następowała na drodze analogowej. Obecnie trwają prace nad nowym analizatorem NDIR zawartości węgla i siarki w popiołach, przeznaczonych do wykorzystania także w budownictwie. W porównaniu z poprzednio opracowanym analizatorem charakteryzuje się on dodatkowo niższymi zakresami pomiaru st... więcej»

Wykorzystanie technologii organicznych diod elektroluminescencyjnych do budowy źródeł światła (Grażyna Kozioł, Kamil Janeczek, Aneta Araźna, Konrad Futera, Wojciech Stęplewski)
Diody OLED (Organic Light Emitting Diode) są nowatorskimi przyrządami elektronicznymi, formowanymi na bazie cienkich warstw organicznych o grubości około 100 nm. Ten stosunek wymiarów powoduje, że uważa się je praktycznie za przyrządy dwuwymiarowe. Diody OLED będą pracować przy bardzo niskich napięciach rzędu 3…5 V. Dlatego wprowadzenie diod OLED jako źródeł światła w zastosowaniach dotyczących powszechnego oświetlenia ma znaczenie rewolucyjne i spowoduje zasadnicze przesunięcie nadrzędnych priorytetów w przemyśle oświetleniowym. Budowa OLED Intensywne prace badawcze dotyczące materiałów, procesów i konstrukcji diod emitujących światło, zbudowanych z organicznych warstw półprzewodnikowych rozpoczęto kilka lat temu. Jeszcze stosunkowo niedawno wydawało się, że białe półprzewodnikowe diody elektroluminescencyjne LED były najwyższym osiągnięciem w tym obszarze. Przeszkodą w ich upowszechnianiu stają się nie tylko wysoki koszt produkcji, ale także ograniczenia technologiczne związane z materiałami nieorganicznymi (m.in. problemy z dalszą miniaturyzacją). Obecnie naukowcy kierują swoją uwagę w stronę materiałów organicznych. W odróżnieniu od elektroniki tradycyjnej, w której ze względu na kolektywny charakter zjawisk elementy aktywne nie mogą mieć rozmiarów atomowych, w elektronice organicznej można operować nawet na pojedynczych cząsteczkach. Chemia organiczna pozwala na realizację zamówień na materiały funkcjonalne, które są złożone z cząsteczek zaprojektowanych i przeznaczonych do wykonywania określonych funkcji. W rezultacie będzie można wykonywać, dzięki organicznym diodom luminescencyjnym OLED, nowatorskie źródła światła bardziej energetycznie efektywne niż istniejące obecnie źródła światła. Dioda OLED jest przyrządem bazującym na konwersji energii (przemiana prądu elektrycznego na światło). Jest bardzo cienka, o dużej powierzchni i praktycznie można ją uważać za przyrząd dwuwymiarowy. Zbudowana jest z materiałów pod... więcej»

Wybrane problemy pozycjonowania detali przy użyciu inspekcji wizyjnej na przykładzie automatycznego systemu kontroli filtrów SKF-11 (Marcin Karliński, Jerzy Zając)
Zasadniczym elementem machatronicznym systemu kontroli filtrów SKF-11 jest podajnik obrotowy wyposażony w 24 gniazda pomiarowo- ransportowe. Detale umieszczane są przez operatora na podajniku taśmowym i przemieszczane w kierunku pola działania robota wejściowego. Na rys. 1 pokazane jest urządzenie SKF-11.Pojawiające się w strefie działania robota detale poddawane są inspekcji wizyjnej przy pomocy umieszczonej nad podajnikiem kamery pozycjonowania XY. Filtry pobierane są przez robota i umieszczane w gnieździe wejściowym podajnika obrotowego. W trakcie cyklu kontrolnego przemieszczane są na kolejne pozycje pomiarowe, a w fazie końcowej segregowane przez robota toru wyjściowego. Detale sklasyfikowane jako dobre umieszczane są na transporterze wyjściowym i znakowane przy pomocy tamponiarki. Podsystem inspekcji wizyjnej w torze wejściowym System analizy obrazu toru wejściowego (rys. 2) składa się z kamery obrazującej detal w rzucie poziomym (kamera 1) oraz kamery obserwującej filtr w rzucie bocznym (kamera 2), w celu identyfikacji kąta obrotu. W zależności od rodzaju identyfikowanego filtra inspekcja wizyjna odbywa się w jednym lub dwóch rzutach. Rys. 2. Systemy inspekcji wizyjnej toru wejściowego Fig. 2. Input line vision inspection system Kamera 1 Kamera 2 Rys. 3. Lokalizacja robota załadowczego w torze wejściowym urządzenia SKF-11 Fig. 3. Loading robot localization on SKF-11 device input line Elektronika 8/2012 10... więcej»

Zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia w wieloetapowym procesie montażu elektronicznego (Janusz Borecki, Tomasz Serzysko)
Dalece zaawansowany stopień miniaturyzacji i integracji podzespołów elektronicznych sprawia, że nowoprojektowane urządzenia elektroniczne zawierają elementy o bardzo zróżnicowanej budowie i wielkości. Coraz częściej zdarza się tak, że projektanci, wbrew ogólnie znanym zasadom rozmieszczania podzespołów na poszczególnych stronach płytki obwodu drukowanego (pierwsza strona montażu - lżejsze podzespoły; druga strona montażu - cięższe podzespoły), umieszczają dość ciężkie podzespoły na obydwu stronach montażowych płytki obwodu drukowanego. W efekcie dochodzi do sytuacji, kiedy siły napięcia powierzchniowego przetapianego lutowia, podczas wykonywania montażu drugiej strony pakietu elektronicznego, nie są wystarczające, aby utrzymać na powierzchni płytki podzespoły, które zostały zamontowane na pierwszej stronie pakietu. Istnieje wtedy bardzo duże ryzyko odpadania zbyt ciężkich podzespołów lub zniekształcenia ich połączeń lutowanych. Należy w tym miejscu wspomnieć, że formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa bardzo ważne zadania, jakimi są: przyłączenie podzespołów elektronicznych do sieci połączeń obwodu elektrycznego montowanego pakietu oraz mechaniczne zamocowanie podzespołów na powierzchni płytki obwodu drukowanego. Każde zniekształcenie połączenia lutowanego może mieć negatywny wpływ na jego wytrzymałość i tym samym obniżyć nieuszkadzalność całego zespołu elektronicznego. Zagadnienie wieloetapowego montażu pakietów elektronicznych dotyczy zarówno technologii ołowiowej, jak i bezołowiowej, a zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia powinno pozwolić na zapobieganie sytuacji odpadania podzespołów podczas procesu montażu. Co prawda można kłopotliwe podzespoły kleić do powierzchni płytki po zmontowaniu jej pierwszej strony, jednakże wymaga to wprowadzenia do procesu montażu dodatkowej operacji. Takie rozwiązanie powoduje również pewne trudności w wypadku ... więcej»

Bezpieczeństwo w chmurach (Marek Hołyński)
Cloud computing szybko awansowało do roli obowiązującego słowa magicznego. Jego orędownicy ogłaszają, iż jest to najbardziej obiecujący kierunek rozwojowy informatyki i robią to na tyle przekonywująco, że niemal co druga organizowana w ostatnim roku konferencja dotyczy jakiegoś aspektu przetwarzania w chmurze. Ale są też sceptycy utrzymujący, że z dużej chmury mały deszcz, a cały ten zgiełk to zręczny chwyt marketingowy, służący jedynie rozkręceniu popytu na sprzęt i usługi. Obie strony mają trochę racji. Model przetwarzania oparty na zasobach zewnętrznych nie jest niczym nowym i w naturalny sposób stanowi rozwinięcie dotychczasowych koncepcji. Zamiast robić wszystko samemu na własnym komputerze, wyrzucamy co się da na zewnątrz, pozbywając się zawracania głowy i odciążając nasz system od zbędnych zadań. Nic nowego pod chmurami Sam pomysł nie jest nowy, to raczej kolejna faza rysującej się już od dość dawna tendencji. Już w latach 70. pojawił się termin distributed computing na określenie systemów umożliwiających współdzielenie rozproszonych mocy obliczeniow... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Optymalizacja konstrukcji militarnych urządzeń zasilanych energią fotowoltaiczną (Dawid Stoga, Marcin Szczepaniak, Stanisław Maleczek)
Systemy fotowoltaiczne stanowią obecnie coraz większy udział w produkcji energii elektrycznej [1]. Są coraz częściej wykorzystywane w urządzeniach przenośnych małej i średniej mocy. Systemy te znajdują swoje miejsce w zastosowaniach specjalnych takich jak wojsko, wykorzystując zalety związane z niewyczerpalnym źródłem energii, cichą i bezobsługową pracą. W przeciwieństwie do stacjonarnych cywilnych systemów, urządzenia militarne wykorzystujące baterie fotowoltaiczne muszą być przystosowane do surowych wymogów wojskowych, które związane są z ich bezpośrednim przeznaczeniem, charakterem i miejscem pracy. Kryteriów tych nie można pominąć podczas projektowania urządzeń, bowiem wpływają bezpośrednio na rodzaj i ilość zastosowanych paneli PV, jak i elementów współpracujących. Bazując na doświadczeniu przy tworzeniu tego typu urządzeń dla potrzeb Polskiej Armii przez WITI przy współpracy z IMIM PAN oraz WZŁ Nr 2 określono główne zagadnienia związane z dostosowaniem konstrukcji przyszłych urządzeń fotowoltaicznych do warunków pracy. Stworzone prototypowe systemy obejmowały (rys. 1): stanowisko kamery obserwacyjnej zestaw zasilania dla pojedynczego żołnierza, zasilania dla wozów bojowych, przewoźny system elektrowni polowej [2]. Pracują one w trybie awaryjnego lub wspomagającego zasilania dla zastosowania na obszarze Polski. Poniżej przedstawiono podsumowanie badań oraz perspektywy rozwoju z ukierunkowaniem na optymalizację konstrukcji w zależności m.in. od wymaganej mocy, zastosowania, waru... więcej»

Impact of subsurface unhomogeneity on proper interpretation of GPR data based on A-scan measurements (PAWEŁ KACZMAREK, JANUSZ KARCZEWSKI, MARIAN ŁAPIŃSKI)
Possible features of GPR signature of template object depend on radar’s parameters like range resolution or received polarizations. Patterns can be saved in a database as amplitude vs. time or any other as long as they will be viable during discrimination/interpretation phase. In the paper analyzed A-scan were interpreted using template matching method - measurements were compared with prerecorded data and percentage based comparison was given as a result [2]. Output of an algorithm used in the process suggests which of database’s entries is the most similar to analyzed Ascan. Theoretically in ideal conditions (no disturbance from noise or clutter, exactly the same soil, humidity, etc.) one can expect results close to 100% similarities. In real GPR conditions soil parameters can change few times a day. In the paper one of such numeric estimators of distance between template and measured data was discussed - Euclidean distance calculated from (1): (1) x(t) - original range profile, y(t) - measured range profile. Template matching requires range profile to be synchronized in distance (time) and normalized in amplitude, i... więcej»

Właściwości hydrofilowe przezroczystych i półprzewodzących cienkich warstw tlenków Ti-V do zastosowań w transparentnej elektronice (Karolina Sieradzka, Jarosław Domaradzki, Bogdan Adamiak, Kosma Baniewicz )
W ostatnich latach, w literaturze światowej obserwujemy zwiększone zainteresowanie nanokrystalicznymi materiałami tlenkowymi. Coraz bardziej pożądane są nowoczesne materiały o zadanych, ściśle określonych takich właściwościach, jak np. wysoka przezroczystość, dobre przewodnictwo elektryczne, właściwości hydrofilowe lub hydrofobowe, właściwości antyrefleksyjne itp. [1, 2]. Nanokrystaliczne cienkie warstwy ze względu na fakt, iż łączą w sobie przede wszystkim dwie specyficzne cechy [3]: (1) wysoką przezroczystość dla światła oraz (2) zdolność przewodzenia nośników prądu elektrycznego w temperaturze pokojowej, stanowią alternatywę dla klasycznych półprzewodników. W zależności od poziomu rezystywności elektrycznej, tlenki te, zaliczane są do materiałów typu TCO (ang. Transparent Conducting Oxide) lub TOS (ang. Transparent Oxide Semiconductor). Zwiększone zainteresowanie materiałami typu TCO oraz TOS wynika również z faktu, że bardzo często wykazują one dodatkowo inne pożądane właściwości. Dla przykładu, cienkie warstwy tlenków o właściwościach antyrefleksyjnych, wytwarzane zwykle w układzie wielowarstwowym TiO2-SiO2 [2], pozwalają uzyskać znaczną redukcję współczynnika odbicia światła. Inny przykład stanowią warstwy o właściwościach hydrofilowych, mające zdolność do równomiernego zwilżania wodą powierzchni materiału [1]. Wówczas, krople wody łącząc się w obrębie większego obszaru, zbierają napotykane na swojej drodze wszelkie zabrudzenia i spływając pozostawiają czystą, pozbawioną smug powierzchnię. Zazwyczaj, kąt zwilżania dla wody w wypadku najczę... więcej»

Range-Doppler processing for Indoor human tracking by multistatic ultra-wideband radar (Yuan He, Fran çois Le Chevalier, Alexander G. YarovoY)
Indoor human detection and tracking is now acknowledged to be useful for a wide range of security and safety applications, such as airport security, anti-intruder and through-wall sensing of terrorists [1]. Currently spatially coherent processing (e.g. synthetic aperture radar and array based processing [2]) is the main approach for indoor human tracking. It is based on the assumption that the spatial phase difference is kept during the through-wall propagation of the electromagnetic wave. However, the nonhomogeneous wall in a real world disrupts the wave coherency significantly, which causes inaccuracies in the spatially coherent processing, and sometimes even makes it unreliable. Therefore, a multistatic radar based spatially incoherent approach for indoor human tracking was proposed in our previous work [3], in order to tackle the challenge of nonhomogeneous walls from a different perspective. Application of the ultra-wideband (UWB) waveforms is thought to be promising for indoor human detection and tracking due to the advantages of a fine down-range resolution and wall penetration capability (with low center frequency) [4]. While the range-based indoor human tracking by the UWB radar is well-known [5-7], the possibility of tracking personnel in range-Doppler domain by the UWB radar has not been examined yet. In principle, a fine downrange resolution combined with a fine Doppler resolution might be able to provide a better detection performance and a good potential for human classification and recognition. Thus in this paper, authors focus on the multistatic UWB radar based range-Doppler processing (spatially incoherent, but coherent in time), which in principle can be reliably used in all indoor cases with a high range/ Doppler resolution and a relatively small system dimension. A multistatic UWB radar based on one transmitter and multiple receivers is considered. The receivers measure the target’s bistatic range (t... więcej»

A new approach to microwave absorbers (Marzena Olszewska, Wojciech Gwarek )
A growing interest in reducing reflections from scattering objects as well as radiation produced by electronic devices has resulted in several developments of microwave absorbers. One popular approach is a Salisbury screen [1-3]. Its major advantage comes from structural simplicity. The screen consists of a thin resistive sheet of a surface resistivity (as defined in [4]) of 377 Ω/sq., separated from a perfectly conducting surface (PEC) by a lossless dielectric spacer. The thickness of the dielectric spacer is equal to a quarter wavelength, at the frequency desired to be absorbed. Due to impedance transformation, a short circuit is transformed to an open circuit and the input impedance of the overall screen becomes equal to the impedance of the resistive sheet. Thus, the screen become quasi-matched to the free space, what facilitates dissipation of the incoming power in the resistive sheet. Salisbury screens are often characterised by very good absorbing properties like shown in [3, 5], however, due to the spacing requirement they are narrow-band solutions of non-negligible thickness. A lot of attention has been put to improve the Salisbury screen EMC performance. Two main directions of the studies, which are often self-contradictory, can be distinguished: increasing the screen bandwidth [1-3, 5, 12, 13] or decreasing the screen thickness [14-21]. The first research stream focuses on increasing the bandwidth of the screen. In [1] the inversely proportional dependence of the absorber bandwidth on the relative permittivity of the dielectric spacer has been presented. This relation can be impose to designing the absorbing structures with wide operating bandwidth. Another approach consists in building multilayer screens for bandwidth enhancement. The background for designing multilayer Sali... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Multifunctional coatings for solar cells application (Karolina Sieradzka, Michał Mazur, Danuta Kaczmarek, Jarosław Domaradzki, Damian Wojcieszak)
In recent years, an increased interest of nanocrystalline oxide materials was been observed [1, 2]. Such oxides join a few selected, well-defined properties such as high transparency, good electrical conductivity, hydrophilic or hydrophobic properties, antireflective properties, etc. [3, 4]. In contrary to conventional semiconductors, such thin oxide films, prepared for transparent electronics or solar cells application, combine mainly two specific features [5]: high transparency in visible light and the ability of electrical conduction at room temperature. These oxides, depending on the level of electrical resistivity are divided into two groups of materials: Transparent Conducting Oxide (TCO) or Transparent Oxide Semiconductor. However, in the literature, there is increasing number of reports about trying to get the additional properties, but most showed examples of multilayers. For example, it might be a thin oxide films with additional antireflective properties, prepared as TiO2 /SiO2 multilayers [4, 6] in order to obtain the largest possible reduction of light reflectance. Pemble et al. described dual functionality self-cleaning thermochromic films prepared by APCVD method. The multilayers based on VO2 and TiO2 revealed good degradation of stearic acid under UV radiation and thermochromic properties with the switching temperature of 55oC. In the first part of this paper, the possibilities of characterization of nanostructures used in the Laboratory of Optoelectrical Diagnostics of Nanomaterials located at Wroclaw Univeristy of Technology have been showed. Then antireflective, photoactive nanocrystalline Ti-V oxide as a multifunctional thin film has been presented. Directions of current research The scope of current work carried out in the Laboratory involves the research for new, nanocrystalline oxide materials with unique electrical and optical properties, which might be applied as multifunctional coatings for example s... więcej»

Experimental Validation of New Classes of Dyes for Dye-Sensitised Solar Cells (Michal G. Zubel, Jacqueline M. Cole, Paul G. Waddell)
Solar power is numbered, along with wind, water (waves, tides, dams, run-on-the-river systems), biomass growth (traditional and advanced) and geothermal heat among renewable energy sources. Although the accuracy of any long-term forecast can be considered questionable, especially in the times when the spectacular failure of the predictions of the Club of Rome, expressed in their 1972 book “Limits to Growth", has become evident, it is recognised that the photovoltaic energy harvesting seems to be the only branch able to provide cheap and clean energy in the future [1]. This is because the other above-mentioned “green" technologies have not enough growth potential and area of availability to be regarded major sources of cheap energy for the future. Energy production from renewable sources encompass still emerging technologies. They constitute only 6% of the global final energy consumption (2009), excluding traditional biomass [2]. Their share of the global electricity consumption (2010) is higher but it is still smaller than 20%, whereas about 16% is attributed to hydroelectricity [2], the most established renewable energy source. All the other sources contribute around 3.3% of the global share. Obviously, fossil fuels dominate both rankings. The main parameter to characterise energy sources is the average cost of production per kilowatt‑hour or megawatt-hour. Looking at the comparison of the cost [2] it is no wonder that photovoltaics are not in widespread use. The cost of electric energy from this source is 5-10 times higher than from the cheapest renewable one, i.e. hydroelectricity. It is also estimated to be around 3 times more expensive than electric energy from coal [3]. Various reports give different figures on the average costs of energy, but in each of them the tendency for photovoltaic energy to be much more expensive is clear. Solar cells will not be competitive with other energy sources as long as... więcej»

AP-MOVPE technology of AIIIBV-N heterostructures for photovoltaic applications (Wojciech Dawidowski, Beata Ściana, Damian Pucicki, Damian Radziewicz, Jarosław Serafińczuk, Magdalena Latkowska, Marek Tłaczała)
Properties of dilute nitrides material system like large discontinuity of a conduction band (due to high electronegativity of nitrogen) [1], large band gap bowing coefficient [2], increased electron effective mass [3], large scattering rate (connected with a small radius of nitrogen atom in comparison with the others V group atoms) [4] provide a way to novel applications: telecommunications lasers [1], heterojunction bipolar transistors [5] and very efficient solar cells [6]. InGaAsN is a very promising, lattice matched to GaAs and In0.5Ga0.5P material with band gap about 1 eV. The control of indium and nitrogen amounts in the InGaAsN quaternary alloy offers the ability to tailor the value of band gap and positions of valence and conduction band edges. Main advantage of dilute nitrides is a large reduction of band gap caused by nitrogen introduction (about ~150 meV/% of N). The technology of GaAs is better developed and still much cheaper than indium phosphide and allow to fabricate much better Bragg reflectors (based on the high refractive index contrast GaAs/AlAs heterostructure) for laser applications. Moreover, this material system guarantees a good temperature performance of light emitters and a high internal quantum efficiency of solar cells. On the other hand, growth of InGaAsN quaternary alloy causes some technological problems. The ... więcej»

Analiza zjawisk w czujnikach chemicznych z warstwą przyelektrodową (Helena TETERYCZ, Patryk HALEK, Patrycja SUCHORSKA, Olga RAC, Marta FIEDOT, Dominika OLEŚ, Grzegorz HALEK, Kamil WIŚNIEWSKI)
Chemiczne rezystancyjne czujniki gazu charakteryzują się przede wszystkim niską ceną i relatywnie dobrymi parametrami użytkowymi [1]. Duże znaczenie ma również ich prosta konstrukcja. Typowo składają się one z podłoża, grzejnika, elektrod oraz warstwy gazoczułej. Materiałami sensorowymi są najczęściej proste tlenki metali o właściwościach półprzewodnikowych, natomiast do budowy elektrod wykorzystuje się materiały stabilne chemicznie i termicznie. Najczęściej warstwy elektrod wykonuje się ze złota lub platyny [2]. Rezystancyjne czujniki gazów to najczęściej ceramiczne, grubo- lub cienkowarstwowe rezystory półprzewodnikowe, które zmieniają swoją konduktancję (rezystancję) w wyniku reakcji chemicznej zachodzącej na powierzchni warstwy gazoczułej z udziałem cząsteczek oznaczanych gazów [2]. Mimo, iż najważniejszym elementem czujnika jest warstwa gazoczuła, to jednak o jego parametrach użytkowych decydują zarówno parametry warstwy gazoczułej, jak i materiał elektrod oraz właściwości kontaktu warstwa gazoczuła - elektroda. Właściwości tego kontaktu są bardzo ... więcej»

Zastosowanie transoptorów odbiciowych jako czujników odległości (Michał BOŁTRUKIEWICZ)
Transoptory odbiciowe są elementami optoelektronicznymi pełniącymi funkcje czujników odległości lub binarnych czujników zbliżeniowych [1] w układach automatyki i mechatroniki (rys. 1).Podstawowym parametrem transoptora odbiciowego jest przekładnia prądowa CTR (ang. Current Transfer Ratio) stanowiąca iloraz prądu emitera transoptora i wywołującego go prądu diody elektroluminescencyjnej, której wartość zależy od odległości pomiędzy transoptorem i powierzchnią odbijającą. Dla transoptora wykorzystywanego w pracach eksperymentalnych przebieg wartości przekładni prądowej CTR w funkcji odległości x aproksymowano zależnością: CTR (x) = 0,0413 e - 0,16 x w której x wyrażone jest w milimetrach. Do jej wyznaczenia wykorzystano regresję wykładniczą oraz uzyskane doświadczalnie... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
FPGA implementation of parallel image processing system (Przemysław Brylski, Michał Strzelecki)
During the last decade field programmable gate array (FPGA) devices achieved technology grade competitive to traditional digital processor systems (DPS). Nowadays FPGA offer very high logical capacity, parallel processing possibilities, high speed and flexibility. These features of FPGA devices make them suitable for development of digital image processing systems. The strong demand of fast parallel processing of data results in designing and implementing of digital processor in a number of various architectures. One of the possible and promising approaches to parallel data processing is a network of synchronized oscillators [1]. It has been proven that such a network is a reliable tool for image analysis tasks, including segmentation or noise removal. Its operation is based on the "temporary correlation" theory [2], which attempts to explain scene recognition as performed by human brain. Based on this idea, the parallel digital image processor for image segmentation and analysis was proposed in [3]. Described processor was implemented in VHDL [6, 7] language and simulated in ModelSim software for 8×8 image size. Performed tests confirm that this processor can be successfully applied for segmentation of binary images. In order to reduce a utilization of FPGA logic by a single image processing unit (node), several modifications of the image processor structure were proposed in [4, 5]. As described in [5] a significant reduction of LUTs needed for node realization (more than 15 times) and general purpose registers (more than 6 times) was achieved. These changes also adopted an algorithm of the image processor for more effective operation in the FPGA structure. As a result, implementation of a processor capable to analyse an image of 16×16 pixels in the Xilinx XC3S500E Spartan-3E family device ... więcej»

Naziemna telewizja cyfrowa - wybrane zagadnienia (JAN BOGUCKI)
Telewizja analogowa jest znana na świecie od ponad pięćdziesięciu lat. Można bez cienia wątpliwości stwierdzić, że ten system nadawania programów sprawdził się. Mimo to, w Polsce 31 lipca 2013 roku [4] zostanie wyłączony ostatni telewizyjny nadajnik analogowy. Nadawanie telewizji od tego momentu będzie się odbywało tylko w formie cyfrowej. Jakie czynniki zadecydowały o tak radykalnym zmianie sytemu? Otóż na zmianę tę wpłynął szereg czynników. Najważniejszy z nich jest związany z tzw. dywidendą cyfrową, polegającym na tym, że cały kraj może być pokryty nawet 8 programami telewizyjnymi przy wykorzystaniu teoretycznie tylko jednego dotychczasowego kanału analogowego o szerokości 8 MHz. A więc oszczędności widma elektromagnetycznego, które jest dobrem ograniczonym, a tym samym, które należy eksploatować oszczędnie, nie da się przecenić. Innym czynnikiem jest rozwój nowych technologii, wymagający dostępnego pasma elektromagnetycznego np. dla transmisji danych w technologii LTE (Long Term Evolution). W artykule przedstawiono pewne charakterystyczne aspekty dotyczące naziemnej telewizji cyfrowej. Nadawanie tradycyjne i cyfrowe W telewizji analogowej dla każdego programu konieczne jest zbudowanie własnej, odrębnej sieci dystrybucyjnej (rys. 1), tzn. sieci nadajników dostarczających abonentom określony program. (W praktyce sprowadza się to do tego, że różni nadawcy wykorzystują tą samą antenę czy maszt w danej miejscowości.) Wiąże się to z faktem, że każdy z tych programów musi być transmitowany w dedykowanym tylko jemu kanale częstotliwościowym 8 MHz. Z reguły są wykorzystywane nadajniki dużej mocy i w tych kanałach występuje zjawisko zakłóceń interferencyjnych. Z tego powodu ogranicza się poziom zakłóceń wspólnokanałowych m.in. w ten sposób, że przy transmisji analogowej nadajniki sąsiednich ośrodków zawsze pracują na innych częstotliwościach kanałów. Wzrasta wtedy szerokość wykorzystywanego pasma częstotliwości, a tym samym taka... więcej»

Digital signal processing in the diagnosis of brainstem auditory evoked potentials (Andrzej P. Dobrowolski, Michał Suchocki, Kazimierz Tomczykiewicz)
Examination of evoked potentials (EP) is one of the methods for diagnosing a human brain. This examination allows for monitoring and registering bioelectrical activities of the brain. By using EP one can examine sight and hearing and evaluate responses to different stimuli that activate different parts of the brain. This article is devoted to neurological diagnostics based upon examination of Auditory Evoked Potentials (AEP) [1]. The authors explain what evoked potentials are and how important role they play in hearing examination and discuss the current methods for analysis of its results. The major subject of the article is to describe an alternative way of analyzing the survey results, based on digital signal processing. Moreover, it presents problems associated with acquisition of digital recording of auditory evoked potentials and exemplary waveforms of the potentials corresponding to normal and pathological cases as functions of time and frequency. BEAP All brain activities are closely associated with movements of ions and charge polarization. Electric charges that are moving within the nerve structures can be recorded and received in the form of electric potential. If we stimulate a sensory-sensual receptor, we will automatically receive the response in the form of an electrical signal. Evoked potentials are generated this way. Under the influence of acoustic stimuli in the auditory pathway, the ear, which is a sensory receptor (Fig. 1), produces voltage changes, known as auditory evoked potentials. Evoked potentials are according to response time to stimulation that generates the response. In biomedical terminology, the response time is referred to as latency (in technical nomenclature it would be called a delay). We can classify auditory evoked potentials as short, medium or long latency potentials, according to the reaction time. Taking into account their clinical suitability, only Short Latency Auditory Evoked Pot... więcej»

LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Brain-computer interaction analysis based on EEG signal and gaze-tracking information (Katarzyna Kaszuba, Bożena Kostek)
Recently many studies are carried out in the area of brain-computer interface (BCI) technology. The electroencephalographic signal (EEG) analysis is one of the most common ways of communication between human brain and the computer due to its non-invasive nature and relative user’s comfort. Still using only EEG data does not provide objective reference information about actions performed by the subject examined. Creating a fully functional and effective BCI to control the computer still remains a distant target. The main disadvantage of the most BCI systems is the lack of the feedback information that could be used as a reference. It is impossible to determine, which of the processes currently dominates brain activity. Even if the subject is asked to perform a task, there is no certainty the user paid attention during its realization. On the other hand, the eye-tracking system provides information about the gaze fixation point allowing for evaluating visual activity of the subject. Thus, we assumed that by combining EEG signal measured by a wireless BCI interface with the eye-tracking system registering the subject’s gaze activity we could expect to obtain an integrated brain-computer interface that measures the user’s brain signal in a more effective, and at the same time, a more objective way. At the same time EOG recording system was used to obtain reference data. EOG-based information transfers this knowledge to the EEG signal analysis. In the paper several approaches for signal pre-processing and parameterization were described and then their usability was checked by means of machine-learning algorithms. The main goal expected to be achieved within this study was to evaluate the possibility to develop a functional and user-friendly solution that utilizes abilities of presented systems. System Setup Gaze-Tracking System The Cyber-Eye, a gaze tracking system developed in the Multimedia Systems Department... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Anode Supported Planar Solid Oxide Fuel Cell (SOFC) – novel design (Barbara Dziurdzia, Zbigniew Magoński, Henryk Jankowski, Jan Koprowski)
Solid Oxide Fuel Cells (SOFCs) are highly efficient energy conversion devices that transform chemical energy to electrical energy through the electrochemical reactions. SOFC consists of two ceramic electrodes (anode and cathode) separated by a dense ceramic electrolyte and it operates at high temperature in the range from 800°C to 1000°C. Oxygen ions formed at the cathode migrate through the ion - conducting electrolyte to the anode/ electrolyte interface where they react with fuel, producing water and releasing electrons that flow through an external circuit to the cathode/electrolyte interface [1-3]. Microstructure of the cathode, anode and electrolyte is important for the proper fuel cell operation. The electrolyte should be dense, gas-tight and ion conducting. The electrodes should be transparent for gases and have good electrical conductivity [4-6]. In a typical planar SOFC design, the cell components are configured as thin, flat plates and metallic or ceramic interconnects serve as gas flow channels and provide the electrical connection between the cells in a stack of cells. The article presents a novel design of the anode-supported high temperature solid oxide fuel cell (SOFC) which differs from the typical planar SOFC design by the multifunctional anode construction. The anode consists of the anode base with embedded fuel distribution channels, manifolds and waste product collectors, and two operating anodes deposited on the both sides of the base. The embedded channels are connected with the outside via inlet for fuel and outlet for the waste products. The operating anodes are permanently bonded with the anode base by sintering. The anode base supports two cells, serves as a common current collector and provides fuel distribution. The anode base and operating anodes are made of commercially available nickel oxide and yttria-stabilized zirconia (Ni/YSZ) green tapes and further components of the cell - electrolyte and ... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski )
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

The electrical activity of brain in upright posture provoked syncope (Kazimierz Pęczalski, Tadeusz Pałko, Dariusz Wojciechowski, Wojciech Jernajczyk, Zbigniew Dunajski)
The knowledge of symptoms and signs of patients with transient loss of consciousness (TLOC) is crucial for reliable clinical diagnosis of patients with syncope. The syncope is defined as a TLOC caused by cerebral hypoperfusion [1]. The three main types of syncope are distinguished: cardiac syncope, neurally mediated syncope and syncope due to autonomic failure (orthostatic hypotension). The cardiac syncope can be evaluated by invasive electrophysiological study. The head up tilt test (HUT) with beat to beat measurements of heart rate and blood pressure of patients provides the sufficient diagnose of neurally mediated syncope and syncope caused by autonomic failure. For diagnose the standard classification, consists of four types of vasovagal reaction (including cardiodepressive reaction i.e. heart rate decrease and vasodepressive reaction i.e. arterial pressure decrease): I. mixed, IIa. cardiodepressive, IIb. cardiodepressive, III. vasodepressive, is applied.The neurally mediated and cause by autonomic failure syncopes develop hypotension thus cerebral hypoperfusion. Therefore in presented study we extended the common use set of measurements to electrical activity of brain examination [2]. The statistically significant differences of blood flow and hemoglobin concentration in brain vessels during syncope induced by HUT observed in patients with induced lack of consciousness vs. patients with negative test results were reported in our further study [3]. The blood flow of brain was assessed by ultrasonic, transcranial doppler (TD) and hemoglobin concentration changes (oxygenated and deoxygenated fractions) by near infrared spectroscopy (NIRS). The similar results were reported by other researches. Our study [4, 5] of electrical activity of brain in course of HUT proved appearance of pathology of EEG within tyes (30-60) seconds prior to syncope attack. In our studies we didn’t determinate of the exact interval between obser... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Program strategiczny "TARCZA POLSKI" (Andrzej Kątcki, Ryszard Szpakowicz, Tomasz Zawada)
Podejmując się realizacji Programu "TARCZA POLSKI" Grupa BUMAR przyjęła poniższe założenia: - Opracowany system powinien spełniać oczekiwania Polskich Sił Zbrojnych dotyczące modernizacji polskiego systemu OPL. W szczególności należy zapewnić:  integrację z obecnym i perspektywicznym systemem Obrony Powietrznej,  możliwość wykorzystania wszystkich lub wybranych komponentów w strukturach OP NATO,  modułowość struktury systemu, która zapewni skalowalność architektury i elastyczność wykorzystania komponentów systemu,  możliwość etapowej modernizacji systemu OPL rozumianej jako jednoczesne korzystanie z posiadanych i pozyskiwanych, w ramach programu, środków przeciwlotniczych celem zachowania ciągłości funkcjonowania systemu OP w tym czasie. - Należy znaleźć partnera zagranicznego, producenta rakiet (zestawów rakietowych) średniego i krótkiego zasięgu, który będzie gotowy przekazać polskiemu przemysłowi technologie produkcji przeciwlotniczych zestawów rakietowych i wesprzeć polski przemysł w procesie realizacji programu. - Zapewnić maksymalną polonizację systemu. W tym celu należy wykorzystać dorobek polskiego przemysłu, w szczególności opracowane w ramach realizacji programów na rzecz MON sensory radiolokacyjne i elektrooptyczne, środki rakietowe i artyleryjskie bardzo krótkiego zasięgu oraz systemy C2. Proces polonizacji nie powinien ograniczać możliwości taktycznych pozyskiwanych rakiet, które będą osiągane w środowisku oryginalnym systemu. - Zapewnić aby polski przemysł pozyskał i wdrożył technologie (np. dzięki transferowi w ramach offsetu, w tym przede wszystkim offsetu związanego z zakupem rakiet MR i SR), niezbędne do:  produkcji rakiet krótkiego i średniego zasięgu,  realizacji wsparcia eksploatacji systemu ILS (ang. Integrated Logistic Support),  przygotowania i realizacji przyszłych modernizacji systemu (ang. future system up-grading). Celem polonizacji jest ... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wielofunkcyjny system komputerowy do współpracy ze spektrometrem EPR (Ireneusz Stefaniuk, Bogumił Cieniek)
Do modernizacji użyto standardowego spektrometru na pasmo X produkcji Politechniki Wrocławskiej, oznaczony jako typu SE/ X [1]. Jest to spektrometr odbiciowy z podwójną modulacją pola magnetycznego. Badana próbka paramagnetyczna umieszczona jest w prostokątnej mikrofalowej wnęce odbiciowej i poddawana równoczesnemu działaniu dwóch wzajemnie prostopadłych pól magnetycznych. Stałego - wytworzonego przez elektromagnes niskoomowy z hallotronową stabilizacją pola oraz mikrofalowego - wytworzonego przez generator klistronowy i doprowadzonego do wnęki rezonansowej torem falowodowym. W wyniku rezonansowej absorpcji paramagnetycznej, w takt zmian pola wytwarzanego przez elektromagnes, zmienia się poziom energii mikrofalowej odbijanej od wnęki zawierającej próbkę. Zmiany te po detekcji mikrofalowej, wzmocnieniu rezonansowym i detekcji fazowej są rejestrowane za pomocą rejestratora XY [1]. W tabeli zastawiono parametry użytkowe spektrometru, zaś na rys. 1 przedstawiono jego widok. Do akwizycji danych i sterowania użyto komputera PC posiadającego pusty port PCI potrzebny do zamontowania karty analogowo-cyfrowej oraz szeregowy port RS-232 do rejestracji sygnału z magnetometru. Wykorzystano kartę produkcji firmy National Instruments model NI PCI-6221 (16 wejść analogowych 16-bitowych, szybkość próbkowania 250 kS/s, 24-cyfrowe linie I/ O, 2 wyjścia analogowe 16-bitowe, 2 liczniki 32-bitowe) [2]. Karta została połączona z terminalem przyłączeniowym (SCB-68 Noise Rejecting, Shielded I/O Connector Block) wyposażonym w gniazda do których można włączyć przewody z sygnałem. Terminal posiada ekranowaną obudowę dzięki której eliminuje się zakłócenia zewnętrzne. Przy wyborze karty i terminala uwzględniono częstotliwość próbkowania, która musiała być na tyle duża żeby prawidłowo został odtworzony rejestrowany sygnał (uniknięcia aliasingu). Wybrany zestaw umożliwia pomiar temperatury za pomocą termopary w której jedno złącze z temperaturą odniesieni... więcej»

Foliowe mikro- i nanosystemy samozasilające (SP-MEMS i SP-NEMS) a e-obuwie jutra (Kazimierz Paweł Gąsiorski, Maria Haduch, Mariusz Pauluk)
Przeciętny użytkownik obuwia - konsument zastanawiając się nad tym, w jaki sposób osiągnięcia współczesnej nauki mogłyby ułatwić czy urozmaicić mu życie, często wybiega w marzeniach do obuwia jutra, w którym kształt, kolor, mikroklimat, czy komfort dopasowywałyby się automatycznie do indywidualnych - personalnych potrzeb konsumenta. Takie idealne obuwie powinno bezbłędnie odczytywać potrzeby użytkowe konsumenta, jak i niezawodnie pamiętać o wszystkich jego dolegliwościach, przyzwyczajeniach i preferencjach. Weźmy na przykład jeden z wynalazków, jakich być może będziemy używać w przyszłości - domowe laboratorium medyczne, czyli osobisty system diagnostyki ciała. System taki zawierałby wszystkie informacje dotyczące stanu zdrowia: na co chorujemy, czym się leczymy, jaki wpływ na nas mają aplikowane lekarstwa itd. Czyż koncerny farmaceutyczne nie chciały wejść w posiadanie tego typu informacji? A co z tzw. "Obuwiem przyszłości"? Obuwie to część odzieży, w której spędzamy większość naszego życia. Aby dostosować obuwie do naszych preferencji, będziemy również zmuszeni wprowadzić mnóstwo danych dotyczących własnej osoby. Czasy się jednak zmieniają. Kto wie, być może wraz z rozpowszechnieniem kultu przeglądarki internetowej Google i powiększeniem portalu Facebook, w przyszłości będziemy zmuszeni przedefiniować pojęcie prywatności? Obuwie przyszłości - jutra, a mikrolub nanosystemy (MEMS lub NEMS) Ogólnie, przez obuwie rozumie się część odzieży, która przeznaczona jest do ochrony stopy. W tym artykule chcielibyśmy pójść jednak o krok dalej, a może nawet o kilka kroków w porównaniu do stanu aktualnego. Co by było gdyby obuwie nie tylko służyło jako ochrona stóp, ale gdyby również poprawiało komfort życia w różnych sytuacjach? Na przykład chcąc wejść do domu - pojawia się problem znalezienia kluczy. A co, jeśliby można było wchodzić do własnego domu za pomocą czytnika MEMS zamontowanego w podeszwie e-obuwia, które stałoby się tak ind... więcej»

System detekcyjny elektronów wtórnych i wstecznie rozproszonych do obrazowania 3D w niskopróżniowej SEM (Witold Słówko, Michał Krysztof)
Skaningowa Mikroskopia Elektronowa (SEM) jest szeroko rozpowszechnionym narzędziem badawczym i pomiarowym, historycznie rzecz biorąc uważanym za instrument próżniowy, umożliwiający obrazowanie dwuwymiarowe. Prace prowadzone w ostatnich latach zmieniają te cechy, pozwalając na obserwacje wymagających tego obiektów w atmosferze gazowej (VP SEM -Variable Pressure SEM), lub trójwymiarowe (3D) obrazowanie topografii ich powierzchni. Autorzy mieli już okazję przedstawić w Elektronice wyniki swoich prac w obu wymienionych technikach badawczych [1, 2], jednak zupełnie nowym przedsięwzięciem jest ich połączenie, zmierzające do trójwymiarowego obrazowania topografii obiektów badanych w atmosferze gazowej, np. preparatów nieprzewodzących, czy też zawierających wodę [3]. Autorzy stosują w swych pracach techniki wielodetektorowe wywodzące się z metody fotometrycznej [4]. W tym wypadku, synteza obrazu trójwymiarowego opiera się na informacjach wynikających z rozkładu kątowego elektronów wtórnych i wstecznie rozproszonych. Zakłada się, że jest to rozkład lambertowski, a kierunkowy przepływ elektronów z danego punktu emisji do czterech symetrycznie rozmieszczonych detektorów jest źródłem sygnałów, których wzajemna relacja jest miarą nachylenia powierzchni w tym punkcie. Sygnały te są zapamiętywane w formie czterech obrazów wejściowych. Całkowanie nachyleń zgodnie z siatką obrazową pozwala na wyznaczenie kształtu powierzchni, zapamiętywanego w formie bit-mapy wysokości. Powierzchnia może być wizualizowana w dowolnej formie, z wykorzystaniem znanych technik komputerowych. Nowym problemem wynikającym z zastosowania opisanej techniki w atmosferze gazowej jest rozpraszanie elektronów na skutek zderzeń z molekułami gazu... więcej»

Synteza nanocząstek materiałów sensorowych (Helena Teterycz, Dominika Oleś, Marta Fiedot , Olga Rac, Patrycja Suchorska, Patryk Halek, Grzegorz Halek)
W ostatnich kilkunastu latach w literaturze pojawiają się doniesienia o możliwości syntezy nanomateriałów różnymi metodami. Syntezuje się je między innymi następującymi metodami: hydrotermalną [1], techniką "odwróconego opalu" [2], z roztworu ciekłego [3], za pomocą wzorca [4], elektrochemicznie [5], utleniania termicznego [6], itp. Metodami tymi otrzymuje się nanorurki, nanopręty, nanokwiatki, nanopastylki oraz inne interesujące nanostruktury. Materiały o takiej nanostrukturze mogą znaleźć zastosowanie nie tylko w technice sensorowej, jak warstwy gazoczułe i filtry aktywne [7], ale również jako różne materiały w nanoelektronice i optoelektronice do konstrukcji różnych elementów, np. ogniw słonecznych, czy kryształów fotonicznych, jako katalizatory heterogeniczne, nanomateriały magnetyczne, wypełniacze do kompozytów i wiele innych [8]. W niniejszym artykule przedstawiono wyniki otrzymywania różnych nanomateriałów nową metodą z roztworu wodnego zawierającego organiczne związki stabilizujące. Część eksperymentalna Nanocząstki dwutlenku tytanu otrzymano w reakcji strącania chlorku tytanu(III) wodorotlenkiem amonu z roztworu wodnego (1), a następnie utleniania powietrzem atmosferycznym (2). (1) (2) W początkowym etapie syntezy nanocząstek tlenku tytanu(IV) przygotowywano wodny roztwór prekursora jonów tytanu (TiCl3), syntetycznego polimeru (polietylenoimina, PEI) oraz surfaktantu niejonowego (Triton ® X-100). Otrzymany roztwór mieszano na mieszadle magnetycznym i stopniowo dodawano roztwór wodorotlenku amonu. Nanocząstki złota otrzymywano w wodnym roztworze prekursora jonów złota (HAuCl4) oraz niejonowego surfaktantu (Tween ® 80). Otrzymany roztwór reakcyjny mieszano mieszadłem magnetycznym ... więcej»

Wybrane projekty koła naukowego MikroCpp - zastosowania systemu Android w elektronice (Krzysztof Urbański)
Koło naukowe MikroCpp powstało w 2008 roku na Wydziale Elektroniki Mikrosystemów i Fotoniki i od początku swojej działalności zajmuje się zagadnieniami związanymi z elektroniką (głównie cyfrową), programowaniem (aplikacyjnym i niskopoziomowym) oraz wymianą i przetwarzaniem danych. Spośród projektów, które były realizowane do tej pory, warto wymienić zwłaszcza te związane z rozwiązaniami programowymi i sprzętowymi na potrzeby sieci bezprzewodowych czujników oraz mikrokontrolerów wyposażonych w interfejs Ethernet. Artykuł "A battery-free wireless sensor platform powered with multiple energy sources" i wystąpienie mgra inż. Kamila Allafa na Konferencji Naukowej Studentów w 2011 r. zostało wyróżnione pierwszą nagrodą w sekcji "Computerization of modern way of life - transmission and analysis of information". Działalność koła to jednak przede wszystkim popularyzacja wiedzy o projektowaniu i programowaniu urządzeń wyposażonych w mikrokontrolery - wśród studentów i nie tylko. Nie byłoby możliwe zaprojektowanie i uruchomienie większości układów którymi się zajmujemy, bez praktycznej znajomości mikrokontrolerów i ich umiejętności ich programowania. Działalność na pograniczu dwóch dziedzin - elektroniki i informatyki - doskonale wpisuje się w trendy obserwowane na rynku urządzeń mikroprocesorowych. Mikrokontrolery jednoukładowe są wyposażane w coraz większe zasoby pamięci oraz coraz wydajniejsze rdzenie CPU (ang. Central Processing Unit). Pozwala to na uruchamianie coraz bardziej zaawansowanych aplikacji, a dzięki malejącej cenie tych układów są one instalowane praktycznie wszędzie. Równocześnie zaobserwować można ciągły spadek cen energooszczędnych, wydajnych mikrokontrolerów aplikacyjnych, co zachęca do ich zastosowania w prostszych układach elektronicznych, a... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
A compact thermoelectric harvester for waste heat conversion (Piotr Dziurdzia, Karol Lichota)
Ambient energy harvesters have been playing more and more important role in the electronic industry in recent years. Not so long ago, energy scavenging was treated in R & D laboratories with some timidity and used only in some niche applications. Nowadays, development of autonomous power sources for supplying microelectronic systems is strongly driven by market demands following recent advances in smart mobile equipment, wireless sensor networks (WSN), monitoring of industrial processes, etc. Since transmission lines have been replaced with wireless channels a long time ago, now the energy harvesters are removing the last obstacle on the way to developing quite autonomous electronic systems. By providing electrical voltage to the sensor nodes from harvested pieces of ambient energy (for instance: heat, light and vibrations) they do not need external sources of energy, for instance power mains or batteries, any more [1-3]. For the last few years our team has been focused on developing of thermoelectric energy harvesters for supplying wireless sensor nodes. At the beginning, basing on the phenomena of Seebeck, Peltier, Joule and Thomson, an original model of thermoelectric generator was elaborated [4]. It was next subjected to simulations in order to investigate the maximum ratings of TEG against available heat power sources and different ambient conditions. In the next steps first prototypes of TEGs were designed and fabricated. Thermoelectric harvester As a rule, thermoelectric generators suffer from relatively low conversion efficiency (not exceeding 10%), so they are practically not applicable to large-scale systems, not to mention power stations. On the other hand they seem to be promising solu... więcej»

Investigations of passive components embedded in printed circuit boards (Wojciech Stęplewski, Tomasz Serzysko, Grażyna Kozioł, Kamil Janeczek, Andrzej Dziedzic)
The concept of passive components embedded between inner layers of printed circuit board (PCB) was introduced many years ago. The first trials of embedded capacitors started at the end of sixties of the last century [1]. In the beginning of seventies started the applying of NiP layers for manufacturing of thin layer resistors [2]. Up to present day many materials which can be used for embedded passives were elaborated. But this technology is used in small range, especially in military and air electronics as well as in space electronics. Due to the increasing number of components which are now required to support a single active device, the passives are quickly becoming the major bottleneck in the general miniaturization trend which has become so important in today’s electronics world. The miniaturization of conventional passives reaches its limits and the next obvious choice is to embed the passive components into the PCB. This allows further miniaturization, has the potential to reduce cost and moreover exhibits superior electrical behavior with respect to the minimization of parasitic effects [3, 4]. Despite unquestionable advantages which characterize the embedded elements, they are not generally used in the production of PCBs. As well the designing of electronic devices such as filters, generators, RFID systems and many others, which are composed of passive components, was not to this time used on larger scale and knowledge in this matter is still very poor. Embedding passives will permit to integrate these elements and whole structures into the PCB. The idea of packing more and more elements in PCBs by application and development of embedding passives technologies becomes a necessity for electronic equipment producers. Materials and structures Thin-film resistors In the investigations two types of materials with sheet resistance of 25 Ω/□ (thickness 0.4 μm) and 100 Ω/□ (thickness 0.1 &#9... więcej»

Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several μm. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

LTCC microfluidic chip with fluorescence based detection (Mateusz Czok, Karol Malecha, Leszek Golonka)
Nowadays miniaturization is present in many fields of science (electronics, medicine, biology and chemistry). Over the last few years many research into miniaturization and microfabrication were carried out. As a result the concepts of the micro-total analysis system (μTAS) and Lab-on-Chip (LoC) were proposed. These devices integrate several laboratory functionalities in a single miniature structure [1, 2]. There are few technologies that can be applied in the realization of the LoC devices. For many years the most common used materials were silicon and glass wafers [3, 4]. As an alternative solution few other materials like PDMS (poly(dimethylsiloxane)) or PCB (Printed Circuit Boards) were used for microsystems fabrication [5, 6]. The Low Temperature Co-fired Ceramics (LTCC) seems to be a suitable material to realize LoC devices. Channels, chambers, valves, electronic and optoelectronic components can be easily integrated in one LTCC module [7, 8]. It also has outstanding physical and chemical properties [9]. The main motivation is to use the LTCC technology in the fabrication of the microfluidic chip, in which fluorescence detection of biological sample can be performed. The manufactured detection module consists of inexpensive and commonly available electronic components and PMMA (poly(methyl methacrylate)) optic fibres integrated with the LTCC microfluidic chip. It is made up of the microfluidic channel, cavities for fiber optics, miniature light emitting diode and photodetector. The LTCC microfluidic chip performance is investigated with several different concentrations of fluorescein solutions which are excited with 465 n... więcej»

Study of IDE as a sensor head for interfacing with handheld electrochemical analyzer system (Vijayalakshmi Velusamy, Khalil Arshak, Olga Korostynska, Catherine Adley)
Electrochemical biosensors have been receiving more attention in recent years since they are simple to use, cost-effective, offer high sensitivity and suitable for in situ analysis [7-10]. Applications are mainly focused on food quality monitoring for the detection of foodborne pathogens [11], environmental quality monitoring for the detection of contamination of potable water resources due to pathogenic micro organisms and industrial by-products [12, 13] and in biosecurity for the detection of biowarfare agents [14]. An electrochemical sensor is an electrical device in which the biological and/or the chemical information are converted to an electrical signal, which is then processed and recorded for further analysis. Towards the development of an electrochemical analyzer system, a sensor was initially designed that may be interfaced with the handheld system comprising both the potentiostat and the impedance analyzer. In biosensors the lower limit of detection is a big challenge and numerous electrode geometries have been developed during the past decade to address this problem. Among various electrode geometries IDE have advantage in bioanalytical applications. A thick-film gold IDE was employed in this research and it was prepared by screen printing technique. Thick-film sensors are advantageous since it is compact, robust and relatively cost-effective. It is possible to mass produce from macro- to microscale, with greater reproducibility. However, the applicability of the technology is limited to a possible minimum line width (100 μm) [15]. The planar IDE sensors based on thick films are very wellsuited to integrate with electronic circuits. The IDE sensors can be combined with other planar technologies like plasma/chemical vapor deposition for surface modification. The device produced by the thick-film technique has the ability to facilitate as a supporting structure upon which other sensing materials can be deposited... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»