profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Zastosowanie zjawiska modulacji absorpcji na nośnikach swobodnych do nieniszczących badań materiałów półprzewodnikowych (Łukasz CHROBAK, Mirosław MALIŃSKI)
Parametry rekombinacyjne materiałów krzemowych są jednymi z ważniejszych, których znajomość jest niezbędna przy projektowaniu urządzeń optoelektronicznych (np. ogniw słonecznych, fotodetektorów, itp.). W ostatnich latach można zaobserwować wzrost zainteresowania nieniszczącymi metodami do wyznaczania parametrów rekombinacyjnych materiałów krzemowych [1-4]. Jedną z nich jest metoda MFCA (ang. Modulated Free Carrier Absorption), która umożliwia wyznaczenie czasu życia nośników, współczynnika dyfuzji nośników, a także prędkości ich rekombinacji powierzchniowej. Jej podstawy teoretyczne, a także przykładowe charakterystyki częstotliwościowe amplitudowe i fazowe uzyskane na płytkach krzemowych przedstawiono w pracy [5]. Modyfikację metody MFCA opartą na przestrzennej separacji wiązki wzbudzającej nośniki i wiązki sondującej przedstawiono w pracach [6, 7]. Wpływ szerokości wiązki sondującej na sygnał MFCA przedstawiono w pracy [8]. Porównanie czułości dwóch odmian metody MFCA opartych na pomiarze sygnału MFCA w funkcji częstotliwości modulacji oraz w funkcji odległości wiązki wzbudzającej i wiązki sondującej przedstawiono w pracy [9]. Rozkład przestrzenny nośników w modelu 3D niezbędny do obliczeń wielkości sygnału MFCA przedstawiono w pracy [10]. Wyniki badań, porównujących metodę MFCA z metodą pomiarową bazującą na wykorzystaniu mikrofal, zweryfikowane pomiarami fotoprzewodnictwa przedstawiono w pracy [11]. Przedstawione w niniejszej pracy zagadnienia dotyczące metody MFCA są ciągle aktualne i znajdują się w spektrum zainteresowań naukowców z międzynarodowych jednostek naukowych [12-14]. Znajomość parametrów rekombinacyjnych materiałów krzemowych jest wysoce pożądana, zwłaszcza przy projektowaniu i wytwarzaniu ogniw słonecznych. Idea metody MFCA polega na wzbudzaniu nośników z pasma walencyjnego do pasma przewodnictwa w wyniku absorpcji światła lasera wzbudzającego oświetlającego próbkę. W wyniku tego uzyskuje się dyfuzyjne fale... więcej»

Zastosowaniu techniki zrównoleglenia obliczeń do poprawy wydajności numerycznego algorytmu rozwiązywania równań różniczkowych (Arkadiusz Gardecki )
W wielu programach symulacyjnych stosowane są numeryczne algorytmy rozwiązywania układów równań różniczkowych zwyczajnych (ODE). Stosowane powszechnie w komercyjnych programach metody typu Rungego-Kutty (R-K), czy algorytmy sztywnostabilne, np. Gear’a, zastały uzupełnione w ostatnim czasie o metody typu predyktor - korektor (PECE). Przykładem takiego algorytmu może być algorytm Shampina [1]. Do tej grupy można zaliczyć także algorytm BGKODE [2] opracowany na Politechnice Opolskiej i wykorzystywany w symulacjach układów energoelektronicznych. Oba te algorytmy wywodzą się z metody Krogh’a [3, 4]. Oprócz zastosowań tego typu metod do badań symulacyjnych jest możliwe także wykorzystanie ich do obliczeń wykonywanych w czasie rzeczywistym (np. w układach sterowania układów przekształtnikowych [5]). Zaproponowana w pracy [5] procedura BGKODE_DSP wykazała zalety związane z większą dokładnością w porównaniu do metod R-K przy akceptowalnym, niewielkim wzroście kosztów obliczeniowych [6]. Naturalnym kierunkiem rozwoju tych metod wydaje się przystosowanie ich do obliczeń równoległych. Upowszechnienie się procesorów wielordzeniowych, zarówno w komputerach używanych do badań symulacyjnych jak i w procesorach sygnałowych wykorzystywanych do obliczeń w czasie rzeczywistym, daje nowe możliwości zastosowań tego typu algorytmów. Metoda numerycznego całkowania typu PECE Procedura BGKODE_DSP [5] wywodzi się z pełnego zespołu procedur BGKODE [1] realizującego zmodyfikowany algorytm Krogh’a [3]. Zespól tych procedur znajduje zastosowanie w obliczeniach symulacyjnych gdzie wielokrotnie potwierdzał swoje dobre właściwości obliczeniowe. Cechują go: duża dokładność, duży obszar stabilność, efektywny algorytm zmiany długości kroku całkowania oraz rzędu aproksymacji, możliwość rozwiązywania układów sztywnostabilnych. Skłoniło to autora do opracowania procedury BGKODE_DSP przystosowanej do obliczeń w układach czasu rzeczywistego [5, 6... więcej»

Algorytm kompensacyjny w procesach identyfikacji i sterowania złożonych systemów dynamicznych (STANISŁAW KAPKA)
Współczesne złożone systemy dynamiczne są instalowane w przemyśle lotniczym, chemicznym, militarnym, elektroenergetycznym, robotyce. Rozwiązania zagadnień identyfikacji i sterowania w większości są realizowane techniką cyfrową. Wiąże się to z szerokimi możliwościami współczesnych technologii i systemów komputerowych. Wraz ze wzrostem złożoności systemu dynamicznego, czego przykładem jest system elektroenergetyczny, wydajne algorytmy sterowania komputerowego by zachować przewagę technologiczną, powinny być wspierane rozwiązaniami tworzącymi najniższą warstwę identyfikacji i sterowania o działaniu równoczesnym. Znajduje to potwierdzenie w opisie stanów nieustalonych, stabilności, regulacji, stabilizacji systemu elektroenergetycznego [1, 2], a także w opisie systemów cyfrowych [3, 4]. Wraz ze wzrostem wymiaru systemu, pojawiają się trudności z konstrukcją modelu jak również z szybkim uzyskaniem rezultatów symulacyjnych. Aby przyspieszyć procesy symulacyjne można wprowadzić proponowany algorytm kompensacyjny, umiejscowiony w najniższej warstwie identyfikacji i sterowania. Jest on realizowalny w strukturze elektronicznej, w opisie funkcjonalnym prezentowanym w [1- 6]. Na rysunku 1 zilustrowano typowy układ regulacji automatycznej z analogowym sprzężeniem zwrotnym, gdzie: EP - element porównujący, yO(t)- wielkość odniesienia, e(t) - sygnał uchybu, PID - regulator, u(t), u’(t) - sterowania, z’(t) - zakłócenia, y’(t), y’’(t) - wyjścia obiektu regulacji odpowiednio analogowe i impulsowe. Stosownie do wyjść, wprowadza się czujniki analogowe lub impulsowe realizujące proces konwersji sygnałów silnoprądowych na odpowiednie sygnały napięciowe, dalej przetwarzane w elemencie pomiarowym i przetwarzającym. Niedogodnością struktury z analogowym sprzężeniem zwrotnym jest wpływ przełącznika umiejscowionego w torze sprzężenia zwrotnego (elementu porównania) na sterowanie. Proces przełączania pętla otwarta/pętla zamk... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
System do pomiaru Apertury Numerycznej w światłowodach specjalnych (ŁUKASZ Ostrowsk, MICHAŁ Murawski, MICHAŁ Szymański, Zbigniew Hołdyński, TADEUSZ Tenderenda, PAWEŁ Mergo, PAWEŁ Marć, Leszek R. Jaroszewicz, TOMASZ Nasiłowski)
W światłowodach klasycznych, światło jest prowadzone w materiale na podstawie różnicy we współczynniku załamania pomiędzy rdzeniem a płaszczem. Apertura Numeryczna (NA) w tym typie światłowodów wykazuje niewielkie właściwości dyspersyjne w całym spektrum, zatem pomiar dla pojedynczej długości fali jest zupełnie wystarczający do scharakteryzowania NA. Inną sytuację mamy w przypadku światłowodów mikrostrukturalnych (MSF) gdzie światło jest prowadzone na podstawie geometrii wewnętrznych otworów. W tym typie światłowodów NA zmienia się wraz ze wzrostem długości fali. Właściwości NA w zależności od rodzaju prowadzenia przedstawione są na rysunku 1. Odmienny charakter NA dla różnych włókien był motywacją do stworzenia układu precyzyjnego wyznaczania NA w światłowodach specjalnych. Dzięki tak zdobytej wiedzy o aperturze numerycznej mierzonych światłowodów możliwe jest optymalizowanie efektywnego łączenia, sprzęgania oraz wprowadzania światła do różnorodnych typów światłowodów[1]. Ponadto w światłowodach nie posiadających symetrii kołowej NA może się zmieniać nie tylko z długością fali ale, również z obrotem włókna wokół własnej osi. Dlatego system do ... więcej»

Analiza możliwości wykorzystania siatek długookresowych w strukturach gradientowych światłowodów planarnych (Tomasz Kotyczka, Roman Rogoziński)
Obecnie w przemyśle elektronicznym wraz z dynamicznym rozwojem technologii, obserwować można nieustanne dążenie do miniaturyzacji układów, a tym samym redukcji kosztów ich produkcji. Układy elektroniczne stają się coraz mniejsze, tańsze oraz bardziej energooszczędne. Coraz popularniejsze stają się jednostki zintegrowane, w których poszczególne komponenty urządzenia elektronicznego produkowane są w postaci pojedynczego układu. Podobną tendencję widać w dziedzinie układów optycznych. Z dobrze opanowanymi technologiami produkcji, bazując na materiałach wysokiej jakości, można wytwarzać układy optoelektroniczne z dużą precyzją oraz w sposób wysoce powtarzalny. Urządzenia optyczne w stosunku do swoich elektronicznych odpowiedników charakteryzują się przede wszystkim niewrażliwością na obecność oraz zmiany pola elektrycznego i magnetycznego. Mogą pracować w skrajnie trudnych warunkach, a także często dzięki swojej budowie ich czas życia znacząco się wydłuża. Głównym motorem ciągłego postępu oraz poszukiwania nowych rozwiązań jest potrzeba automatyzacji oraz kontroli i nadzoru wszelkiego rodzaju procesów. Dotyczy to zarówno wszystkich gałęzi przemysłu jak również technologii medycznych gdzie główny nacisk kładzie się na niezawodność oraz precyzję działania. Wszędzie gdzie występują trudne warunki lub wymagana jest nieustanna kontrola projektuje się czujniki, które z duża dokładnością oraz w krótkim czasie pozwolą na detekcję pożądanych parametrów. W raz z rozwojem telekomunikacji znaczącą role zaczęły odgrywać układy wytwarzane bezpośrednio na włóknach. Do przykładów takich rozwiązań należą chociażby lasery światłowodowe [16], pompy optyczne, wszelkiego rodzaju czujniki płynów oraz gazów, a także filtry [3, 5, 6, 13, 15]. Te ostatnie oparte są na siatkach długookresowych LPG (Long Period Fiber Grating) [13]. Umożliwiają one sprzęganie mocy poszczególnych modów propagujących się w światłowodzie. Ze względu jednak na ograniczenia mat... więcej»

Multimedialny bezprzewodowy system alarmowy (Piotr Bratek, Dariusz Majcherczyk, Ireneusz Brzozowski, Andrzej Kos)
Rozwój elektroniki i informatyki daje nam nieustannie nowe możliwości co przekłada się na upowszechnianie nowych technologii w codziennym życiu. Jedną z najważniejszych spraw do której, jako użytkownicy, przywiązujemy największą wagę jest przede wszystkim bezpieczeństwo osobiste oraz bezpieczeństwo mienia. Nowe coraz bardziej zawansowane rozwiązania pozwalają skuteczniej bronić się przed potencjalnymi zagrożeniami. Możliwość wykorzystania wiadomości obrazkowych MMS daje użytkownikowi znacznie cenniejszą informację, niż dotychczasowa wiadomość tekstowa, na temat zaistniałej sytuacji w miejscu zdarzenia. Dzięki zastosowaniu modemu GSM/GPRS nie ma ograniczenia nałożonego na miejsce realizacji ponieważ obecnie pokrycie sieci komórkową obejmuje cały teren kraju. Przedstawiony w artykule multimedialny system alarmowy (rys. 1) wysyła wiadomości graficzne MMS (ang. Multimedia Messaging Service) z wykorzystaniem modemu GSM/GPRS (ang. Global System for Mobile communication/General Packet Radio Service). Do tej pory na rynku dostępne były głównie systemy oparte na informacjach przesyłanych jako wiadomości SMS (ang. Short Message Service). Było tak ze względu na powszechność dostępu do tej usługi, a co za tym idzie niskich kosztów użytkowania oraz ówczesnych możliwości technicznych terminali komórkowych. Współczesne warunki życia promują tak zwane smartfony (ang. smartphones), czyli urządzenia telefoniczne łączące w sobie funkcje telefonu komórkowego i komputera kieszonkowego PDA (ang. Personal Digital Assistant) stąd rosnące wymagania, co do multime... więcej»

Technologia wytwarzania i pomiary absorpcji szkieł chalkogenidkowych domieszkowanych jonami ziem rzadkich (Łukasz Sójka, Elżbieta Bereś-Pawlik, Zhuogi Tang, David Furniss, Angela Beth Seddon, Trevor Mark Benson, Sławomir Sujecki)
Jednym z podstawowych problemów współczesnej fotoniki jest opracowanie efektywnych źródeł światła pracujących w zakresie średniej podczerwieni. Potencjalne źródła światła pracujące w tym zakresie mogą znaleźć wiele zastosowanie w branży medycznej oraz czujnikowej. Źródła pracujące w tym zakresie powinny się charakteryzować prostą konstrukcją, wysoką efektywnością, niezawodnością, przystępną ceną, dobrą jakością wiązki wyjściowej. Jednym z urządzeń, które spełniają te wymagania są lasery światłowodowe [1-3]. Sygnały generowane przez obecnie lasery światłowodowe oparte na szkle krzemionkowym oraz fluorkowym mogą pokryć zakres długości fali do około 3 μm. Barierą technologiczną która blokuje konstrukcje laserów światłowodowych powyżej 3 μm jest wysoka energia fononów szkła krzemionkowego (1100 cm-1) oraz szkła fluorkowego (560 cm-1) [4, 5]. W celu osiągnięcia emisji powyżej 3 μm potrzebne jest szkło charakteryzujące się niską energią fononów. Jednym z materiałów który może spełnić to wymaganie jest szkło chalkogenidkowe. Szkła te charakteryzują się niską energią fononów poniżej 400 cm-1 co predysponuje je do osiągnięcia emisji powyżej 3 μm [6-9]. Szkła chalkogenidkowe są to szkła oparte na materiałach z 16 grupy układu okresowego pierwiastków tj. S (siarka), Se (Selen) oraz Te (Tellur), elementy te wraz z elementami z 14 oraz 15 grupy układu okresowego tj Ge (German), As (Arsen), Sb (Antymon), Ga (Gal) two... więcej»

System pomiarowy do dynamicznej spektroskopii widma emisyjnego plazmy TR-OES do diagnostyki plazmy wyładowania jarzeniowego w układzie magnetronowym zasilanym impulsowo (Artur Wiatrowski)
Stale rosnące wymagania stawiane cienkim warstwom nanoszonym przy obniżonym ciśnieniu, a stosowanym m.in. w medycynie, mikroelektronice, magnetycznych i optycznych nośnikach danych, są motorem poszukiwań nowych sposobów ich wytwarzania. Celem poszukiwań są między innymi: 1) zwiększenie wydajności otrzymywania (poszukiwane są wysoce efektywne procesy rozpylania), 2) zwiększenie czystości warstw (wskazana eliminacja gazowej atmosfery roboczej procesów) oraz 3) możliwość wpływania na właściwości warstw przez zmianę parametrów technologicznych procesów nanoszenia - np. parametry sygnału elektrycznego pobudzającego wyrzutnię. W wypadku procesów rozpylania stałoprądowego jest to tylko wartość energii dostarczanej do źródła. Duże nadzieje wiązane są z metodami PVD (ang. Physical Vapor Deposition) wykorzystującymi impulsowe zasilanie źródła osadzanego materiału, w tym z metodą impulsowego rozpylania magnetronowego. Rozpylanie magnetronowe to obecnie jedna z najszerzej stosowanych metod otrzymywania cienkich warstw. Na jej atrakcyjność wpływa możliwość nanoszenia warstw na podłoża o dużych powierzchniach i szeroki zakres zmienności parametrów podczas procesów osadzania. Impulsowe odmiany tej metody np. HIPIMS (ang. High Power Impulse Magnetron Sputtering) [1-4], czy też metoda Impulsowego Magnetronowego Autorozpylania (ang. Pulsed Self-Sustained Magnetron Sputtering) [5, 6] otwierają nowe możliwości technologiczne pokazując, że rozwój technologii otrzymywania cienkich warstw za pomocą magnetronu jest kontynuowany. Charakterystyczną cechą procesów rozpylania impulsowego jest fakt, iż w czasie trwania każdego impulsu zasilającego wyrzutnię magnetronową (tON) występuje faza inicjowania wyładowania (napięcie anoda-katoda rzędu pojedynczych kV), po czym ma miejsce faza właściwego rozpylania (wymagana stabilizacja/ ograniczanie prądu katody). Natomiast w czasie każdego wyłączenia impulsu zasilającego (tOFF) występuje faza wygaszania wyład... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Fractional-order harmonic oscillators (Zdzisław Trzaska )
In the last two decades, integral and differential calculus of an arbitrary (or fractional) order has become a subject of great interest in numerous areas of physics, biology, economics and other sciences [1], [4]. This state resulted of the fact that nowadays the behavior of many dynamical systems can be properly described in terms of the theory of fractional order systems. The growing number of such applications indicates that there is a significant demand for better mathematical models of real objects, and that the fractional calculus provides one possible approach on the way to more adequate mathematical modelling of real objects and processes. Notice that in the literature, the terms “fractional order calculus (FOC)", or “fractional order dynamical system (FODS)" are often in using where “fractional" actually means “non-integer". For example, d 0.5 f (t) dt 0.5 is the so-called “semi-differentiation". We emphasize that many real dynamical systems are better characterized using fractional order dynamic models based on fractional calculus of differentiation or integration of non-integer orders. This approach is accepted today as a new tool that extends the descriptive power of the conventional calculus, supporting mathematical models that, in many cases, describe more accurately the dynamic response of actual systems in various applications. While the theoretical and practical interest of these fractional order operators is nowadays well established, its applicability to science and engineering can be considered an emerging topic. Among other, the need to numerically compute the fractional order derivatives and integrals arises frequently in many fields, especially in electronics, telecommunications, automatic control and digital signal processing [7], [8]. Basic characterization of fractional order systems Models and representations To explain precisely a multitude of diverse physical phenomen... więcej»

Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Realizacja dedykowanej aplikacji wzmacniacza fazoczułego w środowisku LabVIEW (Maciej Kubicki)
W wielu zastosowaniach pomiarowych wymagane jest określanie amplitudy i fazy sygnałów o amplitudzie mniejszej od 1 mV w obecności szumu, w przypadku gdy znana jest częstotliwość tych sygnałów. Przykładem jest detekcja sygnałów rejestrowanych przy określaniu szczelności elementów elektronicznych z zastosowaniem technik termoakusystycznych opisanych w opracowaniach [1-3]. Na rysunku 1 schematycznie przedstawiono układ testowy do pomiaru szczelności z wykorzystaniem wspomnianej metody. Termoakustyczna technika pomiaru szczelności obudów elementów elektronicznych może stanowić nieniszczącą alternatywę dla niszczących testów precyzowanych przez standardy stosowane obecnie w przemyśle [10-11]. W rozpatrywanej metodzie źródłem sygnału pomiarowego jest mikrofon umieszczony w szczelnej komorze termoakustycznej rejestrujący sygnał akustyczny pojawiający się w wyniku periodycznego wydzielania mocy w badanym elemencie. Jedną z metod pomiaru sygnału stosowaną w rozważanym przypadku jest detekcja fazoczuła. Dostępne na rynku wzmacniacze fazoczułe, poza wysokim kosztem mogą nie być dostosowane do danego pola aplikacji. W odróżnieniu od samodzielnych urządzeń, narzędzia jakie oferują współczesne systemu akwizycji sygnałów pomiarowych umożliwiają tworzenie dedykowanych aplikacji pomiarowych automatyzujących dodatkowo proces pomiaru. W artykule opisano programową realizację wzmacniacza fazoczułego, stanowiącą podstawę systemu akwizycji i przetwarzania sygnałów pomiarowych układu do pomiaru szczelności tranzystorów w obudowach metalowych z wykorzystaniem technik termoakustycznych. Aplikacja pomiarowa została stworzona w środowisku LabVIEW w oparciu o 16-bitową kartę pomiarową NI-6251. Inne przykłady programowych realizacji wzmacniaczy fazoczułych znaleźć można w pozycjach literaturowych [7-9].Zależności umożliwiające wyznaczenie amplitudy i fazy sygnału pomiarowego przytaczane są w wielu publikacjach na temat wzmacniaczy fazoczułych [4-9]. Ab... więcej»

Analiza parametrów anteny typu F umieszczonej w pobliżu ciała człowieka (Łukasz Januszkiewicz, Piotr Wasilewski)
która znalazła zastosowanie zarówno w paśmie fal ultra krótkich jak i mikrofal. Duża popularność tej anteny wynika z jej niewielkich rozmiarów w porównaniu z innymi antenami zasilanymi niesymetrycznie, takimi jak unipol ćwierćfalowy lub antena typu T. Antena zasilana jest niesymetrycznie, a jej impedancja wejściowa może być równa 50 Ω, dzięki czemu nie jest konieczne stosowanie układów dopasowujących w przypadku podłączenia anteny do bardzo wielu stosowanych obecnie nadajników. Anteny tego typu znalazły liczne zastosowania w systemach łączności ruchomej instalowanych w pojazdach [1-2] oraz po wprowadzeniu pewnych modyfikacji (tzw. planarna antena typu F - PIFA) również w terminalach przenośnych systemów komórkowych [3-4]. Anteny typu F mogą być wykonane w technice obwodów drukowanych. Kształt odpowiednio zmodyfikowanej litery F przyjmuje wtedy warstwa metalizacji ułożona na podłożu dielektrycznym. W takim wykonaniu anteny typu F znalazły bardzo szerokie zastosowanie np. w miniaturowych nadajnikach bezprzewodowych sieci sensorowych [5] lub nadajnikach bezprzewodowych sieci komputerowych [3, 6]. Kolejnym popularnym zastosowaniem są miniaturowe transceiwery pracujące w paśmie 2,4 GHz w protokole ZigBee. Producenci miniaturowych nadajników bardzo często przedstawiają w dokumentacji układów kształt obszaru metalizacji obwodu drukowanego tworzącego antenę, bądź też wykonują ją na płytkach testowych, na których umieszczone są miniaturowe nadajniki [7, 8]. Na rysunku 1 przedstawiono wymiary oraz widok anteny typu F zrealizowanej w technice obwodów drukowanych, która została umieszczona na płytce testowej nadajnika ZigBee firmy Chipcon [7]. Ze względu na bardzo małe rozmiary płytek testowych z modułami ZigBee i ich niewielki pobór energii możliwe byłoby wykorzystanie ich do realizacji bezprzewodowych sieci sensorowych działających w pobliżu ciała człowieka. Sieci tego typu mogą realizować różnorodne funkcje związane np. z monito... więcej»

Analiza zagadnień cieplnych w optycznie pompowanych laserach typu VECSEL (Adam K. Sokół, Robert P. Sarzała)
Półprzewodnikowe lasery o emisji powierzchniowej z zewnętrzną wnęką rezonansową, w skrócie VECSELs (ang. Vertical- External-Cavity Surface-Emitting Lasers), określane również mianem półprzewodnikowych laserów dyskowych, w skrócie SDLs (ang. Semiconductor Disk Lasers), stanowią stosunkowo młodą rodzinę przyrządów optoelektronicznych łączących w sobie zalety półprzewodnikowych laserów typu VCSEL (ang. Vertical-Cavity Surface-Emitting Lasers), laserów o emisji krawędziowej, w skrócie EELs (ang. Edge-Emitting Lasers) oraz laserów opartych na ciele stałym [1]. Ich unikalne własności polegają przede wszystkim na możliwości generacji promieniowania o dużej mocy (od kilkuset miliwatów [2] do nawet 70 W [3]) i jednocześnie wysokiej jakości wiązki o małej rozbieżności i kołowym przekroju. Niestety, ważnym czynnikiem ograniczającym efektywne wykorzystanie optycznie pompowanych laserów typu VECSEL jest znaczny przyrost temperatury w ich obszarze czynnym spowodowany intensywnym pompowaniem i ograniczoną sprawnością urządzenia. Do pompowania wykorzystuje się najczęściej pojedyncze diody laserowe bądź całe ich matryce emitujące promieniowanie o mocy od kilku [2] do nawet kilkuset watów (maksymalnie 400 W) [3, 4]. Sprawność konwersji promieniowania, rozumiana jako stosunek mocy wyjściowej do mocy pompującej, wynosi natomiast od kilku do kilkudziesięciu procent (maksymalna wartość jaką udało się do tej pory osiągnąć to 50% [4]). Powoduje to powstanie silnych źródeł ciepła w obszarze czynnym, co w naturalny sposób utrudnia pracę lasera ze względu na zbyt szybkie przesuwanie się spektrum wzmocnienia w porównaniu z pikiem rezonatora. Bardzo ważne jest zatem odpowiednie zaprojektowanie struktury i sposobu jej montażu tak, by jak najbardziej zwiększyć efektywność odprowadzania z niej ciepła. Struktury laserowe Rysunek 1 przedstawia poglądowy schemat struktury lasera typu VECSEL z górnym heat spreaderem. Laser ma postać chipa półprzewodnikowego,... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Transport fononów przez nadstruktury GaAs/AlAs (Dariusz Żak, Włodzimierz Nakwaski)
W nowoczesnych przyrządach półprzewodnikowych nadstruktury składają się zwykle z wielu cienkich warstw dwóch różnych materiałów o wyraźnie różniących się współczynnikach załamania. Cieplna przewodność nadstruktur jest anizotropowa, o innych wartościach w kierunku prostopadłym do granic warstw i w kierunku do nich równoległym. W dodatku obie te przewodności są zazwyczaj znacznie mniejsze od przewodności objętościowych (bulk resistances) obu tych materiałów, co jest związane z odbijaniem i rozpraszaniem fononów na granicach warstw. Niekiedy, jako uzupełniający mechanizm transportu fononów, należy również uwzględnić możliwość ich tunelowania przez bardzo cienkie warstwy. Wpływ pozostałych, poza fononowymi, procesów odprowadzenia ciepła w standardowych przyrządach półprzewodnikowych w temperaturach bliskich temperaturze pokojowej, tj. procesów promieniowania cieplnego oraz przekazywania energii cieplnej cząstkom powietrza, jest nieznaczny, czego efektem jest zdominowanie transportu ciepła w takich półprzewodnikowych przyrządach przez przewodnictwo fononów do obudów tych przyrządów. Cieplna oporność przejścia Wielokrotne odbicia fononów w nadstrukturach nowoczesnych przyrządów półprzewodnikowych w znacznym stopniu redukują skuteczność ich transportu [1, 2]. W szczególności transport fononów w kierunku równoległym do granic warstw (i będąca jego wynikiem przewodność cieplna λIP w tym kierunku) są odmienne od tychże zjawisk dotyczących kierunku prostopadłego do granic (czemu odpowiada przewodność λCP) [3]: (1) (2) gdzie L1 i L2 są grubościami, a λ1 i λ2 przewodnościami cieplnymi obu naprzemiennych warstw nadstruktury. 1 2 1 1 2 2 L L λ λ L λ L IP + + ... więcej»

Test stabilografii nadążnej (Zenon Kidoń, Jerzy Fiołka)
Do oceny stabilności układu utrzymywania równowagi człowieka powszechnie wykorzystuje się stabilografię statyczną. Podstawowym narzędziem stosowanym w tej metodzie jest platforma stabilograficzna wraz ze specjalnym oprogramowaniem. Za jej pomocą rejestrowany jest sygnał stabilograficzny opisujący zmiany położenia w czasie punktu przyłożenia wypadkowej sił nacisku na płaszczyznę platformy, tzw. punkt COP, (ang. Center of Pressure) [1]. W czasie badania, które trwa zwykle 30…60 sekund, pacjent proszony jest o możliwie najlepsze utrzymywanie równowagi w pozycji stojącej. Wyróżnia się przy tym wariant z oczami otwartymi i zamkniętymi. Po otrzymaniu tych wskazówek następuje rejestracja sygnału [2]. Uzyskana w ten sposób trajektoria zawiera informację o sprawności całego układu utrzymywania równowagi, jak i jego poszczególnych składowych (na przykład: ośrodkowego układu nerwowego czy błędnika). Ponadto, rozwijaną w ostatnich latach dziedziną zastosowań stabilografii jest diagnozowanie oraz ocena postępów w rehabilitacji wad postawy oraz uszkodzeń układu mięśniowo-kostnego, zwłaszcza dolnej partii ciała człowieka [3]. Nowe możliwości w zakresie zastosowań stabilografii statycznej w diagnostyce medycznej i rehabilitacji stwarza wprowadzenie biologicznego sprzężenia zwrotnego do schematu badań. W tym przypadku, stanowisko do badań uzupełnione jest o dodatkowy monitor komputerowy. Ekran ten - umieszczony na wysokości wzroku pacjenta - służy do wyświetlania bodźca wzrokowego. Zadaniem pacjenta jest wówczas takie przemieszczanie własnego punktu COP (wyświetlanego również na ekranie), aby nadążał on za poruszającym się bodźcem bez odrywania stóp od płaszczyzny platformy. Koncepcja ta znacząco zwiększa możliwości diagnostyczne. Może być także stosowana w procesie rehabilitacji układu kostno-mięśniowego dolnej partii ciała. Prace w tym drugim zakresie prowadzone są od kilku lat w Instytucie Elektroniki Politechniki Śląskiej [4]. Stan... więcej»

Badanie struktur sensorowych na bazie tlenku cynku na oddziaływanie z wybranym środowiskiem gazowym (Przemysław Struk, Tadeusz Pustelny, Krystyna Gołaszewska, Michał A. Borysiewicz, Anna PIOTROWSKA)
Zagadnienie monitorowania stężenia gazów, przede wszystkim gazów niebezpiecznych jest ciągle poważnym zagadnieniem technicznym. Nowatorskie rozwiązania poszukiwane są zarówno dla ochrony atmosfery, bowiem jej skażenia groźne dla zdrowia i życia ludzkiego są istotnym problemem społecznym w aglomeracjach przemysłowych, jak i dla analizowania środowiska gazowego podczas trwania procesów technologicznych w zakładach przemysłowych. W układach sensorowych, czułych na wybrane środowisko gazowe, jako warstwy czynne stosowane są między innymi materiały o szerokiej przerwie energetycznej, takie jak tlenek cynku [1, 2]. ZnO jest półprzewodnikiem przezroczystym dla fali elektromagnetycznej z zakresu widzialnego i około widzialnego [3, 4], a jego przerwa energetyczna wynosi ok. Eg ~ 3,4 eV [5, 6]. Przedstawione w niniejszym artykule badania dotyczą struktur sensorowych na bazie ZnO, czułych na obecność dwutlenku azotu NO2, pracujących w układach optoelektronicznych. Niewątpliwą zaletą optoelektronicznych struktur sensorowych jest ich odporność na zakłócenia elektromagnetyczne [7]. Eksperyment Stanowiska pomiarowe Badania eksperymentalne odpowiedzi warstw sensorowych tlenku cynku poddanych oddziaływaniu środowiska gazowego zostały przeprowadzone z wykorzystaniem spektrof... więcej»

Wieloparametryczna klasyfikacja właściwości użytkowych biopaliw ciekłych – głowica współpracująca z optrodami kapilarnymi (Michał Borecki, Jerzy Kalenik, Paweł Pszczółkowski, Emilia Ciupa, Mariusz Duk, Michael Korwin -Pawłowski, Jarosław Frydrych )
Biopaliwa ciekłe obecnie występują najczęściej w postaci mieszanin przetworzonych i nieprzetworzonych cieczy pochodzenia roślinnego z cieczami otrzymanymi z paliw kopalnych (ropa naftowa). Ze względów ekologicznych obecnie bardzo interesującą grupę stanowią mieszaniny (BDF - Bio-Diesel Fuel) olejów napędowych (DF - Diesel Fuel) z estrami metylowymi (FAME - Fatty Acid Methyl Ester) lub olejem rzepakowym [1]. Należy zauważyć, że oleje napędowe są skomplikowanymi mieszaninami węglowodorów parafinowych, naftenowych, aromatycznych oraz ich pochodnych o liczbie atomów węgla w cząsteczce 11…25. Dla porównania nieprzetworzony olej rzepakowy ma cząsteczki zawierające do 57 atomów węgla a FAME do 23 atomów węgla [2], wobec czego biopaliwa ciekłe mogą charakteryzować się innymi parametrami niż paliwa klasyczne [3] - tab. 1. Skład węglowodorowy DF zależy przede wszystkim od charakterystyki ropy i od zastosowanych procesów rafineryjnych. Głównymi komponentami oleju napędowego są destylaty atmosferyczne z ropy naftowej, a także frakcje uzyskane w katalitycznych procesach rozkładowych. Paliwa handlowe zawierają niewielkie ilości wielopierścieniowych węglowodorów aromatycznych. Komponenty z destylacji pierwotnej zawierają przeważnie układy 2-3- pierścieniowe, zaś z procesów rozkładowych 4-6-pierścieniowe. Oleje napędowe zawierają także liczne dodatki uszlachetniające, które można podzielić na dwie grupy: działające w systemie dystrybucji paliwa, lub działające w układzie paliwowym i silniku. Do pierwszej grupy należą: depresatory, inhibitory korozji, deemulgatory, dodatki przeciwpienne, dodatki przeciwstarzeniowe i biocydy. Do drugiej grupy zalicza się: detergenty, dodatki zwiększające liczbę cetanową, dodatki poprawiające proces spalania, dodatki smarnościowe, barwniki i znaczniki. Obecnie do szybkiej oceny właściwości użytkowych paliw dla silników wysokoprężnych stosowane są sensory lepkości. Niestety, biorąc pod uwagę skomplikowany... więcej»

Drodzy Czytelnicy (Anna Piotrowska)
Biezacy numer Elektroniki przynosi zbiór artykuółw z IV Konferencji Sprawozdawczej Projektu Innowacyjne technologie wielofunkcyjnych materiał ów i struktur dla nanoelektroniki, fotoniki, spintroniki i technik sensorowych. (InTechFun) realizowanego w ramach Programu Operacyjnego Innowacyjna Gospodarka w latach 2009 - 2013. Wzorem ubiegyłch lat, sprawozdawane prace byył przedstawione w czasie dwu - dniowej Sesji Specjalnej na XI. Krajowej Konferencji Elektroniki w Darółwku Wschodnim (11 - 14.06.2012 r.). Ta forma sprawozdawczosci zdaje sie najlepiej sułzyc szerokiemu upowszechnianiu wiedzy zarówno o wynikach naukowych Projektu InTe... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Wybrane problemy wizyjnej analizy parametrów geometrycznych oraz właściwości powierzchniowych próbki dla oceny typu koksu metodą Gray-Kinga (Jerzy Zając, Marcin Karliński, Wiesław Małkiński)
W artykule przedstawiono wybrane problemy wizyjnej analizy parametrów próbki dla oceny typu koksu metodą Gray-Kinga. Metodę analizy typu koksu, która została zaimplementowana w analizatorze, określa norma [5]. Oznaczanie typu koksu, będącego produktem spiekania dokonuje się dotychczas na podstawie wizualnej oceny jego kształtu, poprzez porównanie z kształtami wzorcowymi, a także na podstawie oceny właściwości fizycznych koksu (kruchość, łamliwość, liczba kawałków, na które ulega on rozpadowi przy niewielkim obciążeniu, twardość, charakter przełomu, dźwięk wydawany przy pocieraniu itp.). Ocena taka, zwłaszcza w części wizualnej jest w dużej mierze szacunkowa i zawiera w sobie szereg czynników subiektywnych. Opracowany analizator umożliwia uzyskanie dobrej powtarzalności oraz niezawodności kontroli poprzez wprowadzenie oceny ilościowej oraz wyeliminowanie czynników subiektywnych w trakcie badania. Oprogramowanie analizatora zrealizowane zostało w zintegrowanym środowisku wizyjnym eVision firmy Euresys, przeznaczonym do akwizycji, przetwarzania i analizy obrazów. Odniesienie do norm Metodę oznaczania typu koksu, kształt i wielkość próbek oraz sposób ich przygotowania określa norma [5]. Zasada metody polega na równomiernym ogrzewaniu próbki węgla o masie 20 g do temperatury 600ºC w znormalizowanych warunkach (jeśli zachodzi potrzeba, z dodatkiem substancji inertnych) i oznaczaniu typu otrzymanego koksu przez porównanie go z wzorcową skalą typów koksu. Typ otrzymanego koksu ustala się przez porównanie go ze skalą wzorców w przedziale od A do G (rys. 1). System akwizycji obrazów Na rysunku 2 przedstawiono schemat ideowy analizatora. Układ akwizycji obrazu składa się z kamery z obiektywem połączonej z komputerem PC oraz zestawu oświetlaczy. Kamera umieszczona jest na statywie umożliwiającym zmianę odległości przedmiotowej w zakresie 200…420 mm. Rys. 1. Wzorce typów koksu według normy PN-84 G-04519 (wzorce zbinaryzowa... więcej»

Ocena chropowatości powierzchni tlenku indowo-cynowego (ITO) (Aneta Araźna, Grażyna Kozioł, Kamil Janeczek, Konrad Futera, Wojciech Stęplewski)
Tlenek indowo-cynowy (ITO) naparowywany na szkło lub folię jest szeroko stosowany w wielu urządzeniach optoelektronicznych, takich jak ogniwa słoneczne, czy polimerowe ogniwa emitujące światło. W ostatnich latach ITO jest również jednym z najczęściej używanych materiałów na anodę do produkcji struktur organicznych diod LED (Organic Light-Emitting Diodes - OLED). Charakteryzuje się on niską rezystancją powierzchniową (10…100 Ω/□), wysoką pracą wyjścia (4,1…4,8 eV), dobrą przeźroczystością (wyższą niż 90% przy 550 nm) oraz wysoką stabilnością chemiczną. Jest on łatwo dostępny i może być łatwo nanoszony na podłoża przy użyciu technik litograficznych [1-6]. W strukturach diod OLED anoda ITO jest w bezpośrednim kontakcie z funkcjonalnymi warstwami organicznymi - warstwą przenoszącą dziury HTL (ang. Hole Transport Layer), czy warstwą emitująca światło EML (ang. Emissive Layer). Warstwy te nanoszone są bezpośrednio na anodę. Poprawa kontaktu pomiędzy ITO/HTL i ITO/EML jest więc bardzo ważna. Może być ona zrealizowana między innymi przez modyfikację powierzchni anody, która prowadzi do zwiększenia funkcji pracy ITO (poprzez usuwanie z jego powierzchni węgla, tworzenie na powierzchni dipoli lub zmianę w poziomach Fermiego), a tym samym poprawy właściwości struktury OLED. Popularnymi metodami modyfikacji powierzchni ITO są: trawienie promieniami ultrafioletowymi w atmosferze ozonu UVO (an... więcej»

Wieloprocesorowy system kontrolno-pomiarowy analizatora NDIR (Zbigniew Rudolf, Marek Orzyłowski, Krzysztof Jasek)
Kontrola jakości paliw stałych powinna obejmować badania ich kaloryczności oraz zawartości substancji, które w procesie spalania wytwarzają produkty zanieczyszczające środowisko. Dlatego też badania jakości paliw, przeprowadzane w kopalniach oraz elektrowniach i elektrociepłowniach, obejmują przede wszystkim pomiar zawartości węgla i siarki. W wyniku spalania paliw stałych w Polsce powstaje rocznie ok. 15 mln. ton popiołów. Zależnie od składu mogą one być stosowane jako dodatki do betonów i konstrukcji drogowych, poprawiając ich parametry i eliminując kłopotliwe składowanie niewykorzystanych popiołów. Utylizacja popiołów do wspomnianych celów wymusza również badania ich składu, zwłaszcza pod kątem zanieczyszczeń węglem oraz związkami siarki. Niniejszy artykuł dotyczy opracowania automatycznego analizatora zawartości węgla i siarki w popiołach i paliwach stałych, który bazuje na analizie składu produktów ich spalania. W wyniku spalania próbki węgla lub popiołu uzyskuje się gazy, w których mierzy się zawartość CO2 oraz SO2. Do przemysłowych pomiarów stężeń CO2 i SO2 powszechnie stosuje się analizatory NDIR (ang. Non-Dispersive-InfraRed) działające na zasadzie absorpcji promieniowania podczerwonego [1, 2]. Charakteryzują się one dużą selektywnością i trwałością. Analizatory NDIR mogą zawierać różnego typu detektory promieniowania, a do najczęściej stosowanych należą optopneumatyczne i piroelektryczne. W Instytucie Tele- i Radiotechnicznym przy współpracy z Wojskową Akademią Techniczną, w poprzednich latach został opracowany analizator zawartości węgla i siarki w paliwach stałych, działający na wspomnianej zasadzie [2], w którym obróbka sygnału następowała na drodze analogowej. Obecnie trwają prace nad nowym analizatorem NDIR zawartości węgla i siarki w popiołach, przeznaczonych do wykorzystania także w budownictwie. W porównaniu z poprzednio opracowanym analizatorem charakteryzuje się on dodatkowo niższymi zakresami pomiaru st... więcej»

Sol-gel and ALD antireflection coatings for silicon solar cells (Leszek Adam Dobrzański, Marek Szindler)
The application of one or more antireflection coatings on the front surface of the solar cells reduces the reflection of the incident light, which increases the device efficiency. For solar cells it is important to have a minimum reflection over all the visible spectrum range [1]. The studies of solar cells can be divided into two approaches. One is to reduce production costs, the second is to increasing efficiency of solar cells. The design of low-cost antireflection coatings is possible by using the sol gel method. It is a process for preparing materials at low temperatures from solutions. We can produce different forms of materials include gels, gel-derived glasses, ceramics in form of nano- and micro-powders, bulk, fibres, thin films and coatings as well as more recent materials such as hybrid organicinorganic materials and composites. Controlling of the physical and chemical parameters of production process gives materials with precisely adjusted parameters such as mechanical strength, transparency, size and distribution of the pores. Generally the sol gel method consists in a few steps as shown in Fig. 1 [2-4]. There are many kinds methods of deposition antireflection coatings from solutions. For example, by spinning, dipping or spraying. Spin coating is a fast and easy method to prepare thin and homogeneous organic and inorganic films. Spin coating is a procedure used to deposit uniform thin films onto fla... więcej»

System zabezpieczeń w urządzeniu do automatycznej kontroli filtrów przeciwzakłóceniowych (Tadeusz KOZŁOWSKI, Kazimierz STROJNY)
System kontroli filtrów typ SKF-11 (rys. 1) przeznaczony jest do automatycznego sprawdzania parametrów elektrycznych, segregacji i znakowania filtrów przeciwzakłóceniowych. Urządzenie obsługiwane jest (w trybie pracy automatycznym) przez 1. operatora, którego rola sprowadza się do układania na transporterze wejściowym filtrów do badania oraz zdejmowania filtrów spełniających kryteria jakości, z transportera wyjściowego po badaniu i znakowaniu. Filtry nie spełniające wymagań (braki) są segregowane i automatycznie wrzucane do odpowiednich pojemników. System sterowania urządzenia składa się z 3 sterowników PLC lokalnych oraz komputera sterującego pełniącego rolę "mastera". Komputer sterujący również wykonuje i zarządza pomiarami parametrów elektrycznych filtrów. Sterowniki lokalne sterują poszczególnymi zespołami urządzenia: ● zespołem karuzeli pomiarowej, ● zespołem podawania filtrów, ● zespołem segregacji i znakowania. Komunikacja w systemie sterowania odbywa się poprzez sieć Ethernet z protokołem Modbus TCP/IP. W przypadku awarii podsystemu podawania filtrów do badania, możliwa jest praca z ręcznym wkładaniem filtrów w głowice pomiarowe, pozostała część ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Wpływ parametrów sitodruku na geometrię przedniej elektrody metalicznej ogniwa fotowoltaicznego (Kazimierz Drabczyk, Piotr Panek, Paweł Zięba)
Fotoowltaika - także w naszym kraju - zaczyna być postrzegana, jako alternatywne źródło energii odnawialnej [1]. Ogniwa słoneczne są coraz popularniejszym źródłem energii elektrycznej [2, 3]. Do wzrostu popularności ogniw słonecznych przyczynił się między innymi stały spadek cen. Jednym ze sposobów na podniesienie sprawności przy jednoczesnym obniżeniu kosztów produkcji pojedynczego ogniwa fotowoltaicznego jest dalsze dopracowywanie procesu wytwarzania przedniej elektrody metalicznej. Nowoczesna elektroda przednia to taka, która z jednej strony w jak najmniejszym stopniu zakrywa przednią (aktywną) powierzchnię ogniwa, a z drugiej strony pozwala na dalszą redukcję ilości materiału potrzebnego do jej wytworzenia. Zmniejszenie powierzchni elektrody przyczynia się do wzrostu jego sprawności konwersji energii, mniejsza powierzchnia elektrody to mniejsze zacienienie oraz zmniejszenie obszaru pod elektrodą, dla którego rekombinacja jest bardzo wysoka. Nie bez znaczenia jest także aspekt ekonomiczny. Przy produkcji wielkoseryjnej każda oszczędność materiału przekłada się na spadek ceny gotowego ogniwa. Biorąc pod uwagę obecne ceny past metalicznych na bazie srebra, zyski mogą być tym większe im większa jest skala produkcji. Tym samym inżynieria kontaktu przedniego ogniwa jest nadal interesującym problemem badawczym z zakresu technologii ogniw słonecznych. Prace doświadczalne W niniejszej pracy przedstawiono wyniki badań dotyczących wytwarzania przedniej elektrody metalicznej krzemowego ogniwa słonecznego metodą sitodruku. Prace badawcze skoncentrowano na takiej modyfikacji parametrów mechanicznych procesu s... więcej»

An energy-aware topology control in wireless sensor network (Marcin Wawryszczuk )
Wireless sensor networks have become an emerging technology that has an incredibly wide range of prospective. Typically, a network consists of a large number of nodes, distributed over some specific area and organized into multi hop system. The node of wireless sensor network is simple device equipped with control unit, communication unit, sensing unit and power supply. The power supply is usually a small, low capacity battery which is very hard to replace. It makes the energy factor of the sensor node a crucial one. This fact imply that the power supply of a node should be managed very carefully, to achieve longer life of the node. In the opposite to the energy conservation are often the objectives, which the network has to fulfill. Energy efficient topology control means to allow the network conserves the energy and keep the network performance on acceptable level. The topology control can be broadly categorized into any of the two approaches. First is called the nodes activity control. The basic idea of this group of methods is to maintain a small subgroup of nodes operative, while the rest of nodes go into sleep mode. The other methods are called sleep/wakeup algorithms. The nodes with implemented sleep/wake-up algorithm stay active for a small period of time and then turn into sleep mode, where the communication, sensing and control units are deactivated. Related work Much of the related research are addressed to WSN that are dense, battery powered and self configured. Because of these requirements, most of the author are concentrated on finding solution at various levels of the communication protocol, including extremely energy efficient aspects [1]. Some of the most popular solutions in energy effective topology control are GAF, SPAN, ASCENT, STEAM, SWP. Comparing the methods described above, GAF and SPAN can reduce the energy consumption 3 times [2], ASCENT more than 5 times [2]. In group of sleep/wakeup methods, the... więcej»

Plazmonika w fotowoltaice - próby aplikacji (ZBIGNIEW Starowicz, MAREK Lipiński)
Fotowoltaika jest dynamicznie rozwijającą się dziedziną nauki i przemysłu o ogromnym potencjale. Aby fotowoltaika stała się powszechnym i opłacalnym źródłem energii elektrycznej, potrzebna jest wysoka sprawność ogniw słonecznych oraz redukcja jej kosztów pozyskania - np. koszty materiałowe. Potrzeba znacznej redukcji grubości ogniw doprowadziła do rozwoju technologii cienkowarstwowych ogniw, które mają nieco niższą sprawność niż "grube" ogniwa krzemowe. W przypadku ogniw cienkowarstwowych nie ma możliwości wytworzenia tekstury w celu lepszego pułapkowania światła, gdyż geometryczne rozmiary charakterystycznych piramid przekraczają całkowitą grubość ogniwa. Dlatego też duże nadzieje związane są z plazmoniką, która dostarcza odpowiednich metod pozwalających uzyskać zwiększenie absorpcji światła w półprzewodniku. Plazmonika to stosunkowo nowa dziedzina nauki i techniki zajmującą się związaniem światła, w strukturach metalicznych w skali nano. Zachodzi tu wiele ciekawych zjawisk, które mogą być zaaplikowane w wielu różnych dziedzinach. W przypadku fotowoltaiki nanocząstki metali reagując ze światłem mogą powodować rozpraszanie go w kierunku podłoża pod różnymi kątami wydłużając przy tym długość drogi optycznej lub wspomagać generację nośników, dzięki oddziaływaniu bliskiego pola wokół cząstek [1]. Ich właściwości zmieniają się w szerokim zakresie, co pozwala dostosować je do każdego rodzaju ogniw [2]. Poszukuje się także nowych łatwiejszych i tańsz... więcej»

Charakterystyka optoelektroniczna wysokosprawnych ogniw słonecznych na bazie krzemu krystalicznego otrzymywanych w procesie kwasowej teksturyzacji powierzchni (Grażyna Kulesza, Piotr Panek, Paweł Zięba)
Teksturyzacja powierzchni krzemu jest jednym z kluczowych elementów produkcji ogniw słonecznych. Przeprowadzana jest w celu usunięcia warstwy zdefektowanej i wytworzenia mikrostruktury powierzchni zatrzymującej promieniowanie słoneczne wewnątrz materiału poprzez wielokrotne odbicie. Teksturyzacja chemiczna jest szeroko stosowana w sektorze PV ze względu na jej niski koszt [1]. Również ze względu na redukcję kosztów stosowany jest tańszy krzem multikrystaliczny (mc-Si). Płytki mc-Si trawione są tylko w roztworach kwasowych, ponieważ wówczas teksturyzacja przebiega izotropowo, przez co nie generują się niekorzystne uskoki na granicach ziaren. Dodatkowo usuwanie warstwy zdefektowanej i teksturyzacja odbywają się w jednym etapie [3, 4]. Teksturyzacja powierzchni odbywa się w roztworach kwasowych na bazie HF i HNO3 z zastosowaniem odpowiednio dobranego rozpuszczalnika. Skład roztworu dobierany jest na podstawie trójkąta stężeń w układzie HF-HNO3- rozpuszczalnik (rys. 1). Celem pracy było zbadanie zależności stosunku objętościowego HF/HNO3, jak i wpływu stosowanego rozpuszczalnika na zmianę morfologii powierzchni krzemu multikrystalicznego, która skutkować będzie w optymalnych parametrach optoelektronicznych wytworzonych ogniw słonecznych. CH3COOH i wodę dejonizowaną. W celu umożliwienia porównania wpływu stężenia kwasów zawartych w roztworze stężenie rozpuszczalnika pozostało niezmienne i wynosiło 20% objętości całego roztworu. Czas procesu wynosił 60 sekund. Jako próbkę ... więcej»

Obliczenia cieplne urządzeń elektronicznych (Grzegorz Maj)
Do prawidłowej pracy każdego urządzenia elektronicznego niezbędne jest zapewnienie mu odpowiednich warunków cieplnych tak, aby temperatura nie przekraczała maksymalnej wartości dopuszczalnej przez producenta. Ponieważ, wraz ze wzrostem temperatury niezawodność elementów elektronicznych szybko maleje, często pożądane jest zapewnienie korzystniejszych warunków termicznych niż wymaga producent. Trwałość i jakość urządzeń elektronicznych zależy więc od skuteczności odprowadzania ciepła, co jest jednym z zadań osoby konstruującej urządzenie - dobór odpowiedniego chłodzenia. Obecnie konstruktorzy mają do wyboru wiele rozwiązań umożliwiających skuteczne odprowadzania ciepła z układów. Są to chłodzenie cieczowe, ogniwa Peltiera, chłodzenie dwustanowe (rurki cieplne) itp. Jednak z wielu względów nadal najbardziej rozpowszechnioną i najczęściej wykorzystywaną w elektronice metodą chłodzenia, jest metoda odprowadzania ciepła przy wykorzystaniu różnego rodzaju radiatorów, zarówno bez jak i z wymuszonym obiegiem powietrza. Metoda ta jest najtańsza, najprostsza i najbardziej niezawodna, dlatego w dalszej części artykułu zostaną dokładniej omówione metody obliczeń i doboru radiatorów. Ciepło wydziela się na elementach elektronicznych w postaci mocy strat. Radiator musi umożliwiać wypromieniowanie, co najmniej mocy równej tejże mocy strat. W przypadku, gdy istnieje możliwość doboru radiatora kupnego zazwyczaj wystarczy przeprowadzić uproszczone szacunki na podstawie następującego wzoru: (1) gdzie: P [W] - moc wydzielająca się podczas pracy elementu w postaci ciepła; t [K] - temperatura złącza elementu; t 0 [K] - temperatura otoczenia rozpatrywanego elementu; Rthja [K/W] - rezystancja cieplna "połączenia" złącze - otoczenie (junctionambient). Wielkość rezystancji cieplnej Rthja charakteryzuje konkretną obudowę elementu pod względem przewodzenia ciepła. Podawana jest ona zazwyczaj w kartach katalogowych producentów podzespołów elektroniczn... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Dwuwymiarowe kryształy fotoniczne jako elementy aktywne spektroskopowych czujników gazów (Marcin WIELICHOWSKI, Adrian ZAKRZEWSKI, Sergiusz PATELA)
Optyczna detekcja gazów możliwa jest dzięki oddziaływaniu światła z ośrodkiem gazowym. Obecność molekuł gazu podlegającego detekcji zmienia właściwości fizyczne ośrodka (np. powietrza). Interesujące z punktu widzenia optycznej detekcji gazów, zmieniające się właściwości fizyczne powietrza, to optyczny współczynnik załamania i optyczny współczynnik absorpcji. O ile zmiany współczynnika załamania manifestują się niezależnie od długości fali światła, o tyle zmiany absorpcji zachodzą tylko dla ściśle określonych zakresów długości fali (piki absorpcji). Ponieważ selektywność ze względu na długość fali przekłada się na selektywność ze względu na rodzaj wykrywanego gazu, w praktyce wykorzystuje się przede wszystkim zmiany współczynnika absorpcji. Absorpcyjne pomiary stężenia gazów to część rozległej, dobrze opanowanej dziedziny - spektroskopii absorpcyjnej. Oprócz selektywności, istotną cechą detekcji optycznej w czujnikach jest brak konieczności chemicznego oddziaływania wykrywanego gazu ... więcej»

Opracowane w ITE krzemowe detektory cząstek do międzynarodowych badań nad transaktynowcami (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Rugard DRESSLER, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrzej PANAS, Jerzy SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Alexander YAKUSHEV, Michał ZABOROWSKI)
Transaktynowce - najcięższe pierwiastki chemiczne (liczba atomowa większa od 103), nie występujące w przyrodzie, otrzymywane w wyniku reakcji jądrowych, są przedmiotem badań w wielu ośrodkach światowych, z których najważniejszymi są: ● Lawrence Berkeley National Laboratory w Berkeley, w USA (BNL), ● Zjednoczony Instytut Badań Jądrowych w Dubnej w Rosji (ZIBJ), ● GSI Helmholtzzentrum für Schwerionenforschung GmbH w Darmstadt w RFN (GSI). W 2004 roku Instytut Technologii Elektronowej nawiązał współpracę z Institut für Radiochemie - Technische Universität München (IR TUM) w dziedzinie detektorów do badań nad transaktynowcami. Na zamówienie i we współpracy z IR TUM opracowano i wykonano w ITE 4 typy 64-elementowych matryc chromatograficznych (64 x 100 mm2) nazwanych TUM1/Al i TUM1/Au, oraz TUM2/SiO2, TUM2/Au do opracowanego tam systemu detekcyjnego COMPACT (Cryo On-line Multidetector for Physics And Chemistry of Transactinides) przeznaczonego do międzynarodowych badań, prowadzonych głównie w GSI. Matryce TUM1 i TUM2 stosowano w badaniach nad otrzymywaniem i właściwościami hasu (symbol Hs, liczba atomowa 108). Kolejne 2, zmodyfikowane typy (TUM4/SiO2, TUM4/Au) opracowano i wykonano dla GSI. Matryce TUM4 stosowano w badaniach nad pierwiastkiem 114, a obecnie stosowane są do pierwszych na świecie badań nad pierwiastkiem 119 i 120. Bardzo dobre rezultaty, uzyskane w badaniach hasu, przy zastosowaniu matryc TUM1, spowodowały zainteresowanie Paul Scherrer Institut - Villigen - Szwajcaria (PSI) detektorami ITE. Na zamówienie i we współpracy z PSI opracowano i wykonano w ITE... więcej»

Badania nad wpływem domieszek metali szlachetnych na widma XPS trójtlenku wolframu (Patrycja SUCHORSKA, Helena TETERYCZ, Patryk HALEK, Grzegorz HALEK, Kamil WIŚNIEWSKI, Dominika OLEŚ, Olga Rac, Marta FIEDOT)
Intensywny rozwój urbanizacji, a w konsekwencji również przemysłu, przyczynił się do nieuniknionego wzrostu emisji gazów do atmosfery. Konieczny jest więc stały ich monitoring przy użyciu specjalistycznych czujników. Obecnie dużym zainteresowaniem cieszą się rezystancyjne czujniki gazów. Kluczowym elementem ich budowy jest warstwa gazoczuła. Skład warstwy dobierany jest w zależności od rodzaju wykrywanego gazu. Najczęściej stosuje się tlenkowe materiały o właściwościach półprzewodnikowych, takie jak SnO2, ZnO czy WO3. Czujniki oparte na tego typu materiałach można stosować do detekcji, np. CO, NOx, H2S [1-3]. Jednym z problemów, który od wielu lat nie jest rozwiązany, jest niezadowalająca selektywność czujników. Inną kwestią jest wpływ wilgotności na parametry sensora. W celu poprawy selektywności stosuje się różne domieszki, m.in. metali szlachetnych takich jak: złoto, platyna czy pallad [4-5]. Mimo wielu prac, nadal w zadowalający sposób nie wyjaśniono mechanizmu wpływu tych pier... więcej»

Znaczenie i uwarunkowania rozwoju technologii mikro- i nanoelektronicznych w Polsce (Piotr Grabiec)
Podczas, gdy pierwsza połowa XX wieku zdominowana była przez dwie kolejne wojny światowe, rewolucje, zmiany granic i tworzenie nowego ładu politycznego, druga połowa stanowiła okres niesłychanie intensywnego rozwoju technologicznego. Na przestrzeni lat próbowano tworzyć rożne etykiety wskazujące najważniejsze siły napędowe rozwoju technologicznego i cywilizacyjnego w XX wieku. Z perspektywy pierwszych lat XXI w. bez wątpienia możemy stwierdzić, że druga połowa ubiegłego stulecia zasłużyła na nazwę wieku mikroelektroniki. Produkcja samego tylko światowego przemysłu półprzewodnikowego, startując od zera w połowie wieku dwudziestego, osiągnęła w roku 2004 poziom 250 mld Euro. Globalna wartość rynku systemów elektronicznych i usług opartych i wykorzystujących mikroelektronikę przekraczała kwotę 6 000 000 000 000 euro, natomiast liczba tranzystorów sprzedanych w samym tylko roku 2003 przekroczyła (według szacunków firmy INTEL) niewyobrażalną wielkość 1 000 000 000 000 000 000 sztuk. Jak do tego doszło? Początek historii elektroniki datowany jest różnie. Zanim jednak sięgniemy do historii tej dziedziny musimy pokusić się o zdefiniowanie, o czym właściwie mówimy, czym jest elektronika. Z precyzją wystarczającą dla potrzeb tego artykułu, za definicję elektroniki można przyjąć, iż jest to dziedziną nauki i techniki zajmującą się wytwarzaniem i przetwarzaniem sygnałów w postaci prądów i napięć elektrycznych lub pól elektromagnetycznych. Innymi słowy, elektronika oparta jest na wykorzystaniu ruchu elektronów, wytwarzanych w ich efekcie pól elektromagnetycznych oraz wzajemne ich oddziaływanie. Jeżeli tak zdefiniujemy elektronikę, to za najwcześniejszą datę w historii dziedziny można przyjąć rok 1882, kiedy to Thomas Alva Edison, próbując ulepszyć żarówkę, odkrył iż siatka metalowa, którą owinął żarnik żarówki zyskuje w czasie jej pracy pewien ładunek elektryczny. Odkrył on w ten sposób zjawisko termoemisji. Prace nad praktycznym wykorzy... więcej»

Modelowanie wpływu zmian temperatury ośrodka na wyniki pomiarów modyfikowaną metodą korelacyjną (Paweł KOMADA, Sławomir CIĘSZCZYK, Waldemar WÓJCIK)
Pomiary stężeń gazów dla małych ich wartości wymagają zwykle wydłużenia ścieżki optycznej. W dostępnych komercyjnie spektroskopach o zamkniętej ścieżce optycznej realizowane jest to poprzez wielokrotne odbicia sondującego promieniowania, a poddawana analizie próbka gazowa ma niewielką objętość, a przez to również stałą wartość stężenia, temperatury i ciśnienia. Inna sytuacja ma miejsce w przypadkach pomiarów dla otwartej ścieżki optycznej [1, 4]. Z taką sytuacją można spotkać się przy kontroli stanu gazów wewnątrz kotłów energetycznych, np. pomiarach składu warstwy przyściennej. W takich przypadkach na ścieżce pomiarowej mogą występować zmienne warunki, np. temperaturowe [2]. Na kształt linii pochłaniania danego gazu mają wpływ różne czynniki środowiskowe (ciśnienie, temperatura, obecność innych gazów w mieszaninie). Metody pomiarowe różnią się między sobą m.in. tym, jakie parametry linii absorpcyjnych (amplituda, pole pod krzywą, szerokość spektralna itp.) poddawane są analizie. Stąd istnienie niehomogeniczności wzdłuż ścieżki pomiarowej dla pomiarów tego typu ma wpływ na uzyskiwane wyniki w zależności od wykorzystywanej metody pomiarowej [1]. Jedną z metod, która jest dość atrakcyjna do zastosowania w pomiarach składu gazów w przemysłowych kotłach energetycznych, jest modyfikowana metoda korelacyjna [5]. Jej główną zaletą jest możliwość uniezależnienia wyni... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Rewizja i modernizacja systemu GMDSS (Jerzy Czajkowski )
W roku 2012 - mija 13 lat od daty pełnego wdrożenia Światowego Morskiego Systemu Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global Maritime Distress and Safety System) - zastępując wysłużony, działający od 1895 roku system oparty na telegrafii Morse’a. System GMDSS - rozpoczął działanie 01.02.1992 r. i po siedmioletnim okresie wdrożenia (działając równolegle ze starym systemem radiotelegrafii Morse’a) - 01.02.1999 roku stał się jedynym systemem zapewniającym bezpieczeństwo i alarmowanie na morzach i oceanach świata. Stosuje się go obowiązkowo na wszystkich statkach towarowych podlegających Konwencji SOLAS, tj. o wyporności 300 ton i powyżej oraz na wszystkich statkach pasażerskich odbywających żeglugę międzynarodową. Wybrane podsystemy składowe mogą być instalowane nieobligatoryjnie na jednostkach pozakonwencyjnych (tzw. non-SOLAS ship) - statkach rybackich, jachtach, holownikach, itp. Pomimo olbrzymiego postępu w zakresie podnoszenia bezpieczeństwa żeglugi na morzu, jaki niesie ze sobą system GMDSS nie zlikwidował on w okresie swojego działania wypadków i tragedii na morzu. W szczególności dotyczy to wspomnianych jednostek pozakonwencyjnych, gdyż jak wynika ze statystyk światowych - 90% akcji ratowniczych na morzu jest podejmowanych przez morskie centra koordynacji ratownictwa właśnie w odniesieniu do nich. System musi być zmodernizowany i unowocześniony, bowiem niektóre techniki i technologie już w momencie jego tworzenia były przestarzałe. Taka konieczność rewizji i unowocześnienia systemu pojawiła się w dokumencie COMSAR-2009- 13/7/2. Planowanie systemu odbyło się ok. 25 lat temu. W tym czasie wiele się zmieniło, w wyniku postępu w telekomunikacji, tak więc należy dokonać niezbędnych modyfikacji, a właściwie wprowadzenia istotnych zmian w systemie GMDSS. Gwałtowny rozwój cyfrowych technik spowodował nieprzewidywalne wcześniej zmiany na rynku morskiego sprzętu radiokomunikacyjnego. Także błąd popełniony pr... więcej»

Digital signal processing in the diagnosis of brainstem auditory evoked potentials (Andrzej P. Dobrowolski, Michał Suchocki, Kazimierz Tomczykiewicz)
Examination of evoked potentials (EP) is one of the methods for diagnosing a human brain. This examination allows for monitoring and registering bioelectrical activities of the brain. By using EP one can examine sight and hearing and evaluate responses to different stimuli that activate different parts of the brain. This article is devoted to neurological diagnostics based upon examination of Auditory Evoked Potentials (AEP) [1]. The authors explain what evoked potentials are and how important role they play in hearing examination and discuss the current methods for analysis of its results. The major subject of the article is to describe an alternative way of analyzing the survey results, based on digital signal processing. Moreover, it presents problems associated with acquisition of digital recording of auditory evoked potentials and exemplary waveforms of the potentials corresponding to normal and pathological cases as functions of time and frequency. BEAP All brain activities are closely associated with movements of ions and charge polarization. Electric charges that are moving within the nerve structures can be recorded and received in the form of electric potential. If we stimulate a sensory-sensual receptor, we will automatically receive the response in the form of an electrical signal. Evoked potentials are generated this way. Under the influence of acoustic stimuli in the auditory pathway, the ear, which is a sensory receptor (Fig. 1), produces voltage changes, known as auditory evoked potentials. Evoked potentials are according to response time to stimulation that generates the response. In biomedical terminology, the response time is referred to as latency (in technical nomenclature it would be called a delay). We can classify auditory evoked potentials as short, medium or long latency potentials, according to the reaction time. Taking into account their clinical suitability, only Short Latency Auditory Evoked Pot... więcej»

Brain-computer interaction analysis based on EEG signal and gaze-tracking information (Katarzyna Kaszuba, Bożena Kostek)
Recently many studies are carried out in the area of brain-computer interface (BCI) technology. The electroencephalographic signal (EEG) analysis is one of the most common ways of communication between human brain and the computer due to its non-invasive nature and relative user’s comfort. Still using only EEG data does not provide objective reference information about actions performed by the subject examined. Creating a fully functional and effective BCI to control the computer still remains a distant target. The main disadvantage of the most BCI systems is the lack of the feedback information that could be used as a reference. It is impossible to determine, which of the processes currently dominates brain activity. Even if the subject is asked to perform a task, there is no certainty the user paid attention during its realization. On the other hand, the eye-tracking system provides information about the gaze fixation point allowing for evaluating visual activity of the subject. Thus, we assumed that by combining EEG signal measured by a wireless BCI interface with the eye-tracking system registering the subject’s gaze activity we could expect to obtain an integrated brain-computer interface that measures the user’s brain signal in a more effective, and at the same time, a more objective way. At the same time EOG recording system was used to obtain reference data. EOG-based information transfers this knowledge to the EEG signal analysis. In the paper several approaches for signal pre-processing and parameterization were described and then their usability was checked by means of machine-learning algorithms. The main goal expected to be achieved within this study was to evaluate the possibility to develop a functional and user-friendly solution that utilizes abilities of presented systems. System Setup Gaze-Tracking System The Cyber-Eye, a gaze tracking system developed in the Multimedia Systems Department... więcej»

Układ zasilania i sterowania impulsowej diody laserowej z rozłożonym sprzężeniem zwrotnym pracującej w paśmie widmowym bezpiecznym dla wzroku (Wiesław Pichola, Maria Maciejewska, Marcin Mamajek, Jacek Kwiatkowski, Jacek Świderski)
We wczesnych latach 70. lasery pompowane były głównie lampami błyskowymi lub innymi laserami [1, 2]. Koniec lat 80. i lata 90. to okres, w którym zaczęto wykorzystywać diody laserowe jako źródła pompujące lasery ciała stałego i fakt ten zadecydował w ogromnej mierze o ich gwałtownym rozwoju, jaki obserwujemy do dnia dzisiejszego [3-5]. Postęp technologii, opracowanie nowych metod wytwarzania (epitaksja, podwójna epitaksja) nowych materiałów i struktur spowodowały dynamiczny rozwój rozpartywanych źródeł światła. Zastosowanie nowych rozwiązań technologicznych pozwala m.in. na zmniejszenie rezystancji termicznej między złączem a obudową, co skutkuje zwiększeniem mocy z jednostki objętości diody laserowej, podwyższeniem częstotliwości przy pracy impulsowej z dziesiątek kHz do powyżej 100 MHz i skróceniem czasu trwania impulsu poniżej 1 ns. Są to kluczowe parametry dla wielu aplikacji wykorzystujących bezpośrednio lub pośrednio diody laserowe - np. w dalmierzach laserowych, wskaźnikach celów lub układach LADAR [6,7]. Artykuł przedstawia propozycję rozwiązania układowego generatora impulsów prądowych dla diod laserowych z rozłożonym sprzężeniem zwrotnym na przykładzie diody LC25T firmy OCLARO [8], generującej promieniowanie o długości fali 1550 nm. Opracowanie założeń i projekt koncepcyjny zasilacza impulsowej diody laserowej Projektowany zasilacz miał być źródłem energii elektrycznej dla impulsowej diody laserowej typu LC25T firmy OCLARO z możliwością zapewnienia odpowiedniego chłodzenia diody. W tabeli przedstawiono parametry rozpatrywanej diody laserowej, na podstawie których ustalono wymagania w stosunku do jej układ zasilania. Z danych przedstawionych w tab. można wyodrębnić zasadnicze podzespoły projektowanego układu zasilania i określić... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding ’noisy’ directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą ‘VBS & new-cost’ (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski )
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Anode Supported Planar Solid Oxide Fuel Cell (SOFC) – novel design (Barbara Dziurdzia, Zbigniew Magoński, Henryk Jankowski, Jan Koprowski)
Solid Oxide Fuel Cells (SOFCs) are highly efficient energy conversion devices that transform chemical energy to electrical energy through the electrochemical reactions. SOFC consists of two ceramic electrodes (anode and cathode) separated by a dense ceramic electrolyte and it operates at high temperature in the range from 800°C to 1000°C. Oxygen ions formed at the cathode migrate through the ion - conducting electrolyte to the anode/ electrolyte interface where they react with fuel, producing water and releasing electrons that flow through an external circuit to the cathode/electrolyte interface [1-3]. Microstructure of the cathode, anode and electrolyte is important for the proper fuel cell operation. The electrolyte should be dense, gas-tight and ion conducting. The electrodes should be transparent for gases and have good electrical conductivity [4-6]. In a typical planar SOFC design, the cell components are configured as thin, flat plates and metallic or ceramic interconnects serve as gas flow channels and provide the electrical connection between the cells in a stack of cells. The article presents a novel design of the anode-supported high temperature solid oxide fuel cell (SOFC) which differs from the typical planar SOFC design by the multifunctional anode construction. The anode consists of the anode base with embedded fuel distribution channels, manifolds and waste product collectors, and two operating anodes deposited on the both sides of the base. The embedded channels are connected with the outside via inlet for fuel and outlet for the waste products. The operating anodes are permanently bonded with the anode base by sintering. The anode base supports two cells, serves as a common current collector and provides fuel distribution. The anode base and operating anodes are made of commercially available nickel oxide and yttria-stabilized zirconia (Ni/YSZ) green tapes and further components of the cell - electrolyte and ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Spektroskopia pojemnościowa głębokich poziomów defektowych (DLTS) w diodach Schottky’ego z węglika krzemu (4H-SiC) implantowanych jonami (Łukasz Gelczuk, Maria Dąbrowska -Szata)
Węglik krzemu (SiC) jest półprzewodnikiem, który cieszy się niesłabnącym zainteresowaniem ze względu na bardzo korzystne właściwości fizyko-chemiczne, jak: szeroka przerwa energetyczna, duża wytrzymałość na przebicie elektryczne, bardzo dobra przewodność cieplna i wytrzymałość termiczna. Ze względu na te właściwości węglik krzemu jest atrakcyjnym materiałem do zastosowań w przyrządach półprzewodnikowych dużej mocy i częstotliwości, pracujących w warunkach wysokiej temperatury (powyżej 500°C) i wysokiego poziomu radiacji, gdzie klasyczne przyrządy półprzewodnikowe na bazie krzemu czy arsenku galu nie mogłyby funkcjonować. Najbardziej znanymi politypami SiC, obecnie rozwijanymi dla elektroniki, są 3C-SiC o kubicznej strukturze krystalicznej oraz 4H- i 6H-SiC o strukturze heksagonalnej. Wśród nich polityp 4H-SiC charakteryzuje się szeroką przerwą energetyczną (3,2 eV), największą ruchliwością elektronów wśród politypów heksagonalnych (800 cm2/Vs), dużą nasyceniową prędkością dryftu elektronów (2 × 107 cm/s), dużą wartością napięcia przebicia na jednostkę powierzchni (3 MV/cm) oraz dużą przewodnością cieplną (5 W/Kcm) [1]. Niestety, w tego typu materiałach obserwuje się obecność wielu głębokich poziomów defektowych, które mają znaczący wpływ na parametry i charakterystyki struktur przyrządowych wykonanych na bazie węglika krzemu. Głębokie poziomy energetyczne defektów wpływają na czas życia i długość drogi dyfuzji mniejszościowych nośników ładunku, wydajność diod LED i fotodetektorów, wzmocnienie tranzystorów oraz wielkość temperaturowego współczynnika napięcia przebicia złączy p-n. Jest zatem oczywiste, że dalszy rozwój technologii SiC oraz możliwość tworzenia nowych przyrządów półprzewodnikowych wymagają ciągłych badań właściwości elektrycznie aktywnych defektów w warstwach epitaksjalnych SiC, wytwarzanych za pomocą różnych technik epitaksjalnych [2]. Celem tej pracy jest przedstawienie wyników badań i analiza spektralna elek... więcej»

BDD z atrybutem negacji w syntezie ukierunkowanej na elementy XOR (Dariusz Kania, Adam Opara)
Struktury matrycowe CPLD (ang. Complex Programmable Logic Devices) stanowią jedną z grup układów programowalnych. Architektura tych układów obejmuje programowalną matrycę połączeń otoczoną na obrzeżach konfigurowalnymi komórkami logicznymi. Charakterystycznym elementem komórki, występującym w większości układów CPLD jest blok kombinacyjny podobny do struktury PAL. Zawiera on pewną, stałą, czasami zmienną liczbę iloczynów dołączonych do sumy. Tego typu blok zwykle nazywany jest blokiem logicznym typu PAL. Blok ten występuje w większości dostępnych obecnie na rynku układów CPLD. Struktury takie można precyzyjnie nazwać układami CPLD typu PAL, w odróżnieniu od drugiej, obecnie bardzo mało popularnej rodziny układów zwanych układami CPLD typu PLA. Charakterystycznym elementem bloków logicznych zawartych w strukturach CPLD jest bramka XOR. Obecność tego elementu może istotnie wpłynąć na efektywność syntezy, której nadrzędnym celem jest minimalizacja liczby iloczynów. Obecność bramki XOR pozwala na bezproblemową realizację funkcji z warunków działania, bądź niedziałania, umożliwia negację wyrażeń, co bezpośrednio wpływa na możliwość ograniczenia liczby iloczynów niezbędnych do realizacji funkcji. Uogólniona struktura bloku logicznego typu PAL z elementem XOR przedstawiona jest na rys. 1. Klasyczna metoda syntezy układów realizowanych w strukturach CPLD typu PAL, przedstawiona między innymi w pracach [1, 5] rozpoczyna się zwykle dwupoziomową minimalizacją wykonywaną dla każdej funkcji oddzielnie, po której następuje etap odwzorowania technologicznego zminimalizowanej postaci funkcji w k-iloczynowych blokach logicznych typu PAL. W przypadku funkcji, będących sumą p implikantów (p>k), zachodzi potrzeba wykorzystywania większej liczby bloków poprzez wprowadzanie sprzężeń zwrotnych zwiększających czas propagacji sygnału. Tego typu metodologia jest powszechnie wykorzystywana w komercyjnych systemach syntezy. Znane są oczywiście od daw... więcej»

Zastosowanie tomografii komputerowej do oceny jakości mikrostruktur elektronicznych (PRZEMYSŁAW K. MATKOWSKI, Tomasz Fałat)
Mianem tomografii określa się zbiór nieinwazyjnych metod diagnostycznych mających na celu uzyskanie obrazu przedstawiającego przekrój badanego obiektu. W zależności od zjawisk zachodzących podczas projekcji lub zastosowanego strumienia cząstek lub fal przenikających obiekt możemy wyróżnić ultrasonografię (fala ultradźwiękowa), tomografię rezonansu magnetycznego (zjawisko jądrowego rezonansu magnetycznego), pozytonowa tomografia emisyjna (promieniowanie powstające podczas anihilacji pozytonów), tomografia emisyjna pojedynczych fotonów (promieniowanie gamma), optyczna tomografia koherencyjna (wiązka światła o niskiej spójności czasowej i wysokiej spójności przestrzennej), tomografia rentgenowska (promieniowanie rentgenowskie). Niezależnie od wad i zalet poszczególnych metod ich wspólną zaletą jest ich nieinwazyjne działanie, wspólną wadą natomiast bardzo wysoki koszt urządzeń diagnostycznych. Przez wiele lat głównym obszarem zastosowań tomografii była diagnostyka medyczna, w chwili obecnej tomografia, zwłaszcza tomografia rentgenowska coraz częściej stosowana jest w naukach technicznych do nieinwazyjnej diagnostyki przedmiotów i urządzeń technicznych (np. podzespołów elektronicznych, odlewów, spieków). W chwili obecnej najbardziej rozwijaną i jednocześnie najpowszechniejszą techniką tomograficzną jest tomografia komputerowa. Tomografia komputerowa jest rodzajem tomografii rentgenowskiej i polega na rekonstrukcji obrazu z projekcji uzyskanych podczas prześwietlania badanego obiektu wiązką promieni rentgenowskich. W nomenklaturze angielskojęzycznej tomografia komputerowa określana jest skrótem CT (ang. Computer Tomography). Jej nazwa wywodzi się z faktu, iż do obrazowania badanych obiektów stosuje się wysokowydajne systemy komputerowe. Urządzenie do tomografii komputerowej nazywane jest tomografem komputerowym. Podwalinami rentgenowskiej tomografii było odkrycie w 1895 roku przez niemieckiego fizyka Wilhelma Röntgena promieniow... więcej»

Parametry detektorów MSM wykorzystujących heterostruktury GaAsN/GaAs i MQW InGaAsN/GaAs (Iwona Zborowska -Lindert, Beata Ściana, Damian Pucicki, Damian Radziewicz, Bogusław Boratyński ,Marek Tłaczała)
W ostatnich latach zaobserwowano znaczne zainteresowanie rozrzedzonymi azotkami (GaAsN), zarówno z powodu ich właściwości fizycznych, jak i możliwością wykorzystania badanych warstw ze względu na zakres pracy związany z szerokością przerwy energetycznej o wartości ok. 1 eV przy jednoczesnym dopasowaniu do sieci GaAs. Nawet niewielka ilość atomów azotu w sieci krystalograficznej GaAs powoduje zmniejszenie przerwy energetycznej o około 150 meV na 1% azotu dodawanego do związku GaAs. Jednocześnie dodanie atomów azotu zmienia stałą sieci krystalograficznej. Pojawiają się artykuły opisujące technologię i parametry różnego rodzaju przyrządów optoelektronicznych wykorzystujących struktury epitaksjalne rozcieńczonych azotków na przykład lasery [1], heterofototranzystory [2], rozmaite typy fotodetektorów [3, 4] i ogniwa słoneczne [5]. W tej pracy badany jest wpływ parametrów materiałowych na fotoodpowiedź detektorów MSM. Podstawowym problemem związanym z jakością fotodetektorów MSM jest powiązanie jego parametrów z wysokością bariery Schottky’ego kontaktów. W sytuacji, gdy bariera Schottky’ego jest niska, wzrasta prąd ciemny, co znacząco zmniejsza czułość fotodetektora. W pracy badano wartość prądu ciemnego i oceniano, czy jest ona dostatecznie niska, aby fotoodpowiedź MSM na warstwach GaAsN/GaAs i wielostudniach kwantowych (MQW) InGaAsN/GaAs była znacząco wyższa dla fal powyżej krawędzi absorbcji dla warstw GaAs czyli 870 nm. Technologia fotodetektorów MSM Badane fotodetektory MSM wykonane zostały na heterostrukturach rozcieńczonych azotków typu GaAsN oraz MQW InGaAsN/ GaAs wytworzonych w technologii MOCVD. Epitaksja MOCVD Heterostruktury wytworzono na półizolacyjnych podłożach Ga... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju – część 2 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej gabarytowo i ciężkiej aparatury na platformie samochodowej (mobilnej) było praktycznie niemożliwe. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, ogólnie zarówno w płaszczyźnie elewacji, jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można w razie potrzeby dynamicznie regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, rakiety, w tym balistyczne, oraz różnego rodzaju pociski, głównie moździerzowe. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Pojęcie radaru wielofunkcyjnego odnosi się do nowoczesnych systemów radiolokacyjnych, które oprócz "standardowego" określenia współrzędnych położenia wykrywanych celów ruchomych p... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
EMC Aspects in microelectronics structures made in LTCC technology (Wiesław SABAT, Dariusz KLEPACKI, Włodzimierz KALITA)
The fast development of LTCC technology (Low Temeperature Cofired Ceramic) is observed in relation to realization of multilayered hybrid structures. It is applied for manufacturing of wide range of microelectronic circuits, especially MCM-C structures (Multi Chip Module on Ceramics) which are used in different areas of industry. The multilayered structures, sensors, microsystems, passive elements, microwave elements can be found in telecommunication, informatics, radioengineering, mechatronics, transport, etc. The possibility of creation of channels and cavities inside of LTCC module allows to realization of chemical microreactors, hydraulic systems in microscale (together with pumps and valves), fuel cells, flat plasma displays, sensors of physical quantities and systems applied in biotechnology and medicine [1, 2]. Parasitic elements of paths’ system The calculations of mutual capacitance CM and effective inductance Lz (for two parallel paths system with parametrically changed the mutual distance "s" and paths width "w") were made using elaborated PACAPIND program. They allowed to determine range of parameters changes of parasitic elements in typical LTCC structure for three basic configurations. For experimental investigations (determination of per-unitlength parameters) the test circuits were made in configuration of mutual parallel path systems (Fig. 1) on the basis of silver conductive paste HF612Ag and LTCC substrate 943PX from DuPont. The test circuits were made in three configurations: onelayered, two-layered with ground plane (microstrip configurations) and layered with the same thickness of subs... więcej»

Electronic measurement system for monitoring of geometrical parameters of rolling shaped metal profiles (Snezhinka Zaharieva, Valentin Mutkov, Ivan Georgiev)
The measurement of the complex and the differential geometric parameters in the production process of cylindrical, square and rectangular rolling shaped metal profiles will undoubtedly lead to a rise in the production quality. The dynamics of the technological process and the influence of great number of outside factors on geometrical parameters of revolving, enforce development of an electronic measurement system, which may reliably reads and preserves measured data immediately in the production process of rolling shaped metal [1, 5]. Adopting a microprocessor technique in measuring systems gives an opportunity for а program processing of information and retroaction towards the technological process. Thus measuring systems will come up оn a new high quality level, their measurement capacities will be expanded, the measurement regime will be chosen automatically, the immediate measurement results will be stored and the necessary calculations will be made. This will allow the removal of subjective and objective factors affecting measurement accuracy. The accomplished electronic measurement system for monitoring of geometric parameters of rolling shaped metal performs an active firsthand control in the production process, for the purpose of management of the quality of the finished production. The paper is organized as follows. First, the block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal is presented. Second, the principle electrical scheme of the system is described. Finally, the results of the work of the experimental setting are presented as well as the main results obtained by the authors are summarized. Block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal A block diagram, shown in Figure 1, contains nine information channels, eight of which are identical and carry the information from eigh... więcej»

High temperature properties of thick-film and LTCC components (Damian Nowak, Mateusz Janiak, Andrzej Dziedzic, Tomasz Piasecki)
There is an increased demand for electronics that can work in harsh environment involving high temperature. Applications include sensors and actuators for control in petroleum and geothermal industry, process monitoring and distributed control systems in automotive and aerospace [1-3]. Complete extreme high-temperature electronic systems require active devices as well as proper passive components (eg. resistors, capacitors, inductors). There comes also the requirement for further miniaturization and integration of electronic components. Thick-film and LTCC (low temperature co-fired ceramics) technologies are well-established and relatively low-cost fabrication method of passives. Thus, they represent promising fabrication techniques to meet the demands for devices that are miniaturized and operate at high temperature [4-7]. This paper presents manufacturing process of thick-film and LTCC resistors, planar inductors and interdigital capacitors as well as their chosen electrical and stability properties in a wide frequency and temperature range. Test structures fabrication Square planar inductors and interdigital capacitors were made on alumina (96% Al2O3, 635 μm thick) or fired LTCC (DP951, 300 μm thick) substrates. The size of the fabricated components was 3×3 mm2 and 50 μm track width/50 μm spacing were designed. The inductors consist of 2 or 3 tu... więcej»

Electrocatalytic sensor based on Nasicon with auxiliary layer (Anna Strzelczyk, Grzegorz Jasiński, Piotr Jasiński, Bogdan Chachulski )
In recent years electrochemical gas sensors based on solid state electrolytes have been intensively investigated. They are relatively easy to fabricate, simple in use and quite durable. Nasicon (Na Super Ionic Conductor) is one of the most promising materials, which have been used in construction of gas sensors. Sensors based on Nasicon are used for detecting of different gases including carbon oxides [1, 2], nitrogen oxides [3-6] and sulfur dioxide [7]. Most of these devices operate in potentiometric or amperometric mode. In case of some sensor constructions, besides electrolyte and metal electrodes, additional layers are applied. In some cases such phase is required to obtain sensitivity to specific gas or to shift operating temperature to more preferred one [7]. In other cases sensor properties such as selectivity or stability are improved. Auxiliary phase usually forms extra interface between measured gaseous compound and electrolyte or electrodes. For example, in case of amperometric sensors, it was noticed, that presence of auxiliary layer on surface of sensing electrode can increase the number of reaction sites thus improving sensor sensitivity [5]. Auxiliary layer may also be used to create a diffusion barrier. In case of the potentiometric or amperometric nitrogen oxides sensors based... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»