profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Zastosowaniu techniki zrównoleglenia obliczeń do poprawy wydajności numerycznego algorytmu rozwiązywania równań różniczkowych (Arkadiusz Gardecki )
W wielu programach symulacyjnych stosowane są numeryczne algorytmy rozwiązywania układów równań różniczkowych zwyczajnych (ODE). Stosowane powszechnie w komercyjnych programach metody typu Rungego-Kutty (R-K), czy algorytmy sztywnostabilne, np. Gear’a, zastały uzupełnione w ostatnim czasie o metody typu predyktor - korektor (PECE). Przykładem takiego algorytmu może być algorytm Shampina [1]. Do tej grupy można zaliczyć także algorytm BGKODE [2] opracowany na Politechnice Opolskiej i wykorzystywany w symulacjach układów energoelektronicznych. Oba te algorytmy wywodzą się z metody Krogh’a [3, 4]. Oprócz zastosowań tego typu metod do badań symulacyjnych jest możliwe także wykorzystanie ich do obliczeń wykonywanych w czasie rzeczywistym (np. w układach sterowania układów przekształtnikowych [5]). Zaproponowana w pracy [5] procedura BGKODE_DSP wykazała zalety związane z większą dokładnością w porównaniu do metod R-K przy akceptowalnym, niewielkim wzroście kosztów obliczeniowych [6]. Naturalnym kierunkiem rozwoju tych metod wydaje się przystosowanie ich do obliczeń równoległych. Upowszechnienie się procesorów wielordzeniowych, zarówno w komputerach używanych do badań symulacyjnych jak i w procesorach sygnałowych wykorzystywanych do obliczeń w czasie rzeczywistym, daje nowe możliwości zastosowań tego typu algorytmów. Metoda numerycznego całkowania typu PECE Procedura BGKODE_DSP [5] wywodzi się z pełnego zespołu procedur BGKODE [1] realizującego zmodyfikowany algorytm Krogh’a [3]. Zespól tych procedur znajduje zastosowanie w obliczeniach symulacyjnych gdzie wielokrotnie potwierdzał swoje dobre właściwości obliczeniowe. Cechują go: duża dokładność, duży obszar stabilność, efektywny algorytm zmiany długości kroku całkowania oraz rzędu aproksymacji, możliwość rozwiązywania układów sztywnostabilnych. Skłoniło to autora do opracowania procedury BGKODE_DSP przystosowanej do obliczeń w układach czasu rzeczywistego [5, 6... więcej»

Zastosowanie folii PVDF w czujnikach wad postawy - model napięciowy i ładunkowy (Ewa Klimiec, Jacek Piekarski, Wiesław Zaraska)
Trwale spolaryzowana folia PVDF dobrze nadaje się do detekcji odkształceń mechaniczno-dynamicznych co potwierdzają dane literaturowe [1, 2], a także badania własne autorów artykułu. Zależność napięcia od odkształcenia dla zastosowanej folii o grubości 100 μm z naniesionymi elektrodami srebrowymi ma charakter liniowy [3]. Pod względem wytrzymałości mechanicznej folia ta dobrze znosi warunki jakie panują w bucie w trakcie chodzenia (ciągłe odkształcenie), co wykazały doświadczenia przeprowadzone przez autorów. Wymienione zalety materiału zadecydowały o wyborze go na czujniki nacisku stopy na podłoże w warunkach dynamicznych. Natomiast wadą spolaryzowanej folii PVDF w tym zastosowaniu, jest wysoki współczynnik piroelektryczny dla podczerwieni, wynoszący 30×10-6 C/m2 °K [2]. W praktyce, zawsze mamy więc do czynienia z sumą dwóch dużych sygnałów piezo- i piroelektrycznych. Zmniejszenie do minimum wpływu sygnału piroelektrycznego na wyniki pomiarów, możliwe jest, albo przez zastosowanie układu zerującego ładunek piroelektryczny, albo przez wprowadzenie filtru górnoprzepustowego, tłumiącego wolnozmienny sygnał piroelektryczny. W trakcie badań przetestowano obie możliwości, stosując dwa układy pomiarowe. Jeden, zgodny z modelem napięciowym pojemnościowego czujnika PVDF (rys. 2), drugi, zgodny z modelem ładunkowym czujnika (rys. 4). Dla prawidłowej pracy układu rejestrującego sygnały z czujników piezoelektrycznych zasadnicze znaczenie ma też dobór wzmacniacza operacyjnego pracującego w układzie pomiarowym. Dobór wzmacniacza operacyjnego i sposób rozmieszczenia czujników Wybór wzmacniacza operacyjnego Przetestowano różne typy wzmacniaczy operacyjnych dostępnych na rynku o rezystancji wejściowej przekraczającej 1012 Ω, których dane zamieszczono w tabeli [4]. Parametry wzmacniaczy: LMC660,... więcej»

Procesy łączeniowe tranzystorów MOSFET w mostkach wysokonapięciowych (Piotr Grzejszczak, Mieczysław Nowak, Roman Barlik)
Dążenie do zwiększenia współczynnika gęstości mocy przekształtników energoelektronicznych, przy zachowaniu wysokiej sprawności energetycznej, skłania do ciągłego podwyższania częstotliwości przełączeń łączników mocy. Ograniczanie strat energii w takich układach uzyskuje się głównie przez skracanie czasów załączania ton i wyłączania toff tranzystorów, co powoduje zwiększanie stromości napięć i prądów w obwodach głównych przekształtników. Obecnie dostępne przyrządy półprzewodnikowe, takie jak wysokonapięciowe krzemowe tranzystory MOSFET, tranzystory JFET i MOSFET oraz diody Schottky’ego z węglika krzemu, pozwalają na pracę z bardzo szybkimi procesami łączeniowymi (poniżej 50 ns) przy napięciach znacznie powyżej 300 V. Duże stromości napięć i prądów są przyczyną występowania niekorzystnych zjawisk, wynikających z istnienia indukcyjności i pojemności pasożytniczych w rzeczywistych obwodach głównych przekształtników [1-3]. Do tych zjawisk należy zaliczyć przede wszystkim sprzężenia elektromagnetyczne (EMI) oraz zaburzenia procesów łączeniowych, które mogą być przyczyną zwiększonych strat a nawet zniszczenia tych elementów [4]. Mechanizmy poszczególnych niepożądanych zjawisk występujących w przekształtnikach z szybkimi łącznikami zostały opisane w szeregu publikacji [5-9]. Celem pracy jest lepsze rozpoznanie istotnych problemów dotyczących wpływu konfiguracji geometrycznej obwodu głównego i sterującego na pracę tranzystorów MOSFET w gałęzi mostka. Głównie zwrócono przy tym uwagę na wysokonapięciowe tranzystory krzemowe [10]. W pierwszej części pracy opisano ograniczenia związane z elementami pasożytniczymi, występującymi w obwodzie głównym gałęzi i w obwodach sterowników bramkowych oraz w samych tranzystorach MOSFET (indukcyjności i pojemności pasożytnicze, dioda strukturalna (podłożowa) tranzystora). Drugą część pracy poświęcono metodom poprawy konfiguracji przestrzennej obwodu mającym na celu zmniejszenie łączeniowych stra... więcej»

Zastosowanie zjawiska modulacji absorpcji na nośnikach swobodnych do nieniszczących badań materiałów półprzewodnikowych (Łukasz CHROBAK, Mirosław MALIŃSKI)
Parametry rekombinacyjne materiałów krzemowych są jednymi z ważniejszych, których znajomość jest niezbędna przy projektowaniu urządzeń optoelektronicznych (np. ogniw słonecznych, fotodetektorów, itp.). W ostatnich latach można zaobserwować wzrost zainteresowania nieniszczącymi metodami do wyznaczania parametrów rekombinacyjnych materiałów krzemowych [1-4]. Jedną z nich jest metoda MFCA (ang. Modulated Free Carrier Absorption), która umożliwia wyznaczenie czasu życia nośników, współczynnika dyfuzji nośników, a także prędkości ich rekombinacji powierzchniowej. Jej podstawy teoretyczne, a także przykładowe charakterystyki częstotliwościowe amplitudowe i fazowe uzyskane na płytkach krzemowych przedstawiono w pracy [5]. Modyfikację metody MFCA opartą na przestrzennej separacji wiązki wzbudzającej nośniki i wiązki sondującej przedstawiono w pracach [6, 7]. Wpływ szerokości wiązki sondującej na sygnał MFCA przedstawiono w pracy [8]. Porównanie czułości dwóch odmian metody MFCA opartych na pomiarze sygnału MFCA w funkcji częstotliwości modulacji oraz w funkcji odległości wiązki wzbudzającej i wiązki sondującej przedstawiono w pracy [9]. Rozkład przestrzenny nośników w modelu 3D niezbędny do obliczeń wielkości sygnału MFCA przedstawiono w pracy [10]. Wyniki badań, porównujących metodę MFCA z metodą pomiarową bazującą na wykorzystaniu mikrofal, zweryfikowane pomiarami fotoprzewodnictwa przedstawiono w pracy [11]. Przedstawione w niniejszej pracy zagadnienia dotyczące metody MFCA są ciągle aktualne i znajdują się w spektrum zainteresowań naukowców z międzynarodowych jednostek naukowych [12-14]. Znajomość parametrów rekombinacyjnych materiałów krzemowych jest wysoce pożądana, zwłaszcza przy projektowaniu i wytwarzaniu ogniw słonecznych. Idea metody MFCA polega na wzbudzaniu nośników z pasma walencyjnego do pasma przewodnictwa w wyniku absorpcji światła lasera wzbudzającego oświetlającego próbkę. W wyniku tego uzyskuje się dyfuzyjne fale... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
System do pomiaru Apertury Numerycznej w światłowodach specjalnych (ŁUKASZ Ostrowsk, MICHAŁ Murawski, MICHAŁ Szymański, Zbigniew Hołdyński, TADEUSZ Tenderenda, PAWEŁ Mergo, PAWEŁ Marć, Leszek R. Jaroszewicz, TOMASZ Nasiłowski)
W światłowodach klasycznych, światło jest prowadzone w materiale na podstawie różnicy we współczynniku załamania pomiędzy rdzeniem a płaszczem. Apertura Numeryczna (NA) w tym typie światłowodów wykazuje niewielkie właściwości dyspersyjne w całym spektrum, zatem pomiar dla pojedynczej długości fali jest zupełnie wystarczający do scharakteryzowania NA. Inną sytuację mamy w przypadku światłowodów mikrostrukturalnych (MSF) gdzie światło jest prowadzone na podstawie geometrii wewnętrznych otworów. W tym typie światłowodów NA zmienia się wraz ze wzrostem długości fali. Właściwości NA w zależności od rodzaju prowadzenia przedstawione są na rysunku 1. Odmienny charakter NA dla różnych włókien był motywacją do stworzenia układu precyzyjnego wyznaczania NA w światłowodach specjalnych. Dzięki tak zdobytej wiedzy o aperturze numerycznej mierzonych światłowodów możliwe jest optymalizowanie efektywnego łączenia, sprzęgania oraz wprowadzania światła do różnorodnych typów światłowodów[1]. Ponadto w światłowodach nie posiadających symetrii kołowej NA może się zmieniać nie tylko z długością fali ale, również z obrotem włókna wokół własnej osi. Dlatego system do ... więcej»

Wpływ dipu na właściwości propagacyjne solitonów jasnych w światłowodzie skokowym (Tomasz KACZMAREK)
Światłowody jednomodowe są szeroko stosowane w technice sensorowej [1, 2] zarówno jako czujniki jak i medium transmisyjne oraz w technice informatycznej [3, 4] jako szerokopasmowe medium transmisyjne o nie w pełni wykorzystanych możliwościach propagacyjnych. Niniejszy artykuł również dotyczy światłowody jednomodowych ale w kontekście ich wykorzystania w transmisji solitonowej dalekiego zasięgu. W 2011 roku pojawił się cykl artykułów [5, 6, 7] dotyczących światłowodu skokowego, którego parametr geometryczny (promień rdzenia a) oraz parametr optyczny (różnica współczynników załamania pomiędzy rdzeniem i płaszczem &#916;n = n1 - n2) były tak zoptymalizowane, aby umożliwić generację solitonu podstawowego, przy wykorzystaniu dostępnych komercyjnie laserów półprzewodnikowych w okolicach trzeciego okna transmisyjnego, przy zapewnieniu jednoczesnej maksymalizacji zakresu pracy jednomodowej oraz dyspersji anomalnej. Optymalizacja promienia rdzenia a pozwala uzyskać zrównanie się długości fali odcięcia modu drugiego (TE01) &#955;C z długością fali zerowania się dyspersji chromatycznej &#955;ZD1, czyli równość &#955;ZD1 = &#955;C i w ten sposób uzyskać maksymalizację zakresu długości fal, w którym można generować solitony jasne. W tym miejscu warto wspomnieć, że przy określonym składzie chemicznym rdzenia oraz płaszcza, czyli przy określonej wartości parametru &#916;n istnieje tylko jedna wartość a = aOPT gwarantująca spełnienie warunku &#955;ZD1 = &#955;C. W przypadku, gdy a > aOPT, wówczas &#955;ZD1 < &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem pracy jednomodowej. Natomiast, gdy a < aOPT, wówczas &#955;ZD1 > &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem dyspersji anomalnej. Optymalizacja różnicy współczynników załamania pomiędzy rdzeniem i płaszczem światłowodu &#916;n umożliwia uzyskanie na charakterystyce dyspersji chromatycznej dwóch miejsc zerowych w zakresie od 1 do 2 &#956;m oraz... więcej»

Luminescencja izolatorów ceramicznych sieci energetycznych średnich napięć (Rafał Sobota, Arkadiusz Mandowski, Ewa Mandowska)
Zadaniem izolatorów w elektroenergetyce, oprócz funkcji czysto mechanicznych, jest skuteczne oddzielenie przewodów elektrycznych, znajdujących się pod wysokim napięciem, od otoczenia. Izolatory porcelanowe, podobnie jak ich szklani poprzednicy, sięgają historią do czasów drutów telegraficznych. Gdy ceny szkła zaczęły rosnąć, porcelana stała się atrakcyjną i niedrogą alternatywą. Izolatory porcelanowe są teraz łatwo dostępne i często stosowane. Wraz z pojawieniem się dystrybucji energii elektrycznej na przełomie XIX i XX wieku i koniecznością przesyłania prądu liniami energetycznymi w warunkach wysokich napięć, wzrosło zapotrzebowanie na większe i bardziej niezawodne izolatory. Ilość szkła w tym czasie była niewystarczająca, więc zaczęto eksperymentować z mieszaninami gliny. Ponadto pracowano nad nowymi wzorami izolatorów, spełniałyby swoje zadanie w każdych warunkach pogodowych. W dzisiejszych czasach, zakłady porcelany elektrotechnicznej oferują szeroki asortyment izolatorów do różnych zastosowań - począwszy od linii niskiego, średniego i wysokiego napięcia a skończywszy na konstrukcjach wsporczych, przepustowych oraz osłonowych. Niektóre firmy oferują również produkty typowo pod indywidualne zamówienia klientów, takie jak osłony do wyłączników, odgromników, przekładników napięciowych i prądowych, przepustów, kondensatorów, głowic kablowych, bezpieczników wysokonapięciowych, itp. Wysoka niezawodność eksploatacyjna oraz utrzymanie wymaganych parametrów, głównie w zakresie wytrzymałości mechanicznej i elektrycznej, jak również odporności na czynniki atmosferyczne oraz zanieczyszczenia, jest zapewniana przez stosowanie wysokiej jakości materiałów. W procesach produkcyjnych wykorzystuje się nowoczesne maszyny i urządzenia oraz wdrażane są nowe techniki wytwarzania. Dzisiejsze izolatory są wyrobami znormalizowanymi. Spełniają wymagania zarówno norm krajowych, jak i międzynarodowych. W elektroenergetyce izolatory można sklasyfik... więcej»

Światłowodowy generator supercontinuum zakresu średniej podczerwieni - przykład technologii podwójnego zastosowania (Jacek Świderski, Maria Michalska, Wiesław Pichola, Marcin Mamajek)
Współczesne badania prowadzone w zakresie techniki laserowej ukierunkowane są na technologie i urządzenia będące udoskonaleniem lub alternatywą obecnie stosowanych o znaczącym potencjale cywilizacyjnym i szerokich możliwościach aplikacyjnych. Rozwój danej dziedziny nauki jest w bardzo dużym stopniu uwarunkowany zapotrzebowaniem na konkretne rozwiązania technologiczne i konstrukcyjne. Przykładem takiego zapotrzebowania mogą być światłowodowe układy laserowe generujące promieniowanie superciągłe (ang. supercontinuum) w paśmie widmowym ok. 1,5&#8230;5 &#956;m. Układy te stanowią nowość naukową ostatnich kilku lat i mogą być przykładem technologii podwójnego zastosowania (zastosowania cywilne oraz wojskowe). Zjawisko generacji promieniowania supercontinuum po raz pierwszy zostało zaobserwowane na przełomie lat sześćdziesiątych i siedemdziesiątych ubiegłego wieku, jednakże dopiero na przestrzeni ostatnich dwóch dekad układy generatorów SC zyskały szczególne zainteresowanie - co miało miejsce za sprawą wykorzystania w procesie generacji SC włókien optycznych, w tym światłowodów fotonicznych, których zaletą jest przede wszystkim długa droga optyczna oddziaływania promieniowania z ośrodkiem oraz możliwość kształtowania charakterystyki dyspersyjnej i uzyskania wysokiego współczynnika nieliniowości włókna. Pomimo dość intensywnie prowadzonych prac nad źródłami promieniowania SC, zdecydowana większość doniesień literaturowych dotyczy generacji w widmowym zakresie widzialnym oraz w bliskiej podczerwieni [1-4], natomiast nieliczne doniesienia literaturowe dotyczące zakresu średniej podczerwieni [5-8] pokazują, iż są to rozwiązania nowe o dużym potencjale aplikacyjnym. Promieniowanie z zakresu średniej podczerwieni ma istotne zastosowanie militarne - m.in. do oślepiania rakiet ziemia-powietrze wyposażonych w głowice samonaprowadzające się na podczerwień - w tzw. układach DIRCAM (Direct Infrared Countermeasure). Zagrożenie rakietami śledzą... więcej»

Światłowody fotoniczne jako materiał na lasery światłowodowe ze zdefiniowanym stanem polaryzacji (Elżbieta Bereś-Pawlik, Łukasz Sójka, Michał Pilszak, Łukasz Pajewski, Sławomir Sujecki&#8201; Paweł Mergo, Krzysztof Poturaj, Krzysztof Skorupski, Jacek Klimek)
Lasery światłowodowe mają wiele zalet w porównaniu z półprzewodnikowymi, mają też więcej potencjalnych zastosowań w przemyśle i medycynie, w zastosowaniach, gdzie wymagane są wysokie wartości mocy wyjściowej sygnału lasera lub korzystne jest wyjście światłowodowe sygnału [1-3]. W ostatnich latach szczególnie interesujące wydają się być konstruowane lasery z wykorzystaniem włókien fotonicznych, utrzymujących polaryzację [4, 5]. W pracy zostaną przedstawione zagadnienia związane z uzyskaniem stabilnych sygnałów w laserach światłowodowych, także z możliwością przestrajania tych sygnałów w laserach światłowodowych pracy ciągłej, opartych na włóknach utrzymujących polaryzację PM (Polarization Maintaining), fotonicznych, PCF (Photonic Crystal Fiber), wytworzone w Pracowni Technologii Światłowodów UMCS. Światłowody fotoniczne domieszkowane jonami erbu i neodymu Poniżej przedstawiono przykładowe struktury światłowodów mikrostrukturalnych domieszkowanych jonami erbu PM-Er-PCF i neodymu HB-Nd-MOF, wytworzone w Pracowni Technologii Światłowodów. Światłowody te po wstępnych pomiarach i procesach optymalizacyjnych były wykorzystane w budowie las... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Pasywny ogranicznik diodowy na pasmo Ku (Daniel Gryglewski, Wojciech Wojtasiak)
Ogranicznik jest elementem układu zabezpieczającego wrażliwe obwody odbiornika przed zakłócającym i niszczącym oddziaływaniem środowiska elektromagnetycznego, w otoczeniu którego pracuje system radiokomunikacyjny lub radiolokacyjny. W zależności od potrzeb zabezpieczenie elementów toru odbiorczego może składać się nawet z kilku podzespołów o różnych rozwiązaniach układowych i technologicznych. Zespół układów zabezpieczających stosowany w pasmie mikrofal obejmuje: wstępne lampy zwierakowe (pre-tr tube), lampy zwierakowe (tr-tube), ograniczniki diodowe i ferrytowe [1]. Lampy zwierakowe pre-tr tube i tr tube są najbardziej odporne, wytrzymują wartości mocy wejściowej do 10 MW w impulsie, ale jednocześnie charakteryzują się najwyższym progiem ograniczania i długim czasem wyłączania nawet do 100 &#956;s [2]. W systemach radarowych czas wyłączania lamp zwierakowych może istotnie wpływać na szerokość strefy martwej. Dla osiągnięcia akceptowalnego poziomu ograniczania zwykle nieprzekraczającego kilka mW niezbędne jest użycie kolejnych układów takich jak: ograniczniki diodowe oraz rzadziej ferrytowe, które zapewniają ostateczną ochronę obwodom odbiorczym. Do budowy ograniczników półprzewodnikowych wykorzystuje się specjalnie w tym celu wytwarzane krzemowe diody PIN tzw. ograniczające oraz znacznie mniej wytrzymałe diody Schottky&#8217;ego, stosowane w wyższych pasmach mikrofalowych. W zakresie mniejszych częstotliwości do pasma X włącznie, ograniczniki diodowe charakteryzują się bardzo krótkimi czasami przełączania, małymi stratami transmisji i całkiem niezłą wytrzymałością mocową na poziomie nawet 60 dBm w impulsie o długości 1 &#956;s, dużą niezawodnością oraz dość prostą strukturą planarną i niewielkimi rozmiarami. Ze względu na rozproszoną architekturę radaru RSKu-10, najbardziej odpowiedni do zastosowania jest ogranicznik diodowy. Uproszczony schemat blokowy obwodów wejściowych 8-kanałowego odbiornika pokazano na rysunku 1. Ro... więcej»

Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700&#8230;4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

Segmentacja obrazu w fotografii laserowej (Marek Piszczek, Marcin Kowalski)
Systemy wizyjne znajdują coraz szersze zastosowania w różnych dziedzinach gospodarki narodowej, między innymi takich jak na przykład przemysł w zakresie kontroli jakości wytwarzanych produktów, czy też w obszarze szeroko rozumianego bezpieczeństwa publicznego do wykrywania i monitorowania potencjalnych zagrożeń. Sukces tego typu rozwiązań związany jest niewątpliwie z zastosowaniem technologii optoelektronicznych. Mimo tego, że systemy wizyjne mają już ugruntowaną pozycję w licznych aplikacjach, to jednak wciąż poszukuje się nowych rozwiązań, zarówno w zakresie akwizycji jak i przetwarzania danych obrazowych. Efektem tych prac jest niejednokrotnie wzrost potencjału informacyjnego opracowanego systemu wizyjnego. Możliwość pozyskiwania informacji z danych obrazowych uwarunkowana jest jakością obrazu oraz możliwymi do użycia metodami jego przetwarzania. Takim podstawowym zagadnieniem z punktu widzenia przetwarzania obrazu jest jego segmentacja. W zależności od sceny będącej przedmiotem analizy można stosować różne metody, mniej lub bardziej zaawansowane. Faktem jest jednak to, że przetwarzanie tego typu bywa czasami bardzo czasochłonne, a wyniki nie zawsze są zadowalające. Kluczem do sukcesu wydaje się być sam proces pozyskiwania obrazu, który powinien dostarczać do segmentacji "odpowiednio przygotowane dane". I rzeczywiście wiele metod obrazowania stosuje "odpowiednie zabiegi" już na etapie pozyskiwania danych. Gdyby udało się udostępniać do przetwarzania i analizy obrazy posegmentowane już w procesie akwizycji. Metody realizujące taką funkcjonalność dostępne są współcześnie i są szeroko stosowane w przemysłowych systemach wizyjnych, gdzie możemy mieć do czynienia z wysoce kontr... więcej»

Projektowanie powłok optycznych przeznaczonych do przyrządów na zakres podczerwieni (Jarosław Domaradzki)
Nakładanie powłok optycznych na powierzchnie różnych przedmiotów, zarówno codziennego użytku, jak i zaawansowanych urządzeń optoelektronicznych, ma na celu uzyskanie lub poprawę ich określonych właściwości. Podstawowym zadaniem takich powłok jest uzyskanie zadanego przebiegu charakterystyki transmisji lub odbicia światła w określonym zakresie spektralnym [1]. W praktyce typowe powłoki optyczne wykorzystuje się w szerokim zakresie spektralnym od bliskiego ultrafioletu przez zakres widzialnych fal świetlnych do podczerwieni. Przykładem jednych z najczęściej wykorzystywanych w praktyce powłok optycznych są powłoki, umożliwiające zredukowanie strat odbiciowych, czyli tzw. powłoki antyodbiciowe. Nałożenie takiej powłoki np. na powierzchnię detektora sprawia, że więcej fotonów dociera do czynnego obszaru złącza, co pozwala zwiększyć sprawność konwersji światła w prąd elektryczny. Z kolei, nakładanie powłok optycznych o odpowiednio ukształtowanej spektralnej charakterystyce transmisji (odbicia) światła na optycznie neutralne podłoża, umożliwia budowanie takich przyrządów optycznych, jak filtry optyczne, lustra interferencyjne czy rozdzielacze wiązek. Właściwości powłok ściśle związane są z rodzajem materiału oraz technologią ich wytwarzania. Do najbardziej rozpowszechnionych metod stosowanych do wytwarzania powłok optycznych należą metody fizycznego nanoszenia z fazy gazowej PVD (Physical Vapour Deposition) oraz metody chemicznego nanoszenia z fazy gazowej CVD (Chemical Vapour Deposition). W przemyśle, do najczęściej stosowanych należą: parowanie z zastosowaniem wiązki elektronowej bądź laserowej PLD (Pulsed Laser Deposition), platerowanie jonowe IP (Ion Plating), rozpylanie magnetronowe MS (Magnetron Sputtering). W wymienionych metodach może występować także dodatkowe wspomaganie jonami IAD, IBAD (Ion Assisted Deposition, Ion Beam Assisted Deposition), co pozwala wytwarzać powłoki o lepszych parametrach st... więcej»

Możliwości zastosowania elementów rozszerzonej rzeczywistości w urządzeniu fotografii laserowej (Marek Piszczek, Mikołaj Zarzycki)
Żyjemy w społeczeństwie, w którym informacja a przede wszystkim dostęp do niej, stanowi bardzo cenne i pożądane dobro. Rozwój technologiczny oferuje nam dostęp do bardzo zróżnicowanych źródeł udostępniających dane dzięki różnym technologiom. To dzięki wynalezieniu druku mamy m.in. tak wszechstronny dostęp do materiałów tekstowych i graficznych, a dzięki rozwojowi kinematografii, a później telewizji dostęp do informacji wizualnych stał się jeszcze bardziej powszechny (rys. 1). Dzięki wynalezieniu telefonu i rozwoju radiotechniki audio-informacje przekazywane są szybko i na duże odległości (rys. 2). Zwróćmy jednak uwagę, że każda z tych technologii jest ściśle dostosowana do naszych możliwości percepcyjnych audio-wizualnych. Zdajemy sobie jednak sprawę z możliwości naszych modalności zmysłowych. Tworząc nowe rozwiązania budujemy swego rodzaju protezy pozwalające nam zdobywać informacje jakich nie dostarczają nam nasze zmysły. Każda z wymienionych technologii w istotny sposób przyczyniła się do rozwoju społeczeństwa informacyjnego. Ważniejsze jest jednak to, że w dalszym ciągu poszukujemy nowych, bardziej wydajnych rozwiązań. W Instytucie Optoelektroniki WAT już od kilku lat prowadzone są badania m.in. nad technologiami, które mogą mieć swój wkład w rozwój potencjału systemów informacyjnych. Jedno z tych rozwiązań dotyczy metody kadrowania przestrzenno- czasowego, a drugie tzw. Rozszerzonej Rzeczywistości. Pierwsze z rozwiązań dotyczy możliwości obrazowania ściśle zdefiniowanej trójwymiarowej przestrzeni za pomocą Urządzenia Fotografii Laserowej (UFL). Uzyskiwane dwuwymiarowe obrazy "fragmentu przestrzeni 3D" nie są efektem syntezy komputerowej lecz wynikiem bezpośredniego procesu akwizycji danych. Druga z technologii dotyczy sposobu syntezy informacji będącej połączeniem danych świata realnego oraz danych syntezowanych komputerowo. Wynikowa informacja zostaje udostępniona użytkownikowi w sposób dostosowany do jego możliwości p... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Komplementarne zastosowanie metod dyfrakcji i spektroskopii absorpcyjnej promieniowania X do charakteryzacji cienkich warstw Ti-Si-C (Krystyna Ławniczak -Jabłońska, Marcin T. Klepka, Anna Wolska, Elżbieta Dynowska, Michał A. Borysiewicz, ANNA PIOTROWSKA)
Zaawansowane przyrządy elektroniczne oparte na azotku galu (GaN), w szczególności działające w reżimie wysokich mocy i wysokich częstości, czy też w atmosferze korozyjnej, wymagają opracowania stabilnych termicznie i chemicznie metalizacji kontaktowych. Obiecującymi materiałami dla takich zastosowań są materiały z grupy tzw. faz MAX, łączące w sobie metaliczne przewodnictwo elektryczne i cieplne z ceramiczną stabilnością temperaturową i odpornością na korozję [1, 2]. Przedmiotem szczególnego zainteresowania są fazy MAX oparte na związkach Ti lub Al z C lub N, m.in. będąca przedmiotem niniejszej pracy faza Ti3SiC2. Zainteresowanie to wynika z faktu, że dopiero niedawno zademonstrowano możliwość wytwarzania tego typu faz w formie cienkowarstwowej na drodze magnetronowego rozpylania katodowego w wysokiej (900oC), ale akceptowalnej w technologii przyrządów na bazie GaN temperaturze [3]. Niniejsza praca jest częścią projektu badawczego, którego celem jest opracowanie procesu wytwarzania cienkich warstw Ti- 3SiC2 przydatnych do technologii stabilnych termicznie metalizacji kontaktowych do GaN/AlGaN. Z uwagi na złożoność procesu wysokotemperaturowego rozpylania katodowego, w badaniach relacji parametrów procesu i struktury fazowej materiału zastosowane zostały dwie komplementarne techniki charakteryzacji: dyfrakcja promieniowania X (XRD) oraz spektroskopia absorpcyjna promieniowania X (XAS, ang. X-Ray Absorption Spectroscopy) w zakresie EXAFS (ang. Extended X-Ray Absorption Fine Structure). Omówione zostaną wyniki obydwu metod wraz z podkreśleniem ich komplementarności. Eksperyment Cienkie warstwy Ti-Si-C osadzono na podłożach Al2O3 (00.1) przy pomocy reaktora Surrey NanoSystems &#947;1000C, z targetów pierwiastkowych Ti, Si i C o czystościach 5N w atmosferze Ar o czystości 6N przy ciśnieniu 5 mtorr. Rozpylanie było prowadzone przy stałej mocy targetu Ti (70W) oraz zmiennych mocach targetów Si i C. Na podłoża podgrzane do temperatu... więcej»

Nowe źródła pojedynczych fotonów dla kryptografii kwantowej (Wojciech Nowakowski )
Kryptografia kwantowa teoretycznie jest bezpieczna, co wynika z samych praw mechaniki kwantowej [1, 2], ponieważ każda próba podsłuchania sygnału wprowadza zmiany tego sygnału, co informuje komunikujące się strony o ingerencji. W praktyce jednak współczesne, nawet komercyjne systemy kryptografii kwantowej są niedoskonałe, gdyż występuje wiele problemów implementacyjnych i technicznych [3]. Praktyczne wykorzystanie tej, teoretycznie doskonałej metody szyfrowania transmisji danych jest więc bardzo ograniczone, właściwie do urządzeń demonstracyjnych lub krótkich łączy specjalnie chronionych, np. na terenie jednej instytucji. Złośliwi twierdzą nawet, że kryptografia kwantowa do doskonały "temat wieczny", bo bardzo nośny i nowoczesny, ale od lat nie przynoszący żadnych realnych korzyści. Główne problemy to tanie i efektywne źródło strumienia pojedynczych fotonów o dostatecznej energii oraz ich poprawna technicznie, skuteczna detekcja. Wykazano np. [3], że po stronie detekcji sygnału łatwo jest oślepić fotopowielacz i stworzyć tym samym warunki niedostrzegalnego podsłuchu. Z problemem generacji fotonów jest jeszcze gorzej. Nie mamy dobrych źródeł pojedynczych fotonów, a jest to zagadnienie dla kwantowej kryptografii zupełnie fundamentalne: gdy wygenerujemy zamiast pojedynczego choćby dwa fotony, przejęcie jednego z nich (a zatem zmiana jego parametrów) może zostać niezauważona, gdyż tę samą informację niosą obydwa; drugi jest poprawny. Stosowane są różne metody zapobiegania wysyłaniu zwielokrotnionych fotonów. Jednym ze sposobów jest użycie bardzo... więcej»

Symulacje i modelowanie zaawansowanych struktur tranzystorów HEMT AlGaN/GaN (Andrzej Taube, Mariusz Sochacki, Jan Szmidt )
W celu poprawy parametrów tranzystorów HEMT na bazie GaN opracowano nowe, bardziej zaawansowane struktury. Należą do nich m.in. struktury z domieszkowaną warstwą AlxGa1-xN oraz tranzystory z heterostrukturą AlxGa1-xN/AlN/GaN. Tranzystory HEMT na bazie GaN są typowo tranzystorami normalnie włączonymi z kanałem wbudowanym. Ogranicza to zastosowanie tych przyrządów w układach cyfrowych oraz zwiększa stopnień złożoności układów analogowych. W celu uzyskania tranzystora z kanałem zbogacanym stosowane m.in. trawienie warstwy barierowej pod kontaktem bramki [2]. Powoduje to zmniejszenie koncentracji 2DEG pod kontaktem bramki w rezultacie prowadząc do zwiększenia napięcia progowego Vth do wartości powyżej 0 V. Zastosowanie w tranzystorze HEMT bramki MIS zamiast bramki Schottky&#8217;ego powoduje zmniejszenie prądu upływu bramki w stanie włączenia tranzystora, co powoduje zwiększenie maksymalnego napięcia bramki prowadząc do zwiększenia prądu wyjściowego tranzystora. Zastosowanie bramki MIS zmniejsza także niekorzystny efekt spadku prądu po poddaniu struktury stresom napięciowym (tzw. efekt current collapse) [3, 4]. W drugiej części artykułu przedstawiono wyniki symulacji bardziej złożonych struktur HEMT. Przeprowadzono symulacje tranzystora HEMT Al0.28Ga0.72N/GaN z domieszkowaną warstwą barierową i różną głębokością trawienia warstwy barierowej w obszarze bramki oraz tranzystora MOS-HEMT z warstwą dielektryka podbramkowego o różnej stałej dielektrycznej i różnej grubości. Wpływ domieszkowania warstwy Al0.28Ga0.72N na charakterystyki tranzystora HEMT Przyjmując strukturę tranzystora identyczną jak w pierwszej części artykułu wykonano symulację dla koncentracji domieszki równej kolejno 5×1017 cm-... więcej»

Wpływ procesu wygrzewania w atmosferze O2 i N2O na właściwości warstwy przejściowej dielektryk/półprzewodnik w kondensatorach MOS Al/SiO2/4H-SiC (Krystian Król, Małgorzata Kalisz, Mariusz Sochacki, Jan Szmidt)
Węglik krzemu (SiC), zaliczany do półprzewodników złożonych grupy AIV-BIV, charakteryzuje się atrakcyjnymi parametrami z punktu widzenia potencjalnych zastosowań w porównaniu z innymi materiałami półprzewodnikowymi, przede wszystkim w zakresie krytycznego pola elektrycznego, przewodnictwa cieplnego i maksymalnej prędkości unoszenia elektronów [1]. Ze względu na wyższe wartości wymienionych parametrów przyrządy półprzewodnikowe wytwarzane na podłożach SiC uzyskują lepsze parametry z zastosowaniach dużej mocy i wysokiej częstotliwości pracujących w podwyższonej temperaturze w porównaniu z przyrządami wytwarzanymi na podłożach krzemowych i na podłożach z arsenku galu (GaAs) [1]. Dzięki szerokiej przerwie energetycznej odmiany politypowej 4H-SiC, wynoszącej 3,26 eV, można znacznie ograniczyć prądy upływu i zwiększyć wartość napięcia przebicia przyrządów pracujących w podwyższonej temperaturze. Jedną z najważniejszych cech węglika krzemu jest możliwość wytwarzania warstwy SiO2 w procesie utleniania termicznego, czyli w procesie pozwalającym na otrzymywanie warstw dielektrycznych wysokiej jakości w najbardziej dojrzałej technologii krzemowej. Uzyskiwana jakość warstwy przejściowej SiO2/SiC jest wyraźnie gorsza w porównaniu z dobrze zbadanym układem SiO2/Si z powodu występowania ładunku stałego w warstwie dielektryka i stanów pułapkowych o dużej gęstości w obszarze opisywanego interfejsu [2, 3]. Pochodzenie stanów pułapkowych jest związane z bardziej skomplikowaną budową materiału dwuskładnikowego, jakim jest węglik krzemu w porównaniu z powszechnie wykorzystywanym w mikroelektronice krzemem. Proces utleniania węglika krzemu ma charakter wieloetapowy i prowadzi do powstawania skomplikowanych w opisie centrów pułapkowych związanych głównie z obecnością zanieczyszczeń węglowych kumulujących się w bezpośrednim sąsiedztwie obszaru przejściowego dielektryk/ półprzewodnik, prowadzących bezpośrednio do obniżenia jakości warstwy dielektr... więcej»

Wpływ wzajemnego oddziaływania cieplnego emiterów promieniowania na pracę matrycy zbudowanej na bazie GaN (Maciej Kuc, Robert Piotr Sarzała)
Optoelektroniczne emitery promieniowania krótkofalowego zbudowane na bazie azotku galu, do których należą diody elektroluminescencyjne (Light Emitting Diode - LED) oraz diody laserowe (Laser Diode - LD) są obiektem nieustannego zainteresowania od przeszło piętnastu lat. Aby sprostać rosnącym wymaganiom stawianym przez dynamicznie rozwijający się rynek komercyjny wykorzystujący te przyrządy, w wielu ośrodkach na całym świecie trwają bardzo intensywne prace nad poprawą ich parametrów eksploatacyjnych [1]. Emitery azotkowe znajdują zastosowanie przede wszystkim w zapisie i odczycie dysków optycznych, wyświetlaczach, a dodatkowo w spektroskopii, medycynie i biotechnologii. Obecnie obserwuje się wzrost zapotrzebowania na znaczące zwiększenie mocy emitowanej z tych urządzeń przy zachowaniu jak najdłuższego czasu ich stabilnej pracy z falą ciągłą (Continous Wave - CW) w temperaturze pokojowej (Room Temperature - RT) tj. w warunkach typowych dla ich zastosowań komercyjnych. Maksymalna moc, jaką można otrzymać z pojedynczego emitera jest ograniczona i w przypadku azotkowych laserów wąskopaskowych wynosi ok. 300 mW (dla paska o szerokości 2 &#956;m [2]). Aby otrzymać większą moc promieniowania, na bazie takich emiterów próbuje się obecnie konstruować jednowymiarowe matryce [3, 4], choć jak dotąd bez szczególnych sukcesów. Jednakże, warto zauważyć, że analogiczne matryce projektowane na bazie materiałów arsenkowych (dla długości fali z zakresu czerwieni i podczerwieni) pozwalają osiągnąć moc wielokrotnie większą od tej, jaką można osiągnąć w przypadku arsenkowych emiterów z pojedynczym paskiem laserowym [5]. Oznacza to, że podobnych parametrów można by oczekiwać od matryc azotkowych. Zastosowanie takich matryc wstępnie przewidywane jest m.in. w projektorach [1] i drukarkach laserowych [3, 4]. Moce wyjściowe rzędu 1 kW z matrycy laserów półprzewodnikowych (arsenkowych) osiągnięto przede wszystkim dzięki optymalizacji ich struktury pod wz... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Algorytm szybkiego obliczania wartości modułu liczby zespolonej (Marek Orzyłowski, Zbigniew Rudolf)
Systemy pomiarowe często są wyposażane w układy mikroprocesorowe, sterujące procesem pomiaru oraz wstępnie przetwarzające sygnały pomiarowe. W wyniku wstępnego przetwarzania sygnałów następuje redukcja informacji pomiarowej do niezbędnej liczby danych. Dzięki temu przy przesyłaniu wyników pomiarów na zewnątrz tych systemów pomiarowych nie trzeba stosować kanałów transmisyjnych o nadmiarowej przepustowości. Specjalizowane układy mikroprocesorowe, przeznaczone do pracy w systemach pomiarowych, mają stosunkowo ograniczoną moc obliczeniową, w związku z tym często istotne jest zastosowanie efektywnych algorytmów obliczeniowych o krótkim czasie wykonywania. W efekcie pomiarów uzyskuje się często wyniki w postaci liczb zespolonych. Przykładem może być analiza harmoniczna FFT, po przeprowadzeniu której, otrzymuje się wyniki jako liczby zespolone w postaci części rzeczywistej i urojonej. Gdy przy pomiarze istotne są tylko amplitudy harmonicznych, czyli moduły wspomnianych liczb zespolonych, można zredukować przesyłaną dalej informację do połowy. Pewnym problemem może być w takim przypadku jednak fakt, że dla obliczenia modułu liczby zespolonej niezbędne jest wykonanie operacji pierwiastkowania, która przy podejściu standardowym jest procedurą stosunkowo długo wykonywaną przez jednostkę centralną. Niniejszy artykuł przedstawia algorytm szybkiego obliczania modułów wartości liczb zespolonych z dokładnością niezbędną dla celów pomiarowych. Zastosowanie mikrokonwerterów W elektronicznych układach do celów pomiarowych i sterowania, szerokie zastosowanie znalazły mikrokonwertery, które stanowią zintegrowane układy klasycznych mikrokontrolerów z precyzyjnymi przetwornikami analogowo-cyfrowymi (A/C). Układy te, zawierające oprócz jednostki centralnej nieulotną pamięć programu, pamięć RAM oraz rozbudowane układy wejścia i wyjścia... więcej»

Nowa metoda pomiaru wysokich napięć przy wykorzystaniu materiałów nanokompozytowych (Andrzej Czopik, Sławomir Krawczyk, Katarzyna Olszewska)
Pomiar wysokiego napięcia powyżej 50 kV wykonywany jest zazwyczaj w sposób pośredni przez złożone układy pomiarowe i związany jest często z wydzielaniem dużych mocy, które muszą być odprowadzane. Znanych jest kilka konstrukcji przyrządów i układów wykorzystywanych do pomiarów wysokich napięć stosowanych w zależności od źródła i rodzaju napięcia, warunków zewnętrznych, a także celu pomiaru. Do określania wartości: napięcia stałego, szczytowej napięcia przemiennego, lub szczytowej napięcia udarowego stosowany jest iskiernik. Wykorzystuje on skończoną wytrzymałość elektryczną powietrza i zależność napięcia przeskoku w powietrzu od odległości elektrod, do których to napięcie jest przyłożone. Zazwyczaj stosuje się iskierniki kulowe o znormalizowanych średnicach kul, a wytworzone między nimi pole elektryczne zależy od tych średnic i ich odległości. Na napięcie przeskoku oprócz wielkości pola elektrycznego, wpływają warunki atmosferyczne oraz otaczające przedmioty. Innym przyrządem do pomiaru wysokiego napięcia jest dzielnik napięciowy. Pomiar napięcia za pomocą dzielników polega na zmniejszeniu wartości napięcia doprowadzanego do przyrządu pomiarowego przy możliwie wiernym zachowaniu jego kształtu. W tym celu stosuje się dzielniki rezystancyjne, pojemnościowe lub rezystancyjno-pojemnościowe. Mierzona wartość zależy od stosunku impedancji poszczególnych elementów dzielnika. Przy doborze tych elementów należy również uwzględnić wydzielanie się na nich dużych ilości ciepła w wyniku przepływu prądu. Kolejnym znanym przyr... więcej»

Wytwarzanie nanoigieł z krzemku palladu (Ewa Kowalska, Elżbieta Czerwosz, Joanna Radomska, Halina Wronka)
Cienkie warstwy typu metal-krzem (Me-Si) są integralną częścią większości mikrourządzeń elektronicznych opartych na tranzystorach polowych typu FET (Field Effect Transistor), złączowych tranzystorach polowych (Junction FET), tranzystorach z izolowaną bramką - MOSFET (Metal Oxide Semiconductor FET), czy tranzystorach cienkowarstwowych TFT (Thin Film Transistor). Warstwy te stosowane są jako kontakty omowe, kontakty z barierą Schottkiego (złącze metal-półprzewodnik), bariery dyfuzyjne zwłaszcza w obszarze bramki, źródła czy też drenu dla redukcji ich oporności. Warstwy te można również wykorzystać w urządzeniach typu MOS (Metal Oxide Semiconductor), CMOS (Complementary Metal Oxide Semiconductor), FED (Field Emission Display), czy diodach półprzewodnikowych [1]. Większość krzemków metali posiada dobre przewodnictwo elektryczne i niską oporność od 10 do 100 &#956;&#937;cm [2]. W tabeli 1 przedstawiono oporność krzemków metali syntezowanych podczas reakcji cienkiej warstwy metalu (Me) z mono- lub polikrystalicznym krzemem, jak również wartość temperatury tworzenia krzemków MeySix, i ich strukturę krystalograficzną [1]. Tab. 1. Oporność różnych krzemków metali wraz z temperaturą ich tworzenia i rodzajem struktury krystalograficznej Tabl. 1. The resistivity of various metal silicides and the temperature of their formation and the type of crystallographic structure Typ krzemku Temp. reakcji [°C] Oporność [&#956;&#937;cm] Struktura krystalograficzna TiSi2 625&#8230;675a 850&#8230;900b 13&#8230;16 ortorombowa CoSi2 400&#8230;540a 700&#8230;800b 18&#8230;20 kubiczna NiSi 400&#8230;650 ~50 kubiczna Pd2Si 175&#8230;450 30&#8230;35 heksagonalna PtSi 400&#8230;600 28&#8230;35 ortorombowa WSi2 690&#8230;740 ~70 tetragonalna MoSi2 850 90&#8230;100 tetragonalna a) temperatura pierwszego wygrzewania, b) temperatura drugiego wygrzewania w celu uzyskania krzemku o niskiej oporności Większość krzemków metali powstaje na drodze reakcji w... więcej»

Badania metod PVD/CVD wzrostu nanorurek węglowych (Izabela Stępińska, Mirosław Kozłowski, Kamil Sobczak )
Aby zoptymalizować produkcję nanorurek węglowych (CNTs - Carbon Nanotubes) oraz mieć możliwość kontrolowania ich rozmiarów, należy zrozumieć mechanizmy wzrostu zaangażowane w ich tworzenie, które w istocie nie zostały jeszcze w pełni poznane i nadal stanowią wyzwanie dla badaczy zajmujących się CNTs. Nanorurki węglowe można otrzymywać za pomocą metody pirolitycznej z udziałem różnych katalitycznych prekursorów ich wzrostu. Zgodnie z niektórymi teoriami [1], w początkowej fazie wzrostu cząstka katalizatora pozostaje na końcu tworzącej się nanorurki. Oddziaływanie ścian nanorurki z cząstką katalizatora może ją zatrzymać w pewnym miejscu rurki. Wzrost może wtedy być wolno kontynuowany na otwartym końcu nanorurki do momentu, gdy inna cząstka katalizatora wznowi proces wzrostu. Jako katalizatory można stosować nanocząstki metali takie jak nikiel, żelazo, kobalt, platyna, pallad [2-6]. Metale te mogą być osadzane na powierzchni podłoża w różny sposób w celu uzyskania nanocząstek katalizatora metalicznego o odpowiednich rozmiarach na powierzchni podłoża. Jedną z metod osadzania katalizatora na substracie jest metoda PVD (Physical Vapor Deposition) opisana w [7]. Wzrost nanorurek węglowych może zachodzić w standardowym procesie CVD (Chemical Vapor Deposition). Proces ten jest przeprowadzany w kwarcowej rurze, w której umieszczone są podłoża, z cząstkami katalizatora rozłożonymi na ich powierzchni. Podłoża reagują z przepływającym przez rurę gazowym węglowodorem (etan, metan lub ksylen) w wysokiej temperaturze (450&#8230;900°C). Mechanizm wzrostu nanorurek węglowych związany jest z dyfuzją atomów węgla przez cząstki katalizatora o nanometrycznych rozmiarach, tworzących nanorurkę poprzez włączanie się do struktury tej nanorurki, powodując jej wzrost [8-11]. Istnieje kilka teorii opisujących mechanizm wzrostu nanorurek węglowych [12-14]. Mechanizm wzrostu - końcówkowy (tip growth), korzeniowy (rooth growth), czy otwartokońcówkowy (ope... więcej»

System zabezpieczeń w urządzeniu do automatycznej kontroli filtrów przeciwzakłóceniowych (Tadeusz KOZŁOWSKI, Kazimierz STROJNY)
System kontroli filtrów typ SKF-11 (rys. 1) przeznaczony jest do automatycznego sprawdzania parametrów elektrycznych, segregacji i znakowania filtrów przeciwzakłóceniowych. Urządzenie obsługiwane jest (w trybie pracy automatycznym) przez 1. operatora, którego rola sprowadza się do układania na transporterze wejściowym filtrów do badania oraz zdejmowania filtrów spełniających kryteria jakości, z transportera wyjściowego po badaniu i znakowaniu. Filtry nie spełniające wymagań (braki) są segregowane i automatycznie wrzucane do odpowiednich pojemników. System sterowania urządzenia składa się z 3 sterowników PLC lokalnych oraz komputera sterującego pełniącego rolę "mastera". Komputer sterujący również wykonuje i zarządza pomiarami parametrów elektrycznych filtrów. Sterowniki lokalne sterują poszczególnymi zespołami urządzenia: &#9679; zespołem karuzeli pomiarowej, &#9679; zespołem podawania filtrów, &#9679; zespołem segregacji i znakowania. Komunikacja w systemie sterowania odbywa się poprzez sieć Ethernet z protokołem Modbus TCP/IP. W przypadku awarii podsystemu podawania filtrów do badania, możliwa jest praca z ręcznym wkładaniem filtrów w głowice pomiarowe, pozostała część ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Analiza właściwości cienkich warstw TiO2:Tb jako powłok fotokatalitycznych (Damian Wojcieszak, Danuta Kaczmarek, Jarosław Domaradzki, Eugeniusz Prociów, Michał Mazur, Piotr Domanowski&#8201;)
Rozwój nowoczesnych technologii związany jest obecnie w dużym stopniu z właściwościami oraz z możliwościami zastosowania materiałów na bazie tlenków metali. Jednym z takich materiałów jest dwutlenek tytanu (TiO2), który ma szereg takich zalet jak np. duża przezroczystość, duża stabilność termiczna, chemiczna i mechaniczna oraz duża aktywność fotokatalityczna [1-3]. Właściwości dwutlenku tytanu mogą być modyfikowane m.in. przez zmianę parametrów procesu nanoszenia [4], domieszkowanie [4, 5] lub też przez obróbkę poprocesową (np. wygrzewanie) [6]. TiO2 jest uznanym materiałem fotokatalitycznym, powszechnie stosowanym przy wytwarzaniu powłok samoczyszczących. Jego aktywność fotokatalityczną można dodatkowo zwiększyć wytwarzając materiały o większej powierzchni aktywnej lub stosując domieszki np. w postaci takich pierwiastków ziem rzadkich jak terb, europ, czy też neodym [2, 3, 5]. Część eksperymentalna Cienkie warstwy TiO2 i TiO2:Tb naniesiono metodą wysokoenergetycznego rozpylania magnetronowego, rozpylając metaliczne targety Ti oraz Ti... więcej»

Compressed Sensing Applied to Image reconstruction in a noise SAR (Jacek Misiurewicz, Łukasz Maślikowski)
SAR imaging is performed with a radar platform moving perpendicularly to the imaging direction. Thus, the wave reflected by objects in the field of view travel a distance that first diminishes, then starts to increase. This results in a phase modulation which is present in the received baseband signal as a complex chirp along the cross-range dimension. The chirps from reflecting objects are processed with a matched filter. In the filter output signal sharp peaks are observed at locations corresponding to object positions. The peaks are much narrower than the original chirp length - their width corresponds approximately to beamwidth of synthesized antenna, i.e. an antenna whose length is determined by the travel distance of the real antenna during the signal acquisition. When we consider also the distance measurement by calculating the echo delay, we can view the whole signal as a two-dimensional one. A SAR (Synthetic Aperture Radar) processor uses this signal, sampled in temporal and spatial dimensions to create an image of the observed scene. The temporal dimension corresponds to the delay measurement, and the spatial dimension relates to repeating the measurements from different positions along the radar movement track. As a typical radar scene contains a limited number of bright (strongly reflecting) points, it may be modelled as sparse in the space-delay domain. Compressed Sensing is a novel approach to sensing and sampling, which is based on the assumption of signal sparsity instead of traditional (Nyquist) low-pass assumption. With the sparse model of the signal, a proper sampling scheme may give enough information to reconstruct the signal from much lower number of samples than it is required by Nyquist theory [1]. In the SAR application of a noise radar [2], long integration time may be used due to good sounding signal properties. This in turn permits to use low transmitted power, which is one of advantages fo noise... więcej»

Automatic image registration for computer-aided Burn Wounds evaluation (WOJCIECH TYLMAN, WOJCIECH KUZAŃSKI, MARCIN JANICKI, ANDRZEJ NAPIERALSKI)
The ability to perform temperature measurements of human body areas is important in some types of medical diagnosis. In particular, it has been shown that precise temperature measurements carry valuable indications for the treatment of burn wounds. Such measurements may be used, for example, when the physician has to determine whether the particular area of the wound may be expected to heal by itself, without surgical intervention. One possible approach to such measurements is utilisation of thermovision measurements, in particular the solutions where matrix infrared sensors are used. Such sensors are capable of capturing the temperature of many (hundreds of thousands) points at the same time. The resulting temperature map - a thermovision image - is ideally suited to the purpose of burn wound evaluation, as the burn wound itself is very often a large object, requiring multipoint measurements. Once the thermal image is captured, a detailed analysis is required in order to extract useful information. This analysis should be carried out by the physician in the hospital environment. Precision of results, short analysis time and ease of use are important here. For this purpose a dedicated software solution has been proposed, described in [1]. This paper presents further work aiming at improving and enhancing the software. BurnDiag - a PC solution for analysis of Burn Wounds This section briefly introduces BurnDiag software. For details consult [1]. Input data and user interface The BurnDiag software is intended to work with two types of images: thermovision and visible light. The main input is the thermovision image, the visible light one is supplemental, providing means to map burn wound areas to the body areas as seen by the human eye. Both images are read from a disk (usually a memory card of the camera). Although it would be possible to use a direct connection with the camera, this would require additional cables, which a... więcej»

Microwave filter tuning using coarse set of reflection characteristics and corresponding tuning elements deviations (TOMASZ KACMAJOR, JERZY JULIAN MICHALSKI)
Filter tuning is the last process in filter production line. After assembling a device, due to its imperfections, there is a need to properly adjust tuning elements to meet all technical specifications. It is a well-known problem and results in serious bottleneck during production. Tuning is performed manually by observing scattering characteristics and trying to obtain required shape by changing positions of tuning screws. Depending on filter complexity and operator&#8217;s experience, this process may vary from 15 minutes to a few hours. That is why many works have investigated this issue, trying to make the tuning faster, easier or to automate the whole process. Recently, we have proposed tuning methods based on mapping of filter characteristic to the deviation of tuning elements responsible for detuning. This mapping is performed with the use of artificial neural network (ANN) multidimensional approximator [1], neuro-fuzzy system [2] or linear matrix operator [3]. Tuned filter is treated as a &#8220;black-box" as we are not involved in, e.g., coupling matrix extraction as proposed in [5]. The approximators prepared in our methods work as follows: when the detuned characteristic is supplied at the input, the approximator generates, at its output, these values of tuning elements which are responsible for filter detuning. Therefore, operator or robot knows which screw must be adjusted in which direction and value. This general concept is depicted in Fig.1. Above-mentioned methods have been proved to tune most of modern microwave filters. But there is a room to enhance the concept. To build these approximators a set of elements {&#916;z, s} containing tuning deviations and corresponding characteristics is collected in the process of controlled random filter detuning. This process takes a long time and requires a lot of {&#916;z, s} pairs. In practice it is done by robots and could be successfully performed for filters equippe... więcej»

Detection of targets in two band radar (Tadeusz Brenner, Jan Hardejewicz, Marek Rupniewski, Marek Nałęcz)
The idea of fusion of signals from different bands described in the presented solution is based on the concept of fusion of orthogonal signals (summation of non-coherent signals - square amplitudes) in common signal processing unit. This method, called MIMO (Multiple Input Multiple Output) [1], uses, in general, many transmitters and receivers and exploits space and/or frequency diversity of received signals. In our case we use two inputs and two outputs i.e. two active radars working in the same place, but in two different bands (S and C). Hence we get a typical frequency diversity. The same idea can be used in any multiband case as well. The paper deals with the potential capability of such fusion when the two transmit-receive antennas are placed back to back. This means that the signals received from the same target are shifted half of the antenna&#8217;s rotation period apart. In consequence the signals from the same range-azimuth-elevation cells cannot be directly summed because of unknown target velocities. The summation (fusion) is possible only after track initiation of a target, i.e., when the target position in a half of antenna rotation period can be predicted. It is self-evident that the profit of such fusion algorithm results from the frequency diversity of independently fluctuating signals. In our case there is an additional benefit due to the cueing. Namely, it allows to lower the threshold of detection within the predicted region of the tracking gate. The profit obtained in this way depends on the number of cued targets and the dimensions of the predicted targets gates. Another advantage is that the refreshment rate of tracked objects is doubled. Diagram of data and signal fusion The proposed block diagram of the signal processing subsystem, including fusion of signals and data from different bands, for the case of two-band radar is shown in Fig. 1. In the both ... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Printed transparent electrodes with graphene nanoplatelets (Małgorzata JAKUBOWSKA, Marcin SŁOMA, Daniel JANCZAK, Anna Młożniak, Grzegorz WRÓBLEWSKI)
In last years notable development in research of sustainable, regenerative and ecological electrical energy generation solutions can be observed. This is caused by rising costs of fossil fuels, increasing demand for energy, especially in emerging countries and environmental problems for instance carbon dioxide amount in atmosphere, climate change or air contamination [1]. Nuclear plants could be a good alternative for fossil fuels plants, but they are considered to be dangerous especially in regions of earth where earthquakes, tsunamis and other disasters can take place [2]. They are some regenerative electrical energy generation solutions but they have also some disadvantages and they are not totally environmental friendly. For example a hydropower plant needs large areas of terrain to be flooded - ecosystems changes [3] and need of homesteads relocations. Wind farms are not a perfect idea neither because they are interfering with flying animals causing even fatality through collision with rotating turbine rotor blades [4]. Those drawbacks made authorities, researchers and investors looking for other sources of energy, and solar energy seems to have prominent future. Crystalline silicon solar cells are are actually well developed photovoltaic devices but still too expensive per kWh in comparison to other energy sources as regard mass energy generation. Therefore organic solar cells are investigated and can be a promising alternative for low cost energy generation. Furthermore using organic materials give great opportunity in elastic photovoltaic devices production. This paper is focused on transparent organic electrodes which are parts of photovoltaic cells. Indium tin Oxide (ITO) and fluorine tin oxide (FTO) have been common materials as window electrodes in optoelectronic devices [5], but they have some disadvantages e.g. high price, chemical instability and low mechanical strength. They have been made many studies on other... więcej»

Photovoltaic bulk heterojunctions with interpenetrating network based on semiconducting polymers (Michał Modzelewski, Ewa Klugmann -Radziemska)
Bulk heterojunctions with interpenetrating network architecture (BHS) is nowadays the most prospective one exploited for organic electronic devices manufacturing as it enables fabricating large and flexible areas of light-emitting diodes, transistors and solar cells. Bulk heterojunction with internal network of percolation paths is intermixed spatial blend of two physically stable phases (Fig. 1). One of the phases is composed of electron-donor compound which is characterized by low ionization potential and second with high electron affinity acts as an electron-acceptor. Exceptional position of BHS amongst all architectures of organic PV devices can be explained primarily by possibility of low-cost deposition of soluble organic photoactive compounds by means of novel techniques such as spin-coating, screen printing or doctor blading on the one side and by achieving internal network within an exciton diffusion length on the other side. Until that day the most effective bulk heterojunction based on semiconducting (conjugated) polymers is structure of Poly(3-hexyltiophene) (P3HT) acting as electron donor an Phenyl-C60-butyric acid methyl ester as electron acceptor [1] (Fig. 2). There are different BHJ technologies referred to type of applied materials. The common part for all of them is solubility of constituent compounds. As far as BHJs are charge transfer systems one may divide them into polymer/fullerene derivatives, polymer/polymer, low-band gap polymers/fullerene derivatives, polymer/inorganic compound and polymer/oxide. All mentioned may be doped or not. To find our own place amongst organic photovoltaic we decided to apply low-band gap polymer for organic solar cell. The main goal of following paper was to construct an organic photovoltaic cell in BHJ ... więcej»

Nanokompozyty TiO2 / SnO2 jako rezystancyjne sensory gazu (Anna KUSIOR, Joanna KLICH-KAFEL, Marta RADECKA, Maria LUBECKA, Adam CZAPLA, Katarzyna ZAKRZEWSKA)
Rezystancyjne detektory gazów na bazie prostych tlenków metali, takich jak TiO2 i SnO2 są znane od wielu lat, jednakże pomimo dużej czułości ich podstawową wadą jest brak selektywności. Czujniki gazów na bazie TiO2 w przeciwieństwie do SnO2 pracują w bardzo wysokich temperaturach. Ostatnio obserwuje się rosnące zainteresowanie materiałami kompozytowymi, które składają się z dwóch tlenków metali, np. SnO2/ZnO, Fe2O3/ZnO, Fe2O3/SnO2, WO3/SnO2 dla aplikacji sensorowych. Kompozyty TiO2/SnO2 znane są jako czujniki wodoru i materiały katalityczne [1-4] gdyż łączą najkorzystniejsze właściwości poszczególnych składników. Mechanizm detekcji amoniaku jest bardziej złożony [5-7]. Na powierzchni czujnika zachodzą dwa przeciwstawne procesy. Oddziaływanie NH3 z zaadsorbowanym tlenem na powierzchni powoduje obniżenie oporu oraz powstanie H2O i NOx (NO i NO2), natomiast reakcja pomiędzy amoniakiem a tlenkami NO i NO2 jest odpowiedzialna za wzrost oporu. Oba zachodzące jednocześnie p... więcej»

Surface morphology and optical properties of polymer thin films (JAN Weszka, Magdalena Szindler, Maria Bruma )
Industrial development has always been associated with the development of energy technologies, mainly consisted of the introduction of changes to the existing and implementing new types of energy sources. In the twentieth century, these changes consisted mainly in the transition from coal as the primary energy fuel for petroleum and then from oil to gas. Today, the economic and ecological reasons, looking for alternative sources of energy. Seems to be the most valuable comes from renewable sources and can be converted to any form of energy. The rapid development of electronics and materials science, and especially for semiconductor and chemistry of polymeric materials is related to the introduction of modern engineering materials. Gained important conductive polymers [1, 2]. The most famous of conductive polymer materials include polyacetylene, polythiophene, and polyphenylene. An important group of polymers whose main chains are composed of carbon atoms connected by alternating single and double bonds, called conjugat... więcej»

Dwuwymiarowe kryształy fotoniczne jako elementy aktywne spektroskopowych czujników gazów (Marcin WIELICHOWSKI, Adrian ZAKRZEWSKI, Sergiusz PATELA)
Optyczna detekcja gazów możliwa jest dzięki oddziaływaniu światła z ośrodkiem gazowym. Obecność molekuł gazu podlegającego detekcji zmienia właściwości fizyczne ośrodka (np. powietrza). Interesujące z punktu widzenia optycznej detekcji gazów, zmieniające się właściwości fizyczne powietrza, to optyczny współczynnik załamania i optyczny współczynnik absorpcji. O ile zmiany współczynnika załamania manifestują się niezależnie od długości fali światła, o tyle zmiany absorpcji zachodzą tylko dla ściśle określonych zakresów długości fali (piki absorpcji). Ponieważ selektywność ze względu na długość fali przekłada się na selektywność ze względu na rodzaj wykrywanego gazu, w praktyce wykorzystuje się przede wszystkim zmiany współczynnika absorpcji. Absorpcyjne pomiary stężenia gazów to część rozległej, dobrze opanowanej dziedziny - spektroskopii absorpcyjnej. Oprócz selektywności, istotną cechą detekcji optycznej w czujnikach jest brak konieczności chemicznego oddziaływania wykrywanego gazu ... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Układ zasilania i sterowania impulsowej diody laserowej z rozłożonym sprzężeniem zwrotnym pracującej w paśmie widmowym bezpiecznym dla wzroku (Wiesław Pichola, Maria Maciejewska, Marcin Mamajek, Jacek Kwiatkowski, Jacek Świderski)
We wczesnych latach 70. lasery pompowane były głównie lampami błyskowymi lub innymi laserami [1, 2]. Koniec lat 80. i lata 90. to okres, w którym zaczęto wykorzystywać diody laserowe jako źródła pompujące lasery ciała stałego i fakt ten zadecydował w ogromnej mierze o ich gwałtownym rozwoju, jaki obserwujemy do dnia dzisiejszego [3-5]. Postęp technologii, opracowanie nowych metod wytwarzania (epitaksja, podwójna epitaksja) nowych materiałów i struktur spowodowały dynamiczny rozwój rozpartywanych źródeł światła. Zastosowanie nowych rozwiązań technologicznych pozwala m.in. na zmniejszenie rezystancji termicznej między złączem a obudową, co skutkuje zwiększeniem mocy z jednostki objętości diody laserowej, podwyższeniem częstotliwości przy pracy impulsowej z dziesiątek kHz do powyżej 100 MHz i skróceniem czasu trwania impulsu poniżej 1 ns. Są to kluczowe parametry dla wielu aplikacji wykorzystujących bezpośrednio lub pośrednio diody laserowe - np. w dalmierzach laserowych, wskaźnikach celów lub układach LADAR [6,7]. Artykuł przedstawia propozycję rozwiązania układowego generatora impulsów prądowych dla diod laserowych z rozłożonym sprzężeniem zwrotnym na przykładzie diody LC25T firmy OCLARO [8], generującej promieniowanie o długości fali 1550 nm. Opracowanie założeń i projekt koncepcyjny zasilacza impulsowej diody laserowej Projektowany zasilacz miał być źródłem energii elektrycznej dla impulsowej diody laserowej typu LC25T firmy OCLARO z możliwością zapewnienia odpowiedniego chłodzenia diody. W tabeli przedstawiono parametry rozpatrywanej diody laserowej, na podstawie których ustalono wymagania w stosunku do jej układ zasilania. Z danych przedstawionych w tab. można wyodrębnić zasadnicze podzespoły projektowanego układu zasilania i określić... więcej»

Naziemna telewizja cyfrowa - wybrane zagadnienia (JAN BOGUCKI)
Telewizja analogowa jest znana na świecie od ponad pięćdziesięciu lat. Można bez cienia wątpliwości stwierdzić, że ten system nadawania programów sprawdził się. Mimo to, w Polsce 31 lipca 2013 roku [4] zostanie wyłączony ostatni telewizyjny nadajnik analogowy. Nadawanie telewizji od tego momentu będzie się odbywało tylko w formie cyfrowej. Jakie czynniki zadecydowały o tak radykalnym zmianie sytemu? Otóż na zmianę tę wpłynął szereg czynników. Najważniejszy z nich jest związany z tzw. dywidendą cyfrową, polegającym na tym, że cały kraj może być pokryty nawet 8 programami telewizyjnymi przy wykorzystaniu teoretycznie tylko jednego dotychczasowego kanału analogowego o szerokości 8 MHz. A więc oszczędności widma elektromagnetycznego, które jest dobrem ograniczonym, a tym samym, które należy eksploatować oszczędnie, nie da się przecenić. Innym czynnikiem jest rozwój nowych technologii, wymagający dostępnego pasma elektromagnetycznego np. dla transmisji danych w technologii LTE (Long Term Evolution). W artykule przedstawiono pewne charakterystyczne aspekty dotyczące naziemnej telewizji cyfrowej. Nadawanie tradycyjne i cyfrowe W telewizji analogowej dla każdego programu konieczne jest zbudowanie własnej, odrębnej sieci dystrybucyjnej (rys. 1), tzn. sieci nadajników dostarczających abonentom określony program. (W praktyce sprowadza się to do tego, że różni nadawcy wykorzystują tą samą antenę czy maszt w danej miejscowości.) Wiąże się to z faktem, że każdy z tych programów musi być transmitowany w dedykowanym tylko jemu kanale częstotliwościowym 8 MHz. Z reguły są wykorzystywane nadajniki dużej mocy i w tych kanałach występuje zjawisko zakłóceń interferencyjnych. Z tego powodu ogranicza się poziom zakłóceń wspólnokanałowych m.in. w ten sposób, że przy transmisji analogowej nadajniki sąsiednich ośrodków zawsze pracują na innych częstotliwościach kanałów. Wzrasta wtedy szerokość wykorzystywanego pasma częstotliwości, a tym samym taka... więcej»

Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

Application of scale-invariant feature transform to fingerprint classification (Jakub Sobek, Damian Cetnarowicz, Adam Dąbrowski)
Recognition of fingerprints is one of the main biometric methods for people identification. In general, the biometric methods aim to determine identity using anatomical or behavioural characteristics. Classical identification methods utilize tokens (keys) or knowledge (passwords). Such methods identify not a person but, in fact, some information, which is held by the person and can be lost or stolen. In the first case this is a kind of trouble but in the latter case this is a kind of danger. Because of these reasons efforts in biometry research are aimed to recognize people by their body or behaviour. Common biometrics are: face, iris, ear, voice, hand geometry, vein geometry, fingerprint, gait, palm print, rhythm of typing, DNA, etc. Each biometric has its advantages and its weakness. Among these, fingerprint is the oldest method of biometric identification [1]. In the late nineteenth century Sir Francis Galton systematized characteristic elements of fingerprint image. These elements are called minutiae and are parameterised by their position, type, and orientation. The best assessment of fingerprint importance is the fact that this is accepted by the law. Currently, since the technological development has arisen, fingerprint is also the biometric with the easiest technique of acquisition [2]. Because of that it is used in locks and even in mobile devices. At the beginning of fingerprint application, the two impressions of a fingerprint were compared manually. It is still the most accurate way for comparison. As computer technology was developed, algorithms for automatic fingerprint matching have been invented. The automatic recognition is much faster but its accuracy is lower. In manual matching a set of minutiae has to be found for each fingerprint. Given these sets, an expert compares minutiae, their positions and other parameters (attributes). A difficulty of this comparison is that the minutiae positions are distorted b... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient&#8217;s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor&#8217;s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient&#8217;s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article &#8220;Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Fabrication and properties of multilayer capacitors with multicomponent ferroelectric dielectric (Jan Kulawik, Dorota Szwagierczak)
Multilayer ceramic capacitors can offer small size, high capacitance, stable temperature characteristics, high reliability and low cost [1-8]. The successful attainment of these features is strongly dependent on applied dielectric materials. The MLCC structure manufactured in LTCC process consists of alternate dielectric layers and metallic electrodes in parallel configuration. High dielectric constant, small thickness and large number of dielectric layers are factors determining high volumetric efficiency of a multilayer capacitor. The progress in tape casting and LTCC technology has made it possible to produce hundreds of very thin dielectric layers with a thickness diminished down to 3 &#956;m. The early dielectric formulations are based on BaTiO3 which resulted in necessity of the use of expensive platinum or gold platinum internal electrodes. Application of sintering aids lowering BaTiO3 firing temperature down to 1150°C allowed utilization of cheaper palladium-silver electrodes. A further decrease in this temperature making possible the use of Ag electrodes requires excessive amounts of fluxes and causes detrimental diminishing of dielectric constant of BaTiO3 ceramic. One of the best solutions overcoming these problems is the introduction of relaxor compounds with perovskite structure and a general formula of Pb(B&#8217;B")O3 (B&#8217;=Mg, Zn, Fe; B"=Nb, Ta, W). High and broad maxima of dielectric permittivity along with low sintering temperature and ability to form thin layers are advantages of capacitor dielectrics containing these materials. In this work the multicomponent composition of dielectric was tailored to attain a few purposes determining processing conditions and desired properties of multilayer capacito... więcej»

Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą &#8216;VBS & new-cost&#8217; (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures &#8220;more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration. &#61607; SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion. &#61607; SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for &#8220;More than Moore" approaches, where a heterogeneous syste... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: &#9679; how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; &#9679; how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; &#9679; how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufr&#234;ne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
O bezpieczeństwie algorytmu RSA (Wojciech Nowakowski)
Podstawowym elementem aplikacji i protokołów szyfrowania danych są algorytmy kryptograficzne. Tematem niniejszego artykułu jest bardzo szeroko obecnie stosowany algorytm RSA [1]. RSA jest algorytmem kryptograficznym z kluczem publicznym, który umożliwia zarówno szyfrowanie jak i podpisywanie cyfrowe (weryfikacja). Podstawową zaletą kryptografii z kluczem publicznym jest to, że klucze nie muszą być przekazywane lub ujawniane nikomu, w odróżnieniu od kluczy prywatnych (tajnych), które muszą być przekazywane, gdyż ten sam klucz służy do szyfrowania i deszyfrowania danych. System RSA opracowali w 1977 r. Ronald Rivest, Adi Shamir i Leonard Adleman (Fot.). Algorytm RSA działa w następujący sposób: &#61550; Wybieramy dwie duże liczby pierwsze:{p, q} oraz obliczamy ich iloczyn n = pq oraz funkcję Eulera &#966; = (p - 1)(q - 1). Wybieramy losowo liczbę e < n, względnie pierwszą* z liczbą &#966;. Liczba e będzie kluczem szyfrującym. Znajdujemy (korzystając z rozszerzonego algorytmu Euklidesa) liczbę d taką, że: d &#8801; e-1 (mod &#966;) lub de &#8801; 1 (mod &#966;), d<&#966;. Liczby d i n są także względnie pierwsze. Liczby {e,n} stanowią klucz publiczny, który ujawniamy, zaś liczby {d,n} stanowią klucz prywatny, który powinien być ściśle chroniony (liczba d) [2]. Szyfrowanie, deszyfrowanie, podpisywanie lub weryfikacja polega w... więcej»

Wybrane zagadnienia metrologii mikro- i nanostruktur (Teodor Gotszalk, Grzegorz Jóźwia, Zbigniew Kowalski, Karol Nitsch, Tomasz Piasecki, Jacek Radojewski, Anna Sankowska, Jarosław Serafińczuk, Przemysław Szecówka)
Postęp w dziedzinie mikro- i nanotechnologii jest związany nie tylko z rozwojem technologii wytwarzania mikro- i nanostruktur, ale również wymaga opracowania i wdrożenia nowych metod i technik badania stosowanych materiałów, konstruowanych przyrządów i podzespołów. Od technik i metod badawczych oczekuje się w tym przypadku przede wszystkim możliwości metrologicznej - innymi słowy - ilościowej oceny obserwowanych zjawisk. Dodatkowo powinny one się charakteryzować dużą czułością pozwalającą często na rejestrację zjawisk kwantowych oraz - w wielu przypadkach - nadzwyczajną lokalną zdolnością rozdzielczą umożliwiającą przeprowadzenie eksperymentu w obszarze kilkudziesięciu nanometrów kwadratowych. Należy zwrócić uwagę, że metrologia obejmuje nie tylko praktykę prowadzenia pomiaru, ale obejmuje również jego aspekty teoretyczne. W przypadku mikro- i nanostruktur oznacza to również interpretację rejestrowanych wyników, wykraczającą poza stosowane w makroskali rozumowanie bazujące często na statystycznym uśrednianiu. Konieczne jest również opracowanie i wdrożenie wiarygodnych i powszechnych metod skalowania stosowanych układów i przyrządów, co umożliwiałoby porównywanie wyników między poszczególnymi laboratoriami. Zakład Metrologii Mikro- i Nanostruktur (ZMMiN) Wydziału Elektroniki Mikrosystemów i Fotoniki (WEMIF) Politechniki Wrocławskiej (PWr) zajmuje się opisanymi zagadnieniami od 2006 roku. Ideą prowadzonych badań jest, aby integrując różne metody i techniki badawcze, dokonywać ilościowej oceny zachowań struktur spotykanych w nanotechnologii, biotechnologii i technice mikrosystemów. Integracja ta obejmuje techniki pomiaru właściwości elektrycznych (m. in. spektroskopia impedancyjna, ang. Impedance Spectroscopy, IS), skaningową mikroskopię elektronową (ang. Scanning Electron Microscopy, SEM), mikroskopię bliskich oddziaływań (ang. Scanning Probe Microscopy, SPM), dyfraktometrię rentgenowską (ang. X-ray diffraction, XRD), optoele... więcej»

Dwuwymiarowe kryształy fotoniczne jako materiał nowoczesnej fotoniki &#8211; metody wytwarzania i zastosowania (Szymon Lis, Konrad Ptasiński, Przemysław Ryba, Marcin Wielichowski, Adrian Zakrzewski, Sergiusz Patel )
Kryształ fotoniczny to sztucznie wytworzona nanostruktura, w której występuje okresowa zmienność współczynnika załamania. Zmienność ta może mieć charakter jedno-, dwu- lub trójwymiarowy. Jeżeli okres zmian jest porównywalny z długością fali światła w strukturze, może wystąpić optyczna przerwa zabroniona. Kryształy fotoniczne z optyczną przerwą zabronioną, to nowa klasa "materiałów" na bazie których można wytwarzać nowe, bardziej efektywne i mniejsze przyrządy fotoniki, w tym układy optoelektroniki zintegrowanej o dużej skali integracji, nanolasery, światłowody o niespotykanych dotąd właściwościach oraz nowe typy czujników optycznych. Obszary zastosowań kryształów fotonicznych to: optyka, optoelektronika, technika mikrofalowa, biofotonika, akustyka, sensoryka [1]. Przykłady jedno- i dwuwymiarowych struktur fotonicznych to zwierciadło Bragga, włóknisty światłowód fotoniczny bądź też periodyczna matryca otworów wytrawiona w światłowodzie warstwowym. Najwięcej możliwości oferują struktury trójwymiarowe, ich technologia jest jednak kłopotliwa i wykracza poza obszar klasycznych technologii mikroelektroniki. W porównaniu do struktur trójwymiarowych dwuwymiarowe (planarne) kryształy fotoniczne charakteryzuje prostota wytwarzania i małe koszty wytwarzania. Rys. 1. Przykłady kryształów fotonicznych. Jasne i ciemne bloki reprezentują materiały o wyższym i niższym współczynniku załamania: a) - jednowymiarowy KF; b) - dwuwymiarowy KF o modulacji współczynnika załamania w płaszczyźnie XY; c) - trójwymiarowy KF Fig. 1. Examples of photonic crystals. Bright and dark fields represent materials of high and low refractive index: a) one-dimensional PhC, b) two-dimensional PhC with refractive index modulated inXY plane, c) three-dimensional PhC a) b) c) 30 Elektronika 2/2012 Metody wytwarzania dwuwymiarowych kryształów fotonicznych Dwuwymiarowe kryształy fotoniczne można wytwarzać metodami dobrze znanymi i opracowanymi na użytek mikroelektroni... więcej»

Magnetronowe rozpylanie &#8211; technika i technologia (Witold M. Posadowski, Artur Wiatrowski, Katarzyna Tadaszak, Józef Kudzia)
Cienkie warstwy materiałów jednoskładnikowych, stopów i związków chemicznych mogą być otrzymywane metodą rozpylania magnetronowego. Na podłożach o różnych kształtach i rozmiarach, możliwe jest osadzanie warstw przewodzących, półprzewodnikowych i dielektrycznych. Nanowymiarowe struktury cienkowarstwowe jedno- i wieloskładnikowe mogą być wykonywane w postaci wielowarstw, kompozytów, cermetów, mieszanin itp. Atrakcyjność metody magnetronowego rozpylania wynika z możliwości równomiernego, wysokowydajnego osadzania warstw na różnego kształtu powierzchniach, co pozwala spełniać wymagania procesów przemysłowych. W Zakładzie Technologii Próżniowych i Plazmowych, Wydziału Elektroniki Mikrosystemów i Fotoniki, Politechniki Wrocławskiej prowadzone są badania niekonwencjonalnych procesów magnetronowego rozpylania. Obejmują one opracowywanie i wykonywanie prototypów nowych źródeł magnetronowych oraz badania procesów technologicznych realizowanych za pomocą tych urządzeń. W badaniach są wykorzystywane wyrzutnie magnetronowe typu WM (WMK - kołowa, WMP - prostokątna, WMC - cylindryczna), których konstrukcja jest opracowywana pod kątem realizowania oryginalnych technologii nanoszenia cienkich warstw, ze szczególnym uwzględnieniem procesów autorozpylania i impulsowego reaktywnego osadzania cienkich warstw. Układy magnetronowe typu WM Koncepcja budowy magnetronów WM uwzględnia możliwość stosowania tych urządzeń w wysokowydajnych, powtarzalnych procesach technologicznych. Układ magnetyczny magnetronów zapewnia prawidłowe działanie przy stosunkowo niskich ciśnieniach pracy z jednoczesnym efektywnym wykorzystaniem materiału rozpylanego. Wybrane parametry rodziny magnetronów typu WM przedstawiono w tabeli oraz na rys. 1. Układy WM cechuje możliwość pracy przy mocach targetu (znacznie większych) oraz ciśnieniach roboczych (znacznie niższych) odbiegających od wartości stosowanych w standardowych układach magnetronowych. Jest to możliwe dzięki efek... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju &#8211; część 2 (Edward Sędek&#8201;)
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej gabarytowo i ciężkiej aparatury na platformie samochodowej (mobilnej) było praktycznie niemożliwe. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, ogólnie zarówno w płaszczyźnie elewacji, jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można w razie potrzeby dynamicznie regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, rakiety, w tym balistyczne, oraz różnego rodzaju pociski, głównie moździerzowe. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Pojęcie radaru wielofunkcyjnego odnosi się do nowoczesnych systemów radiolokacyjnych, które oprócz "standardowego" określenia współrzędnych położenia wykrywanych celów ruchomych p... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Metal - oxide sensor array for gas detection (Patryk Gwiżdż, Andrzej Brudnik, Katarzyna Zakrzewska)
Resistive-type semiconducting gas sensors based on metal oxides are convenient and relatively cheap devices used for detection of reducing and oxidizing gases. It is well-known that except for their high sensitivity, their largest drawback is the lack of selectivity. Such sensors cannot distinguish between different gases of the same type, e.g. hydrogen and methane because their dynamic responses look similar. However, this cross-sensitivity, manifesting itself as a non-zero sensor response to interfering gases, is used to advantage in arrays of gas sensors or electronic noses [1-2]. Application of pattern recognition schemes (PARC) allows for classification and recognition of particular components of the analyzed gas mixture and volatile organic compounds (VOCs) [3-6]. Vast research field of classification based on this idea has been established in the 80 ties of 20 th century and a new type of device called: electronic nose has been proposed [1]. The electronic noses are mainly designed to detect and recognize VOCs responsible for smell [7]. Although commercial devices are now available, there is still a need to create miniaturized portable systems. The aim of this work was to design and construct an array of resistive-type semiconducting sensors dedicated to detection and recognition of components of a gas mixture especially hydrogen and ammonia. Detection of these gases becomes increasingly important for their use in automotive industry (ammonia) [8] and fuel cells (hydrogen) [9]. One of the most important requirements for the supporting electronic system is its flexibility understood as a simplicity of reconfiguration in the case of changing number of sensors. The analog part of the system had to be constructed in suc... więcej»

Device for road holes and obstacles detection (Wojciech Gelmuda, Andrzej Kos)
Today&#8217;s life as we know it is based on visual signs. Practically all the important information needed to go independently through an average person&#8217;s day is provided by their sight. Let us focus on some urban environment. A person is able to see objects, determine their approximate distance, distinguish between a hole and a bump on a road, detect and recognize an important element from its background or simply read some text information from books, posters, etc. Most of these actions, if not all, allow people to gather information and give them time to react before they approach some objects. Furthermore, there are many devices that help people gain more important for them information than they would be able to learn from a closest environment in their field of view, such as navigation systems. There are also many devices that help people keep safe and avoid some accidents, like for instance, street lights and road signs. But neither of them is well suited for visually impaired people. Of course, there are special audio signals for blind people near some pedestrian crossings and there are devices which help visual impaired people avoid obstacles [1], but they are still not sufficient to keep them safe and well informed about their surrounding environment [2]. This is mostly due to a change of sensors positions while a blind person is moving. That is why we develop a MOBIAN&#169; project - Mobile Safety System for the Blind [3]. This project is supported by The National Centre for Research and Development under: NR13-0065-10. A part of the MOBIAN&#169; project is to create a highly reliable device for detecting obstacles and holes of various length and depth, as it is presented in Fig. 1. There is no doubt that special algorithms have to be designed, tested and implemented for this purpose. Fig. 1. Holes and other obstacle detection Rys. 1. Wykrywanie dziur, usk... więcej»

Numerical study of the interface heat transfer characteristics of micro-cooler with CNT structures (Yan Zhang, Shun Wang, Shiwei Ma, Zhili Hu, Johan Liu, Janusz Sitek, Kamil Janeczek)
With the continuously increasing packaging density in electronic products, the system ability to dissipate heat loads has become a concern in the overall performance. Some novel cooling techniques have emerged to meet the thermal management requirements of high power microelectronics components and devices. Micro cooling, including micro-pin-fin, micro-channel and so on, provides a promising solution for high-powered electronics. Meanwhile, carbon nanotubes (CNTs) have shown advantages in material properties such as the electrical conductivity [1], [2], the thermal conductivity [3], [4] and the mechanical properties [5], [6]. CNTs can be used as the micro-cooler construction due to the excellent thermal conductivity [7]. A micro-channel cooler with vertically aligned CNT arrays had been developed [8], [9], where the CNT structures were employed as channels inside to enhance the heat transfer. And experimental measurement had also been carried out to evaluate the overall heat removal capability of the CNT-based micro-cooler. Beside experimental works, the macroscopic heat transfer characteristics of the micro-channel heat sinks with carbon nanotubes were also studied numerically [10], [11], in which parameters such as the inlet velocity, the heating power, the CNT structure size as well as the flow field and the temperature distribution were analyzed. The most widely used fabrication method to obtain aligned CNTs is the thermal or plasma-enhanced chemical vapour deposition (CVD). During the process, the carrier substrate typically needs to be heated up to approximately 700°C or even higher. Such a high temperature is not compatible with most of the temperature- sensitive components or devices. A transfer method was proposed as a solution to this problem, in which the pre-prepared CNT forest could be transferred onto the target surface at a low temperature so that the integration of the CNTs into various device and material pro... więcej»

EMC Aspects in microelectronics structures made in LTCC technology (Wiesław SABAT, Dariusz KLEPACKI, Włodzimierz KALITA)
The fast development of LTCC technology (Low Temeperature Cofired Ceramic) is observed in relation to realization of multilayered hybrid structures. It is applied for manufacturing of wide range of microelectronic circuits, especially MCM-C structures (Multi Chip Module on Ceramics) which are used in different areas of industry. The multilayered structures, sensors, microsystems, passive elements, microwave elements can be found in telecommunication, informatics, radioengineering, mechatronics, transport, etc. The possibility of creation of channels and cavities inside of LTCC module allows to realization of chemical microreactors, hydraulic systems in microscale (together with pumps and valves), fuel cells, flat plasma displays, sensors of physical quantities and systems applied in biotechnology and medicine [1, 2]. Parasitic elements of paths&#8217; system The calculations of mutual capacitance CM and effective inductance Lz (for two parallel paths system with parametrically changed the mutual distance "s" and paths width "w") were made using elaborated PACAPIND program. They allowed to determine range of parameters changes of parasitic elements in typical LTCC structure for three basic configurations. For experimental investigations (determination of per-unitlength parameters) the test circuits were made in configuration of mutual parallel path systems (Fig. 1) on the basis of silver conductive paste HF612Ag and LTCC substrate 943PX from DuPont. The test circuits were made in three configurations: onelayered, two-layered with ground plane (microstrip configurations) and layered with the same thickness of subs... więcej»

Impedance spectroscopy as a diagnostic tool of degradation of Solid Oxide Fuel Cells (Konrad Dunst, Sebastian Molin, Piotr Jasiński)
Solid oxide fuel cell (SOFC) is an electrochemical device that converts chemical potential energy directly into electrical power. In comparison with a traditional combustion process, the SOFCs offer greater efficiency, reliability and environmental friendliness [1]. The SOFCs have a great potential to generate power from a wide range of fuels: hydrogen, carbon monoxide, hydrocarbons and alcohols. However, when operated, the fuel cells usually degrade. The nature of this process depends on the type of the applied fuel and materials used to fabricate the SOFC. In particular, when hydrocarbons are used as a fuel, a carbon can deposit inside the anode structure [2]. The deposited carbon may cause a complete degradation of the fuel cell. Further development of the SOFCs requires investigation of degradation process during fuel cells operation. Among the fuel cell diagnostic tools, AC impedance spectroscopy is a powerful technique [3]. This method allows obtaining information about different electrode processes, namely, oxygen reduction reaction kinetics, mass transfer and electrolyte resistance losses [4]. Selection of the appropriate experimental conditions (temperature, pressure and flow rate) may provide information extracted from the impedance spectra about the performance losses from the each fuel cell element separately [3,5]. Different electrode processes reveal unique characteristic frequencies, which depend on cell structure, materials used for SOFC fabrication and testing conditions. For example, in case of the anode supported cells with LSM ((La0.75Sr0.25)0.95 MnO3) cathode operated at 750°C it was found [6], that the characteristic freque... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»