profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Algorytm kompensacyjny w procesach identyfikacji i sterowania złożonych systemów dynamicznych (STANISŁAW KAPKA)
Współczesne złożone systemy dynamiczne są instalowane w przemyśle lotniczym, chemicznym, militarnym, elektroenergetycznym, robotyce. Rozwiązania zagadnień identyfikacji i sterowania w większości są realizowane techniką cyfrową. Wiąże się to z szerokimi możliwościami współczesnych technologii i systemów komputerowych. Wraz ze wzrostem złożoności systemu dynamicznego, czego przykładem jest system elektroenergetyczny, wydajne algorytmy sterowania komputerowego by zachować przewagę technologiczną, powinny być wspierane rozwiązaniami tworzącymi najniższą warstwę identyfikacji i sterowania o działaniu równoczesnym. Znajduje to potwierdzenie w opisie stanów nieustalonych, stabilności, regulacji, stabilizacji systemu elektroenergetycznego [1, 2], a także w opisie systemów cyfrowych [3, 4]. Wraz ze wzrostem wymiaru systemu, pojawiają się trudności z konstrukcją modelu jak również z szybkim uzyskaniem rezultatów symulacyjnych. Aby przyspieszyć procesy symulacyjne można wprowadzić proponowany algorytm kompensacyjny, umiejscowiony w najniższej warstwie identyfikacji i sterowania. Jest on realizowalny w strukturze elektronicznej, w opisie funkcjonalnym prezentowanym w [1- 6]. Na rysunku 1 zilustrowano typowy układ regulacji automatycznej z analogowym sprzężeniem zwrotnym, gdzie: EP - element porównujący, yO(t)- wielkość odniesienia, e(t) - sygnał uchybu, PID - regulator, u(t), u’(t) - sterowania, z’(t) - zakłócenia, y’(t), y’’(t) - wyjścia obiektu regulacji odpowiednio analogowe i impulsowe. Stosownie do wyjść, wprowadza się czujniki analogowe lub impulsowe realizujące proces konwersji sygnałów silnoprądowych na odpowiednie sygnały napięciowe, dalej przetwarzane w elemencie pomiarowym i przetwarzającym. Niedogodnością struktury z analogowym sprzężeniem zwrotnym jest wpływ przełącznika umiejscowionego w torze sprzężenia zwrotnego (elementu porównania) na sterowanie. Proces przełączania pętla otwarta/pętla zamk... więcej»

Porównanie intensywności kawitacji w temperaturach 50 i 60°C roztworów wybranych soli przy częstotliwościach ultradźwięków 26 i 38 kHz (Bogdan Niemczewski )
Oczyszczanie ultradźwiękowe w roztworach wodnych prowadzi się najczęściej stosując, ze względu na reakcje chemiczne roztworów z zanieczyszczeniami, substancje alkaliczne lub kwasy. Czasami jednak rodzaj usuwanych zanieczyszczeń powoduje, że bardziej efektywne są inne środki oczyszczające, na przykład utleniacze, reduktory lub same tylko środki powierzchniowo czynne a nawet, z powodu wysokiej intensywności kawitacji, woda bez żadnych dodatków. Woda bowiem, jak to uznawano dotychczas, jest cieczą zdolną kawitować najintensywniej, przy czym temperatura jej maksymalnej kawitacji wynosi 35ºC [1, 2]. Publikacje autora z ostatnich lat dowodzą jednak, że przy zastosowaniu ultradźwięków o częstotliwości 34…39 kHz i wysokiej mocy, roztwory niektórych substancji alkalicznych kawitują, zwłaszcza w podwyższonych temperaturach, intensywniej niż woda. Fakt ten stwierdzono dla roztworów 1…2-procentowych Na3PO4 przy częstotliwości 34 kHz, a przy częstotliwości 38 kHz również dla licznych innych roztworów substancji alkalicznych [3-5]. Powstaje pytanie, czy jest to cechą wyłącznie substancji o odczynie alkalicznym, czy też odczyn nie ma tu istotnego znaczenia. Jeżeli również niektóre inne sole zdolne byłyby w pewnych warunkach podwyższać intensywność kawitacji, to można byłoby je wykorzystywać do maksymalizacji intensywności kawitacji, a tym samym maksymalizacji efektywności oczyszczania ultradźwiękowego. Przedmiotem pracy zreferowanej w niniejszym artykule jest próba porównania wpływu na intensywność kawitacji dodatku do wody różnych soli nieorganicznych. Przyjęto 3-procentowe stężenia nadźwiękawianych roztworów, ponieważ jak wykazały wcześniejsze badania, przy tej zawartości soli w roztworze wpływ stężenia na spadek intensywności kawitacji jest jeszcze stosunkowo niewielki [4]. 35 użytych do prób soli przy częstotliwości 26 kHz i 23 przy częstotliwości 38 kHz oczywiście daleko nie wyczerpuje palety rozpuszczalnych w wodzie... więcej»

Wireless data transmission for fiber optical sensor system (Katarzyna Karpienko, Maciej S. Wróbel, Małgorzata Jędrzejewska -Szczerska)
Optical fiber sensors are an important group of optical sensors. Combining high measurement resolution with broad measurement range, these sensors can measure accurately several physical quantities, such as temperature or pressure [1]. Intensity-based sensors requires only a simple detector, such as a photodiode, which increases sensor reliability. Optical fiber sensors offer contactless measurements, which is their greatest advantage. Moreover, as they use conventional, inexpensive optical components, their cost can be kept low. However, multiplication of number of optical sensors in a network greatly increases complexity, cost and requires additional electronic devices to measure and acquire data [1]. In numerous applications, wireless transmission offers several advantages over typical wired networks. First of all, it eliminates the need to lay numerous wires in confined spaces or hazardous environments. I... więcej»

Korekcja trajektorii wektora przestrzennego z wykorzystaniem logiki rozmytej (Tomasz BINKOWSKI)
Zasilanie odbiorników elektrycznych bardzo często wymaga dostarczenia energii przy zadanych parametrach napięcia, bądź prądu. Zachodzi zatem konieczność sterowania wartościami amplitud, częstotliwości, itp. W przypadku odbiorników zmiennoprądowych energia przekazywana jest do nich przez przepływ zmiennych prądów wynikających z przyłożonego napięcia (również zmiennego). W elektrotechnice najczęściej przyjmuje się, że prądy te powinny mieć przebieg sinusoidalny, co wynika z niezmienności kształtu funkcji w wyniku działania całkowania i różniczkowania. Są jednak sytuacje, w których kształt przebiegów może ulec zmianie. Ma to miejsce w przypadku np. odbiorników nieliniowych. Wtedy, gdy zasilane są odbiorniki wielofazowe, może także dojść do asymetrii powodowanej obciążeniem lub błędnie prowadzonym sterowaniem. Projektant układu sterującego musi zatem wyraźnie określić funkcję celu, gdyż najczęściej niemożliwa jest jednoczesna kontrola wszystkich parametrów. W przypadku przekształtników energoelektronicznych bilans mocy chwilowej sprawia, że kontrola kształtu prądu powoduje odkształcenia napięcia lub na odwrót. Dlatego też często sięga się po rozwiązania pośredniego przekształcania energii, w których wykorzystuje się magazyn energii, np. w postaci kondensatora. Przykładem może być klasyczny trójgałęziowy falownik napięcia zasilany z przekształtnika jednofazowego o sinusoidalnym prądzie wejściowym. Brak równości pomiędzy mocą chwilową układu wejściowego jednofazowego, a mocą chwilową układu trójfazowego wymusza stosowanie obwodu pośredniczącego, równoważącego obydwie strony. Konsekwencją bilansowania energii w obwodzie pośredniczącym jest powstanie tętnień napięcia, z którego kształtowane są napięcia wyjściowe falownika [1, 2]. Trójgałęziowy falownik napięcia jest przekształtnikiem energoelektronicznym, którego rolą jest przetwarzanie energii elektrycznej źródła napięcia stałego na energię elektryczną dostarczaną do dwu- lub trójf... więcej»

Sterownik bramkowy dla tranzystorów SiC pracujących w układzie mostka (Jacek RĄBKOWSKI, Mariusz ZDANOWSKI, Roman BARLIK)
Rosnące zainteresowanie elementami z węglika krzemu, które można obserwować szczególnie w obszarze energoelektroniki już od kilkunastu lat [1-5], nasiliło się po wprowadzeniu na rynek kolejnych elementów sterowanych. Dostępność tranzystorów SiC: JFET, BJT i MOSFET już nie w formie próbek, ale elementów opisanych pełnymi danymi katalogowymi i notami aplikacyjnymi sprzyja przesunięciu akcentów z obszaru tylko i wyłącznie badań na zastosowania w przemyśle. Jednocześnie, obok wszechstronnie badanych właściwości elektrycznych tych elementów istotne stają się inne czynniki takie jak niezawodność elementów, stabilność parametrów w czasie czy przede wszystkim ich cena. Jednym z elementów, na który warto zwrócić uwagę jest tranzystor JFET o charakterystyce normalnie załączony [6-11] o relatywnie niskiej cenie i interesujących parametrach. Jest to tranzystor o identycznej strukturze jak tzw. Depletion Mode JFET o charakterystyce "normalnie załączony", jednak dzięki zwiększonemu domieszkowaniu i zmianie szerokości kanału napięcie progowe zostało przesunięte w obszar napięć dodatnich. Dzięki temu uzyskano element o charakterystyce normalnie wyłączonej (tzw. Enhanced Mode), znacznie bardziej przydatny w energoelektronice. Niestety, element w stanie przewodzenia wymaga dostarczenia prądu bramki, co czyni go z punktu widzenia sterownika podobnym do tranzystora bipolarnego. Kolejna wada tego tranzystora to duża zależność rezystancji przewodzenia od temperatury. Ponadto napięcie progowe rzędu 1-2 V powoduje dużą czułość na zakłócenia, co jest szczególnie niekorzystne, gdy tranzystor pracuje w układzie mostka. Dlatego zagadnienie sterowania tego tranzystora nie należy do najprostszych. W pracach [12-17] przedstawiono szereg rozwiązań sterowników bramkowych dla normalnie wyłączonego tranzystora SiC JFET. Można zastosować polecane przez producenta sterowniki dwustopniowe z rezystorami [12-14] lub inne proponowane w literaturze rozwiązania [15... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Sterowanie odpowiedzią czujników opartych na światłowodowych siatkach długookresowych (LPG) poprzez zastosowanie cienkich pokryć (Mateusz ŚMIETANA, Wojtek J. BOCK, Predrag MIKULIC)
Od kilkunastu lat intensywnie rozwijana jest nowa klasa czujników światłowodowych opartych na długookresowych siatkach światłowodowych (ang. Long-Period Grating, LPG) [14]. Siatki światłowodowe charakteryzują się periodyczną zmianą współczynnika załamania obszaru rdzenia światłowodu. W odróżnieniu od znanych wcześniej światłowodowych siatek braggowskich (ang. Fibre Bragg Grating, FBG), gdzie okres modulacji współczynnika załamania (Λ) wynosi ok. 1 μm, dla LPG jest on typowo w zakresie 150…700 μm, co umożliwia ich wytworzenie z wykorzystaniem szeregu metod [13]. Obecność siatki powoduje sprzężenie między modem propagującym się w rdzeniu i modami płaszczowymi, co jest obserwowane jako seria rezonansowych pików tłumienia w ich widmie transmisyjnym. Zależność między efektywnymi współczynnikami załamania modu rdzeniowego LP01 (n(01) eff) i mtego modu płaszczowego LP0 m (n(0 m) eff), a rezonansową długością fali wynikającą ze sprzężenia kolejnego mody płaszczowego (λ(0 m) rez) przedstawia równanie 1. (1) Demonstruje się wiele zastosowań LPG w zakresie telekomunikacyjnym, jak i czujnikowym (temperatury, naprężenia, ciśnienia i współczynnika załamania) [6]. Najczęściej spotykanym w literaturze dotyczącej wykorzystania struktur LPG do zastosowań czujnikowych czynnikiem mierzonym jest współczynnik załamania medium otaczającego siatkę (RI) [5]. Z faktu, że siatka LPG wywołuje sprzęganie modów płaszczowych wynika, że odpowiedź spektralna struktur silnie zależy od właściwości optycznych otaczającego medium. Autorzy prac z tego zakresu najczęściej koncentrują się na pomiarze przesunięcia piku rezonansowego w funkcji długości fali, choć zdarzają się też rozwiązania oparte na pomiarze zmian transmisji w zakresie rezonansu wywołanych zmianami czynnika zewnętrznego. Wraz ze wzrostem RI wzrasta efektywny współczynnik załamania modów płaszczowych, co zgodnie z równaniem 1 powoduje przesunięcie rezonansowej długości ... więcej»

Multimedialny bezprzewodowy system alarmowy (Piotr Bratek, Dariusz Majcherczyk, Ireneusz Brzozowski, Andrzej Kos)
Rozwój elektroniki i informatyki daje nam nieustannie nowe możliwości co przekłada się na upowszechnianie nowych technologii w codziennym życiu. Jedną z najważniejszych spraw do której, jako użytkownicy, przywiązujemy największą wagę jest przede wszystkim bezpieczeństwo osobiste oraz bezpieczeństwo mienia. Nowe coraz bardziej zawansowane rozwiązania pozwalają skuteczniej bronić się przed potencjalnymi zagrożeniami. Możliwość wykorzystania wiadomości obrazkowych MMS daje użytkownikowi znacznie cenniejszą informację, niż dotychczasowa wiadomość tekstowa, na temat zaistniałej sytuacji w miejscu zdarzenia. Dzięki zastosowaniu modemu GSM/GPRS nie ma ograniczenia nałożonego na miejsce realizacji ponieważ obecnie pokrycie sieci komórkową obejmuje cały teren kraju. Przedstawiony w artykule multimedialny system alarmowy (rys. 1) wysyła wiadomości graficzne MMS (ang. Multimedia Messaging Service) z wykorzystaniem modemu GSM/GPRS (ang. Global System for Mobile communication/General Packet Radio Service). Do tej pory na rynku dostępne były głównie systemy oparte na informacjach przesyłanych jako wiadomości SMS (ang. Short Message Service). Było tak ze względu na powszechność dostępu do tej usługi, a co za tym idzie niskich kosztów użytkowania oraz ówczesnych możliwości technicznych terminali komórkowych. Współczesne warunki życia promują tak zwane smartfony (ang. smartphones), czyli urządzenia telefoniczne łączące w sobie funkcje telefonu komórkowego i komputera kieszonkowego PDA (ang. Personal Digital Assistant) stąd rosnące wymagania, co do multime... więcej»

Zastosowanie dedykowanych układów scalonych w systemach wyszukiwania punktu mocy maksymalnej (Wojciech Grzesiak, Jacek Piekarski, Michał Cież, Paweł Grzesiak)
Implementacja techniki MPPT w systemach fotowoltaicznych pozwala na zwiększenie efektywności przetwarzania energii słonecznej na elektryczną nawet o 30%. Z reguły technika ta polega na wprowadzeniu do instalacji fotowoltaicznej stosownej, sterowalnej przetwornicy DC/DC, która w połączeniu z odpowiednim algorytmem bądź algorytmami wyszukiwania punktu mocy maksymalnej zapewnia odpowiednie dopasowanie energetyczne modułów PV do obciążenia. Najczęściej rozwiązania takie oparte są o powszechnie stosowaną technikę mikroprocesorową. W wielu przypadkach mogą one być zbyt kosztowne. Dla rozwiązania tego problemu w ostatnich latach wiele wiodących firm produkujących półprzewodnikowe układy scalone opracowało i wdrożyło do produkcji dedykowane układy, pozwalające na niskokosztową realizację techniki MPPT. W artykule dokonano przeglądu i oceny najciekawszych, zdaniem autorów, rozwiązań. W tym celu zaprojektowano i wykonano modele tych układów bazując na schematach aplikacyjnych zalecanych przez producentów. Dodatkowo przy ocenie tych rozwiązań kierowano się również możliwością ich miniaturyzacji poprzez zastosowanie technologii SMD oraz realizacji w technologii grubowarstwowej. Do testów zastosowano stanowisko badawcze zbudowane w oparciu o: oprogramowanie Solar Design Studio v.6.0, symulator modułów fotowoltaicznych firmy Agilent Technologies, interface, komputer oraz opracowane w ITE specjalizowane oprogramowanie pozwalające na zarządzani... więcej»

Stan aktualny i rozwój systemu INMARSAT (Jerzy Czajkowski)
Satelitarny system INMARSAT jest nierozerwalnie związany ze Światowym Morskim Systemem Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global Maritime Distress and Safety System) i od momentu jego powstania jego głównym zadaniem było polepszenie, tj. zwiększenie efektywności i niezawodności morskiej radiokomunikacji. W szczególności chodziło o podniesienie bezpieczeństwa i zapewnienie radiokomunikacji umożliwiającej szybkie i skuteczne alarmowanie. Dlatego też tworząc system GMDSS, jeden z obszarów morskich A3 [4] zdefiniowano jako akwen żeglugi w zasięgu satelitarnego systemu z wykorzystaniem satelitów geostacjonarnych nazwanego INMARSAT. System ten został w późniejszym czasie także wykorzystany w ruchomej służbie lądowej oraz aeronautycznej.Po ponad dwudziestu latach działania jako międzynarodowa organizacja, system INMARSAT w 2001 roku w wyniku prywatyzacji został przekształcony w organizację IMSO (International Mobile Satellite Organization) spełniając funkcje systemu GMDSS, jednak nazwa systemu jako całości pozostała niezmieniona. System INMARSAT składa się z trzech zasadniczych komponentów: - segmentu kosmicznego nadzorowanego przez INMARSAT, - naziemnych stacji lądowych LES (Land Earth Station), zwanych także CES (Coast Earth Stadion) nadzorowanych przez Administracje Morskie Państw będących sygnatariuszami INMARSAT- u, - oraz stacje statkowe SES (Ship Earth Station). Strukturę segmentu kosmicznego przedstawiono na rys. 1, gdzie na orbicie geostacjonarnej w odległości ok. 36000 km od równika usytuowane są satelity umożliwiające pokrycie radiokomunikacyjne czterech obszarów oceanicznych nazwanych: Obszar Wschodni Oceanu Atlantyckiego - (AOR-E - Atlantic Ocean Region East), Obszar Zachodni Oceanu Atlantyckiego - (AOR-W - Atlantic Ocean Region West), Obszar Oceanu Indyjskiego (IOR - Indian Ocean Region), Obs... więcej»

Luminescencja izolatorów ceramicznych sieci energetycznych średnich napięć (Rafał Sobota, Arkadiusz Mandowski, Ewa Mandowska)
Zadaniem izolatorów w elektroenergetyce, oprócz funkcji czysto mechanicznych, jest skuteczne oddzielenie przewodów elektrycznych, znajdujących się pod wysokim napięciem, od otoczenia. Izolatory porcelanowe, podobnie jak ich szklani poprzednicy, sięgają historią do czasów drutów telegraficznych. Gdy ceny szkła zaczęły rosnąć, porcelana stała się atrakcyjną i niedrogą alternatywą. Izolatory porcelanowe są teraz łatwo dostępne i często stosowane. Wraz z pojawieniem się dystrybucji energii elektrycznej na przełomie XIX i XX wieku i koniecznością przesyłania prądu liniami energetycznymi w warunkach wysokich napięć, wzrosło zapotrzebowanie na większe i bardziej niezawodne izolatory. Ilość szkła w tym czasie była niewystarczająca, więc zaczęto eksperymentować z mieszaninami gliny. Ponadto pracowano nad nowymi wzorami izolatorów, spełniałyby swoje zadanie w każdych warunkach pogodowych. W dzisiejszych czasach, zakłady porcelany elektrotechnicznej oferują szeroki asortyment izolatorów do różnych zastosowań - począwszy od linii niskiego, średniego i wysokiego napięcia a skończywszy na konstrukcjach wsporczych, przepustowych oraz osłonowych. Niektóre firmy oferują również produkty typowo pod indywidualne zamówienia klientów, takie jak osłony do wyłączników, odgromników, przekładników napięciowych i prądowych, przepustów, kondensatorów, głowic kablowych, bezpieczników wysokonapięciowych, itp. Wysoka niezawodność eksploatacyjna oraz utrzymanie wymaganych parametrów, głównie w zakresie wytrzymałości mechanicznej i elektrycznej, jak również odporności na czynniki atmosferyczne oraz zanieczyszczenia, jest zapewniana przez stosowanie wysokiej jakości materiałów. W procesach produkcyjnych wykorzystuje się nowoczesne maszyny i urządzenia oraz wdrażane są nowe techniki wytwarzania. Dzisiejsze izolatory są wyrobami znormalizowanymi. Spełniają wymagania zarówno norm krajowych, jak i międzynarodowych. W elektroenergetyce izolatory można sklasyfik... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Realizacja dedykowanej aplikacji wzmacniacza fazoczułego w środowisku LabVIEW (Maciej Kubicki)
W wielu zastosowaniach pomiarowych wymagane jest określanie amplitudy i fazy sygnałów o amplitudzie mniejszej od 1 mV w obecności szumu, w przypadku gdy znana jest częstotliwość tych sygnałów. Przykładem jest detekcja sygnałów rejestrowanych przy określaniu szczelności elementów elektronicznych z zastosowaniem technik termoakusystycznych opisanych w opracowaniach [1-3]. Na rysunku 1 schematycznie przedstawiono układ testowy do pomiaru szczelności z wykorzystaniem wspomnianej metody. Termoakustyczna technika pomiaru szczelności obudów elementów elektronicznych może stanowić nieniszczącą alternatywę dla niszczących testów precyzowanych przez standardy stosowane obecnie w przemyśle [10-11]. W rozpatrywanej metodzie źródłem sygnału pomiarowego jest mikrofon umieszczony w szczelnej komorze termoakustycznej rejestrujący sygnał akustyczny pojawiający się w wyniku periodycznego wydzielania mocy w badanym elemencie. Jedną z metod pomiaru sygnału stosowaną w rozważanym przypadku jest detekcja fazoczuła. Dostępne na rynku wzmacniacze fazoczułe, poza wysokim kosztem mogą nie być dostosowane do danego pola aplikacji. W odróżnieniu od samodzielnych urządzeń, narzędzia jakie oferują współczesne systemu akwizycji sygnałów pomiarowych umożliwiają tworzenie dedykowanych aplikacji pomiarowych automatyzujących dodatkowo proces pomiaru. W artykule opisano programową realizację wzmacniacza fazoczułego, stanowiącą podstawę systemu akwizycji i przetwarzania sygnałów pomiarowych układu do pomiaru szczelności tranzystorów w obudowach metalowych z wykorzystaniem technik termoakustycznych. Aplikacja pomiarowa została stworzona w środowisku LabVIEW w oparciu o 16-bitową kartę pomiarową NI-6251. Inne przykłady programowych realizacji wzmacniaczy fazoczułych znaleźć można w pozycjach literaturowych [7-9].Zależności umożliwiające wyznaczenie amplitudy i fazy sygnału pomiarowego przytaczane są w wielu publikacjach na temat wzmacniaczy fazoczułych [4-9]. Ab... więcej»

Inkrementacyjne sekwencje adresowe o niskim narzucie sprzętowym w dwuprzebiegowych testach krokowych (Ireneusz Mrozek, Svetlana V. Yarmolik )
Pamięci półprzewodnikowe RAM stanowią jeden z głównych elementów współczesnych modułów i urządzeń elektronicznych. Zwiększająca się w szybkim tempie złożoność i pojemność układów pamięci stawia wciąż nowe wyzwania związane z efektywnym jej testowaniem. Jednym z najbardziej skomplikowanych uszkodzeń pamięci RAM, analizowanym w wielu kluczowych publikacjach odnoszących się do dziedziny, jest uszkodzenie uwarunkowane zawartością opisane modelem PSF (ang. Pattern Sensitive Faults) [3-4]. Ten typ uszkodzenia oraz korespondujące z nim testy zdefiniował w 1980 roku J.P. Hayes [5]. Dalsze badania prowadzili m.in. Suk i Reddy [6]. Testy CM-79N i March-100N pozwalające zwiększyć dotychczasową efektywność wykrywania uszkodzeń PSF zaproponował Cheng [7]. W literaturze przedmiotu (np. Cascaval et. al. [8]) można znaleźć również wiele modyfikacji testów dedykowanych uszkodzeniom PSF, pozwalających wykrywać różne klasy tych uszkodzeń. Dotychczasowe badania wykazały, iż przy obecnych rozmiarach pamięci jedynymi testami możliwymi do realnego zastosowania w procesie testowania pamięci są testy z grupy testów maszerujących określanych również mianem testów krokowych (ang. march tests). Charakteryzują się one liniową złożonością, wysokim pokryciem uszkodzeń i niskim narzutem sprzętowym przy ich implementacji jako testy wbudowane BIST (ang. Built- In Self-Test). Ponadto klasyczne testy krokowe są łatwo konwertowalne do testów transparentnych (ang. transparent march tests). Z uwagi na narzut czasowy jaki powstaje przy tradycyjnej konwersji i implementacji testu krokowego jako testu transparentnego, zaproponowane zostały różne techniki zwiększające efektywność testowania transparentnego [14-16]. Jednak tradycyjne testy krokowe nie generują wszystkich możliwych wzorców niezbędnych do detekcji uszkodzeń PSF. Dlatego zaproponowane zostały techniki, wykorzystujące w swej podstawie testy krokowe, umożliwiające zwiększenie pokrycia uszkodzeń PSF. Jedn... więcej»

Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Projektowanie powłok optycznych przeznaczonych do przyrządów na zakres podczerwieni (Jarosław Domaradzki)
Nakładanie powłok optycznych na powierzchnie różnych przedmiotów, zarówno codziennego użytku, jak i zaawansowanych urządzeń optoelektronicznych, ma na celu uzyskanie lub poprawę ich określonych właściwości. Podstawowym zadaniem takich powłok jest uzyskanie zadanego przebiegu charakterystyki transmisji lub odbicia światła w określonym zakresie spektralnym [1]. W praktyce typowe powłoki optyczne wykorzystuje się w szerokim zakresie spektralnym od bliskiego ultrafioletu przez zakres widzialnych fal świetlnych do podczerwieni. Przykładem jednych z najczęściej wykorzystywanych w praktyce powłok optycznych są powłoki, umożliwiające zredukowanie strat odbiciowych, czyli tzw. powłoki antyodbiciowe. Nałożenie takiej powłoki np. na powierzchnię detektora sprawia, że więcej fotonów dociera do czynnego obszaru złącza, co pozwala zwiększyć sprawność konwersji światła w prąd elektryczny. Z kolei, nakładanie powłok optycznych o odpowiednio ukształtowanej spektralnej charakterystyce transmisji (odbicia) światła na optycznie neutralne podłoża, umożliwia budowanie takich przyrządów optycznych, jak filtry optyczne, lustra interferencyjne czy rozdzielacze wiązek. Właściwości powłok ściśle związane są z rodzajem materiału oraz technologią ich wytwarzania. Do najbardziej rozpowszechnionych metod stosowanych do wytwarzania powłok optycznych należą metody fizycznego nanoszenia z fazy gazowej PVD (Physical Vapour Deposition) oraz metody chemicznego nanoszenia z fazy gazowej CVD (Chemical Vapour Deposition). W przemyśle, do najczęściej stosowanych należą: parowanie z zastosowaniem wiązki elektronowej bądź laserowej PLD (Pulsed Laser Deposition), platerowanie jonowe IP (Ion Plating), rozpylanie magnetronowe MS (Magnetron Sputtering). W wymienionych metodach może występować także dodatkowe wspomaganie jonami IAD, IBAD (Ion Assisted Deposition, Ion Beam Assisted Deposition), co pozwala wytwarzać powłoki o lepszych parametrach st... więcej»

Najnowsze zastosowania aplikacyjne mikroskopii sił atomowych (Bartosz Radkowski)
Radkowski B.: Najnowsze zastosowania aplikacyjne mikroskopii sił atomowych Mikroskopia sił atomowych (AFM) znajduje obecnie szerokie zastosowanie w dziedzinie charakteryzacji materiałów elektronicznych. Oprócz precyzyjnego pomiaru topografii powierzchni z rozdzielczością umożliwiającą obserwowanie stopni atomowych, współczesne urządzenia tego typu oferują wiele dodatkowych możliwości, obejmujących badanie właściwości elektrycznych, magnetycznych jak i temperaturowych. W niniejszej pracy przedstawimy najnowsze rozwiązania techniczne na tym polu, uzupełniające dotychczas rozwinięte techniki AFM i pozwalające na zwiększenie możliwych zastosowań badawczych, obejmujące zautomatyzowane tryby obrazowania topograficznego, tryby mapowania pozwalające na ocenę właściwości mechanicznych powierzchni oraz przewodnictwa elektrycznego. Dzięki tym nowościom znacznie został poszerzony obszar zastosowań mikroskopii sił atomowych, pozwalając poddać badaniom materiały, które wcześniej nie nadawały się do zastosowania tego rodzaju technik badawczych. Słowa kluczowe: mikroskopia sił atomowych, topografia powierzchni, przewodnictwo elektryczne, właściwości mechaniczne.Mikroskopia sił atomowych AFM (Atomic Force Microscopy) znajduje obecnie szerokie zastosowanie w dziedzinie charakteryzacji materiałów elektronicznych. Oprócz precyzyjnego pomiaru topografii powierzchni z rozdzielczością umożliwiającą obserwowanie stopni atomowych, współczesne urządzenia tego typu oferują wiele dodatkowych możliwości, obejmujących badanie właściwości elektrycznych, magnetycznych jak i temperaturowych. W niniejszej pracy przedstawimy najnowsze rozwiązania techniczne na tym polu, uzupełniające dotychczas rozwinięte techniki AFM i pozwalające na zwiększenie... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Stanowisko do pomiarów termoakustycznych (Maciej Kubicki)
Termoakustyczna metoda określania szczelności elementów elektronicznych, przedstawiona w publikacjach [1-3], opiera się na pomiarze charakterystyk częstotliwościowych uzyskiwanych poprzez rejestrację sygnału akustycznego powstającego na skutek periodycznego wydzielania mocy w elemencie badanym umieszczonym w szczelnej komórce pomiarowej. Określanie szczelności elementów elektronicznych przy użyciu rozpatrywanej metody bazuje na zależności kształtu charakterystyk częstotliwościowych od rozmiaru nieszczelności. W celu głębszej oceny zakresu zastosowań i ograniczeń termoakustycznej metody pomiaru zbudowane zostało stanowisko pomiarowe będące tematem niniejszego artykułu. Stanowisko pomiarowe wraz z aplikacją LabVIEW pracującą w oparciu o kartę pomiarową i odpowiedzialną za sterowanie oraz pomiar sygnałów z wykorzystaniem algorytmu detekcji fazoczułej składa się na układ testowy do pomiarów szczelności z wykorzystaniem metody termoakustycznej. W artykule opisano poszczególne elementy stanowiska oraz przedstawiono przykładowe wyniki pomiaru charakterystyk częstotliwościowych. Opis stanowiska Na rysunku 1 zamieszczono rysunek schematyczny, fotografię oraz rysunek złożeniowy zaprojektowanego stanowiska pomiarowego. Podstawowymi elementami stanowiska pomiarowego są: układ przedwzmacniacza wraz ze zintegrowanym mikrofonem pomiarowym, układ sterowania wydzielaniem mocy w badanym elemencie wraz z płytą adaptera zawierającą gniazdo do umieszczenia badanego elementu oraz komórką pomiarową. W przedstawionym na rys. 1 stanowisku, komórka pomiarowa umieszczona jest bezpośrednio pomiędzy płytami przedwzmacniacza oraz adaptera, które zamykają jej objętość, przy czym uszczelnienie stanowią 2 uszczelki typu o-ring. Element badany zostaje umieszczony w gnieździe na płycie adaptera. Do pł... więcej»

Hybrydowy system autonomicznego bezprzerwowego zasilania rozproszonego (Wojciech Grzesiak, Michał Cież, Jacek Piekarski, Piotr Maćków)
Dynamika rozwoju cywilizacji jest w dużym stopniu uzależniona od licznych produktów, których prawidłowa i niezawodna praca wymaga ciągłości i jakości dostaw energii elektrycznej o wysokiej jakości. Często produkty te odpowiedzialne są za jakość, poziom i bezpieczeństwo naszego życia. W przypadku braku dostępu do sieci energetycznej lub zbyt wysokich kosztów jego uzyskania, celowym jest rozważenie zastosowania autonomicznego źródła zasilania. Ponieważ w Polsce w poszczególnych miesiącach występuje duże zróżnicowanie nasłonecznienia, celowym jest wspomaganie takiego systemu z dodatkowego źródła energii elektrycznej, którym może być generator spalinowy, turbina wiatrowa lub też nowoczesne i perspektywiczne rozwiązanie, jakim jest ogniwo paliwowe. Godnym uwagi jest zastosowanie ogniwa paliwowego typu DMFC (Direct Methanol Fuel Cell). Uzasadnieniem takiego rozwiązania są dane przedstawione na rys. 1, na którym obszary zaznaczone kolorem żółtym pokazują, ile w poszczególnych miesiącach można pozyskać energii elektrycznej z instalacji fotowoltaicznej o mocy 1 kWp w warunkach nasłonecznienia typowych dla terenu Polski południowej. Obszary zaznaczone kolorem czerwonym pokazują ile energii należy pozyskać z dodatkowego źródła energii elektrycznej, którym w tym przypadku jest ogniwo paliwowe typu DMFC tak, aby w każdym z miesięcy uzyskać ilość energii elektrycznej na stałym poziomie 100 kWh, czyli 1200 kWh rocznie. Z przeprowadzonej analizy wynika, że w skali roku udział energii pozyskanej ze słońc... więcej»

Krystalizacja techniką PAMBE nanostruktur GaN na podłożach Si (Zbigniew R. Żytkiewicz, Marta Sobańska, Kamil Kłosek, Jolanta Borysiuk, Aleksandra Wierzbicka, Anna Reszka, Giorgi Tchutchulashvili)
W pracy przedstawiono procedurę krystalizacji warstw GaN na podłożach Si(111) przy użyciu techniki epitaksji z wiązek molekularnych (MBE) z wykorzystaniem plazmowego źródła azotu (plasma-assisted MBE - PAMBE) oraz standardowych komórek efuzyjnych Ga i Al. W trakcie prowadzonych prac stwierdzono, że morfologia otrzymywanych struktur silnie zależy od stosunku strumieni galu i azotu wykorzystywanych w trakcie wzrostu. W warunkach nadmiaru galu otrzymuje się warstwy planarne, zaś przy tej samej temperaturze krystalizacji w warunkach bogatych w azot na powierzchni podłoża Si wzrastają gęsto ułożone nanodruty GaN (rys. 1). Wzrost techniką PAMBE i właściwości planarnych warstw GaN Ze względu na dużą różnicę współczynników rozszerzalności termicznej azotku galu i krzemu (111) (~116%), prowadzącą do silnych naprężeń termicznych i pękania warstw grubszych niż ~1 μm, zastosowano różne konfiguracje międzywarstw AlN o grubościach 40…120 nm kompensujące naprężenia powstające podczas chłodzenia warstw do temperatury pokojowej [1]. Po zakończeniu wzrostu bufora AlN krystalizowano właściwą warstwę GaN. Jej wzrost odbywał się w warunkach bogatych w gal (Garich, rys. 1),... więcej»

Badania właściwości struktur MOS na SiC dla wybranych rozwiązań technologiczno-konstrukcyjnych (Tomasz Gutt, Krzysztof Piskorski, Henryk M. Przewłocki, Paweł Borowicz)
W Zakładzie Charakteryzacji Struktur Nanoelektronicznych ITE prowadzone są badania struktur półprzewodnikowych, wykonanych przy użyciu nowatorskich materiałów i procesów technologicznych. Przykłady takich innowacyjnych struktur, opracowywanych w ramach projektu InTechFun, są tematem przedstawianego artykułu. Prezentowane badania, dotyczące określenia istotnych parametrów schematów pasmowych takich struktur oraz ich właściwości mikro-strukturalnych, wymagały zastosowania oryginalnych i kompleksowych technik pomiarowych, wśród których należy podkreślić znaczenie opracowanych przez zespół metod fotoelektrycznych oraz zastosowanie spektroskopii mikro-ramanowskiej. Przedstawione wyniki badań dotyczą dwóch zagadnień związanych z opracowaniem struktur na węgliku krzemu. Jak wiadomo, problem kontaktów omowych do struktur na SiC wymaga opracowania niestandardowych rozwiązań. Jednym z nich jest wykonanie kontaktu z warstwami pośrednimi z węgla. Ocena jakości struktury takich kontaktów metodą spektroskopii mikro-ramanowskiej ma duże znaczenie dla dalszych prac technologicznych w tym zakresie. Interesującym zagadnieniem jest stwierdzona niejednorodność rozkładów niektórych parametrów elektrycznych struktur MOS w obrębie bramek, zależna m.in. od materiału bramki, izolatora bramkowego i warunków procesów technologicznych. Niejednorodność ta spowodowana jest wpływem szczególnego rozkładu naprężeń mechanicznych w strukturze przy krawędzi i wewnątrz bramek na poziomy niektórych potencjałów w strukturze MOS. Wyniki tych badań, prowadzonych metodami fotoelektrycznymi, pozwalają na optymalizację... więcej»

Przetworniki obrotowo-impulsowe jako czujniki przemieszczeń i przesunięcia fazowego układów mechatronicznych (Izabela Krzysztofik, Janusz Tuśnio, Zbigniew Koruba)
Większość wykonujących ruch obrotowy zespołów maszyn może być zamodelowanych jako układy dyskretne, składające się z punktów materialnych i brył doskonale sztywnych (elementy inercyjne) połączonych elementami odkształcalnymi (bezmasowymi), obdarzonych sprężystością i tłumieniem [1]. Parametry tak zamodelowanych rzeczywistych układów mechatronicznych w postaci masy, momentów bezwładności, sprężystości i tłumienia mają wpływ na właściwości dynamiczne (charakterystyki przejściowe) obiektu badań oraz na jego ruch względem elementu napędzającego w stanie ustalonym. Skutkiem istnienia wymienionych czynników mogą być drgania obiektu podczas procesu przejściowego (rozruchu i hamowania) a także podczas pracy. Występowaniu tych zjawisk zapobiega odpowiedni dobór relacji pomiędzy sprężystością, tłumieniem i momentem bezwładności tak, by projektowany układ mechatroniczny zamiast członu oscylacyjnego stawał się członem inercyjnym, najczęściej drugiego rzędu. Wspomniane działanie nie zapobiega jednak przesunięciu fazowemu pomiędzy wirującym elementem napędzającym (silnikiem) a odbiornikiem energii. Przesunięcie fazowe ma istotne znaczenie w eksploatacji odpowiedzialnych i precyzyjnych urządzeń, a szacunkowe obliczanie jego wartości nie zawsze jest wystarczające, chociażby ze względu na tłumienie układu, które w różnych warunkach klimatycznych oraz z upływem czasu ulega zmianom. W układach mechatronicznych o dużej sztywności kąty wzajemnego przemieszczenia (skręcenia), a tym samym przesunięcia fazowego wirujących, obciążonych momentem elementów maszyn są niewielkie (rzędu ułamka stopnia), a ich pomiar może odbywać się za pomocą klasycznych mostków tensometrycznych. Istotny problem stanowi przekazanie sygnału różnicowego (o wartości rzędu pojedynczych miliwoltów lub mniej) z wirujących elementów maszyn do układu obróbki. Ze względu na znaczne zakłócenia układów komutacji stosowane są wtedy między innymi telemetryczne układy transmisji danyc... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Doświadczenia z badań i oceny systemów alarmowych w procesie certyfikacji (Andrzej Krzysztof WACH)
Jakość wyrobów jest istotnym kryterium decydującym o sukcesie producenta na rynku. Jednym z elementów wiarygodnego potwierdzenia jakości wyrobu jest jego certyfikat, wskazujący dokumenty (prawne i/lub normatywne), których wymagania spełnia wyrób. Zauważmy, że certyfikacja prowadzona przez akredytowaną jednostkę jest obiektywnym sposobem oceny zgodności wyrobu. Proces certyfikacji (ustalony w programie certyfikacji) określa sposób postępowania, w ramach którego trzecia strona (niezależna od producenta i klienta), będąca jednostką o potwierdzonych kompetencjach, w formie pisemnej zapewnia, że produkt jest zgodny z wymaganiami odpowiedniego (wyszczególnionego) dokumentu. Dokumentem stanowiącym pisemne zapewnienie spełnienia określonych wymagań jest certyfikat zgodności, który może jednocześnie upoważniać producenta (importera) do używania odpowiedniego znaku zgodności. Certyfikat zgodności (wydany np. w systemie 5 wg PKN-ISO/IEC Guide 67:2007) potwierdza, że proces wytwarzania wyrobu przebiega w warunkach stabilnych, jest odpowiednio udokumentowany, podlega właściwemu nadzorowi, a stosowane materiały i etapy procesu wytwarzania spełniają warunki określone obowiązującym prawem. Jednocześnie uzyskany w wyniku tego procesu wytwarzania wyrób spełnia wymagania określonych (w certyfikacie), odpowiednich dla wyrobu, dokumentów. Celem procesu certyfikacji jest ustanowienie zaufania pomiędzy producentem (importerem), a klientem i/lub władzami danego kraju. Przewagą certyfikacji (nad innymi rodzajami potwierdzeń) jest fakt, że realizowana jest ona przez niezależny ośrodek certyfikacji, którego kompetencje potwierdzane są okresowo przez krajową jednostkę akredytującą. Istotnym jest również fakt, że wymagania stawiane wyrobowi w procesie certyfikacji, jak i wymagania techniczne na wykonywane badania, są jednoznacznie zdefiniowane w ogólnie dostępnych dokumentach. Certyfikacja jest szczególnie ważnym elementem, gdy dotyczy urządzeń techni... więcej»

Nowe nanostruktury palladu (Elżbieta Czerwosz, Ewa Kowalska, Mirosław Kozłowski, Piotr Dłużewski)
Pallad odrywa ważną rolę w wielu dziedzinach przemysłu, medycyny, ochrony środowiska i energetyki. W zależności od stanu, w jakim występuje, może być stosowany w postaci ciała stałego (proszek lub warstwa), roztworu, czy w jako nanoobiekty o różnej formie strukturalnej. W ostatnich latach, w szczególności ta ostatnia forma palladu budzi największe zainteresowanie. W niektórych zastosowaniach kontrola kształtu nanoziaren palladu prowadzi do uzyskania materiału, który pozwala na spełnienie wielu bardzo wysublimowanych wymagań. Na przykład można zaprojektować materiał, który będzie zawierał katalizator w postaci tak uformowanej, że konkretne płaszczyzny krystalograficzne będą tworzyły ściany kryształu, a więc będzie można ustalić, ile atomów znajdzie się na powierzchni takiego materiału. Takie zaprojektowanie materiału pozwoli na wzmocnienie jego właściwości odnośnie reaktywności i selektywności wytworzonego nanokatalizatora [1-3]. Inną ważną cechą nanostruktur Pd występujących na powierzchni jest zachodzenie zjawiska powierzchniowego rezonansu plazmonowego, który prowadzi do zastosowań związanych z powierzchniowo wzmocnionym rozproszeniem ramanowskim SERS (Surface-Enhanced Raman Scattering), optyczną detekcją wodoru i fotomedycyną zwalczającą np. nowotwory [4]. Obliczenia teoretyczne wskazują, że pasmo związane z powierzchniowymi plazmonami może się przesuwać od 330 nm (dla nanoziaren o kształcie sześciennym) do 530 nm (dla ziaren o kształcie ikozaedrycznym) w zależności od kształtu i wielkości nanocząstek [5-7]. Pallad jako metal o strukturze typu fcc może przyjmować ogromną ilość postaci geometrycznych [8, 9]. W początkowej fazie wzrostu cząstek palladu z fazy gazowej tworzą się klastry [10]. Krytyczna wielkość tych klastrów nie jest dobrze określona w literaturze, często natomiast mówi się o liczbach magicznych, odpowiadających najczęściej spotykanym w tych klastrach liczbom atomów je tworzących. Ten etap jest etapem nukleac... więcej»

Aparatura do oznaczania reakcyjności koksu wobec CO2 metodą analizy gazów poreakcyjnych – badania eksploatacyjne w warunkach przemysłowych (Artur WITOWSKI, Krzysztof JASEK, Władysław LATOCHA)
Jednym z powszechnie stosowanych kryteriów przydatności koksu do zastosowań w procesach wielkopiecowych jest jego reakcyjność wobec CO2. Kryterium to zostało opracowane przez Nippon Steel Corporation (NSC) w latach 80. XX w., a następnie wykorzystano je przy redagowaniu norm ISO 18894 i ASTM D 5341a [1, 2] dotyczących określania właściwości użytkowych koksu. Normatywne oznaczenie reakcyjności koksu wobec ditlenku węgla polega na określeniu względnego procentowego ubytku masy koksu po zakończeniu dwugodzinnej reakcji z ditlenkiem węgla prowadzonej w temperaturze 1100oC (współczynnika reakcyjności CRI). Mimo upływu 30 lat od opracowania wymienionych norm, obowiązują one do chwili obecnej, chociaż zawarte w nich kryterium w sposób bardzo uproszczony opisuje rzeczywiste wzajemne oddziaływanie reagentów w procesach produkcyjnych. Powszechne stosowanie pomiarów współczynnika reakcyjności CRI koksu wobec CO2 jako wskaźnika przydatności danej partii koksu do zastosowań w procesach wielkopiecowych związane jest z prostotą wykonania oznaczeń w warunkach przemysłowych. Jednocześnie w wielu ośrodkach naukowych podejmowane są prace badawcze i konstrukcyjne poświęcone doskonaleniu metod i urządzeń umożliwiających bardziej precyzyjny opis zjawisk fizykochemicznych zachodzących pomiędzy koksem a ditlenkiem węgla w procesach produkcyjnych. Tematyka tych prac dotyczy przede wszystkim zagadnień związanych z monitorowaniem dynamiki zmian reakcyjności koksu wobec CO2 w trakcie ich wzajemnego oddziaływania [3-7]. Prace poświęcone tym zagadnieniom prowadzone są również Instytucie Tele- i Radiotechnicznym. Efektem tych prac jest opracowanie dwóch metod oznaczania chwilowych wartości reakcyjności koksu wobec ditlenku węgla: metody opartej o analizę gazów poreakcyjnych [8] oraz metody opartej o pomiar dodatkowej energii cieplnej dostarczanej od grzejnika pieca do retorty z próbką koksu w trakcie trwania reakcji izotermicznej [9]. Wyniki, prowadzonych... więcej»

Wieloprocesorowy system kontrolno-pomiarowy analizatora NDIR (Zbigniew Rudolf, Marek Orzyłowski, Krzysztof Jasek)
Kontrola jakości paliw stałych powinna obejmować badania ich kaloryczności oraz zawartości substancji, które w procesie spalania wytwarzają produkty zanieczyszczające środowisko. Dlatego też badania jakości paliw, przeprowadzane w kopalniach oraz elektrowniach i elektrociepłowniach, obejmują przede wszystkim pomiar zawartości węgla i siarki. W wyniku spalania paliw stałych w Polsce powstaje rocznie ok. 15 mln. ton popiołów. Zależnie od składu mogą one być stosowane jako dodatki do betonów i konstrukcji drogowych, poprawiając ich parametry i eliminując kłopotliwe składowanie niewykorzystanych popiołów. Utylizacja popiołów do wspomnianych celów wymusza również badania ich składu, zwłaszcza pod kątem zanieczyszczeń węglem oraz związkami siarki. Niniejszy artykuł dotyczy opracowania automatycznego analizatora zawartości węgla i siarki w popiołach i paliwach stałych, który bazuje na analizie składu produktów ich spalania. W wyniku spalania próbki węgla lub popiołu uzyskuje się gazy, w których mierzy się zawartość CO2 oraz SO2. Do przemysłowych pomiarów stężeń CO2 i SO2 powszechnie stosuje się analizatory NDIR (ang. Non-Dispersive-InfraRed) działające na zasadzie absorpcji promieniowania podczerwonego [1, 2]. Charakteryzują się one dużą selektywnością i trwałością. Analizatory NDIR mogą zawierać różnego typu detektory promieniowania, a do najczęściej stosowanych należą optopneumatyczne i piroelektryczne. W Instytucie Tele- i Radiotechnicznym przy współpracy z Wojskową Akademią Techniczną, w poprzednich latach został opracowany analizator zawartości węgla i siarki w paliwach stałych, działający na wspomnianej zasadzie [2], w którym obróbka sygnału następowała na drodze analogowej. Obecnie trwają prace nad nowym analizatorem NDIR zawartości węgla i siarki w popiołach, przeznaczonych do wykorzystania także w budownictwie. W porównaniu z poprzednio opracowanym analizatorem charakteryzuje się on dodatkowo niższymi zakresami pomiaru st... więcej»

Zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia w wieloetapowym procesie montażu elektronicznego (Janusz Borecki, Tomasz Serzysko)
Dalece zaawansowany stopień miniaturyzacji i integracji podzespołów elektronicznych sprawia, że nowoprojektowane urządzenia elektroniczne zawierają elementy o bardzo zróżnicowanej budowie i wielkości. Coraz częściej zdarza się tak, że projektanci, wbrew ogólnie znanym zasadom rozmieszczania podzespołów na poszczególnych stronach płytki obwodu drukowanego (pierwsza strona montażu - lżejsze podzespoły; druga strona montażu - cięższe podzespoły), umieszczają dość ciężkie podzespoły na obydwu stronach montażowych płytki obwodu drukowanego. W efekcie dochodzi do sytuacji, kiedy siły napięcia powierzchniowego przetapianego lutowia, podczas wykonywania montażu drugiej strony pakietu elektronicznego, nie są wystarczające, aby utrzymać na powierzchni płytki podzespoły, które zostały zamontowane na pierwszej stronie pakietu. Istnieje wtedy bardzo duże ryzyko odpadania zbyt ciężkich podzespołów lub zniekształcenia ich połączeń lutowanych. Należy w tym miejscu wspomnieć, że formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa bardzo ważne zadania, jakimi są: przyłączenie podzespołów elektronicznych do sieci połączeń obwodu elektrycznego montowanego pakietu oraz mechaniczne zamocowanie podzespołów na powierzchni płytki obwodu drukowanego. Każde zniekształcenie połączenia lutowanego może mieć negatywny wpływ na jego wytrzymałość i tym samym obniżyć nieuszkadzalność całego zespołu elektronicznego. Zagadnienie wieloetapowego montażu pakietów elektronicznych dotyczy zarówno technologii ołowiowej, jak i bezołowiowej, a zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia powinno pozwolić na zapobieganie sytuacji odpadania podzespołów podczas procesu montażu. Co prawda można kłopotliwe podzespoły kleić do powierzchni płytki po zmontowaniu jej pierwszej strony, jednakże wymaga to wprowadzenia do procesu montażu dodatkowej operacji. Takie rozwiązanie powoduje również pewne trudności w wypadku ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Two-dimentional phased array planar antenna for K-band (BRONISŁAW STEC, ANDRZEJ JEZIORSKI, MIROSŁAW CZYŻEWSKI, ADAM SŁOWIK )
Planar antennas are nowadays often used in all telecommunication systems. Technical solutions of this antenna type are known since middle XX century, but complicated analytical description and lack of the suitable computational instruments caused lots of problems with practical realisations. The development in computational techniques and numeric methods provided the instruments for the quick and simple planar structures designing. Thanks this development, much number of planar patch antenna construction have been used both in military and commercial applications. The most often configuration of used planar patch antennas are two-dimensional arrays. By adequate number and arrangement way of radiation elements, the antenna with required parameters can be obtained. But important part of the array is the feeding network too. The radiation element can be excited in serial, parallel or mixed configuration. Mixed serial-parallel configuration was chosen for presented antennas. Serial exciting configuration lets for easy various antenna configuration creation, e.g. theoretically arbitrary radiation elements number in single row. The rows with various elements number can be used to array forming, such as: rectangle, circle, ellipse. The radiating elements by microstrip line circuit have been feeded. The main disadvantage of the serial feeding is relative narrow bandwidth. This is caused by inphase exciting necessity. Great advantages of patch antennas are: simple construction, easy and cheap production, qui... więcej»

Detection of targets in two band radar (Tadeusz Brenner, Jan Hardejewicz, Marek Rupniewski, Marek Nałęcz)
The idea of fusion of signals from different bands described in the presented solution is based on the concept of fusion of orthogonal signals (summation of non-coherent signals - square amplitudes) in common signal processing unit. This method, called MIMO (Multiple Input Multiple Output) [1], uses, in general, many transmitters and receivers and exploits space and/or frequency diversity of received signals. In our case we use two inputs and two outputs i.e. two active radars working in the same place, but in two different bands (S and C). Hence we get a typical frequency diversity. The same idea can be used in any multiband case as well. The paper deals with the potential capability of such fusion when the two transmit-receive antennas are placed back to back. This means that the signals received from the same target are shifted half of the antenna’s rotation period apart. In consequence the signals from the same range-azimuth-elevation cells cannot be directly summed because of unknown target velocities. The summation (fusion) is possible only after track initiation of a target, i.e., when the target position in a half of antenna rotation period can be predicted. It is self-evident that the profit of such fusion algorithm results from the frequency diversity of independently fluctuating signals. In our case there is an additional benefit due to the cueing. Namely, it allows to lower the threshold of detection within the predicted region of the tracking gate. The profit obtained in this way depends on the number of cued targets and the dimensions of the predicted targets gates. Another advantage is that the refreshment rate of tracked objects is doubled. Diagram of data and signal fusion The proposed block diagram of the signal processing subsystem, including fusion of signals and data from different bands, for the case of two-band radar is shown in Fig. 1. In the both ... więcej»

SAR/InSAR Raw Data Simulator using 3D terrain model (Damian Gromek, Artur Gromek, Krzysztof S. Kulpa, Mateusz Malanowski, Piotr Samczyński)
The research on new SAR algorithms are based on the theoretical background, algorithms verification using simulations and real-life data tests. The real experiments are expensive and time consuming. Due to that many researchers and software developers put many efforts to design and develop efficient tools for SAR simulations. Last years it has been design and developed many SAR simulators using different solvers [1], [3], [4], [5], [6], [7]. One of the simulator has been proposed and design by Warsaw University of Technology in 2003 [1], [3]. Due to the available that time computational power, the simulator was used to test a SAR algorithms based on the simple scene definitions, which include few dominant scattering in the scene [1], [3]. Such solution allowed for testing most of SAR algorithms, where have been tested such phenomena as non-linear flight path, geometrical distortion of the SAR image, etc [8], [9], [11], [12]. The computational power and required computer memory in the solver used for simulation depends linearly with the number of scattering points in the scene. That time it was not possible to simulate a complex and realistic scene including ground (consist of many scatterers) and shadowing, double and multi-bounds effect. The available in the market computational power and participation in the projects, where new SAR algorithms have to be developed [10], [11], [12], [13], [14], led authors to developed a new extended version of the SAR/ InSAR simulator. This paper presents new results of simulation, where the real DTM models of the Earth has been used. Simulator description Simulation are basing on given radiolocation scene and the parameters of the transmitted radar signal, then simulator solver generates a radar echo. The simulator knowing the location of the radar and of the object in the radiolocation scene. Based on this knowledge, the distance fr... więcej»

Zastosowanie InGaAsN w konstrukcji ogniwa słonecznego p-i-n (Wojciech Dawidowski, Beata Ściana, Iwona Zborowska -Lindert, Damian Pucicki, Damian Radziewicz, Katarzyna Bielak )
Krzemowe ogniwa słoneczne charakteryzują się sprawnością konwersji sięgajacą 25% [1], jednakże nie są one w stanie zaabsorbować promieniowania z zakresu bliskiej podczerwieni. Zastosowanie ogniw wielozłączowych, na bazie związków półprzewodnikowych AIIIBV pozwala na lepsze dopasowanie odpowiedzi ogniwa do spektrum promieniowania słonecznego. Ich potencjalne zastosowanie to systemy koncentratorowe oraz układy zasilania satelitów w przestrzeni kosmicznej [2]. Szeregowe połączenie kilku podogniw absorbujących fotony o różnych energiach, pozwala na uzyskanie prądu oraz napięcia określonych zależnościami (1-2): (1) (2) Wykorzystując półprzewodniki o precyzyjnie dobranych wartościach przerwy zabronionej można wytworzyć ogniwo wielozłączowe (np. GaInP/GaAs) o wyższej efektywności, jednak w dalszym ciągu fotony o energii zbliżonej do 1 eV nie są pochłaniane. Wprowadzenie kolejnego podogniwa na bazie poczwórnego stopu półprzewodnikowego InGaAsN, pozwala na wykorzystywanie promieniowania z w/w zakresu spektralnego, co powoduje dalszy wzrost konwersji fotowoltaicznej, sięgający nawet 43,5%, przy koncentracji światła 418 x [1]. Technologia i pomiary struktur testowych W trakcie prowadzonych prac badawczych zoptymalizowany został proces krystalizacji struktury MQW (ang. Multi Quantum Well), zawierający układ potrójnych studni kwantowych InGaAsN/ GaAs, metodą AP-MOVPE (ang. Atmospheric Pressure Metal Oganic Vapour Phase Epitaxy). Najlepsze parametry strukturalne i optyczne uzyskano dla próbki NI 46 osadzanej w tem... więcej»

Introducing thermal inertia in photovoltaic module simulation (Maciej Piotrowicz, Witold Marańda)
The efficiency of solar panel strongly depends on the temperature. PV-cells warm up significantly when exposed to sunlight. The efficiency then drops typically 0.4% per 1°C for the typical crystalline- Si panels. Usually, the efficiency of panels is specified for so called standard test conditions (STC), characterized by air temperature of 25°C and radiation 1000 W/m2 with defined spectrum. However such conditions are hardly ever observed in operation of field-installed PV-systems. Due to higher operating temperatures, the annual energy yield from solar system in climate of central Europe may be lower even by 30% compared to the theoretical yield at STC [1]. Therefore, the realistic radiation, ambient temperature and module temperature conditions should be taken into consideration to increase the accuracy of the simulations of photovoltaic systems. Thermal modelling of PV devices has been addressed by many authors in recent years and many detailed models were developed, taking into account material properties, various heat transfer mechanisms and weather conditions, e.g. [2, 3]. The correctness of those models was successfully confirmed experimentally. They are, however, unsuitable for PV-application practice. The industry-standard thermal model on the other hand is sufficient for low variations of solar radiation. This model uses single thermal resistance for PV-cell temperature calculations under given ambient temperature and radiation level. RC thermal model should be considered in case of highly variable radiation conditions. The paper demonstrates simulation of simple RC thermal model parameters. Both the extraction of parameters and verification were based on the measurements taken during normal operation of photovoltaic system. Unlike laboratory experiment, such apElektronika 7/2012 71 proach allows to identify real-life thermal parameter values combining all cooling mechanisms in operating conditions. The measuremen... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Research achievements of the DSOD Lodz in the field of photovoltaics (Katarzyna Znajdek, Maciej Sibiński)
The Department of Semiconductor and Optoelectronics Devices was established in 2008 as a part of the Faculty of Electrical, Electronic, Computer and Control Engineering at the Technical University of Lodz in Poland. The team of the DSOD Lodz consists of two professors, two associate professors, nine doctors, five PhD students and seven technical and administration employees. The Department’s research activities cover optoelectronic, micro- and nanoelectronic technologies, modeling and analysis of electrical and thermal phenomena in semiconductor devices, as well as designing and manufacturing of semiconductor devices, including solar cells. The main fields of the research interest are power semiconductor devices, high temperature electronics with emphasis on SiC technology, integrated intelligent systems, photonic systems and photovoltaic cells [1]. Resources and technological base Both teaching and research activities are conducted in the Department’s laboratories which enable investigation and experiments covering designing, manufacturing and testing of photovoltaic devices. Laboratories’ equipment base of the DSOD at TUL covers among others:  Technological Centre of Microtechnology comprising Clean- Room laboratory, equipped with the facilities for fabrication and characterization of semiconductor or metal thin films, as well as for mapping of designed semiconductor structures.  Optoelectronics under the patronage of Corning Cable Systems Poland  Hybrid Systems Laboratory, equipped, inter alia, with the pneumatic screen printer, the ball mill and the station for screen printing pastes preparation.  Photovoltaic Laboratory, fully equipped with an integrated measurement system that simulates standard test conditions STC, in accordance to the requirements of IEC 60904-1 and IEC 60904-3. The system includes C class solar simulator (in accordance to IEC 60904-9) with a silicon... więcej»

Badanie wpływu alkoholi na odpowiedź funkcjonalizowanych czujników impedancyjnych (Konrad CHABOWSKI, Piotr PAŁETKO, Karol NITSCH, Tomasz PIASECKI, Piotr GRABIEC, Paweł JANUS, Teodor GOTSZALK)
Obecnie obserwuje się wzrost zainteresowania zastosowaniem monowarstw samoorganizujących (Self Assembled Monolayer - SAM) do funkcjonalizacji powierzchni bioczujników [1]. W badaniach właściwości elektrycznych warstw samoorganizujących na powierzchni SiO2 czujnika wykorzystuje się min. metodę spektroskopii impedancyjnej [3, 8]. Wiadomym jest, że konduktywność i przenikalność elektryczna cieczy wpływa na odpowiedź planarnego czujnika impedancyjnego. Celem niniejszej pracy było zbadanie, czy jest możliwa identyfikacja zjawisk zachodzących na powierzchni międzyelektrodowej czujnika w zależności od jej właściwości fizykochemicznych zmienianych za pomocą funkcjonalizacji w środowiskach modelowych cieczy. Powierzchnia międzyelektrodowa może adsorbować molekuły cieczy, w której znajduje się czujnik, tworząc dodatkową warstwę przewodnictwa powierzchniowego lub sama wykazywać przewodnictwo. Kształtuje w ten sposób dodatkowy kanał przepływu ładunku elektrycznego w zdominowanym przez przewodnictwo objętościowe środowisku. Pomiary właściwości zmiennoprądowych czujników przeprowadzono w wybranych cieczach z szeregu homologicznego pierwszorzędowych alkoholi zawierające odpowiednio 1, 2, 3, 4, 6 i 8 atomów węgla w łańcuchu alkilowym. Miniaturowe czujniki impedancyjne Na rysunku 1 przedstawiono miniaturowy czujnik impedancyjny ze złotymi elektrodami o strukturze palczastej wykonane na krzemie. Dla zapewnienia separacji galwanicznej elektrody oddzielono od podłoża warstwą dwutlenku krzemu. Odległość między elektrodami i szerokości palców elektrod wynosiły 20 μm zaś cały czujnik miał wymiary 0,6×1 mm2. Sensor zaprojektowano tak, aby można było umieszczać go we wtyczce micro USB B, co wyeliminowało kon... więcej»

Organic photovoltaics - chosen aspects (Justyna Szostak, Ryszard Signerski, Kamila Żelechowska, Jan Godlewski)
Preparation of inorganic solar cells usually requires very costly and complicated high temperature vacuum deposition techniques. Furthermore, materials used for fabrication of these cells are expensive and often dangerous for the environment, not to mention the hazardous and toxic substances used during manufacturing process and its by-products [1]. Hence, organic solar cells (OSCs), that can be fabricated from relatively cheap materials, using simple solution coating techniques, i.e. ink-jet printing or spin and dip coating, which do not require high temperatures nor the usage of hazardous substances, seem to be a promising alternative for the inorganic photovoltaics. Moreover, the number of organic materials is much greater than the number of inorganic ones, so the potential of applications of organic materials in photovoltaics is greater as well. However, relatively low efficiency and fast degradation of organic solar cells [2, 3] are serious drawbacks that hinder commercialization of organic photovoltaic diodes. Designing organic solar cells with higher energy conversion efficiency and stability is impossible without extensive knowledge on all physical and chemical processes taking place inside organic photovoltaic devices in the dark and under illumination. Even though there are many experimental works showing the performance of OSCs, theoretical model for the photovoltaic effect taking place in these devices has not been developed yet. Significant differences in structure of organic and inorganic materials result in different types of interactions between molecules. Thus, even though the mechanisms of photovoltaic effect in inorganic systems are well known and described in literature, processes that affect photovoltaic phenomenon in organic systems still need further understanding. Thus, research we run in our laboratory is focused on analysis of the above mentioned processes. Photovoltaic phenomenon in organic systems ... więcej»

Zasady wyznaczania wyników pomiarów pośrednich wieloparametrowych – w zarysie (ZYGMUNT LECH WARSZA)
We wszystkich dyscyplinach naukowych opartych na eksperymencie, w przemyśle i w innych dziedzinach gospodarki coraz więcej pozyskuje się, przetwarza i wykorzystuje wyniki pomiarów wieloparametrowych (multivariate), czyli wykonuje się pomiary pośrednie multimenzurandu. W szczególności mierzy się równocześnie sygnały wyjściowe wielu jedno- lub wieloparametrowych czujników. Sygnały te podlegają rozrzutom losowym i mogą być ze sobą w różny sposób skojarzone deterministycznie i statystycznie poprzez obiekt badany, system pomiarowy i oddziaływania zewnętrzne. Z próbek pomiarowych wyznacza się estymatory wartości, niepewności i współczynników korelacji wielkości mierzonych pośrednio. Zaokrąglanie i przetwarzanie wyników pomiarów wieloparametrowych i prezentacja ich danych cyfrowych dokonywana jest obecnie dość dowolnie, gdyż przepisy metrologiczne nie są w stanie nadążyć za zróżnicowanymi w różnych dziedzinach potrzebami techniki pomiarowej. Międzynarodowy przewodnik o wyrażaniu niepewności pomiarów GUM [1] oraz poradnik NASA [2] zawierają zalecenia głównie dla szacowania wyników pomiarów pojedynczych wielkości. Niezbędna jest więc standaryzacja procedur wyznaczania, przetwarzania, oceny dokładności i sposobu publikowania wyników pomiarów wieloparametrowych, aby otrzymywane dane miały wysoką jakość i odpowiednią wiarygodność metrologiczną. Zagadnieniom tym jest poświęcony, Suplement 2 do GUM, dopiero ostatnio ukończony i dostępny już w Internecie [1a]. Suplement ten liczy ponad 70 stron. Poza wstępem i odniesieniami do innych związanych z nim tematycznie przepisów obejmuje: pojęcia i definicje, notację i podstawy wektorowego opisu pomiarów wieloparametrowych, wyznaczania ich niepewności z uwzględnieniem dotychczasowych zasad GUM, zastosowanie Metody Monte Carlo, 5 przykładów oraz 4 aneksy i bogatą bibliografię. Pomimo tak bogatej treści nie zawiera on jeszcze omówienia wiele zagadnień niezbędnych we wdrożeniu w praktyce pomiarowej ... więcej»

Experimental Validation of New Classes of Dyes for Dye-Sensitised Solar Cells (Michal G. Zubel, Jacqueline M. Cole, Paul G. Waddell)
Solar power is numbered, along with wind, water (waves, tides, dams, run-on-the-river systems), biomass growth (traditional and advanced) and geothermal heat among renewable energy sources. Although the accuracy of any long-term forecast can be considered questionable, especially in the times when the spectacular failure of the predictions of the Club of Rome, expressed in their 1972 book “Limits to Growth", has become evident, it is recognised that the photovoltaic energy harvesting seems to be the only branch able to provide cheap and clean energy in the future [1]. This is because the other above-mentioned “green" technologies have not enough growth potential and area of availability to be regarded major sources of cheap energy for the future. Energy production from renewable sources encompass still emerging technologies. They constitute only 6% of the global final energy consumption (2009), excluding traditional biomass [2]. Their share of the global electricity consumption (2010) is higher but it is still smaller than 20%, whereas about 16% is attributed to hydroelectricity [2], the most established renewable energy source. All the other sources contribute around 3.3% of the global share. Obviously, fossil fuels dominate both rankings. The main parameter to characterise energy sources is the average cost of production per kilowatt‑hour or megawatt-hour. Looking at the comparison of the cost [2] it is no wonder that photovoltaics are not in widespread use. The cost of electric energy from this source is 5-10 times higher than from the cheapest renewable one, i.e. hydroelectricity. It is also estimated to be around 3 times more expensive than electric energy from coal [3]. Various reports give different figures on the average costs of energy, but in each of them the tendency for photovoltaic energy to be much more expensive is clear. Solar cells will not be competitive with other energy sources as long as... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient’s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor’s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient’s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article “Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Interferometr mikrofalowy na pasmo L (Michał Gasztold)
Interferometr mikrofalowy (rys. 1) jest układem elektronicznym, umożliwiającym wyznaczanie kierunku, z którego dociera do niego fala elektromagnetyczna. Urządzenia tego typu znajdują zastosowanie w monoimpulsowych systemach radiolokacyjnych fazowych określających położenie obiektów w przestrzeni trójwymiarowej. Najprostszy układ antenowy interferometru, umożliwiający wyznaczenie kąta padania θ w jednej płaszczyźnie, tworzą dwie anteny oddalone od siebie o odległość d, nazywaną bazą - rys. 1 [4]. Zgodnie z rys. 2 kąt θ określa się wg następujących zależności: (1) (2) gdzie: ΔΨ - przesunięcie fazowe między sygnałami odebranymi przez antenę A1 i A2, λ - długość fali, ( ) θ λ π ΔΨ = 2 d sin    ΔΨ⋅ = π d λ θ 2 arcsin W przestrzeni trójwymiarowej (3D) kierunek, z którego odbierana jest fala elektromagnetyczna określają kąty podniesienia (kąt elewacyjny) θ i azymutalny φ, które to kąty zdefiniowano na rys. 3. W płaszczyźnie azymutalnej x0y kąt określa się w praktyce względem kierunku północnego, tj. bieguna magnetycznego. W płaszczyźnie elewacyjnej kąt θ jest określany względem bazy interferometru (odcinka łączącego centra fazowe anten odbiorczych interferometru) lub normalnej do bazy. Oba wymienione wyżej kąty nazywane są parametrami namiaru lub pełnym namiarem. Załóżmy, że przesunięcia fazowe sygnałów odbieranych przez anteny A1 i A2 oraz A3 i A4 są znane i wynoszą ΔΨ12 i ΔΨ34. Nie jest trudno uzasadnić, że kąty φ i θ związane są z przesunięciami fazowymi ΔΨ12 i ΔΨ34 następującymi zależnościami: (3) (4) Rozwiązaniem układu równań (3)(4) są poszukiwane kąty φ i θ : (5) (6) Istotą pracy interferometrów jest możliwie precyzyjne wyznaczenie wartości przesunięć fazowych ΔΨ12 i ΔΨ34, co ma zasadniczy ... więcej»

IFA Global Press Conference
W dniach 12-15 kwietnia w Dubrowniku (Chorwacja) odbyła się Międzynarodowa Konferencja Prasowa prezentującą doroczną wystawę radiową. W ciągu trzech dni trwania konferencji organizatorzy przedstawili swoje zamierzenia związane z ekspozycją, która ma się odbyć w dniach od 31 sierpnia do 5 września br. Ogromny wzrost dynamiki innowacji w odczuciu klientów, którzy są zafascynowani nowymi opracowaniami stworzył nastrój optymizmu wśród producentów elektronicznego sprzętu powszechnego użytku i placówek handlowych. Międzynarodowa Wystawa Radiowa, organizowana corocznie w Berlinie (IFA Internationale FunkAusstellung), w ostatnich latach wyjątkowo... więcej»

Brain-computer interaction analysis based on EEG signal and gaze-tracking information (Katarzyna Kaszuba, Bożena Kostek)
Recently many studies are carried out in the area of brain-computer interface (BCI) technology. The electroencephalographic signal (EEG) analysis is one of the most common ways of communication between human brain and the computer due to its non-invasive nature and relative user’s comfort. Still using only EEG data does not provide objective reference information about actions performed by the subject examined. Creating a fully functional and effective BCI to control the computer still remains a distant target. The main disadvantage of the most BCI systems is the lack of the feedback information that could be used as a reference. It is impossible to determine, which of the processes currently dominates brain activity. Even if the subject is asked to perform a task, there is no certainty the user paid attention during its realization. On the other hand, the eye-tracking system provides information about the gaze fixation point allowing for evaluating visual activity of the subject. Thus, we assumed that by combining EEG signal measured by a wireless BCI interface with the eye-tracking system registering the subject’s gaze activity we could expect to obtain an integrated brain-computer interface that measures the user’s brain signal in a more effective, and at the same time, a more objective way. At the same time EOG recording system was used to obtain reference data. EOG-based information transfers this knowledge to the EEG signal analysis. In the paper several approaches for signal pre-processing and parameterization were described and then their usability was checked by means of machine-learning algorithms. The main goal expected to be achieved within this study was to evaluate the possibility to develop a functional and user-friendly solution that utilizes abilities of presented systems. System Setup Gaze-Tracking System The Cyber-Eye, a gaze tracking system developed in the Multimedia Systems Department... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures “more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration.  SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion.  SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for “More than Moore" approaches, where a heterogeneous syste... więcej»

The electrical activity of brain in upright posture provoked syncope (Kazimierz Pęczalski, Tadeusz Pałko, Dariusz Wojciechowski, Wojciech Jernajczyk, Zbigniew Dunajski)
The knowledge of symptoms and signs of patients with transient loss of consciousness (TLOC) is crucial for reliable clinical diagnosis of patients with syncope. The syncope is defined as a TLOC caused by cerebral hypoperfusion [1]. The three main types of syncope are distinguished: cardiac syncope, neurally mediated syncope and syncope due to autonomic failure (orthostatic hypotension). The cardiac syncope can be evaluated by invasive electrophysiological study. The head up tilt test (HUT) with beat to beat measurements of heart rate and blood pressure of patients provides the sufficient diagnose of neurally mediated syncope and syncope caused by autonomic failure. For diagnose the standard classification, consists of four types of vasovagal reaction (including cardiodepressive reaction i.e. heart rate decrease and vasodepressive reaction i.e. arterial pressure decrease): I. mixed, IIa. cardiodepressive, IIb. cardiodepressive, III. vasodepressive, is applied.The neurally mediated and cause by autonomic failure syncopes develop hypotension thus cerebral hypoperfusion. Therefore in presented study we extended the common use set of measurements to electrical activity of brain examination [2]. The statistically significant differences of blood flow and hemoglobin concentration in brain vessels during syncope induced by HUT observed in patients with induced lack of consciousness vs. patients with negative test results were reported in our further study [3]. The blood flow of brain was assessed by ultrasonic, transcranial doppler (TD) and hemoglobin concentration changes (oxygenated and deoxygenated fractions) by near infrared spectroscopy (NIRS). The similar results were reported by other researches. Our study [4, 5] of electrical activity of brain in course of HUT proved appearance of pathology of EEG within tyes (30-60) seconds prior to syncope attack. In our studies we didn’t determinate of the exact interval between obser... więcej»

Miniaturized arms for three-dimensional thick-film thermoelectric microgenerator (Piotr Markowski)
When two different metals are connected by their ends and there is a temperature difference between the junctions the electric current flows into the circuit. This kind of structure is called thermocouple and it can be used to electrical power generation. Output voltage and power can be multiplied if a number of thermocouples are electrically connected in series. At the same time all “cold" junction should have approximately the same temperature - lower than the temperature of "hot" joints (thermocouples should be thermally connected in parallel). Such a structure is called thermopile. Thermopiles produce “green" energy and can be used as an alternative power sources for microsystems and low-power electronic micro-circuits [1, 2]. Their dimensions should be small - comparable with dimensions of powered systems. It is the reason why miniaturization of such generators is important. Fabrication process Two ways of fabrication of thermopiles are presented. First one bases on precise screen-printing only. Ag and Ni or PdAg pastes were used. They were printed using AUREL VS1520 Fine Line Screen Stencil Printer. In the second method precise screen-printing and photoimageable inks technique were combined. Ag-based photosensitive paste was used to fabricate first thermocouples’ arms. Second arms were precisely screen printed between Ag paths. As a substrate DP951 unfired ceramic foil was used in both cases. LTCC (Low Temperature Cofired Ceramic) technique allows fabrication of microelectronic multilayer structures [3]. It can be exploited to construct stack of thermopiles - a number of thermopiles fabricated on single foils are connected in one, multilayer stack (“sandwich" structure). In the result the output parameters (like generated voltage or electrical power) are multiplied. DuPont ceramic was chosen because of its good compatibility with used thick-film pastes. Precise printing - the "A" type structure... więcej»

Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Czujnik wodoru AlGaN/GaN FAT-HEMT (Bogdan Paszkiewicz, Mateusz Wośko, Wojciech Macherzyński, Regina Paszkiewicz, Marek Tłaczała)
Heterostruktury AlGaN/GaN typu HEMT (ang. High Electron Mobility Transistors), ze względu na swoje unikalne właściwości [1], stanowią podstawę konstrukcji wielu przyrządów Elektronicznych - tranzystorów mikrofalowych [2], w tym na zakres THz, czujników gazów [3] i przetworników w czujnikach biologicznych [2]. Jest to związane z dużą nasyconą prędkością unoszenia elektronów 2DEG (ang. Two-Dimensional Electron Gas) w kanale tranzystora (~2,5 × 107 cm/s), dużym maksymalnym napięciem przebicia (~3,3 MV/cm) oraz odpornością materiału na działanie czynników chemicznych i wysokiej temperatury. Jednym z istotnych wyzwań współczesnej elektroniki jest ich zastosowanie do konstrukcji czujników wodoru, które będą mogły pracować w systemach bezpieczeństwa silników na paliwo wodorowe i wodorowych ogniw paliwowych. Aby czujniki te mogły być zastosowane, do detekcji nieszczelności muszą zapewniać szybki czas reakcji na wodór, już przy możliwie małych jego koncentracjach oraz szeroki zakres defekowanych stężeń. W WEMiF PWr opracowano technologię i konstrukcję diodowych i tranzystorowych czujników wodoru na bazie heterostruktur AlGaN/GaN z palladowymi i platynowymi elektrodami katalitycznymi [4]. Typowo odpowiedzi czujników wodoru na bazie hetero struktur AlGaN/GaN są badane w zakresie koncentracji wodoru od dziesiątek do setek ppm [5]. W artykule zbadano odpowiedzi opracowanego w WEMiF PWr, czujnika AlGaN typu FAT-HEMT (tzw. "Tłusty-HEMT") z bramką katalityczną Pt) w szerokim zakresie stężeń wodoru w azocie 0,1…3000 ppm w celu określenia potencjalnych obszarów zastosowań tego rodzaju czujników. Wytwarzanie czujników wodoru Heterostruktury AlGaN/GaN osadzano w stanowisku CCS 3 × 2" firmy AIXTRON na podłożach szafirowych o orientacji c techniką MOVPE (Metalorganic Vapor Phase Epitaxy). Niedomieszkowana warstwa Al0.22Ga078N, o grubości 25 nm, była osadzana na wysokorezystywnej warstwie GaN o grubości 2 μm. Metodą spektroskopii imped... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Zastosowanie tomografii komputerowej do oceny jakości mikrostruktur elektronicznych (PRZEMYSŁAW K. MATKOWSKI, Tomasz Fałat)
Mianem tomografii określa się zbiór nieinwazyjnych metod diagnostycznych mających na celu uzyskanie obrazu przedstawiającego przekrój badanego obiektu. W zależności od zjawisk zachodzących podczas projekcji lub zastosowanego strumienia cząstek lub fal przenikających obiekt możemy wyróżnić ultrasonografię (fala ultradźwiękowa), tomografię rezonansu magnetycznego (zjawisko jądrowego rezonansu magnetycznego), pozytonowa tomografia emisyjna (promieniowanie powstające podczas anihilacji pozytonów), tomografia emisyjna pojedynczych fotonów (promieniowanie gamma), optyczna tomografia koherencyjna (wiązka światła o niskiej spójności czasowej i wysokiej spójności przestrzennej), tomografia rentgenowska (promieniowanie rentgenowskie). Niezależnie od wad i zalet poszczególnych metod ich wspólną zaletą jest ich nieinwazyjne działanie, wspólną wadą natomiast bardzo wysoki koszt urządzeń diagnostycznych. Przez wiele lat głównym obszarem zastosowań tomografii była diagnostyka medyczna, w chwili obecnej tomografia, zwłaszcza tomografia rentgenowska coraz częściej stosowana jest w naukach technicznych do nieinwazyjnej diagnostyki przedmiotów i urządzeń technicznych (np. podzespołów elektronicznych, odlewów, spieków). W chwili obecnej najbardziej rozwijaną i jednocześnie najpowszechniejszą techniką tomograficzną jest tomografia komputerowa. Tomografia komputerowa jest rodzajem tomografii rentgenowskiej i polega na rekonstrukcji obrazu z projekcji uzyskanych podczas prześwietlania badanego obiektu wiązką promieni rentgenowskich. W nomenklaturze angielskojęzycznej tomografia komputerowa określana jest skrótem CT (ang. Computer Tomography). Jej nazwa wywodzi się z faktu, iż do obrazowania badanych obiektów stosuje się wysokowydajne systemy komputerowe. Urządzenie do tomografii komputerowej nazywane jest tomografem komputerowym. Podwalinami rentgenowskiej tomografii było odkrycie w 1895 roku przez niemieckiego fizyka Wilhelma Röntgena promieniow... więcej»

Właściwości cienkowarstwowych, przezroczystych półprzewodników o zadanym typie przewodnictwa elektrycznego do zastosowań w transparentnej elektronice (Karolina Sieradzka, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Eugeniusz L. Prociów, Tadeusz Berlicki)
W ostatnich latach nastąpił wyraźny wzrost zainteresowania tlenkami o ściśle określonych właściwościach optycznych i elektrycznych. Na takie materiały istnieje obecnie silne zapotrzebowanie m.in. w takich gałęziach przemysłu, jak optoelektronika, fotowoltaika czy też mikroelektronika. Materiały tlenkowe o bardzo dobrej przezroczystości dla światła, zazwyczaj są równocześnie słabymi przewodnikami prądu elektrycznego. Wyjątek stanowią materiały typu TOS (Transparent Oxide Semiconductor) oraz TCO (Transparent Conducting Oxide), w których możliwe jest połączenie tych dwóch przeciwstawnych właściwości [1, 2]. Dobre przewodnictwo elektryczne w przezroczystych materiałach tlenkowych można uzyskać, między innymi, przez wytwarzanie tlenków niestechiometrycznych lub przez ich domieszkowanie. Tlenki niestechiometryczne, jak np. TiO2-x ze względu na występowanie w ich sieci krystalicznej licznych wakansji tlenowych wykazują dobre właściwości przewodzące. Jednakże, charakteryzują się również gorszą przezroczystością dla światła oraz są niestabilne. Wygrzewanie w powietrzu powoduje zazwyczaj ich utlenienie, a to przekłada się z kolei na pogorszenie ich przewodnictwa elektrycznego. Metodą, która powszechnie stosowana jest w przemyśle mikroelektronicznym w celu zmiany właściwości elektrycznych różnych materiałów jest domieszkowanie. W wypadku tlenków na bazie TiO2 metoda ta jednak nie jest prosta i wymaga niekonwencjonalnego podejścia. W przeciwieństwie do konwencjonalnych półprzewodników, w których występują wiązania kowalencyjne, tlenki są to materiały o wiązaniach jonowych. Mechanizm przewodnictwa elektrycznego w tlenkach półprzewodnikowych jest podobny do tego, który występuje w półprzewodnikowych materiałach amorficznych. Wraz z wprowadzeniem domieszek w przerwie energetycznej takich materiałów pojawiają się dodatkowe, poziomy energetyczne. Płytkie poziomy donorowe lub akceptorowe, zlokalizowane są w pobliżu środka przerwy energetyczne... więcej»

Magnetronowe rozpylanie – technika i technologia (Witold M. Posadowski, Artur Wiatrowski, Katarzyna Tadaszak, Józef Kudzia)
Cienkie warstwy materiałów jednoskładnikowych, stopów i związków chemicznych mogą być otrzymywane metodą rozpylania magnetronowego. Na podłożach o różnych kształtach i rozmiarach, możliwe jest osadzanie warstw przewodzących, półprzewodnikowych i dielektrycznych. Nanowymiarowe struktury cienkowarstwowe jedno- i wieloskładnikowe mogą być wykonywane w postaci wielowarstw, kompozytów, cermetów, mieszanin itp. Atrakcyjność metody magnetronowego rozpylania wynika z możliwości równomiernego, wysokowydajnego osadzania warstw na różnego kształtu powierzchniach, co pozwala spełniać wymagania procesów przemysłowych. W Zakładzie Technologii Próżniowych i Plazmowych, Wydziału Elektroniki Mikrosystemów i Fotoniki, Politechniki Wrocławskiej prowadzone są badania niekonwencjonalnych procesów magnetronowego rozpylania. Obejmują one opracowywanie i wykonywanie prototypów nowych źródeł magnetronowych oraz badania procesów technologicznych realizowanych za pomocą tych urządzeń. W badaniach są wykorzystywane wyrzutnie magnetronowe typu WM (WMK - kołowa, WMP - prostokątna, WMC - cylindryczna), których konstrukcja jest opracowywana pod kątem realizowania oryginalnych technologii nanoszenia cienkich warstw, ze szczególnym uwzględnieniem procesów autorozpylania i impulsowego reaktywnego osadzania cienkich warstw. Układy magnetronowe typu WM Koncepcja budowy magnetronów WM uwzględnia możliwość stosowania tych urządzeń w wysokowydajnych, powtarzalnych procesach technologicznych. Układ magnetyczny magnetronów zapewnia prawidłowe działanie przy stosunkowo niskich ciśnieniach pracy z jednoczesnym efektywnym wykorzystaniem materiału rozpylanego. Wybrane parametry rodziny magnetronów typu WM przedstawiono w tabeli oraz na rys. 1. Układy WM cechuje możliwość pracy przy mocach targetu (znacznie większych) oraz ciśnieniach roboczych (znacznie niższych) odbiegających od wartości stosowanych w standardowych układach magnetronowych. Jest to możliwe dzięki efek... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
LTCC microfluidic chip with fluorescence based detection (Mateusz Czok, Karol Malecha, Leszek Golonka)
Nowadays miniaturization is present in many fields of science (electronics, medicine, biology and chemistry). Over the last few years many research into miniaturization and microfabrication were carried out. As a result the concepts of the micro-total analysis system (μTAS) and Lab-on-Chip (LoC) were proposed. These devices integrate several laboratory functionalities in a single miniature structure [1, 2]. There are few technologies that can be applied in the realization of the LoC devices. For many years the most common used materials were silicon and glass wafers [3, 4]. As an alternative solution few other materials like PDMS (poly(dimethylsiloxane)) or PCB (Printed Circuit Boards) were used for microsystems fabrication [5, 6]. The Low Temperature Co-fired Ceramics (LTCC) seems to be a suitable material to realize LoC devices. Channels, chambers, valves, electronic and optoelectronic components can be easily integrated in one LTCC module [7, 8]. It also has outstanding physical and chemical properties [9]. The main motivation is to use the LTCC technology in the fabrication of the microfluidic chip, in which fluorescence detection of biological sample can be performed. The manufactured detection module consists of inexpensive and commonly available electronic components and PMMA (poly(methyl methacrylate)) optic fibres integrated with the LTCC microfluidic chip. It is made up of the microfluidic channel, cavities for fiber optics, miniature light emitting diode and photodetector. The LTCC microfluidic chip performance is investigated with several different concentrations of fluorescein solutions which are excited with 465 n... więcej»

Technologie informacyjne w predykcji pogodowych zagrożeń w ruchu drogowym (Andrzej W. Mitas, Marcin Bernaś, Marcin Bugdol, Artur Ryguła)
Systemy ochrony pogodowej stają się nierozłącznym elementem infrastruktury drogowej. Ten stan rzeczy wymuszony jest przez wielomilionowe straty oraz ofiary śmiertelne będące skutkiem wpływu pogody na ruch drogowy. Dla przykładu wystarczy wymienić tu wielo-pojazdowe kolizje na oblodzonej nawierzchni oraz pogodowe uszkodzenia infrastruktury drogowej. Obecnie realizowanych jest wiele projektów dla prognozy i predykcji zagrożeń na drogach o zasięgu punktowym, a także regionalnym lub globalnym - w skali całego kraju. Artykuł prezentuje wspólne elementy tych systemów, propozycję integracji systemu ochrony pogodowej oraz wyniki prac wstępnych. Metody prognozowania pogody Tradycyjne prognozowanie pogody realizowane jest poprzez długotrwałe nanoszenie na mapy synoptyczne pomiarów, które odpowiadają za ilość opadów, siłę i kierunek wiatru oraz wartości temperatur. Opracowana w ten sposób mapa jest podstawą do prognozowania warunków atmosferycznych przez synoptyków. Ich doświadczenie wpływa na poprawność prognozy oraz jej powtarzalność. Matematyczny model różniczkowy Przy tworzeniu numerycznej prognozy pogody wykorzystuje się komputery dużej mocy. Obliczenia pogodowe opierają się na skomplikowanych równaniach opisujących sposób zachowania się atmosfery. Stan atmosfery opisany jest równaniami różniczkowymi - układem równań nieliniowych [1]. Podstawowy układ równań zawierający zasadę zachowania pędu, zasadę zachowania energii oraz równanie ciągłości, uzupełniony równaniem konstytutywnym (np. równaniem gazu doskonałego dla powietrza) nosi nazwę "równań pierwotnych" lub równań Naviera-Stokesa (1)): (1) Pierwszą pracę z algorytmem predykcyjnym dla systemów opartych o równania nieliniowe (różniczkowe) opublikowali Mayne i Michalska: Receding Horizon Control of Non-linear Systems w roku 1990. Obszerne omówienie algorytmów predykcyjnych dla liniowych i nieliniowych systemów dyskretnych w czasie zaproponowali kolejno Kwon i Han (w 2005 roku)... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - część 1 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, w szczególności półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wtedy koncepcji rozwiązań tego typu urządzeń. Próbowano wówczas wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, w ogólności zarówno w płaszczyźnie elewacji jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można dynamicznie, w razie potrzeby, regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, wystrzeliwane rakiety oraz rakiety balistyczne. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Coraz większy nacisk kładzie sie na ich integrację i wielofunkcyjność. Wymaga się jednocześnie zachowania parametrów elektrycznych na poziomie porównywalnym do parametrów anten stosowanych w systemach jednofunkcyjnych. Szybki postęp technologiczny pozwala współczesnym radarom realizować jednocześnie wiele funkcji, takich... więcej»

High temperature properties of thick-film and LTCC components (Damian Nowak, Mateusz Janiak, Andrzej Dziedzic, Tomasz Piasecki)
There is an increased demand for electronics that can work in harsh environment involving high temperature. Applications include sensors and actuators for control in petroleum and geothermal industry, process monitoring and distributed control systems in automotive and aerospace [1-3]. Complete extreme high-temperature electronic systems require active devices as well as proper passive components (eg. resistors, capacitors, inductors). There comes also the requirement for further miniaturization and integration of electronic components. Thick-film and LTCC (low temperature co-fired ceramics) technologies are well-established and relatively low-cost fabrication method of passives. Thus, they represent promising fabrication techniques to meet the demands for devices that are miniaturized and operate at high temperature [4-7]. This paper presents manufacturing process of thick-film and LTCC resistors, planar inductors and interdigital capacitors as well as their chosen electrical and stability properties in a wide frequency and temperature range. Test structures fabrication Square planar inductors and interdigital capacitors were made on alumina (96% Al2O3, 635 μm thick) or fired LTCC (DP951, 300 μm thick) substrates. The size of the fabricated components was 3×3 mm2 and 50 μm track width/50 μm spacing were designed. The inductors consist of 2 or 3 tu... więcej»

Oxide layers fabricated by spray pyrolysis on metallic surfaces (Katarzyna Kobierowska, Magdalena Karpińska, Sebastian Molin, Piotr Jasiński)
A rapid degradation of the implants is the main problem of the contemporary implantology. Due to the structural role of the bone, the titanium alloys and austenitic steel, type 316L are frequently used for the manufacturing of implants. This steel is not deformed, does not change color, and has hypoallergic properties. However susceptibility to pitting and crevice corrosion in chloride ions environment are objectionable features [1]. This is a significant issue to prepare a suitable implant’s outer layer to improve adhesion of osteogenic cells and anti-corrosion properties. The most commonly used methods of thin films layering are: CVD (Chemical Vapor Deposition), PVD (Physical Vapor Deposition) or PLD (Pulsed Laser Deposition). Unfortunately, most of them are relatively expensive and the process is complex. It would be useful to find the cheaper method with the less complexity. Spray pyrolysis deposition of thin ceramic films depends on the atomization of liquid precursor, droplet transport towards the heated substrate, droplet impact, spreading the liquid on the substrate and the evaporation of the solvent, then the distribution of deposited material [2]. Such layers can be obtained when the operating temperature is above the boiling point of the precursor. It is important to remember about the limit of the surface temperature above which it is not possible to obtain a continuous layers. In this paper it has been determined the optimal conditions preparation for the yttrium stabilized zirconium layers on the steel substrate. The spray pyrolysis method to produce corrosion protective ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»