profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
System automatyki budynkowej z interfejsami ZigBee (Jacek Stępień, Jacek Kołodziej, Jacek Ostrowski, Ryszard Golański)
Popularyzacja bezprzewodowych sieci komputerowych zaowocowała na przestrzeni ostatnich kilku lat opracowaniem bardzo licznej i różnorodnej rodziny protokołów bezprzewodowej transmisji informacji. Duże zróżnicowanie powoduje, że na etapie projektowania systemu trudno zdecydować, jaki protokół komunikacyjny byłby korzystny dla określonej aplikacji. Opisy standardów transmisji pojawiające się w literaturze i Internecie, przekonują o ich uniwersalności i możliwościach bardzo wszechstronnego wykorzystania. Taka mnogość standardów ma jedną niewątpliwą zaletę - skutkuje możliwością dopasowania protokołu transmisji do konkretnych potrzeb aplikacji lub systemu. To właśnie przeznaczenie aplikacji determinuje obecnie w największym stopniu wybór dedykowanego dla danego rozwiązania protokołu wymiany informacji. W przypadku pakietowej transmisji danych istotne znaczenie ma duża prędkość transmisji oraz przepustowość sieci. W tej kategorii niewątpliwym zwycięzcą jest opracowany kilka lat temu standard IEEE802.11 [1]. Mnogość rozwiązań oferowanych przez bardzo liczną rodzinę protokołów 802.11, pozwala na zagwarantowanie możliwości stworzenia szybkiej sieci o dużej przepustowości, z zakresu od kilku do kilkuset megabitów na sekundę, jak również stosunkowo łatwe podłączenie konstruowanego układu do już istniejącej sieci komputerowej lub sieci Internet. Do pod-stawowych zalet systemów tego typu należy zaliczyć: możliwość dynamicznego formowania struktury sieciowej, przyłączania i odłączania nowych stacji oraz praca z dużymi prędkościami transmisji. Wadą jest wysokie zagrożenie kolizją w kanale, skutkujące koniecznością częstej retransmisji danych. Ponieważ w sieciach takich pracują najczęściej urządzenia komputerowe, na stałe podłączone do zasilania (lub systematycznie doładowane jak np. notebooki), kwestia energooszczędności traktowana jest drugoplanowo, tym bardziej, że z natury rzeczy, duże prędkości i relatywnie duży zasięg transmisji powod... więcej»

Korekcja trajektorii wektora przestrzennego z wykorzystaniem logiki rozmytej (Tomasz BINKOWSKI)
Zasilanie odbiorników elektrycznych bardzo często wymaga dostarczenia energii przy zadanych parametrach napięcia, bądź prądu. Zachodzi zatem konieczność sterowania wartościami amplitud, częstotliwości, itp. W przypadku odbiorników zmiennoprądowych energia przekazywana jest do nich przez przepływ zmiennych prądów wynikających z przyłożonego napięcia (również zmiennego). W elektrotechnice najczęściej przyjmuje się, że prądy te powinny mieć przebieg sinusoidalny, co wynika z niezmienności kształtu funkcji w wyniku działania całkowania i różniczkowania. Są jednak sytuacje, w których kształt przebiegów może ulec zmianie. Ma to miejsce w przypadku np. odbiorników nieliniowych. Wtedy, gdy zasilane są odbiorniki wielofazowe, może także dojść do asymetrii powodowanej obciążeniem lub błędnie prowadzonym sterowaniem. Projektant układu sterującego musi zatem wyraźnie określić funkcję celu, gdyż najczęściej niemożliwa jest jednoczesna kontrola wszystkich parametrów. W przypadku przekształtników energoelektronicznych bilans mocy chwilowej sprawia, że kontrola kształtu prądu powoduje odkształcenia napięcia lub na odwrót. Dlatego też często sięga się po rozwiązania pośredniego przekształcania energii, w których wykorzystuje się magazyn energii, np. w postaci kondensatora. Przykładem może być klasyczny trójgałęziowy falownik napięcia zasilany z przekształtnika jednofazowego o sinusoidalnym prądzie wejściowym. Brak równości pomiędzy mocą chwilową układu wejściowego jednofazowego, a mocą chwilową układu trójfazowego wymusza stosowanie obwodu pośredniczącego, równoważącego obydwie strony. Konsekwencją bilansowania energii w obwodzie pośredniczącym jest powstanie tętnień napięcia, z którego kształtowane są napięcia wyjściowe falownika [1, 2]. Trójgałęziowy falownik napięcia jest przekształtnikiem energoelektronicznym, którego rolą jest przetwarzanie energii elektrycznej źródła napięcia stałego na energię elektryczną dostarczaną do dwu- lub trójf... więcej»

Wykorzystanie sterownika PLC do sterowania pracą hybrydowego systemu zasilania energią cieplną (Paweł Obstawski)
Niska gęstość energii pochodzącej ze źródeł odnawialnych oraz stochastyczny charakter nośników zarówno pierwotnych jak i wtórnych tej energii może przyczynić się do niestabilnej pracy systemu zasilania. W celu zapewnienia stabilności i ciągłości dostaw energii systemy energetyczne bazujące na odnawialnych źródłach energii uzupełnia się źródłami konwencjonalnymi tworząc hybrydowe systemy zasilania. Hybrydowe systemy zasilania przetwarzając konwencjonalne nośniki energii oraz nośniki energii odnawialnej wytwarzać energię elektryczną PV - elektrownia wodna, elektrownia wiatrowa - elektrownia wodna) lub energię cieplną (segment słoneczny - kocioł gazowy), przy czym mogą być analizowane w skali makro (energetyka zawodowa) oraz w skali mikro (odbiorca indywidualny). Ze względu na fakt, iż system hybrydowy zbudowany jest z kilku niezależnych segmentów współpracujących ze sobą w celu zapewnienia poprawnej pracy systemu jako całości należy dokonać optymalizacji jego pracy. Optymalizacji pracy hybrydowego systemu zasilania można próbować dokonać już na etapie projektowym określając rozmiary poszczególnych segmentów systemu, kierując się względami ekonomicznymi. Do symulacji prasy systemu, oszacowania oczekiwanych uzysków energetycznych oraz kosztów inwestycji wykorzystywane są liniowe aparaty matematyczne, sztuczne sieci neuronowe bądź algorytmy genetyczne. Jednakże w warunkach eksploatacyjnych praca systemu hybrydowego może odbiegać od symulowanej na etapie projektowym. Wówczas optymalizacji pracy systemu hybrydowego można dokonać poprzez opracowanie i wdrożenie odpowiedniego algorytmu sterowania zaimplementowanego w swobodnie programowalnym sterowniku PLC [2, 7]. Ze względu na, modułową budowę, duże możliwości techniczne, możliwość implementacji algorytmu regulacji wygenerowanego w kodzie C współpracę z oprogramowaniem technicznym np.: Matlab sterowniki PLC świetnie nadają się do sterowania pracą hybrydowych systemów energetycznych.... więcej»

Prediction of fatigue and sleep onset using HRV analysis (Predykcja zmęczenia i zasypiania z wykorzystaniem analizy HRV) (Małgorzata Szypulska, Zbigniew Piotrowski)
Research on sleep onset and fatigue is conducted in many scientific centres around the world by many research teams. The standard definition of the moment of sleep onset is based on changes in EEG, EOG, ECG and EMG, and usually reliably detects changes within a few seconds. When in an alert state, as long as a particular person has their eyes closed and at the moment of sleep onset, the EEG record shows a domination of alpha waves. However, the detection of SO (sleep onset) is much more complicated, for example due to the fact that the subjective perception of falling asleep does not always coincide with that specified and defined. During sleep onset a number of different parameters change in specific moments, but they do not coincide in time. The conclusion from this is that sleep onset is not a discrete occurrence but a continuous process. It has been observed that before and during sleep onset the power level in the bands VLF and LF decreases, which reflects a decrease in sympathetic system activity. However, an increase in the power of the HF band can be seen, which means movement toward parasympathetic domination [2, 5]. These trends persist along with the deepening of NREM sleep [4]. A significant increase in the value of RR intervals during sleep has also been noticed, although their variability decreased. The mean RR interval (RRI) increased (heart rate decreased) during SO. A significant change in the level of RR intervals occurred 30 s after sleep onset compared to the average RRI level for 7-9 minutes before SO [2]. Another indicator of sleepiness is a drop in the value of the LF/HF ratio. During sleep, it has minimum values [1]. HRV analysis The RR interval represents the length of the ventricular cardiac cycle, it is measured between two successive R waves and serves as an indicator of ventricular rate. It is also called the inter-beat interval. Heart rate variability is the degree of fluctuation in the length o... więcej»

Zastosowanie zjawiska modulacji absorpcji na nośnikach swobodnych do nieniszczących badań materiałów półprzewodnikowych (Łukasz CHROBAK, Mirosław MALIŃSKI)
Parametry rekombinacyjne materiałów krzemowych są jednymi z ważniejszych, których znajomość jest niezbędna przy projektowaniu urządzeń optoelektronicznych (np. ogniw słonecznych, fotodetektorów, itp.). W ostatnich latach można zaobserwować wzrost zainteresowania nieniszczącymi metodami do wyznaczania parametrów rekombinacyjnych materiałów krzemowych [1-4]. Jedną z nich jest metoda MFCA (ang. Modulated Free Carrier Absorption), która umożliwia wyznaczenie czasu życia nośników, współczynnika dyfuzji nośników, a także prędkości ich rekombinacji powierzchniowej. Jej podstawy teoretyczne, a także przykładowe charakterystyki częstotliwościowe amplitudowe i fazowe uzyskane na płytkach krzemowych przedstawiono w pracy [5]. Modyfikację metody MFCA opartą na przestrzennej separacji wiązki wzbudzającej nośniki i wiązki sondującej przedstawiono w pracach [6, 7]. Wpływ szerokości wiązki sondującej na sygnał MFCA przedstawiono w pracy [8]. Porównanie czułości dwóch odmian metody MFCA opartych na pomiarze sygnału MFCA w funkcji częstotliwości modulacji oraz w funkcji odległości wiązki wzbudzającej i wiązki sondującej przedstawiono w pracy [9]. Rozkład przestrzenny nośników w modelu 3D niezbędny do obliczeń wielkości sygnału MFCA przedstawiono w pracy [10]. Wyniki badań, porównujących metodę MFCA z metodą pomiarową bazującą na wykorzystaniu mikrofal, zweryfikowane pomiarami fotoprzewodnictwa przedstawiono w pracy [11]. Przedstawione w niniejszej pracy zagadnienia dotyczące metody MFCA są ciągle aktualne i znajdują się w spektrum zainteresowań naukowców z międzynarodowych jednostek naukowych [12-14]. Znajomość parametrów rekombinacyjnych materiałów krzemowych jest wysoce pożądana, zwłaszcza przy projektowaniu i wytwarzaniu ogniw słonecznych. Idea metody MFCA polega na wzbudzaniu nośników z pasma walencyjnego do pasma przewodnictwa w wyniku absorpcji światła lasera wzbudzającego oświetlającego próbkę. W wyniku tego uzyskuje się dyfuzyjne fale... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Multimedialny bezprzewodowy system alarmowy (Piotr Bratek, Dariusz Majcherczyk, Ireneusz Brzozowski, Andrzej Kos)
Rozwój elektroniki i informatyki daje nam nieustannie nowe możliwości co przekłada się na upowszechnianie nowych technologii w codziennym życiu. Jedną z najważniejszych spraw do której, jako użytkownicy, przywiązujemy największą wagę jest przede wszystkim bezpieczeństwo osobiste oraz bezpieczeństwo mienia. Nowe coraz bardziej zawansowane rozwiązania pozwalają skuteczniej bronić się przed potencjalnymi zagrożeniami. Możliwość wykorzystania wiadomości obrazkowych MMS daje użytkownikowi znacznie cenniejszą informację, niż dotychczasowa wiadomość tekstowa, na temat zaistniałej sytuacji w miejscu zdarzenia. Dzięki zastosowaniu modemu GSM/GPRS nie ma ograniczenia nałożonego na miejsce realizacji ponieważ obecnie pokrycie sieci komórkową obejmuje cały teren kraju. Przedstawiony w artykule multimedialny system alarmowy (rys. 1) wysyła wiadomości graficzne MMS (ang. Multimedia Messaging Service) z wykorzystaniem modemu GSM/GPRS (ang. Global System for Mobile communication/General Packet Radio Service). Do tej pory na rynku dostępne były głównie systemy oparte na informacjach przesyłanych jako wiadomości SMS (ang. Short Message Service). Było tak ze względu na powszechność dostępu do tej usługi, a co za tym idzie niskich kosztów użytkowania oraz ówczesnych możliwości technicznych terminali komórkowych. Współczesne warunki życia promują tak zwane smartfony (ang. smartphones), czyli urządzenia telefoniczne łączące w sobie funkcje telefonu komórkowego i komputera kieszonkowego PDA (ang. Personal Digital Assistant) stąd rosnące wymagania, co do multime... więcej»

Konstrukcja A-FORS-3 – autonomicznego światłowodowego sejsmometru rotacyjnego (Zbigniew Krajewski, Leszek R. Jaroszewicz, Henryk Kowalski )
Rejestracja efektów rotacyjnych [1, 2] występujących podczas zdarzeń sejsmicznych wymaga konstrukcji nowego rodzaju sejsmometrów, ponieważ klasyczne sejsmometry są bezwładnościowymi czujnikami przyśpieszenia liniowego (prędkości liniowej), dlatego nie mogą być bezpośrednio zastosowane do rejestracji ruchu obrotowego. Oczywistym rozwiązaniem tego problemu wydaje się zastosowanie jako sejsmometru rotacyjnego światłowodowego interferometru Sagnaca. Zasadniczym czynnikiem różniącym A-FORS-3 od klasycznych konstrukcji giroskopów światłowodowych jest fakt, iż mierzy on prędkość kątową a nie kąt [3, 4]. Dlatego też problem dryfu występujący w giroskopach optycznych jest tutaj praktycznie do pominięcia. Układ czujnika został zoptymalizowany pod kątem osiągnięcia jak największej czułość, z czym związana była maksymalizacji takich parametrów jako: promień pętli czujnika, moc optyczna źródła i długość użytego włókna. Zapewnienie mobilności takiego układu oraz bezawaryjnego przesyłania rejestrowanych dany... więcej»

Projekt i wykonanie eksperymentalnej światłowodowej sieci odniesienia DWDM o przepływności 80 Gbit/s (Grzegorz Żegliński , Jerzy Gajda)
Zapotrzebowanie na usługi związane z transmisją danych i obrazów wymagających dużych przepływności stymuluję większe zapotrzebowanie na instalacje sieciowe dostępowe i transportowe dla Internetu optycznego. Jak również rozwój telekomunikacji radiowej opartej na transporcie poprzez szybkie sieci światłowodowe (np.: Internet szybki LTE o przepływności 100 Mbit/s) wpływa na zmianę architektury transportowej sieci światłowodowych. Prace z ostatnich kilku lat o wymienionej tematyce wskazują na znaczący postęp naukowy w zakresie sieci DWDM (Dense Wavelenght Division Multiplexing) na co wskazuję nowe podejście do tematu modulacji i uzyskiwanie coraz większych efektywności spektralnych źródeł laserowych stosowanych w nadajnikach DWDM [1-5]. Z drugiej strony rozwój optycznych pasywnych sieci dostępowych wskazuje na potrzebę tworzenia i wdrażania nowych standardów teleinformatycznych wykorzystujących zwielokrotnienie falowe: sieci WDM-PON (Wavelenght Division Multiplexing Passive Optical Network) [6-8]. W niniejszej pracy została zrealizowana zaawansowana technologicznie i naukowo, zaprojektowana w 2008 roku numerycznie w środowisku RSOFTOPTSIM i zainstalowana w latach 2009-2010 w Laboratorium Technologii Teleinformatycznych i Fotoniki propozycja uniwersalnej transportowej sieci odniesienia pozwalającej na testowanie i pomiary wielu różnych standardów sieci wykorzystujących zwielokrotnienie falowe. W roku 2011 wykonano sprawdzenia zrealizowanego projektu w ramach pracy dyplomowej przez studentów kierunku Elektronika i Telekomunikacja (Wydział Elektryczny Zachodniopomorskiego Uniwersytetu Technologicznego) [9]. Transportowa sieć odniesienia DWDM Sieć odniesienia została zrealizowania w Pracowni Optyczn... więcej»

Właściwości modowe światłowodu mikrostrukturalnego z podwójnym płaszczem do zastosowań w nieliniowych układach diagnostycznych (Hanna Stawska, Elżbieta Bereś-Pawlik )
Obecnie wielofotonowe systemy endoskopowe stają się podstawowym narzędziem badawczym, ze względu na zdecydowanie mniejsze rozmiary oraz niższe koszty w porównaniu z konwencjonalnymi mikroskopami wielofotonowymi. Ponadto, endoskopy, ze względu na swój kształt, mogą być wykorzystywane w badaniach in vivo i aplikacjach klinicznych. Tak więc, w ostatnim czasie badania koncentrują się na rozwoju endoskopów o niewielkich wymiarach, które umożliwiają badania in vivo przy jednoczesnym zachowaniu zdolności obrazowania, podobnej do standardowych mikroskopów wielofotonowych. W chwili obecnej, istnieje kilka problemów związanych z budową takich endoskopów a mianowicie[ 1-4]: - skuteczne dostarczenie ultrakrótkich impulsów wzbudzających do próbki, - wydajne zbieranie sygnału fluoroscencyjnego badanej próbki, - miniaturyzacja sondy. Najczęściej stosowana konstrukcja sondy endoskopowej zakłada wykorzystanie światłowodu jednomodowego do dostarczenia ultraszybkiego sygnału pobudzającego, natomiast światłowodu wielomodomowego do odbierania sygnału fluoroscencyjnego z badanej próbki. Konstrukcja ta ma jednak ograniczenia, związane z tym, że światłowód nadawczy nie jest współosiowy z światłowodem odbiorczym, co powoduje zmniejszenie wydajności odbierania sygnału fluorescencyjnego badanej próbki. Aby zwiększyć wydajność odbierania stosuje się układy mikro-elektro -mechaniczne. Jednak takie układy są bardzo wrażliwe na kalibracje oraz zastosowanie ich powoduje zdecydowane zwiększenie wymiarów sondy. Dlatego jako alternatywę do przedstawionych wyżej konstrukcji stosuje się układ wyposażony w światłowód dwupłaszczowy. W tym przypadku, rdzeń tego światłowodu służy do przekazania sygnału wzbudzającego, natomiast wewnętrzny płaszcz służy do odbierania sygnału fluorescencyjnego. Niestety, wszystkie światłowody używane w wyżej wymienionych konstrukcjach charakteryzują się dużą dyspersją w okolicach 100 ps/nmkm. Dlatego też, konstruowane obecnie endos... więcej»

Charakteryzacja światłowodowych siatek Bragga metodą reflektometrii optycznej w dziedzinie częstotliwości (Tomasz OSUCH, Kazimierz JĘDRZEJEWSKI, Lech LEWANDOWSKI, Krzysztof Anders, Paweł GDULA, Ryszard PIRAMIDOWICZ)
Jedną z najbardziej popularnych technik pomiaru charakterystyk spektralnych komponentów światłowodowych jest metoda z użyciem przestrajalnego bądź szerokopasmowego źródła oraz optycznego analizatora widma. Jednakże nie jest to jedyny sposób pomiaru parametrów widmowych podzespołów światłowodowych, np. światrłowodowych siatek Bragga. Istnieją bowiem techniki reflektometryczne takie jak OLCR (ang. Optical Low-Coherent Reflectometry) lub wykorzystywana w reflektometrach optycznych wysokiej rozdzielczości metoda OFDR (ang. Optical Frequency Domain Reflectometry) [1, 2]. W artykule przedstawiono wyniki badań nad zastosowaniem i ograniczeniami metody OFDR w pomiarach siatek Bragga. Eksperyment Wszystkie badane siatki wykonano na włóknach światłowodowych poddawanych wcześniej procesowi wodorowania w temperaturze pokojowej pod ciśnieniem rzędu 120 bar. Do nanoszenia siatek wykorzystano metodę skanowania maski fazowej [3]. Siatki wykonano na następujących światłowodach: a) cztery 3…4,5 dB siatki o zbliżonej długości fali Bragga ok. 1535 nm (wynikającej z użytej maski fazowej o okresie 1061 nm), naniesione na jednym odcinku standardowego światłowodu jednomodowego, b) siatka Bragga na światłowodzie utrzymującym polaryzację typu PANDA, c) siatka skośna o kącie skosu ok. 40 wykonana na standardowym jednomodowym światłowodzie telekomunikacyjnym, d) siatka Bragga na stożku przewężenia wykonanego ze standardowego światłowodu jednomodowego. Siatki mierzone były na układach pomiarowych przedstawionych na rys. 1. W stanowiskach z rys. 1a i 1b wykorzystano jako szerok... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Inkrementacyjne sekwencje adresowe o niskim narzucie sprzętowym w dwuprzebiegowych testach krokowych (Ireneusz Mrozek, Svetlana V. Yarmolik )
Pamięci półprzewodnikowe RAM stanowią jeden z głównych elementów współczesnych modułów i urządzeń elektronicznych. Zwiększająca się w szybkim tempie złożoność i pojemność układów pamięci stawia wciąż nowe wyzwania związane z efektywnym jej testowaniem. Jednym z najbardziej skomplikowanych uszkodzeń pamięci RAM, analizowanym w wielu kluczowych publikacjach odnoszących się do dziedziny, jest uszkodzenie uwarunkowane zawartością opisane modelem PSF (ang. Pattern Sensitive Faults) [3-4]. Ten typ uszkodzenia oraz korespondujące z nim testy zdefiniował w 1980 roku J.P. Hayes [5]. Dalsze badania prowadzili m.in. Suk i Reddy [6]. Testy CM-79N i March-100N pozwalające zwiększyć dotychczasową efektywność wykrywania uszkodzeń PSF zaproponował Cheng [7]. W literaturze przedmiotu (np. Cascaval et. al. [8]) można znaleźć również wiele modyfikacji testów dedykowanych uszkodzeniom PSF, pozwalających wykrywać różne klasy tych uszkodzeń. Dotychczasowe badania wykazały, iż przy obecnych rozmiarach pamięci jedynymi testami możliwymi do realnego zastosowania w procesie testowania pamięci są testy z grupy testów maszerujących określanych również mianem testów krokowych (ang. march tests). Charakteryzują się one liniową złożonością, wysokim pokryciem uszkodzeń i niskim narzutem sprzętowym przy ich implementacji jako testy wbudowane BIST (ang. Built- In Self-Test). Ponadto klasyczne testy krokowe są łatwo konwertowalne do testów transparentnych (ang. transparent march tests). Z uwagi na narzut czasowy jaki powstaje przy tradycyjnej konwersji i implementacji testu krokowego jako testu transparentnego, zaproponowane zostały różne techniki zwiększające efektywność testowania transparentnego [14-16]. Jednak tradycyjne testy krokowe nie generują wszystkich możliwych wzorców niezbędnych do detekcji uszkodzeń PSF. Dlatego zaproponowane zostały techniki, wykorzystujące w swej podstawie testy krokowe, umożliwiające zwiększenie pokrycia uszkodzeń PSF. Jedn... więcej»

Projektowanie powłok optycznych przeznaczonych do przyrządów na zakres podczerwieni (Jarosław Domaradzki)
Nakładanie powłok optycznych na powierzchnie różnych przedmiotów, zarówno codziennego użytku, jak i zaawansowanych urządzeń optoelektronicznych, ma na celu uzyskanie lub poprawę ich określonych właściwości. Podstawowym zadaniem takich powłok jest uzyskanie zadanego przebiegu charakterystyki transmisji lub odbicia światła w określonym zakresie spektralnym [1]. W praktyce typowe powłoki optyczne wykorzystuje się w szerokim zakresie spektralnym od bliskiego ultrafioletu przez zakres widzialnych fal świetlnych do podczerwieni. Przykładem jednych z najczęściej wykorzystywanych w praktyce powłok optycznych są powłoki, umożliwiające zredukowanie strat odbiciowych, czyli tzw. powłoki antyodbiciowe. Nałożenie takiej powłoki np. na powierzchnię detektora sprawia, że więcej fotonów dociera do czynnego obszaru złącza, co pozwala zwiększyć sprawność konwersji światła w prąd elektryczny. Z kolei, nakładanie powłok optycznych o odpowiednio ukształtowanej spektralnej charakterystyce transmisji (odbicia) światła na optycznie neutralne podłoża, umożliwia budowanie takich przyrządów optycznych, jak filtry optyczne, lustra interferencyjne czy rozdzielacze wiązek. Właściwości powłok ściśle związane są z rodzajem materiału oraz technologią ich wytwarzania. Do najbardziej rozpowszechnionych metod stosowanych do wytwarzania powłok optycznych należą metody fizycznego nanoszenia z fazy gazowej PVD (Physical Vapour Deposition) oraz metody chemicznego nanoszenia z fazy gazowej CVD (Chemical Vapour Deposition). W przemyśle, do najczęściej stosowanych należą: parowanie z zastosowaniem wiązki elektronowej bądź laserowej PLD (Pulsed Laser Deposition), platerowanie jonowe IP (Ion Plating), rozpylanie magnetronowe MS (Magnetron Sputtering). W wymienionych metodach może występować także dodatkowe wspomaganie jonami IAD, IBAD (Ion Assisted Deposition, Ion Beam Assisted Deposition), co pozwala wytwarzać powłoki o lepszych parametrach st... więcej»

Deterministyczna metoda diagnostyki funkcjonalnej układów analogowych (Piotr Jantosż, Tomasz Golonek)
Na etapie wytwarzania, układy analogowe oraz mieszane sygnałowo (UAMS) są poddawane testom mającym na celu weryfikację spełnienia założeń specyfikacji [1-4]. Sterowana specyfikacjami diagnostyka (SSD) układów analogowych jest czasochłonna i złożona obliczeniowo. W trosce o jakość produkcji oraz jej opłacalność wytwórcy UAMS są zainteresowani tanimi metodami testowania funkcjonalnego tych układów. Pierwotnie, sterowana specyfikacjami diagnostyka układów analogowych sprowadzała się do sprawdzania wybranych (lub wszystkich) wymaganych wielkości charakteryzujących układ testowany (UT), np. częstotliwości granicznej, maksymalnego wzmocnienia czy współczynnika tłumienia składowej wspólnej dla wzmacniaczy operacyjnych i pomiarowych [2]. Z oczywistych przyczyn metodologia ta uniemożliwia dokładne testowanie wszystkich układów schodzących z taśmy produkcyjnej. W związku z tym, testowane były losowo wybrane obwody i godzono się z tym, że część układów uszkodzonych była dopuszczana do sprzedaży [2]. W niniejszym artykule zaproponowana została metoda weryfikacji specyfikacji UT za pomocą jednego pomiaru wykonanego w dziedzinie czasu. Prezentowany sposób diagnostyki funkcjonalnej bazuje na wykorzystaniu informacji o położeniu i wartości kresów górnych (supremów) oraz dolnych (infimów) odpowiedzi czasowej testowanego UAMS na impuls napięcia wejściowego. Na podstawie informacji uzyskanej z zarejestrowanej na wyjściu UT szacowane są wartości kolejnych wielkości charakteryzujących wytworzony obwód. Prezentowana metoda diagnostyczna uwzględnia na etapie przygotowania testu wpływ szumu w częściach analogowej oraz cyfrowej (zarówno część kwantyzacji, jak i ograniczoną dokładność przetwarzania) toru pomiarowego [5]. W minionych latach, metody diagnostyczne bazujące na wykorzystaniu elementów sztucznej inteligencji cieszą się rosnącą popularnością. Niemniej jednak, to właśnie fakt wykorzystania niedeterministycznych metod obliczeniowych, mimo w... więcej»

Pasywny ogranicznik diodowy na pasmo Ku (Daniel Gryglewski, Wojciech Wojtasiak)
Ogranicznik jest elementem układu zabezpieczającego wrażliwe obwody odbiornika przed zakłócającym i niszczącym oddziaływaniem środowiska elektromagnetycznego, w otoczeniu którego pracuje system radiokomunikacyjny lub radiolokacyjny. W zależności od potrzeb zabezpieczenie elementów toru odbiorczego może składać się nawet z kilku podzespołów o różnych rozwiązaniach układowych i technologicznych. Zespół układów zabezpieczających stosowany w pasmie mikrofal obejmuje: wstępne lampy zwierakowe (pre-tr tube), lampy zwierakowe (tr-tube), ograniczniki diodowe i ferrytowe [1]. Lampy zwierakowe pre-tr tube i tr tube są najbardziej odporne, wytrzymują wartości mocy wejściowej do 10 MW w impulsie, ale jednocześnie charakteryzują się najwyższym progiem ograniczania i długim czasem wyłączania nawet do 100 μs [2]. W systemach radarowych czas wyłączania lamp zwierakowych może istotnie wpływać na szerokość strefy martwej. Dla osiągnięcia akceptowalnego poziomu ograniczania zwykle nieprzekraczającego kilka mW niezbędne jest użycie kolejnych układów takich jak: ograniczniki diodowe oraz rzadziej ferrytowe, które zapewniają ostateczną ochronę obwodom odbiorczym. Do budowy ograniczników półprzewodnikowych wykorzystuje się specjalnie w tym celu wytwarzane krzemowe diody PIN tzw. ograniczające oraz znacznie mniej wytrzymałe diody Schottky’ego, stosowane w wyższych pasmach mikrofalowych. W zakresie mniejszych częstotliwości do pasma X włącznie, ograniczniki diodowe charakteryzują się bardzo krótkimi czasami przełączania, małymi stratami transmisji i całkiem niezłą wytrzymałością mocową na poziomie nawet 60 dBm w impulsie o długości 1 μs, dużą niezawodnością oraz dość prostą strukturą planarną i niewielkimi rozmiarami. Ze względu na rozproszoną architekturę radaru RSKu-10, najbardziej odpowiedni do zastosowania jest ogranicznik diodowy. Uproszczony schemat blokowy obwodów wejściowych 8-kanałowego odbiornika pokazano na rysunku 1. Ro... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Drodzy Czytelnicy (Anna Piotrowska)
Biezacy numer Elektroniki przynosi zbiór artykuółw z IV Konferencji Sprawozdawczej Projektu Innowacyjne technologie wielofunkcyjnych materiał ów i struktur dla nanoelektroniki, fotoniki, spintroniki i technik sensorowych. (InTechFun) realizowanego w ramach Programu Operacyjnego Innowacyjna Gospodarka w latach 2009 - 2013. Wzorem ubiegyłch lat, sprawozdawane prace byył przedstawione w czasie dwu - dniowej Sesji Specjalnej na XI. Krajowej Konferencji Elektroniki w Darółwku Wschodnim (11 - 14.06.2012 r.). Ta forma sprawozdawczosci zdaje sie najlepiej sułzyc szerokiemu upowszechnianiu wiedzy zarówno o wynikach naukowych Projektu InTe... więcej»

System optycznego przekazywania informacji dla osób niewidomych z wykorzystaniem telefonu z systemem operacyjnym Android (Adam Łutkowski, Paweł Poryzała, Piotr Skulimowski)
Rozwój techniki cyfrowej umożliwia projektowanie oraz wdrażanie wielu rozwiązań ułatwiających życie oraz normalne funkcjonowanie w społeczeństwie osobom niewidomym i słabowidzącym. Wiele z tych urządzeń wspomaga samodzielne poruszanie się w środowisku miejskim (bazując przy tym na danych pozyskanych z systemu GPS). Z ankiet przeprowadzonych z osobami z dysfunkcją wzroku wynika, że bardzo duży problem stanowi dla nich poruszanie się wewnątrz nieznanych im budynków, np. użyteczności publicznej, gdzie systemy nawigacyjne zawodzą z powodu braku sygnału GPS oraz braku dokładnych planów pomieszczeń [1]. Znalezienie odpowiedniego pokoju (w przychodni lekarskiej, urzędzie) możliwe jest wyłącznie przy wsparciu osób widzących. Odczyt tabliczek informacyjnych, nawet z użyciem specjalistycznego oprogramowania instalowanego na telefonach komórkowych, jest bardzo trudny. Motywacją do rozpoczęcia prac nad opisywanym systemem optycznego przekazywania informacji było umożliwienie osobom niewidomym uzyskania informacji o przeznaczeniu pomieszczeń w budynkach użyteczności publicznej. Istnieją podobne systemy działające w oparciu o systemy znaczników radiowych, jednak wymagają one, aby użytkownik wyposażony był w specjalistyczne urządzenie do ich odczytu [2, 3]. Innym rozwiązaniem jest zastosowanie tabliczek zapisanym alfabetem Braille’a. Aktualizacja informacji przekazywanych niewidomym jest w tym przypadku kosztowna (wymaga zastosowania drogich wyświetlaczy pisma Braille’a, bądź wymiany tabliczek w przypadku aktualizacji danych). Opisany w niniejszym artykule system wykorzystuje kamerę dostępną w każdym współczesnym telefonie komórkowym i tani wyświetlacz LED. Koncepcję działania systemu przedstawiono na rys. 1a. Aplikacja zainstalowana na telefonie komórkowym osoby niewidomej analizuje obraz rejestrowany przez kamerę. W przypadku odnalezienia w obrazie znacznika odpowiednio kieruje osobę niewidomą (pomaga jej ustawić telefon w op... więcej»

Test stabilografii nadążnej (Zenon Kidoń, Jerzy Fiołka)
Do oceny stabilności układu utrzymywania równowagi człowieka powszechnie wykorzystuje się stabilografię statyczną. Podstawowym narzędziem stosowanym w tej metodzie jest platforma stabilograficzna wraz ze specjalnym oprogramowaniem. Za jej pomocą rejestrowany jest sygnał stabilograficzny opisujący zmiany położenia w czasie punktu przyłożenia wypadkowej sił nacisku na płaszczyznę platformy, tzw. punkt COP, (ang. Center of Pressure) [1]. W czasie badania, które trwa zwykle 30…60 sekund, pacjent proszony jest o możliwie najlepsze utrzymywanie równowagi w pozycji stojącej. Wyróżnia się przy tym wariant z oczami otwartymi i zamkniętymi. Po otrzymaniu tych wskazówek następuje rejestracja sygnału [2]. Uzyskana w ten sposób trajektoria zawiera informację o sprawności całego układu utrzymywania równowagi, jak i jego poszczególnych składowych (na przykład: ośrodkowego układu nerwowego czy błędnika). Ponadto, rozwijaną w ostatnich latach dziedziną zastosowań stabilografii jest diagnozowanie oraz ocena postępów w rehabilitacji wad postawy oraz uszkodzeń układu mięśniowo-kostnego, zwłaszcza dolnej partii ciała człowieka [3]. Nowe możliwości w zakresie zastosowań stabilografii statycznej w diagnostyce medycznej i rehabilitacji stwarza wprowadzenie biologicznego sprzężenia zwrotnego do schematu badań. W tym przypadku, stanowisko do badań uzupełnione jest o dodatkowy monitor komputerowy. Ekran ten - umieszczony na wysokości wzroku pacjenta - służy do wyświetlania bodźca wzrokowego. Zadaniem pacjenta jest wówczas takie przemieszczanie własnego punktu COP (wyświetlanego również na ekranie), aby nadążał on za poruszającym się bodźcem bez odrywania stóp od płaszczyzny platformy. Koncepcja ta znacząco zwiększa możliwości diagnostyczne. Może być także stosowana w procesie rehabilitacji układu kostno-mięśniowego dolnej partii ciała. Prace w tym drugim zakresie prowadzone są od kilku lat w Instytucie Elektroniki Politechniki Śląskiej [4]. Stan... więcej»

Non-linear electro-ultrasonic spectroscopy of high-voltage varistors (Jacek Cichosz, Lech Hasse, Arkadiusz Szewczyk, Petr Sedlak, Vlasta Sedlakova, Josef Sikula)
Metal-oxide ZnO varistors are widely used as surge arresters in electrical networks and electronic systems limiting overvoltage disorders caused by lighting or other electrical shocks. They are polycrystalline materials, multi-junction ceramic semiconductor devices made by sintering ZnO powder with other metal-oxides of small amount. The sintering process gives rise to a structure which consists of ZnO grains surrounded by very thin insulating intergranular layers. The structure has nonlinear characteristics attributed to the formation of double Schottky barriers at the ZnO grain boundaries and can comprise of various type ZnO grains. High quality varistors are characterized by strongly nonlinear resistance that depends on technology and materials used during preparation process. The main reason of lower quality ZnO structures is abundant presence of grains with low nonlinear or linear boundary junctions. This can be the result of applying various pressures at shaping ZnO structures before firing in an oven. The widespread presence of different kind grain contacts diminishes desirable nonlinear varistor characteristics and influences on its inhomogeneity. The degradation of varistor characteristics by the increase of leakage current density is the behavior of a prime concern in its exploitation. Standard industrial testing of high-voltage varistors for surge arresters demands application of high voltages and intensive currents which can cause irreversible destruction of the tested varistor. The nondestructive testing (NDT) methods are highly desired. The Electro-Ultrasonic Spectroscopy (E-US) can be an answer on these demands in the laboratory circumstances. Electro-ultrasonic spectroscopy The new method of the non-destructive testing of varistors is based on the non-linear electro-ultrasonic spectroscopy using interaction between charge carriers during their trans... więcej»

Wyniki pomiarów szumowym radarem do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Wśród licznych rodzajów radarów jednym z głównych nurtów współczesnej radiolokacji są radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar). Szeroki zakres ich możliwości sprawił, iż są wykorzystywane w przemyśle cywilnym, jak i wojskowym. Początki radaru GPR sięgają lat 20 XX wieku, które pozwalały określić grubość lodowca. Wynalazek ten został jednak zapomniany, aż do lat pięćdziesiątych, kiedy to katastrofa lotnicza doprowadziła do szybkiego rozwoju GPR. Wtedy to wówczas schodzący do lądowania na Grenlandii samolot korzystając z radaru pokładowego uzyskał zobrazowanie skał będących pod powierzchnią lodowca. Operator radaru błędnie przyjął poziom gruntu jako sygnał pochodzący od skał, zaniedbując przy tym sygnał echa od lodowca. Spowodowało to w konsekwencji rozbicie samolotu. Radary do sondowań podpowierzchniowych znajdują zastosowanie w wykopaliskach archeologicznych umożliwiając wykrycie ukrytych w ziemi ruin o dużym znaczeniu historycznym. GPR służy także przy wykrywaniu uszkodzeń wałów przeciwpowodziowych, umożliwiając wyeliminowanie zagrożenia powodzią. Georadar ma możliwość wykrywania defektów w mostach, czy też w drogach, niektóre z nich pozwalają odnaleźć faktyczny przebieg dawno zapomnianych rurociągów. Specjalizowane radary wykorzystywane przez służby wojskowe służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Umożliwiając przy tym wczesną zmianę trasy przejazdu konwoju wojska na terytorium wroga. Głównymi miejscami, gdzie GPR jest tak bardzo pożądany jest Irak czy Afganistan. Ziemia jest bardzo trudnym do analizy środowiskiem, ogólnie jest to ośrodek niejednorodny składający się z wielu warstw o różnej przenikalności elektrycznej. Poprawne odwzorowanie czasu powrotu sygnału nadawanego przez radar na głębokość, na której nastąpiło odbicie wymaga wiedzy o parametrach elektrycznych ziemi. Powyżej wymienione czynniki powodują, iż obróbka sygnałów w tego typu ra... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Z wizytą u górali
Wojskowy Instytut Wydawniczy organizuje cyklicznie "Spotkania z Armią". W kolejnej edycji 44-osobowa grupa dziennikarzy gościła w 22 Karpackim Batalionie Piechoty Górskiej w Kłodzku oraz w Sudeckim Oddziale Straży Granicznej. Dowódca batalionu, podpułkownik Adam Bera przedstawił jednostkę działaj... więcej»

Sonotroda do maceracji materiałów roślinnych (Piotr Gawryś, Paweł Kogut, Łukasz Krzemiński, Bohdan Młynarski)
Ultradźwięki to fale mechaniczne o częstotliwości drgań z zakresu 15 kHz…100 MHz. Istnieje szereg zastosowań ultradźwięków, a jednym z nich jest ekstrakcja materiałów roślinnych z tkanek. Jest to zastosowanie o tyle ważne, że przynosi wymierne korzyści i jest stosowane na skalę przemysłową. Zjawisko ekstrakcji polega na rozdzieleniu zawiesiny i przejściu poszczególnych frakcji gęstości substancji z wnętrza ciał stałych do objętości cieczy poprzez wypłukiwania roztworu. W polu oddziaływania ultradźwięków ekstrakcja ma szybsze tempo, o ile zachodzi jednocześnie kawitacja (zjawisko wywołane zmiennym polem ciśnień cieczy, polegające na tworzeniu się, powiększeniu i zanikaniu pęcherzyków pary). Jednak kawitacja, jako zjawisko intensyfikujące ekstrakcje powoduje również degradację narzędzi. Końcowym produktem ekstrakcji jest uzyskanie roztworu zawierającego oczekiwany produkt albo pewną substancję pośrednią, poddawaną następnie dalszej obróbce. Mając taki roztwór możemy wydobyć z niego pożądane substancje poprzez suszenie, odsączenie, odparowywanie lub krystalizację. Typowe częstotliwości przydatne przy procesie ekstrakcji to zakres 20…500 kHz. Ekstrakcja ultradźwiękowa znajduje zastosowanie w biotechnologii, farmacji, przemyśle spożywczym, kosmetycznym i perfumeryjnym. W artykule skupimy się na narzędziach służących do przekazywania drgań (sonotrodach) o częstotliwości pracy 20 kHz. Ponadto zostaną omówione zagadnienia związane z projektowaniem sonotrod tego typu i procesy wpływające na żywotność narzędzi. Sonotroda Sonotroda (narzędzie) jest elementem zestawu ultradźwiękowego i ma bezpośredni kontakt z materiałem poddawanym wpływowi drgań ultradźwiękowych. Jak każdy element zestawu ultradźwiękowego jest ona elementem falowodowym i musi posiadać wymiary silnie skorelowane z częstotliwością pracy sonotrody. Przy projektowaniu sonotrod należy przeprowadzić obliczenia amplitudy drgań uwzględniając zjawiska prędkości roz... więcej»

Jakość połączeń kluczem do lepszej obsługi gości EURO 2012
Jak podało KRAJOWE CENTRUM MEDIALNE EURO 2012, Polska jest pierwszym organizatorem Mistrzostw Europy w Piłce Nożnej, który wprowadził jakościowe wskaźniki wyznaczające pożądany poziom usług w usługach, m.in. telekomunikacji, transporcie, opiece medycznej, bezpieczeństwie, informacji, zakwaterowaniu. Wskaźniki zostały wypracowane przez PL2012 we współpracy z partnerami w poszczególnych obszarach obsługi. Opis procedury badań podało do wiadomości prasy Parametry jakości zostały określone tak, aby w maksymalnym stopniu odzwierciedlały oczekiwania kibiców wobec oferowanych im usług - ... więcej»

Zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia w wieloetapowym procesie montażu elektronicznego (Janusz Borecki, Tomasz Serzysko)
Dalece zaawansowany stopień miniaturyzacji i integracji podzespołów elektronicznych sprawia, że nowoprojektowane urządzenia elektroniczne zawierają elementy o bardzo zróżnicowanej budowie i wielkości. Coraz częściej zdarza się tak, że projektanci, wbrew ogólnie znanym zasadom rozmieszczania podzespołów na poszczególnych stronach płytki obwodu drukowanego (pierwsza strona montażu - lżejsze podzespoły; druga strona montażu - cięższe podzespoły), umieszczają dość ciężkie podzespoły na obydwu stronach montażowych płytki obwodu drukowanego. W efekcie dochodzi do sytuacji, kiedy siły napięcia powierzchniowego przetapianego lutowia, podczas wykonywania montażu drugiej strony pakietu elektronicznego, nie są wystarczające, aby utrzymać na powierzchni płytki podzespoły, które zostały zamontowane na pierwszej stronie pakietu. Istnieje wtedy bardzo duże ryzyko odpadania zbyt ciężkich podzespołów lub zniekształcenia ich połączeń lutowanych. Należy w tym miejscu wspomnieć, że formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa bardzo ważne zadania, jakimi są: przyłączenie podzespołów elektronicznych do sieci połączeń obwodu elektrycznego montowanego pakietu oraz mechaniczne zamocowanie podzespołów na powierzchni płytki obwodu drukowanego. Każde zniekształcenie połączenia lutowanego może mieć negatywny wpływ na jego wytrzymałość i tym samym obniżyć nieuszkadzalność całego zespołu elektronicznego. Zagadnienie wieloetapowego montażu pakietów elektronicznych dotyczy zarówno technologii ołowiowej, jak i bezołowiowej, a zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia powinno pozwolić na zapobieganie sytuacji odpadania podzespołów podczas procesu montażu. Co prawda można kłopotliwe podzespoły kleić do powierzchni płytki po zmontowaniu jej pierwszej strony, jednakże wymaga to wprowadzenia do procesu montażu dodatkowej operacji. Takie rozwiązanie powoduje również pewne trudności w wypadku ... więcej»

Szacowanie niepewności w pomiarach z autokorelacją obserwacji (Zygmunt Lech WARSZA)
Stosowanie obecnej wersji zaleceń międzynarodowego przewodnika Guide to the Expression of Uncertainty in Measurement znanego pod akronimem GUM [1, 2] i jego Suplementów natrafia na ograniczenia w wielu rodzajach pomiarów, szczególnie przeprowadzanych przyrządami i systemami o zautomatyzowanym procesie pomiarowym z próbkowaniem sygnału wejściowego i przetwarzaniem a/c. Nie ma jeszcze ustalonych międzynarodowo zasad jak wyznaczać niepewność pomiaru wielkości, sygnałów i procesów zmiennych w czasie, chociaż rozpoczęto już opracowywanie podstaw naukowych do ich tworzenia [19] i istnieją wcześniejsze opracowania obejmujące częściowo tę problematykę [M5], [M6]. Propozycje udoskonalenia zaleceń GUM i rozszerzania zakresu stosowania pojęcia niepewność omawiane są też w szeregu publikacjach oraz dyskutowane na seminariach krajowych i międzynarodowych. Weryfikacją treści GUM i opracowywaniem kolejno wydawanych Suplementów zajmuje się powołany w 1997 r. wspólny komitet siedmiu organizacji międzynarodowych o skrócie JCGM, pod przewodnictwem dyrektora Międzynarodowego Biura Miar i Wag BIPM. Opracowywanie międzynarodowych przepisów metrologicznych jest jednak procesem długotrwałym i wymaga poprzedzającej weryfikacji w praktyce w różnych dziedzinach. Dlatego też przepisy te nie nadążają za bieżącymi potrzebami szybko rozwijającej się techniki pomiarowej. Dalej omówiono możliwość stosunkowo łatwego rozszerzenia zaleceń GUM na pomiary wielkości zmiennych w czasie o obserwacjach uzyskiwanych przy regularnym próbkowaniu sygnału. Przedstawiono metodę przetwarzania danych próbki umożliwiającą poprawne oszacowanie niepewności dla przypadku, gdy obserwacje są ze sobą powiązane statystycznie, czyli autoskorelowane. Podano też sposób wyznaczania estymaty funkcji autokorelacji z tych danych. "Czyszczenie" surowych danych Zmiany zbioru "surowych" wartości obserwacji pomiarowych, czyli próbki wywołany jest przez przyczyny zarówno zdeterminowane, jak ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
CMOS inverter based analog multipliers - new experimental results and improvement study (Witold MACHOWSKI, Jacek JASIELSKI)
Starting from Naut's famous transconductor [1] complimentary push-pull CMOS inverter, invented by Wanlass and dedicated for low power digital logic has been more and more frequently used in analog applications [2-6]. Various authors have different motivations for such approach - one might be expected compatibility of EDA tools for both digital as well as analog CMOS, despite full design automation for analog so far seems to be unreachable goal. Our interest for inverter based analog circuits is motivated by extremely low supply voltage requirement of this block - just double threshold voltage, which is the minimum one, as long as circuits working in saturation region are under consideration. While most authors focus on linear analog applications, our unique contribution to this area is a design of the firsts and single so far known architecture of four quadrant analog multiplier based entirely on CMOS inverters [7, 8]. The analog multipliers, on the other hand, are versatile building blocks used for numerous communication signal processing applications like Phase-Lock Loops (PLLs), automatic variable gain amplifiers, mixers, modulators, demodulators and many other non-linear operations - including division, square rooting, frequency conversion etc. Thus they are necessary in any more sophisticated VLSI design. In the paper we describe a quarter-square analog four-quadrant multipliers based on aforementioned proprietary core architecture using four CMOS quasi-inverters. An emphasis on auxiliary circuit implementation for improved driving of the same core [9,10] was put as well as new architecture comprising regular inverters has been found [11]. Our most recent journal paper [10] on the subject does contain post-layout simulation results only, while now some new experimental data are available. In current paper we recall some simulation results and compare them with that of real prototype measurements. Two different arch... więcej»

Experimental results obtained with FM-based passive radar demonstrator developed at Warsaw University of Technology (MATEUSZ Malanowski, KRZYSZTOF Kulpa, PIOTR Samczyński, JACEK Misiurewicz, JANUSZ Kulpa, PAWEŁ Roszkowski, PAWEŁ Dzwonkowski, DAMIAN Gromek, ŁUKASZ Maślikowski, MAREK Misiurewicz)
Passive bistatic radar (PBR) technology is becoming more mature, as experimental systems evolve into commercially available products [1], [2]. A natural tendency is to compare the results of a PBR, which is relatively new product on the market, with existing sensors, such as primary surveillance radar (PSR) or secondary surveillance radar (SSR). In the paper the results obtained with the PaRaDe (Passive Radar Demonstrator) demonstrator, developed at Warsaw University of Technology, are presented. The results were obtained during military exercise carried out in Poland, in September 2011. During the trials, military targets taking part in the exercise, as well as ordinary civilian traffic have been observed. The results obtained with the PaRaDe are compared with data provided by a Mode-S receiver (SSR) and a military active radar (PSR) [3]. In the paper the hardware and software parts of the PaRaDe system are presented, followed by the description of the results obtained during the trials. System Description Hardware The PaRaDe demonstrator is a passive radar using FM radio transmitters, operating in 88…108 MHz frequency band, as illuminators of opportunity [7], [8], [15], [16]. The antenna system of the radar is an 8-element antenna array arranged in a Uniform Circular Array. The array is mounted on a 12 m-high deployable mast. The signals from the individual array elements are amplified by low noise amplifiers (LNA) and filtered by band-pass filters (BPF) mounted on the top of the mast. After the filtering, the signals from all 8 channels are sampled coherently. The sampling is performed directly at radio frequency, i.e. no analog down-conversion is used. For the sampling, 4 versatile digitizers, with 2 inputs each, are used [9]. After sampling, the signals a... więcej»

A wearable microstrip rectangular patch antenna (Mariusz Woźniak, Adrian Durka, Marek Bugaj, Rafał Przesmycki, Leszek Nowosielski, Marian Wnuk)
Designing wearable antennas for wireless communication systems is a very important field of knowledge nowadays. These antennas can be applied in body-centric communication systems, such as paramedics, fire fighting and military. Besides, wearable antennas also can be used for youngsters, the aged and athletes for the purpose of monitoring. Commonly, wearable antenna requirements are small size, light weight, low cost, no need of installation and, which is one of the most important properties, ideally low radiation level in the direction of the human body. Moreover, wearable antennas should be almost maintenance-free and failure-free [1]. There are two major types of wearable antennas: conventional wearable designs (which include planar dipoles [2], monopoles [3], PIFAs (planar-inverted Fs) [4], microstrip patches [5], button antennas [6]) and textile antenna designs [7] (made of conductive fabrics called electro-textiles). The major disadvantage of antennas presented in these referenced articles is that they don’t limit backward radiation. In this paper a microstrip rectangular patch antenna is proposed. Patch antennas are feasible for both on-body and off-body communication due to the low profile they utilize. The ground plane of such antenna effectively shields both the antenna (from the influence of the human body) and the user (from negative effects of electromagnetic field). Antenna design Figures 1 shows the presented antenna geometry. The substrate selected for the antenna was ULTRALAM 2000 with effective dielectric constant εr = 2.6 and loss tangent δ = 0.0022 made by Rodgers ... więcej»

Microwave filter tuning using coarse set of reflection characteristics and corresponding tuning elements deviations (TOMASZ KACMAJOR, JERZY JULIAN MICHALSKI)
Filter tuning is the last process in filter production line. After assembling a device, due to its imperfections, there is a need to properly adjust tuning elements to meet all technical specifications. It is a well-known problem and results in serious bottleneck during production. Tuning is performed manually by observing scattering characteristics and trying to obtain required shape by changing positions of tuning screws. Depending on filter complexity and operator’s experience, this process may vary from 15 minutes to a few hours. That is why many works have investigated this issue, trying to make the tuning faster, easier or to automate the whole process. Recently, we have proposed tuning methods based on mapping of filter characteristic to the deviation of tuning elements responsible for detuning. This mapping is performed with the use of artificial neural network (ANN) multidimensional approximator [1], neuro-fuzzy system [2] or linear matrix operator [3]. Tuned filter is treated as a “black-box" as we are not involved in, e.g., coupling matrix extraction as proposed in [5]. The approximators prepared in our methods work as follows: when the detuned characteristic is supplied at the input, the approximator generates, at its output, these values of tuning elements which are responsible for filter detuning. Therefore, operator or robot knows which screw must be adjusted in which direction and value. This general concept is depicted in Fig.1. Above-mentioned methods have been proved to tune most of modern microwave filters. But there is a room to enhance the concept. To build these approximators a set of elements {Δz, s} containing tuning deviations and corresponding characteristics is collected in the process of controlled random filter detuning. This process takes a long time and requires a lot of {Δz, s} pairs. In practice it is done by robots and could be successfully performed for filters equippe... więcej»

Kamera termowizyjna w diagnostyce urządzeń elektronicznych (Arkadiusz HULEWICZ)
W dobie intensywnego rozwoju technologicznego oraz wzrastającej liczby urządzeń elektronicznych ważną rolę odgrywa ich cykliczne monitorowanie oraz ocena prawidłowego działania. Wczesne zdiagnozowanie nieprawidłowości w pracy poszczególnych elementów elektronicznych pozwala uniknąć uszkodzenia całego urządzenia oraz zminimalizować koszty naprawy. Ponieważ uszkodzenia tych elementów są często poprzedzone wzrostem temperatury, skutecznym sposobem jest monitorowanie rozkładu temperatury wewnątrz kontrolowanego urządzenia. Spośród wielu metod pomiaru temperatury autor artykułu zaproponował rozwiązanie wykorzystujące kamerę termowizyjną. Termowizja jest metodą badawczą pozwalającą w sposób zdalny i bezdotykowy określić rozkład temperatury na określonej powierzchni. Wartość zmierzonej temperatury określana jest na podstawie zarejestrowanego promieniowania podczerwonego, emitowanego przez każde ciało, którego temperatura jest wyższa od zera bezwzględnego [6, 10]. Zarejestrowane przez kamerę termowizyjną promieniowane podczerwone charakteryzuje się różną mocą, zależną od temperatury badanego ciała oraz innych parametrów. W obrazie poddanym odpowiedniej obróbce miejsca o danej temperaturze przyjmują określoną barwę, tworząc w ten sposób mapę rozkładu temperatury na powierzchni badanego ciała. Postęp, jaki miał miejsce w technologii półprzewodnikowej oraz technice optyki podczerwieni, umożliwił rozwój termowizji, który pozwala na wykorzystanie jej w wielu dziedzinach nauki. Współcześnie termowizja znajduje liczne zastosowania, m.in. w przemyśle, budownictwie, energetyce, elektronice, medycynie oraz ratownictwie morskim [1, 3]. W porównaniu z innymi metodami pomiaru temperatury termowizja umożliwia diagnostykę urządzeń podczas pracy. Pomiary termowizyjne urządzeń elektronicznych umożliwiają przeprowadzenie oceny rozkładu temperatury oraz zmian jej wartości w czasie, pozwalając w ten sposób wykryć ewentualne zagrożenia, które mogą wyst... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Wytwarzanie miniaturowych sensorów elektrochemicznych i matryc sensorów na podłożu krzemowym (MICHAŁ ZABOROWSKI, KRZYSZTOF DOMAŃSKI, PIOTR PROKARYN, URSZULA WAWRZYNIAK, PATRYCJA CIOSEK, WOJCIECH WRÓBLEWSKI, PIOTR GRABIEC)
Materiały i metody technologiczne, wypracowane dla potrzeb technologii planarnej układów scalonych, znajdują także zastosowanie w produkcji różnego rodzaju sensorów. W Zakładzie Technologii Mikrosystemów i Nanostruktur Krzemowych ITE w Piasecznie podejmowano już prace związane z wytwarzaniem czujników chemicznych na podłożach krzemowych [1, 2]. W ramach niniejszej pracy wytworzono trzy rodzaje sensorów w technologii planarnej, kompatybilnej z technologią CMOS. Prace prowadzone były na linii technologicznej, działającej w cleanroomach klasy ISO 6 (1000) i ISO 4 (10). Opis technologii W pracach używano jednostronnie polerowane płytki z monokrystalicznego krzemu o orientacji (100) i średnicy 100 mm. Na płytkach o rezystywności 0,01 Ωcm wytwarzano warstwę tlenku termicznego o grubości 100 nm w rurze kwarcowej w 1000°C. Następnie w reaktorze LPCVD w wyniku reakcji dwuchlorosilanu (SiH2Cl2) z amonia... więcej»

Laser texturing and microtreatment of silicon for photovoltaics (LECH A. Dobrzański, ALEKSANDRA Drygała, MAŁGO RZATA Musztyfaga)
Wyczerpujące się zasoby konwencjonalnych źródeł energii oraz wzrastające zanieczyszczenie środowiska naturalnego powodują, że od wielu lat prowadzi się badania nad pozyskiwaniem energii ze źródeł odnawialnych. Należą do nich także ogniwa słoneczne, ich zdecydowana większość wykonywana jest z krzemu. Obecnie, techniki wytwarzania krzemowych płytek i ogniw fotowoltaicznych, zdominowały znaczą część komercyjnego rynku fotowoltaicznego poprzez ich ogromny zapas. Prognozuje się nawet, że aktualny stan dominacji utrzyma się aż do roku 2020. Technologia laserowa w produkcji ogniw fotowoltaicznych staje się nieodzownym elementem współczesnej fotowoltaiki, stwarza możliwość precyzyjnej mikroobróbki materiału i powierzchni dzięki wykorzystaniu wiązki laserowej jako zautomatyzowanego narzędzia służącego do ich kształtowania. W pracy przedstawiono wykorzystanie technik laserowych do teksturowania powierzchni krzemu oraz selektywnego spiekania laserowego elektrod przednich na powierzchni krzemu [1-4]. Zastosowanie laserów do wytwarzania krzemowych ogniw fotowoltaicznych Technologia laserowa znajduje szerokie zastosowanie w różnych obszarach przemysłu fotowoltaicznego. Na rys. 1 przedstawiono różne aspekty zastosowania laserów w inżynierii powierzchni w Zakładzie Technologii Procesów Materiałowych i Technik Komputerowych w Materiałoznawstwie Instytutu Materiałów Inżynierskich i Biomedycznych Politechniki Śląskiej. Główny kierunek prac badawczych z zakresu fotowoltaiki dotyczy problematyki technologii wytwarzania ogniw fotowoltaicznych z krzemu krystalicznego z adaptacją technologii laserowych do: ● teksturowania powierzchni krzemu polikrystalicznego w celu zmniejszania współczynnika odbicia promieniowania słonecznego i zwiększenia sprawności fotoogniw, ● selektywnego spiekania laserowego SLS (ang. Selective Laser Sintering) elektrody przedniej do jego monokrystalicznej powierzchni krzemowej, z użyciem lasera CO2 w celu popra... więcej»

Zastosowanie transoptorów odbiciowych jako czujników odległości (Michał BOŁTRUKIEWICZ)
Transoptory odbiciowe są elementami optoelektronicznymi pełniącymi funkcje czujników odległości lub binarnych czujników zbliżeniowych [1] w układach automatyki i mechatroniki (rys. 1).Podstawowym parametrem transoptora odbiciowego jest przekładnia prądowa CTR (ang. Current Transfer Ratio) stanowiąca iloraz prądu emitera transoptora i wywołującego go prądu diody elektroluminescencyjnej, której wartość zależy od odległości pomiędzy transoptorem i powierzchnią odbijającą. Dla transoptora wykorzystywanego w pracach eksperymentalnych przebieg wartości przekładni prądowej CTR w funkcji odległości x aproksymowano zależnością: CTR (x) = 0,0413 e - 0,16 x w której x wyrażone jest w milimetrach. Do jej wyznaczenia wykorzystano regresję wykładniczą oraz uzyskane doświadczalnie... więcej»

Multifunctional coatings for solar cells application (Karolina Sieradzka, Michał Mazur, Danuta Kaczmarek, Jarosław Domaradzki, Damian Wojcieszak)
In recent years, an increased interest of nanocrystalline oxide materials was been observed [1, 2]. Such oxides join a few selected, well-defined properties such as high transparency, good electrical conductivity, hydrophilic or hydrophobic properties, antireflective properties, etc. [3, 4]. In contrary to conventional semiconductors, such thin oxide films, prepared for transparent electronics or solar cells application, combine mainly two specific features [5]: high transparency in visible light and the ability of electrical conduction at room temperature. These oxides, depending on the level of electrical resistivity are divided into two groups of materials: Transparent Conducting Oxide (TCO) or Transparent Oxide Semiconductor. However, in the literature, there is increasing number of reports about trying to get the additional properties, but most showed examples of multilayers. For example, it might be a thin oxide films with additional antireflective properties, prepared as TiO2 /SiO2 multilayers [4, 6] in order to obtain the largest possible reduction of light reflectance. Pemble et al. described dual functionality self-cleaning thermochromic films prepared by APCVD method. The multilayers based on VO2 and TiO2 revealed good degradation of stearic acid under UV radiation and thermochromic properties with the switching temperature of 55oC. In the first part of this paper, the possibilities of characterization of nanostructures used in the Laboratory of Optoelectrical Diagnostics of Nanomaterials located at Wroclaw Univeristy of Technology have been showed. Then antireflective, photoactive nanocrystalline Ti-V oxide as a multifunctional thin film has been presented. Directions of current research The scope of current work carried out in the Laboratory involves the research for new, nanocrystalline oxide materials with unique electrical and optical properties, which might be applied as multifunctional coatings for example s... więcej»

Krzemowe, 16-elementowe matryce fotodiodowe specjalizowane do monitorowania optycznego czujników mikrodźwigniowych (Maciej Węgrzecki, Jan Bar, Tadeusz Budzyński, Teodor Gosztalk, Piotr Grabiec, Dariusz Lipiński, Konrad Nieradka, Andrzej Panas, Jerzy Sarnecki, Wojciech Słysz, Iwona Węgrzecka, Michał Zaborowski)
W czujnikach mikrodźwigniowych, zmiany stanu fizyko-chemicznego rejestrowane są poprzez rejestrację przemieszczenia (ugięcia) mikrodźwigni. Jedną z najczulszych metod pomiaru tego przemieszczenia jest metoda odbicia wiązki optycznej (Optical Beam Deflection - OBD). W metodzie tej, odchylenie wiązki świetlnej odbitej od mikrodźwigni, padającej na matrycę fotodiodową o odpowiedniej konfiguracji elementów światłoczułych, wykrywane jest przez pomiar zmiany rozkładu mocy optycznej na ... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
World Telecommunication and Information Society Day 2012 (WTISD): "Women and Girls in ICT" (Hamadoun I. Touré)
Dear Sir/Madam, World Telecommunication and Information Society Day, celebrated each year on 17 May, marks the anniversary of the signature of the first International Telegraph Convention in 1865 which led to the creation of the International Telecommunication Union. I am... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient’s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor’s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient’s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article “Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

Układ zasilania i sterowania impulsowej diody laserowej z rozłożonym sprzężeniem zwrotnym pracującej w paśmie widmowym bezpiecznym dla wzroku (Wiesław Pichola, Maria Maciejewska, Marcin Mamajek, Jacek Kwiatkowski, Jacek Świderski)
We wczesnych latach 70. lasery pompowane były głównie lampami błyskowymi lub innymi laserami [1, 2]. Koniec lat 80. i lata 90. to okres, w którym zaczęto wykorzystywać diody laserowe jako źródła pompujące lasery ciała stałego i fakt ten zadecydował w ogromnej mierze o ich gwałtownym rozwoju, jaki obserwujemy do dnia dzisiejszego [3-5]. Postęp technologii, opracowanie nowych metod wytwarzania (epitaksja, podwójna epitaksja) nowych materiałów i struktur spowodowały dynamiczny rozwój rozpartywanych źródeł światła. Zastosowanie nowych rozwiązań technologicznych pozwala m.in. na zmniejszenie rezystancji termicznej między złączem a obudową, co skutkuje zwiększeniem mocy z jednostki objętości diody laserowej, podwyższeniem częstotliwości przy pracy impulsowej z dziesiątek kHz do powyżej 100 MHz i skróceniem czasu trwania impulsu poniżej 1 ns. Są to kluczowe parametry dla wielu aplikacji wykorzystujących bezpośrednio lub pośrednio diody laserowe - np. w dalmierzach laserowych, wskaźnikach celów lub układach LADAR [6,7]. Artykuł przedstawia propozycję rozwiązania układowego generatora impulsów prądowych dla diod laserowych z rozłożonym sprzężeniem zwrotnym na przykładzie diody LC25T firmy OCLARO [8], generującej promieniowanie o długości fali 1550 nm. Opracowanie założeń i projekt koncepcyjny zasilacza impulsowej diody laserowej Projektowany zasilacz miał być źródłem energii elektrycznej dla impulsowej diody laserowej typu LC25T firmy OCLARO z możliwością zapewnienia odpowiedniego chłodzenia diody. W tabeli przedstawiono parametry rozpatrywanej diody laserowej, na podstawie których ustalono wymagania w stosunku do jej układ zasilania. Z danych przedstawionych w tab. można wyodrębnić zasadnicze podzespoły projektowanego układu zasilania i określić... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding ’noisy’ directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures “more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration.  SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion.  SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for “More than Moore" approaches, where a heterogeneous syste... więcej»

Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Analiza efektywności czasowej metod dekompozycji (Adam OPARA, Dariusz KANIA, Marcin KUBICA)
Kluczowym problemem syntezy logicznej przeznaczonej dla struktur FPGA (ang. Field Programmable Gate Array) typu tablicowego LUT (ang. Look-Up Table) jest dekompozycja, bezpośrednio powiązana z problemem podziału projektowanego układu na elementarne komórki logiczne typu LUT. Dekompozycja może być ukierunkowana na minimalizację wykorzystywanej powierzchni struktury programowalnej (minimalizację liczby wykorzystanych bloków LUT), minimalizację liczby warstw logicznych (minimalny czas propagacji sygnałów) lub minimalizację poboru mocy [10]. Znanych jest szereg prac związanych z problemami dekompozycji funkcji oraz realizacją funkcji w strukturach FPGA typu tablicowego [1, 6, 9-11]. Celem artykułu jest przedstawienie porównania dwóch strategii dekompozycji zaimplementowanych w akademickich systemach Decomp [4] oraz dekBDD [1]. Obydwa systemy bazują na klasycznym modelu dekompozycji Ashenhursta-Curtisa. Podstawowa różnica tkwi w sposobie reprezentacji funkcji logicznych. System Decomp wykorzystuje reprezentację tablicową, natomiast dekBDD - binarne diagramy decyzyjne BDD (Binary Decision Diagram). Podstawy teoretyczne dekompozycji Niech f będzie funkcją odwzorowującą zbiór B n w zbiór B m, tzn. f :B n→B m, gdzie B = {0,1}. Niech Y = f (In-1,...,I1,I0), gdzie Y = {Ym‑1, ...,Y1,Y0 }. Funkcja f : B n→B m podlega dekompozycji, tzn. (1) wtedy i tylko wtedy, gdy złożoność kolumnowa matrycy podziałów ν (X2X1) ≤ 2 p. Zbiory X1 i X2 nazywane są odpowiednio zbiorem związanym i wolnym, przy czym X1 ∪ X2 = I oraz X1 ∪ X2 = ∅, gdzie I = {In‑1,...,I1,I 0}. Wykorzystanie powyższego twierdzenia o dekompozycji funkcjonalnej stanowi podstawę rozbicia wielowyjściowego bloku scharakteryzowanego uporządkowaną parą liczb (liczba wejść, liczba wyjść) wynoszącą (n, m) na dwa podukłady scharakteryzowane parami (k, p) oraz (n-k + p, m). Rozbicie układu wynikające z twierdzenia o dekompozycji ze... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

Miniaturized arms for three-dimensional thick-film thermoelectric microgenerator (Piotr Markowski)
When two different metals are connected by their ends and there is a temperature difference between the junctions the electric current flows into the circuit. This kind of structure is called thermocouple and it can be used to electrical power generation. Output voltage and power can be multiplied if a number of thermocouples are electrically connected in series. At the same time all “cold" junction should have approximately the same temperature - lower than the temperature of "hot" joints (thermocouples should be thermally connected in parallel). Such a structure is called thermopile. Thermopiles produce “green" energy and can be used as an alternative power sources for microsystems and low-power electronic micro-circuits [1, 2]. Their dimensions should be small - comparable with dimensions of powered systems. It is the reason why miniaturization of such generators is important. Fabrication process Two ways of fabrication of thermopiles are presented. First one bases on precise screen-printing only. Ag and Ni or PdAg pastes were used. They were printed using AUREL VS1520 Fine Line Screen Stencil Printer. In the second method precise screen-printing and photoimageable inks technique were combined. Ag-based photosensitive paste was used to fabricate first thermocouples’ arms. Second arms were precisely screen printed between Ag paths. As a substrate DP951 unfired ceramic foil was used in both cases. LTCC (Low Temperature Cofired Ceramic) technique allows fabrication of microelectronic multilayer structures [3]. It can be exploited to construct stack of thermopiles - a number of thermopiles fabricated on single foils are connected in one, multilayer stack (“sandwich" structure). In the result the output parameters (like generated voltage or electrical power) are multiplied. DuPont ceramic was chosen because of its good compatibility with used thick-film pastes. Precise printing - the "A" type structure... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Program strategiczny "TARCZA POLSKI" (Andrzej Kątcki, Ryszard Szpakowicz, Tomasz Zawada)
Podejmując się realizacji Programu "TARCZA POLSKI" Grupa BUMAR przyjęła poniższe założenia: - Opracowany system powinien spełniać oczekiwania Polskich Sił Zbrojnych dotyczące modernizacji polskiego systemu OPL. W szczególności należy zapewnić:  integrację z obecnym i perspektywicznym systemem Obrony Powietrznej,  możliwość wykorzystania wszystkich lub wybranych komponentów w strukturach OP NATO,  modułowość struktury systemu, która zapewni skalowalność architektury i elastyczność wykorzystania komponentów systemu,  możliwość etapowej modernizacji systemu OPL rozumianej jako jednoczesne korzystanie z posiadanych i pozyskiwanych, w ramach programu, środków przeciwlotniczych celem zachowania ciągłości funkcjonowania systemu OP w tym czasie. - Należy znaleźć partnera zagranicznego, producenta rakiet (zestawów rakietowych) średniego i krótkiego zasięgu, który będzie gotowy przekazać polskiemu przemysłowi technologie produkcji przeciwlotniczych zestawów rakietowych i wesprzeć polski przemysł w procesie realizacji programu. - Zapewnić maksymalną polonizację systemu. W tym celu należy wykorzystać dorobek polskiego przemysłu, w szczególności opracowane w ramach realizacji programów na rzecz MON sensory radiolokacyjne i elektrooptyczne, środki rakietowe i artyleryjskie bardzo krótkiego zasięgu oraz systemy C2. Proces polonizacji nie powinien ograniczać możliwości taktycznych pozyskiwanych rakiet, które będą osiągane w środowisku oryginalnym systemu. - Zapewnić aby polski przemysł pozyskał i wdrożył technologie (np. dzięki transferowi w ramach offsetu, w tym przede wszystkim offsetu związanego z zakupem rakiet MR i SR), niezbędne do:  produkcji rakiet krótkiego i średniego zasięgu,  realizacji wsparcia eksploatacji systemu ILS (ang. Integrated Logistic Support),  przygotowania i realizacji przyszłych modernizacji systemu (ang. future system up-grading). Celem polonizacji jest ... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Zastosowanie tomografii komputerowej do oceny jakości mikrostruktur elektronicznych (PRZEMYSŁAW K. MATKOWSKI, Tomasz Fałat)
Mianem tomografii określa się zbiór nieinwazyjnych metod diagnostycznych mających na celu uzyskanie obrazu przedstawiającego przekrój badanego obiektu. W zależności od zjawisk zachodzących podczas projekcji lub zastosowanego strumienia cząstek lub fal przenikających obiekt możemy wyróżnić ultrasonografię (fala ultradźwiękowa), tomografię rezonansu magnetycznego (zjawisko jądrowego rezonansu magnetycznego), pozytonowa tomografia emisyjna (promieniowanie powstające podczas anihilacji pozytonów), tomografia emisyjna pojedynczych fotonów (promieniowanie gamma), optyczna tomografia koherencyjna (wiązka światła o niskiej spójności czasowej i wysokiej spójności przestrzennej), tomografia rentgenowska (promieniowanie rentgenowskie). Niezależnie od wad i zalet poszczególnych metod ich wspólną zaletą jest ich nieinwazyjne działanie, wspólną wadą natomiast bardzo wysoki koszt urządzeń diagnostycznych. Przez wiele lat głównym obszarem zastosowań tomografii była diagnostyka medyczna, w chwili obecnej tomografia, zwłaszcza tomografia rentgenowska coraz częściej stosowana jest w naukach technicznych do nieinwazyjnej diagnostyki przedmiotów i urządzeń technicznych (np. podzespołów elektronicznych, odlewów, spieków). W chwili obecnej najbardziej rozwijaną i jednocześnie najpowszechniejszą techniką tomograficzną jest tomografia komputerowa. Tomografia komputerowa jest rodzajem tomografii rentgenowskiej i polega na rekonstrukcji obrazu z projekcji uzyskanych podczas prześwietlania badanego obiektu wiązką promieni rentgenowskich. W nomenklaturze angielskojęzycznej tomografia komputerowa określana jest skrótem CT (ang. Computer Tomography). Jej nazwa wywodzi się z faktu, iż do obrazowania badanych obiektów stosuje się wysokowydajne systemy komputerowe. Urządzenie do tomografii komputerowej nazywane jest tomografem komputerowym. Podwalinami rentgenowskiej tomografii było odkrycie w 1895 roku przez niemieckiego fizyka Wilhelma Röntgena promieniow... więcej»

Data acquisition system for sensor array (Patryk Gwi żdż, Andrzej Brudnik, Katarzyna Zakrzewska)
Resistive - type semiconducting gas sensors based on metal oxides have attracted attention of many research groups around the world for detection of reducing and oxidizing gases. First commercial metal oxide gas sensors were introduced in 1971 by Taguchi [1]. It is well known that among some important advantages like low cost and high sensitivity to a broad spectrum of gases, metal oxide resistive sensors have many disadvantages such as: lack of selectivity, high operating temperature, cross-sensitivity to humidity and response drift. All those drawbacks limit the number of real applications and therefore they are used mainly in simple low cost gas alarm systems. Currently, a profound research is carried out to eliminate these drawbacks although without any particular success. Resistive type gas sensors based on metal oxides are not specific because their sensing mechanism is based on electron transfer due to redox reactions. Their selectivity can be improved to a certain extent by a variety of techniques including: suitable doping, application of filters, adjusting the temperature of operation, material morphology, modulation of temperature, analysis of transience responses [2, 3]. Completely different approach to the selectivity problem is represented by the idea of an array of partially specific sensors that are capable to analyze and recognize the components of the gas mixture. When applied to odours, such system is called an electronic nose and was introduced by Dodd and Persaud as a device mimicking the olfactory system of smell [4]. Nowadays there is a specific interest in developing reliable small devices based on sensor arrays for gas detection purposes. A term “application - specific sensor system" has been proposed [2] for systems based on an array of gas sensors and pattern recognition. An array of metal oxide sensors can serve as a tool for gas detection, classification of odours [2] and reducing cross sensi... więcej»

Właściwości cienkowarstwowych, przezroczystych półprzewodników o zadanym typie przewodnictwa elektrycznego do zastosowań w transparentnej elektronice (Karolina Sieradzka, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Eugeniusz L. Prociów, Tadeusz Berlicki)
W ostatnich latach nastąpił wyraźny wzrost zainteresowania tlenkami o ściśle określonych właściwościach optycznych i elektrycznych. Na takie materiały istnieje obecnie silne zapotrzebowanie m.in. w takich gałęziach przemysłu, jak optoelektronika, fotowoltaika czy też mikroelektronika. Materiały tlenkowe o bardzo dobrej przezroczystości dla światła, zazwyczaj są równocześnie słabymi przewodnikami prądu elektrycznego. Wyjątek stanowią materiały typu TOS (Transparent Oxide Semiconductor) oraz TCO (Transparent Conducting Oxide), w których możliwe jest połączenie tych dwóch przeciwstawnych właściwości [1, 2]. Dobre przewodnictwo elektryczne w przezroczystych materiałach tlenkowych można uzyskać, między innymi, przez wytwarzanie tlenków niestechiometrycznych lub przez ich domieszkowanie. Tlenki niestechiometryczne, jak np. TiO2-x ze względu na występowanie w ich sieci krystalicznej licznych wakansji tlenowych wykazują dobre właściwości przewodzące. Jednakże, charakteryzują się również gorszą przezroczystością dla światła oraz są niestabilne. Wygrzewanie w powietrzu powoduje zazwyczaj ich utlenienie, a to przekłada się z kolei na pogorszenie ich przewodnictwa elektrycznego. Metodą, która powszechnie stosowana jest w przemyśle mikroelektronicznym w celu zmiany właściwości elektrycznych różnych materiałów jest domieszkowanie. W wypadku tlenków na bazie TiO2 metoda ta jednak nie jest prosta i wymaga niekonwencjonalnego podejścia. W przeciwieństwie do konwencjonalnych półprzewodników, w których występują wiązania kowalencyjne, tlenki są to materiały o wiązaniach jonowych. Mechanizm przewodnictwa elektrycznego w tlenkach półprzewodnikowych jest podobny do tego, który występuje w półprzewodnikowych materiałach amorficznych. Wraz z wprowadzeniem domieszek w przerwie energetycznej takich materiałów pojawiają się dodatkowe, poziomy energetyczne. Płytkie poziomy donorowe lub akceptorowe, zlokalizowane są w pobliżu środka przerwy energetyczne... więcej»

Wielofunkcyjny system komputerowy do współpracy ze spektrometrem EPR (Ireneusz Stefaniuk, Bogumił Cieniek)
Do modernizacji użyto standardowego spektrometru na pasmo X produkcji Politechniki Wrocławskiej, oznaczony jako typu SE/ X [1]. Jest to spektrometr odbiciowy z podwójną modulacją pola magnetycznego. Badana próbka paramagnetyczna umieszczona jest w prostokątnej mikrofalowej wnęce odbiciowej i poddawana równoczesnemu działaniu dwóch wzajemnie prostopadłych pól magnetycznych. Stałego - wytworzonego przez elektromagnes niskoomowy z hallotronową stabilizacją pola oraz mikrofalowego - wytworzonego przez generator klistronowy i doprowadzonego do wnęki rezonansowej torem falowodowym. W wyniku rezonansowej absorpcji paramagnetycznej, w takt zmian pola wytwarzanego przez elektromagnes, zmienia się poziom energii mikrofalowej odbijanej od wnęki zawierającej próbkę. Zmiany te po detekcji mikrofalowej, wzmocnieniu rezonansowym i detekcji fazowej są rejestrowane za pomocą rejestratora XY [1]. W tabeli zastawiono parametry użytkowe spektrometru, zaś na rys. 1 przedstawiono jego widok. Do akwizycji danych i sterowania użyto komputera PC posiadającego pusty port PCI potrzebny do zamontowania karty analogowo-cyfrowej oraz szeregowy port RS-232 do rejestracji sygnału z magnetometru. Wykorzystano kartę produkcji firmy National Instruments model NI PCI-6221 (16 wejść analogowych 16-bitowych, szybkość próbkowania 250 kS/s, 24-cyfrowe linie I/ O, 2 wyjścia analogowe 16-bitowe, 2 liczniki 32-bitowe) [2]. Karta została połączona z terminalem przyłączeniowym (SCB-68 Noise Rejecting, Shielded I/O Connector Block) wyposażonym w gniazda do których można włączyć przewody z sygnałem. Terminal posiada ekranowaną obudowę dzięki której eliminuje się zakłócenia zewnętrzne. Przy wyborze karty i terminala uwzględniono częstotliwość próbkowania, która musiała być na tyle duża żeby prawidłowo został odtworzony rejestrowany sygnał (uniknięcia aliasingu). Wybrany zestaw umożliwia pomiar temperatury za pomocą termopary w której jedno złącze z temperaturą odniesieni... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Technologie informacyjne w predykcji pogodowych zagrożeń w ruchu drogowym (Andrzej W. Mitas, Marcin Bernaś, Marcin Bugdol, Artur Ryguła)
Systemy ochrony pogodowej stają się nierozłącznym elementem infrastruktury drogowej. Ten stan rzeczy wymuszony jest przez wielomilionowe straty oraz ofiary śmiertelne będące skutkiem wpływu pogody na ruch drogowy. Dla przykładu wystarczy wymienić tu wielo-pojazdowe kolizje na oblodzonej nawierzchni oraz pogodowe uszkodzenia infrastruktury drogowej. Obecnie realizowanych jest wiele projektów dla prognozy i predykcji zagrożeń na drogach o zasięgu punktowym, a także regionalnym lub globalnym - w skali całego kraju. Artykuł prezentuje wspólne elementy tych systemów, propozycję integracji systemu ochrony pogodowej oraz wyniki prac wstępnych. Metody prognozowania pogody Tradycyjne prognozowanie pogody realizowane jest poprzez długotrwałe nanoszenie na mapy synoptyczne pomiarów, które odpowiadają za ilość opadów, siłę i kierunek wiatru oraz wartości temperatur. Opracowana w ten sposób mapa jest podstawą do prognozowania warunków atmosferycznych przez synoptyków. Ich doświadczenie wpływa na poprawność prognozy oraz jej powtarzalność. Matematyczny model różniczkowy Przy tworzeniu numerycznej prognozy pogody wykorzystuje się komputery dużej mocy. Obliczenia pogodowe opierają się na skomplikowanych równaniach opisujących sposób zachowania się atmosfery. Stan atmosfery opisany jest równaniami różniczkowymi - układem równań nieliniowych [1]. Podstawowy układ równań zawierający zasadę zachowania pędu, zasadę zachowania energii oraz równanie ciągłości, uzupełniony równaniem konstytutywnym (np. równaniem gazu doskonałego dla powietrza) nosi nazwę "równań pierwotnych" lub równań Naviera-Stokesa (1)): (1) Pierwszą pracę z algorytmem predykcyjnym dla systemów opartych o równania nieliniowe (różniczkowe) opublikowali Mayne i Michalska: Receding Horizon Control of Non-linear Systems w roku 1990. Obszerne omówienie algorytmów predykcyjnych dla liniowych i nieliniowych systemów dyskretnych w czasie zaproponowali kolejno Kwon i Han (w 2005 roku)... więcej»

High temperature properties of thick-film and LTCC components (Damian Nowak, Mateusz Janiak, Andrzej Dziedzic, Tomasz Piasecki)
There is an increased demand for electronics that can work in harsh environment involving high temperature. Applications include sensors and actuators for control in petroleum and geothermal industry, process monitoring and distributed control systems in automotive and aerospace [1-3]. Complete extreme high-temperature electronic systems require active devices as well as proper passive components (eg. resistors, capacitors, inductors). There comes also the requirement for further miniaturization and integration of electronic components. Thick-film and LTCC (low temperature co-fired ceramics) technologies are well-established and relatively low-cost fabrication method of passives. Thus, they represent promising fabrication techniques to meet the demands for devices that are miniaturized and operate at high temperature [4-7]. This paper presents manufacturing process of thick-film and LTCC resistors, planar inductors and interdigital capacitors as well as their chosen electrical and stability properties in a wide frequency and temperature range. Test structures fabrication Square planar inductors and interdigital capacitors were made on alumina (96% Al2O3, 635 μm thick) or fired LTCC (DP951, 300 μm thick) substrates. The size of the fabricated components was 3×3 mm2 and 50 μm track width/50 μm spacing were designed. The inductors consist of 2 or 3 tu... więcej»

Study of IDE as a sensor head for interfacing with handheld electrochemical analyzer system (Vijayalakshmi Velusamy, Khalil Arshak, Olga Korostynska, Catherine Adley)
Electrochemical biosensors have been receiving more attention in recent years since they are simple to use, cost-effective, offer high sensitivity and suitable for in situ analysis [7-10]. Applications are mainly focused on food quality monitoring for the detection of foodborne pathogens [11], environmental quality monitoring for the detection of contamination of potable water resources due to pathogenic micro organisms and industrial by-products [12, 13] and in biosecurity for the detection of biowarfare agents [14]. An electrochemical sensor is an electrical device in which the biological and/or the chemical information are converted to an electrical signal, which is then processed and recorded for further analysis. Towards the development of an electrochemical analyzer system, a sensor was initially designed that may be interfaced with the handheld system comprising both the potentiostat and the impedance analyzer. In biosensors the lower limit of detection is a big challenge and numerous electrode geometries have been developed during the past decade to address this problem. Among various electrode geometries IDE have advantage in bioanalytical applications. A thick-film gold IDE was employed in this research and it was prepared by screen printing technique. Thick-film sensors are advantageous since it is compact, robust and relatively cost-effective. It is possible to mass produce from macro- to microscale, with greater reproducibility. However, the applicability of the technology is limited to a possible minimum line width (100 μm) [15]. The planar IDE sensors based on thick films are very wellsuited to integrate with electronic circuits. The IDE sensors can be combined with other planar technologies like plasma/chemical vapor deposition for surface modification. The device produced by the thick-film technique has the ability to facilitate as a supporting structure upon which other sensing materials can be deposited... więcej»

A compact thermoelectric harvester for waste heat conversion (Piotr Dziurdzia, Karol Lichota)
Ambient energy harvesters have been playing more and more important role in the electronic industry in recent years. Not so long ago, energy scavenging was treated in R & D laboratories with some timidity and used only in some niche applications. Nowadays, development of autonomous power sources for supplying microelectronic systems is strongly driven by market demands following recent advances in smart mobile equipment, wireless sensor networks (WSN), monitoring of industrial processes, etc. Since transmission lines have been replaced with wireless channels a long time ago, now the energy harvesters are removing the last obstacle on the way to developing quite autonomous electronic systems. By providing electrical voltage to the sensor nodes from harvested pieces of ambient energy (for instance: heat, light and vibrations) they do not need external sources of energy, for instance power mains or batteries, any more [1-3]. For the last few years our team has been focused on developing of thermoelectric energy harvesters for supplying wireless sensor nodes. At the beginning, basing on the phenomena of Seebeck, Peltier, Joule and Thomson, an original model of thermoelectric generator was elaborated [4]. It was next subjected to simulations in order to investigate the maximum ratings of TEG against available heat power sources and different ambient conditions. In the next steps first prototypes of TEGs were designed and fabricated. Thermoelectric harvester As a rule, thermoelectric generators suffer from relatively low conversion efficiency (not exceeding 10%), so they are practically not applicable to large-scale systems, not to mention power stations. On the other hand they seem to be promising solu... więcej»

Mechanical and thermal properties of SiC - ceramics substrate interface (Ryszard Kisiel, ZBIGNIEW Szczepański, Piotr Firek, MAREK Guziewicz, ARKADIUSZ Krajewski)
Silicon carbide created new possibilities for high power and high temperature electronics due to its unusual physical properties, which are not attainable in conventional silicon semiconductor material. It has been demonstrated that SiC based power devices are able to operate at temperatures as high as 450°C [1, 2]. To realize the high temperature functions of SiC power devices, the development of high temperature packaging technologies becomes more and more important. Packaging technologies play main role in high power and high temperature electronics since they have an essential effect for the reliability of SiC power devices [8, 9]. One of the main problems of high power package is die bonding technology, which ought to assure not only mechanically reliable connection between SiC die and substrate, but also good electrical conductivity and high thermal conductivity. The latter feature is especially critical for power devices because it allows for effective heat transfer from power chip to the package. State-of-the-art technologies for interconnecting Si power devices involve attaching one terminal of the semiconductor die to a heat-sinking substrate with solder alloy or with an electrically conductive adhesive, while the other terminals are bonded by aluminum or gold wires as well as flip chip technology. Such interconnection technologies have several limitations in high-temperature operation because solder alloys/conductive adhesives usually have low melting/degradation temperatures. By changing substrate material is possible to increase heat dissipation. So, the package with DBC substrate is very good solution for high power application, since such package significantly improves heat dissipation and therefore is widely used in high power SiC modules. Investigations of new techniques are necessary for high temperature and high power SiC devices. Taking into account mentioned above requirements, only a few of the known die... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»