profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły

ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik ISSN 0033-2089

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Symulacyjne badanie niezawodności jednorodnych systemów technicznych (Zbigniew Wesołowski)
System to wyodrębniony fragment świata rzeczywistego, którego własności i zachodzące w nim zjawiska są przedmiotem badań. Z uwagi na fakt, iż współczesne systemy techniczne znajdują coraz szersze zastosowania w wielu, niejednokrotnie kluczowych, aspektach działalności człowieka, to zagadnieniem o niezwykle istotnym znaczeniu staje się opracowanie wiarygodnej metody oceny ich niezawodności. Stosowanie metod klasycznych [1, 8, 12] należy uznać za niewłaściwe, gdyż wymagają one przeprowadzenia badań statystycznych obejmujących całe systemy. Celem tych badań jest zgromadzenia materiału statystycznego umożliwiającego ocenę miar niezawodności systemów. Ponieważ przeprowadzenie takich badań na współczesnych systemach technicznych jest trudne, a czasami wręcz niemożliwe, to należy opracować nowe metody analizy niezawodnościowej, które nie wymagałyby wykonywania takich badań. Jednym z obiecujących podejść jest metoda symulacyjna [3, 4, 5, 6]. Symulacja komputerowa jest metodą badawczą zapewniającą możliwość efektywnego generowania różnorodnych danych o teoretycznie nieograniczonej objętości. Oprócz tego jest metodą bardzo elastyczną. Eksperymenty symulacyjne mogą być w stosunkowo prosty sposób modyfikowane i wielokrotnie powtarzane, co umożliwia prowadzenie różnorodnych badań analitycznych. Walorów tych nie zapewnia właściwie żadna inna metoda badawcza. Stosowanie tej metody wymaga opracowania modelu niezawodnościowego i modelu symulacyjnego systemu. Wprowadźmy oznaczenia: - zbiór liczb rzeczywistych, - zbiór liczb naturalnych, + = (0,∞) ⊂ , (0,∞) = + U{0}, = - zbiór parametrów czasowych, N(μ,σ2) - rozkład normalny o wartości oczekiwanej μ i wariancji σ2, WN(0, σ2) - szum biały o zerowej wartości oczekiwanej i wariancji σ2, W(α,β) - rozkład Weibulla z parametrem kształtu α i parametrem skali β [9]. Model niezawodnościowy systemu Model niezawodnościowy to przybliżony... więcej»

Dostrajanie regulatora z pominięciem eksperymentu identyfikacji obiektu przy użyciu Imperialist Competitive Algorithm (Michał Awtoniuk)
Wyniki badania prowadzone przez najznamienitszych naukowców świata wskazują na to, że 90% pętli regulacji działających w przemyśle bazuje na algorytmie PID [1, 2]. Olbrzymia popularność tego algorytmu nie przekłada się jednak na jakość regulacji. Badania firmy Honeywell wskazują, że wiele spośród pętli regulacji pozostaje otwarta [3]. Sytuację tą można poprawić wykorzystując dostępne w sterownikach PLC procedury automatycznego doboru nastaw. Jest to rozwiązanie korzystne ze względu na to, że takie podejście nie wymaga specjalistycznej wiedzy. Zazwyczaj producenci sterowników udostępniają w ramach wsparcia technicznego dokumentację, która krok po kroku opisuje co należy zrobić aby uruchomić funkcję autotuningu. Innym rozwiązaniem jest ręczny dobór parametrów regulatora. W tym przypadku konieczna jest już niestety pewna wiedza teoretyczna. Zazwyczaj utalentowany automatyk-praktyk jest w stanie dobrać nastawy zdecydowanie lepsze od nawet najskuteczniej działającej procedury strojenia automatycznego. W przytoczonych wcześniej badaniach można również znaleźć informację na temat zamkniętych pętli regulacji. Okazuje się, że zaledwie połowę z nich cechuje zadowalająca jakość [3]. Fakt ten powinien być bodźcem powodującym głębszą analizę tychże układów. Obiekt regulacji Doświadczenia były prowadzone na obiekcie schematycznie przedstawionym na rysunku 1. Jest to zbiornik z regulowanym poziomem wypełnienia wodą przy pomocą pompy. Jej wydatek jest sterowany sygnałem analogowym u pochodzącym ze sterownika PLC. Sygnał rozpatrywany jest w zakresie 0..10 V, gdzie 0 V oznacza całkowite wyłączenie pompy, natomiast 10 V pracę z maksymalnym wydatkiem. W omawianym układzie regulacji, sygnał ten będzie traktowany jako wyjście regulatora. Otwarty zawór Z2 powoduje samoczynny wypływ cieczy ze zbiornika. Stan tego zaworu może diametralnie zmienić obiekt sterownia. W przypadku, gdy zbiornik będzie szczelny, bez żadnego wypływu cieczy, wówczas obiekt ... więcej»

Korekcja trajektorii wektora przestrzennego z wykorzystaniem logiki rozmytej (Tomasz BINKOWSKI)
Zasilanie odbiorników elektrycznych bardzo często wymaga dostarczenia energii przy zadanych parametrach napięcia, bądź prądu. Zachodzi zatem konieczność sterowania wartościami amplitud, częstotliwości, itp. W przypadku odbiorników zmiennoprądowych energia przekazywana jest do nich przez przepływ zmiennych prądów wynikających z przyłożonego napięcia (również zmiennego). W elektrotechnice najczęściej przyjmuje się, że prądy te powinny mieć przebieg sinusoidalny, co wynika z niezmienności kształtu funkcji w wyniku działania całkowania i różniczkowania. Są jednak sytuacje, w których kształt przebiegów może ulec zmianie. Ma to miejsce w przypadku np. odbiorników nieliniowych. Wtedy, gdy zasilane są odbiorniki wielofazowe, może także dojść do asymetrii powodowanej obciążeniem lub błędnie prowadzonym sterowaniem. Projektant układu sterującego musi zatem wyraźnie określić funkcję celu, gdyż najczęściej niemożliwa jest jednoczesna kontrola wszystkich parametrów. W przypadku przekształtników energoelektronicznych bilans mocy chwilowej sprawia, że kontrola kształtu prądu powoduje odkształcenia napięcia lub na odwrót. Dlatego też często sięga się po rozwiązania pośredniego przekształcania energii, w których wykorzystuje się magazyn energii, np. w postaci kondensatora. Przykładem może być klasyczny trójgałęziowy falownik napięcia zasilany z przekształtnika jednofazowego o sinusoidalnym prądzie wejściowym. Brak równości pomiędzy mocą chwilową układu wejściowego jednofazowego, a mocą chwilową układu trójfazowego wymusza stosowanie obwodu pośredniczącego, równoważącego obydwie strony. Konsekwencją bilansowania energii w obwodzie pośredniczącym jest powstanie tętnień napięcia, z którego kształtowane są napięcia wyjściowe falownika [1, 2]. Trójgałęziowy falownik napięcia jest przekształtnikiem energoelektronicznym, którego rolą jest przetwarzanie energii elektrycznej źródła napięcia stałego na energię elektryczną dostarczaną do dwu- lub trójf... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Algorytm PWM dla 9-fazowego silnika indukcyjnego (Paweł STEC)
Przekształcanie energii elektrycznej przy wykorzystaniu elementów energoelektronicznych pozwala na swobodny dobór ilości faz przesyłających energię w postaci prądu przemiennego. Zastosowanie układu dziewięciofazowego zmniejsza wartość prądu w fazie 3-krotnie przy przesyle tej samej mocy co pozwala na zastosowanie łączników energoelektronicznych o mniejszym prądzie znamionowym. Jednocześnie wielofazowe układy napędowe charakteryzują się większą niezawodnością oraz możliwością szerszego kształtowania charakterystyk mechanicznych niż odpowiadające im układy trójfazowe[1, 2]. Tablica przekształcenia w układzie 9-fazowym W układzie 9-fazowym macierz przekształcenia Clarke-Parka należy rozwinąć do postaci macierzy A, gdzie pojawiają się cztery układy współrzędnych zespolonych. A przekształcenie parametrów w układzie współrzędnych naturalnych do układu współrzędnych zespolonych odbywa się za pomocą równania macierzowego: X = A9*Y, (1) Gdzie macierz A9 jest macierzą przekształcenia, X jest macierzą parametrów w układzie współrzędnych zespolonych, Y jest macierzą parametrów w układzie współrzędnych naturalnych. Macierz przekształcenia zachowująca inwariantność mocy A9 dla układu 9-fazowego przyjmuje postać: Ze względu na liczbę kluczy w przekształtniku, może on przyjąć 29 = 512 różnych stanów załączeń łączników energoelektronicznych. Reprezentacja stanów logicznych tranzystorów w układach współrzędnych zespolonych α1-β1, α2-β2, α3-β3 i α4-β4 uzyskuje się przez wykorzystanie przekształcenia stanów falownika za pomocą równania macierzowego: (2), gdzie vα1, vβ1, vα2, vβ2, vα3, vβ3, vα4, vβ4 są długościami odpowiednich wektorów w układach współrzędnych zespolonych, natomiast vA, vB, vC, vD, vE, vF3, vG4, vH, vI są wartościami wektorów napięcia w naturalnym układzie współrzędnych. Reprezentację wektorów w układach współrzędnych zespolonych przedstawiono na r... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Doc. dr inż. Tomasz Postupolski (1931 - 2012)
Wybitny naukowiec, organizator, wizjoner. Pracował w dziedzinie magnetyków, ale widział naukę holistycznie. Pożegnaliśmy Go w piękny wrześniowy dzień. Na Uroczystość Pożegnalną przybyli licznie wszyscy, którzy zdołali. Byłby zażenowany tak dużą uwagą poświęconą Jego osobie - był skromny. A nie powinien - był wybitny. Tu, na łamach specjalistycznego pisma, z którym był przez długie lata związany jako członek Rady Programowej, chcemy przypomnieć Jego dokonania zawodowe, a także Jego drogę życiową. Tomasz Włodzimierz Postupolski urodził się 7 czerwca 1931 r. w Warszawie w rodzinie Jana i Zofii z ... więcej»

Zastosowanie dedykowanych układów scalonych w systemach wyszukiwania punktu mocy maksymalnej (Wojciech Grzesiak, Jacek Piekarski, Michał Cież, Paweł Grzesiak)
Implementacja techniki MPPT w systemach fotowoltaicznych pozwala na zwiększenie efektywności przetwarzania energii słonecznej na elektryczną nawet o 30%. Z reguły technika ta polega na wprowadzeniu do instalacji fotowoltaicznej stosownej, sterowalnej przetwornicy DC/DC, która w połączeniu z odpowiednim algorytmem bądź algorytmami wyszukiwania punktu mocy maksymalnej zapewnia odpowiednie dopasowanie energetyczne modułów PV do obciążenia. Najczęściej rozwiązania takie oparte są o powszechnie stosowaną technikę mikroprocesorową. W wielu przypadkach mogą one być zbyt kosztowne. Dla rozwiązania tego problemu w ostatnich latach wiele wiodących firm produkujących półprzewodnikowe układy scalone opracowało i wdrożyło do produkcji dedykowane układy, pozwalające na niskokosztową realizację techniki MPPT. W artykule dokonano przeglądu i oceny najciekawszych, zdaniem autorów, rozwiązań. W tym celu zaprojektowano i wykonano modele tych układów bazując na schematach aplikacyjnych zalecanych przez producentów. Dodatkowo przy ocenie tych rozwiązań kierowano się również możliwością ich miniaturyzacji poprzez zastosowanie technologii SMD oraz realizacji w technologii grubowarstwowej. Do testów zastosowano stanowisko badawcze zbudowane w oparciu o: oprogramowanie Solar Design Studio v.6.0, symulator modułów fotowoltaicznych firmy Agilent Technologies, interface, komputer oraz opracowane w ITE specjalizowane oprogramowanie pozwalające na zarządzani... więcej»

Wykorzystanie światła rozproszonego do wyznaczania dwójłomności modowej światłowodów planarnych (Kazimierz GUT, Tomasz HERZOG)
Światłowodowe struktury optyczne wytwarzane technologią optyki planarnej obok zastosowań w dziedzinie telekomunikacji (pracujące m.in. jako modulatory, multi- i demultipleksery), ze względu na liczne zalety nieosiągalne w technologii włókien optycznych znajdują coraz szersze wykorzystanie w budowie układów sensorowych monitorujących wielkości fizyczne, procesy biologiczne i chemiczne, a także liczne parametry w różnych gałęziach nauki i przemysłu. Świadczy o tym stale rosnąca liczba publikacji naukowych prezentujących nowe rozwiązania i udoskonalenia czujników optycznych wykorzystujących planarne struktury światłowodowe [4]. Jednym z najważniejszych parametrów charakteryzujących wytworzony falowód optyki zintegrowanej jest tłumienność, definiowana jako strata mocy optycznej na jednostkową drogę propagacji [3]. W przypadku układów optyki zintegrowanej właściwy dobór metody pomiaru tłumienia jest znacznie bardziej skomplikowany niż w przypadku włókien optycznych, przede wszystkim ze względu na inną geometrię, budowę, przeznaczenie wytworzonego układu oraz zróżnicowany przedział badanych strat, z tego też powodu nie jest możliwe opracowanie jednej uniwersalnej metody pomiaru tłumienności, a większość dotychczas stosowanych metod to przede wszystkim projekty przeznaczone do wykonywania pomiarów w ... więcej»

Multimedialny bezprzewodowy system alarmowy (Piotr Bratek, Dariusz Majcherczyk, Ireneusz Brzozowski, Andrzej Kos)
Rozwój elektroniki i informatyki daje nam nieustannie nowe możliwości co przekłada się na upowszechnianie nowych technologii w codziennym życiu. Jedną z najważniejszych spraw do której, jako użytkownicy, przywiązujemy największą wagę jest przede wszystkim bezpieczeństwo osobiste oraz bezpieczeństwo mienia. Nowe coraz bardziej zawansowane rozwiązania pozwalają skuteczniej bronić się przed potencjalnymi zagrożeniami. Możliwość wykorzystania wiadomości obrazkowych MMS daje użytkownikowi znacznie cenniejszą informację, niż dotychczasowa wiadomość tekstowa, na temat zaistniałej sytuacji w miejscu zdarzenia. Dzięki zastosowaniu modemu GSM/GPRS nie ma ograniczenia nałożonego na miejsce realizacji ponieważ obecnie pokrycie sieci komórkową obejmuje cały teren kraju. Przedstawiony w artykule multimedialny system alarmowy (rys. 1) wysyła wiadomości graficzne MMS (ang. Multimedia Messaging Service) z wykorzystaniem modemu GSM/GPRS (ang. Global System for Mobile communication/General Packet Radio Service). Do tej pory na rynku dostępne były głównie systemy oparte na informacjach przesyłanych jako wiadomości SMS (ang. Short Message Service). Było tak ze względu na powszechność dostępu do tej usługi, a co za tym idzie niskich kosztów użytkowania oraz ówczesnych możliwości technicznych terminali komórkowych. Współczesne warunki życia promują tak zwane smartfony (ang. smartphones), czyli urządzenia telefoniczne łączące w sobie funkcje telefonu komórkowego i komputera kieszonkowego PDA (ang. Personal Digital Assistant) stąd rosnące wymagania, co do multime... więcej»

Dobór mikrokontrolera do sterowania inwerterem napięcia w systemach UPS (Zbigniew Rymarski)
Publikowane dotąd artykuły na ogół przedstawiały konkretne rozwiązania układów mikroprocesorowych sterujących inwerterami (autor stosuje określenie "inwerter", rezerwując określenie "falownik" dla napędów silników indukcyjnych, gdzie należy uzyskiwać zmienną częstotliwość generowanego napięcia), nie starając się jednak uzasadnić wyboru danego układu. Trzeba zresztą przyznać, że przy obecnej doskonałości mikrokontrolerów i układów FPGA w większości przypadków uzyskuje się pożądany efekt. Jednak świadomy dobór, ogólnie mówiąc, układu sterującego (bez uwzględniania wpływu sprzężenia zwrotnego, które i tak nie zlikwiduje błędów spowodowanych sposobem generacji PWM) może pomóc w niewielkiej poprawie jakości przebiegu napięcia wyjściowego (poniżej 0,5% współczynnika zniekształceń harmonicznych THD). Współczynnik THD filtrowanego napięcia wyjściowego inwertera napięcia jest definiowany przez normy IEEE-519 i PN-EN 62040-3. Określona przez PN-EN 62040-3 graniczna wartość THD dla obciążenia liniowego i nieliniowego (prostownikowego z filtrem RC o PF = 0,7) dla najlepszej tzw. opcji klasyfikacyjnej S systemu UPS licząc do 40. harmonicznej wynosi 8%. Norma IEEE-519 mówi o zalecanym nie przekraczaniu 5% THD i wymaga, aby amplituda żadnej z harmonicznych napięcia nie przekroczyła 3% amplitudy podstawowej harmonicznej (fm). Omówione parametry dotyczyły filtrowanego napięcia wyjściowego i mogły służyć jako podstawa do doboru parametrów filtra wyjściowego [1-6]. Dobór rozwiązań konstrukcyjnych modulatora wymaga jednak analizy niefiltrowanego sygnału napięciowego PWM. Przy wysokim stosunku częstotliwości przebiegu modulowanego do modulującego fs /fm (w praktyce dla UPS powyżej kilkuset) niezbędny jest podział widma harmonicznych niefiltrowanego napięcia na dwa pasma - "niskich" harmonicznych w zakresie do połowy częstotliwości przełączania i "wysokich" harmonicznych - powyżej tej częstotliwości. Właściwy i rozsądny (o ograniczonych wymiarach... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Fractional-order harmonic oscillators (Zdzisław Trzaska )
In the last two decades, integral and differential calculus of an arbitrary (or fractional) order has become a subject of great interest in numerous areas of physics, biology, economics and other sciences [1], [4]. This state resulted of the fact that nowadays the behavior of many dynamical systems can be properly described in terms of the theory of fractional order systems. The growing number of such applications indicates that there is a significant demand for better mathematical models of real objects, and that the fractional calculus provides one possible approach on the way to more adequate mathematical modelling of real objects and processes. Notice that in the literature, the terms “fractional order calculus (FOC)", or “fractional order dynamical system (FODS)" are often in using where “fractional" actually means “non-integer". For example, d 0.5 f (t) dt 0.5 is the so-called “semi-differentiation". We emphasize that many real dynamical systems are better characterized using fractional order dynamic models based on fractional calculus of differentiation or integration of non-integer orders. This approach is accepted today as a new tool that extends the descriptive power of the conventional calculus, supporting mathematical models that, in many cases, describe more accurately the dynamic response of actual systems in various applications. While the theoretical and practical interest of these fractional order operators is nowadays well established, its applicability to science and engineering can be considered an emerging topic. Among other, the need to numerically compute the fractional order derivatives and integrals arises frequently in many fields, especially in electronics, telecommunications, automatic control and digital signal processing [7], [8]. Basic characterization of fractional order systems Models and representations To explain precisely a multitude of diverse physical phenomen... więcej»

Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700…4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

Nowoczesne metody trawienia jonowego w strukturyzacji nanokolumn wykazujących zjawisko tunelowego magnetooporu (Piotr Chomiuk )
APVACUUM sp. z o.o. jest firmą inżyniersko-handlową specjalizującą się w technice próżniowej. Współpracujemy na bazie autoryzowanych przedstawicielstw z liderami w branży takimi jak: Pfeiffer Vacuum, Omicron NanoTechnology, PVA Tepla, MicroSystems. Nasza oferta zawiera zarówno pojedyncze komponenty, jak i złożone systemy próżniowe. W ramach działalności świadczymy usługi projektowe, doradcze, wykonujemy ekspertyzy oraz przeprowadzamy testy szczelności. Dostarczając oferowane przez nas urządzenia zapewniamy wszechstronną pomoc oraz serwis gwarancyjny i pogwarancyjny. W związku ze stale rosnącymi wymaganiami pod względem jakości, technologie nanoszenia warstw i obróbki powierzchni z wykorzystaniem wiązki jonowej sukcesywnie wypierają konwencjonalne metody suchego trawienia. Techniki, opierające się na wiązce jonowej wykazują znaczące zalety, do których należy m.in. doskonała kontrola szybkości procesu, kąta natarcia, prądu jonowego i energii jonów. Wśród rozwiązań definiujących współczesne standardy w dziedzinie obróbki jonowej powierzchni znajdują się urządzenia firmy MicroSystems GmbH (do maja 2012 r. firma MicroSystems GmbH istniała pod nazwą Roth & Rau Microsystems GmbH) (www.microsystems.de). Wykorzystują one oryginalne, chronione patentem, źródła jonów własnej konstrukcji. Mocowanie próbki zapewnia możliwość chł... więcej»

Moduł czytnika systemu rozproszonej sieci znaczników radiowych wspomagający osoby niewidome w orientacji przestrzennej i w podróżowaniu w mieście (Jacek Blumenfeld, Paweł Poryzała, Tomasz Woźniak, Piotr Skulimowski)
Ludzie niewidomi i słabowidzący stanowią znaczną część naszego społeczeństwa, w Polsce, wg danych Polskiego Związku Niewidomych liczbę osób z dysfunkcją wzroku szacuje się na 80 tysięcy osób [1]. Z roku na rok, wraz z postępem technologicznym, pojawiają się nowe urządzenia elektroniczne wspomagające poruszanie się w środowisku miejskim i wykonywanie różnych codziennych czynności [1, 2]. W Polsce urządzenia zagranicznych producentów nie są ogólnodostępne, a nieliczne polskie produkty mają wysoką cenę i często ograniczoną funkcjonalność. Zaawansowanie technologiczne współczesnych inteligentnych telefonów komórkowych (często określanych spolszczonym terminem "smartfon") powoduje, że mogą one realizować funkcje dotychczas przeznaczone dla specjalistycznych urządzeń wspomagających samodzielne poruszanie się osób niewidomych (np. nawigacja piesza w środowisku miejskim wyposażona w syntezator mowy informujący o położeniu użytkownika). Rynek urządzeń mobilnych oraz systemów operacyjnych przygotowywanych dla mobilnych urządzeń rozwija się bardzo dynamicznie. W większości współczesnych smartfonów ekran dotykowy stanowi jedyną metodę komunikacji z urządzeniem, co stwarza duże trudności dla znacznej grupy osób niewidomych. Osoby te najczęściej wykorzystują telefony z systemem Symbian lub iOS (iPhone). Wiele urządzeń, dzięki funkcjom systemu operacyjnego, bez potrzeby instalacji dodatkowych aplikacji, oferuje funkcje mające na celu ułatwić ich użytkowanie osobom niewidomym. Przykładem takiego systemu jest VoiceOver zintegrowany z platformą iOS. Dla innych platform powstały specjalne systemy udźwiękawiające (tzw. screenreadery) [3]. Obecnie liderem na rynku urządzeń mobilnych jest system operacyjny Android [4], nieco rzadziej wykorzystywany przez osoby niewidome, jednak również na tę platformę stopniowo pojawiają się systemy udźwiękowiające. Przeznaczenie urządzenia Zaprojektowane i wykonane urządzenie przeznaczone jest dla osób niewidom... więcej»

Analiza parametrów anteny typu F umieszczonej w pobliżu ciała człowieka (Łukasz Januszkiewicz, Piotr Wasilewski)
która znalazła zastosowanie zarówno w paśmie fal ultra krótkich jak i mikrofal. Duża popularność tej anteny wynika z jej niewielkich rozmiarów w porównaniu z innymi antenami zasilanymi niesymetrycznie, takimi jak unipol ćwierćfalowy lub antena typu T. Antena zasilana jest niesymetrycznie, a jej impedancja wejściowa może być równa 50 Ω, dzięki czemu nie jest konieczne stosowanie układów dopasowujących w przypadku podłączenia anteny do bardzo wielu stosowanych obecnie nadajników. Anteny tego typu znalazły liczne zastosowania w systemach łączności ruchomej instalowanych w pojazdach [1-2] oraz po wprowadzeniu pewnych modyfikacji (tzw. planarna antena typu F - PIFA) również w terminalach przenośnych systemów komórkowych [3-4]. Anteny typu F mogą być wykonane w technice obwodów drukowanych. Kształt odpowiednio zmodyfikowanej litery F przyjmuje wtedy warstwa metalizacji ułożona na podłożu dielektrycznym. W takim wykonaniu anteny typu F znalazły bardzo szerokie zastosowanie np. w miniaturowych nadajnikach bezprzewodowych sieci sensorowych [5] lub nadajnikach bezprzewodowych sieci komputerowych [3, 6]. Kolejnym popularnym zastosowaniem są miniaturowe transceiwery pracujące w paśmie 2,4 GHz w protokole ZigBee. Producenci miniaturowych nadajników bardzo często przedstawiają w dokumentacji układów kształt obszaru metalizacji obwodu drukowanego tworzącego antenę, bądź też wykonują ją na płytkach testowych, na których umieszczone są miniaturowe nadajniki [7, 8]. Na rysunku 1 przedstawiono wymiary oraz widok anteny typu F zrealizowanej w technice obwodów drukowanych, która została umieszczona na płytce testowej nadajnika ZigBee firmy Chipcon [7]. Ze względu na bardzo małe rozmiary płytek testowych z modułami ZigBee i ich niewielki pobór energii możliwe byłoby wykorzystanie ich do realizacji bezprzewodowych sieci sensorowych działających w pobliżu ciała człowieka. Sieci tego typu mogą realizować różnorodne funkcje związane np. z monito... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Powtarzalność elektrycznej charakteryzacji oprawki zawierającej połączenia drutowe (Paweł Kopyt, Daniel Gryglewski, Wojciech Wojtasiak, Wojciech Gwarek)
Oprawki przyrządów półprzewodnikowych lub układów scalonych stosowanych w układach mikrofalowych są istotnym elementem decydującym w znacznym stopniu o jakości gotowych przyrządów półprzewodnikowych. W wypadku obudów tranzystora wprowadzają one pasożytnicze pojemności i indukcyjności, które powodują obniżenie częstotliwości granicznej fT oraz pogarszają warunki stabilności. Ponadto można zaobserwować również efekty rezonansowe [1] wywołane niefortunnym układem rozproszonych pojemności obudowy oraz indukcyjnością połączeń drutowych. Poznanie parametrów oprawek oraz ich wpływ na działanie tranzystorów pozwala na minimalizowanie takich efektów. W literaturze opisano wiele sposobów charakteryzacji oprawek tranzystorowych i układów scalonych. Wydaje się, że dominującym podejściem jest opisywanie elementów pasożytniczych oprawek mniejszych niż l/10 długości fali za pomocą kilku obwodów typu "π " [2], gdzie skupiona szeregowa indukcyjność odpowiada połączeniu drutowemu o skończonej długości, a włączone równolegle pojemności opisują pojemność wyprowadzenia oprawki oraz pojemność pola kontaktowego chipu. W niniejszym komunikacie przedstawiono wyniki prac prowadzących do zaproponowania struktury obwodu zastępczego popularnej oprawki typu TO-39, która znajduje zastosowanie także w konstrukcji detektorów promieniowania (podczerwonego lub z pasma THz). Zaproponowana struktura przypomina typowy obwód typu "π " zmodyfikowany w celu dokładniejszego odwzorowania charakterystycznych cech oprawki TO-39. Zastosowane podejście wymaga zainstalowania wewnątrz badanej oprawki pojedynczego "standardu kalibracyjnego" zastępującego chip detektora (lub strukturę tranzystora). W tej roli zastosowano odcinek niesymetrycznej linii paskowej wykonanej na cienkim laminacie mikrofalowym. Na podstawie pomiarów macierzy [S] oprawki przygotowanej w ten sposób można określić parametry jej obwodu zastępczego. Przedstawione podejście jest rozwinięciem met... więcej»

Drgania w układach wyposażonych w przetworniki piezoelektryczne (Wojciech Kołton, Tomasz Trawiński)
Pierwszą wzmiankę na temat zjawiska piezoelektrycznego możemy znaleźć w artykule Piotra i Jakuba Curie z 1880 roku. Opisano w nim zjawisko powstawania ładunku elektrycznego, którego wartość jest wprost proporcjonalna do przyłożonego naprężenia. Rok po odkryciu zjawiska piezoelektrycznego Gabriel Jonas Lippmann wykazał możliwość występowania zjawiska odwrotnego, polegającego na powstaniu deformacji kryształu pod wpływem zewnętrznego pola elektrycznego [1]. Najczęściej do produkcji piezoelektryków jest stosowana ceramika np. tytanian ołowiano-cyrkonowy (PZT), niobian ołowianomagnezowy (PMN), których charakterystyki deformacji w funkcji natężenia pola elektrycznego są przedstawione na rysunku 1. Piezoelektryki ceramiczne wytwarza się z użyciem tego samego procesu technologicznego co w przypadku np. porcelany. Umożliwia to tanią produkcję elementów na skalę masową, bez żadnych ograniczeń wymiarowych oraz łatwy wpływ na parametry elementów poprzez odpowiednie domieszkowanie i cięcie. Główną wadą Rys. 1. Deformacja S w funkcji natężenia pola elektrycznego E piezoelektryków PZT i PMN [4] Fig. 1. Deformation S versus electric field E piezoelectrics PZT and PMN [4] 118 Elektronika 9/2012 ceramiki jest: duży rozrzut parametrów (sięgający kilkunastu procent), silny efekt starzenia, wysoki dryft temperaturowy parametrów. Pozostałymi materiałami, z których wytwarza się piezoelektryki są kryształy pozbawione środków symetrii np. tlenku krzemu SiO2, soli Seignette’a (winian sodu i potasu), turmalin [2]. Piezoelektryki ze względu na swoje właściwości, takie jak: niska masa, brak ruchomych części, szybka odpowiedź, możliwość działania w skrajnych temperaturach, znalazły szereg zastoso... więcej»

Badanie możliwości zastosowań elastycznych ogniw fotowoltaicznych w tekstronice (Sylwia Walczak, Katarzyna Znajdek, Maciej Sibiński)
W dzisiejszych czasach nauka staje się coraz bardziej interdyscyplinarna, czego przykładem jest zwiększone zainteresowanie nowatorskimi możliwościami wykorzystania systemów elektronicznych w różnorodnych, niekonwencjonalnych aplikacjach [1]. Jedną z nich jest tekstronika, której głównym celem jest integracja przyrządów i układów elektronicznych z odzieżą, w celu podniesienia jej funkcjonalności, poprzez rozbudowę funkcji ochronnej, monitorującej, sygnalizacyjnej i rozrywkowej [2]. W momencie projektowania produktów tekstronicznych należy rozpatrzeć dość istotny problem tekstroniki, a mianowicie sposób zasilania dołączonych układów, który powinien być na tyle efektywny, aby zaspokoić potrzeby użytkownika w trakcie korzystania z wyrobu tekstronicznego [3]. W niniejszym artykule omówiono jedną z potencjalnych opcji zasilania, a mianowicie możliwość wykorzystania elastycznych ogniw słonecznych, jako zintegrowanych elementów tekstronicznych. Energia wytworzona przez takie układy może być bezpośrednio przekazywana do wybranych urządzeń elektronicznych, bądź też magazynowana w zintegrowanych z odzieżą akumulatorach. W celu oceny możliwości zastosowań elastycznych ogniw PV w tekstronice dokonano analizy wybranych parametrów ogniw słonecznych, zarówno pod względem elektrycznym, jak i mechanicznym. Przegląd dostępnych elastycznych ogniw PV W literaturze dotyczącej fotowoltaiki dostępnych jest wiele publikacji na temat możliwości wytwarzania i zastosowania elastycznych ogniw słonecznych na bazie różnych materiałów półprzewodnikowych lub związków organicznych. W praktyce jednak istnieje bardzo niewielu producentów oferujących tego typu przyrządy. Należą do nich głównie amerykańskie firmy, takie jak Uni- Solar oraz Power Film, produkujące ogniwa i moduły elastyczne na bazie krzemu amorficznego, Global Solar zajmująca się wytwarzaniem elastycznych przyrządów fotowoltaicznych opartych na związkach półprzewodnikowych CIGS, czy Konarka specj... więcej»

Badanie struktur sensorowych na bazie tlenku cynku na oddziaływanie z wybranym środowiskiem gazowym (Przemysław Struk, Tadeusz Pustelny, Krystyna Gołaszewska, Michał A. Borysiewicz, Anna PIOTROWSKA)
Zagadnienie monitorowania stężenia gazów, przede wszystkim gazów niebezpiecznych jest ciągle poważnym zagadnieniem technicznym. Nowatorskie rozwiązania poszukiwane są zarówno dla ochrony atmosfery, bowiem jej skażenia groźne dla zdrowia i życia ludzkiego są istotnym problemem społecznym w aglomeracjach przemysłowych, jak i dla analizowania środowiska gazowego podczas trwania procesów technologicznych w zakładach przemysłowych. W układach sensorowych, czułych na wybrane środowisko gazowe, jako warstwy czynne stosowane są między innymi materiały o szerokiej przerwie energetycznej, takie jak tlenek cynku [1, 2]. ZnO jest półprzewodnikiem przezroczystym dla fali elektromagnetycznej z zakresu widzialnego i około widzialnego [3, 4], a jego przerwa energetyczna wynosi ok. Eg ~ 3,4 eV [5, 6]. Przedstawione w niniejszym artykule badania dotyczą struktur sensorowych na bazie ZnO, czułych na obecność dwutlenku azotu NO2, pracujących w układach optoelektronicznych. Niewątpliwą zaletą optoelektronicznych struktur sensorowych jest ich odporność na zakłócenia elektromagnetyczne [7]. Eksperyment Stanowiska pomiarowe Badania eksperymentalne odpowiedzi warstw sensorowych tlenku cynku poddanych oddziaływaniu środowiska gazowego zostały przeprowadzone z wykorzystaniem spektrof... więcej»

Technika akceleratorowa i eksperymenty fizyki wysokich energii, Wilga 2012 (Ryszard S.Romaniuk)
Eksperymenty fizyki wysokich energii (FWE) wymagają wielkiej infrastruktury badawczej, jak nadprzewodzących akceleratorów oraz detektorów. Co najmniej 10% kosztów tej infrastruktury jest konsumowane przez systemy fotoniczne i elektroniczne małej i dużej mocy i używane do konstrukcji detektorów, systemów pomiarowo-kontrolnych, dystrybucji czasu odniesienia, precyzyjnych systemów synchronizacji, systemy bezpieczeństwa i zabezpieczeń technicznych, itp. Największe i najważniejsze obecnie badania w zakresie FWE są związane z odkryciem bozonu Higgsa oraz z oscylacjami neutrin. Oba obszary, oprócz kilku innych także bardzo ważnych, są spodziewane, że doprowadzą do otwarcia nowej fizyki i nowych zjawisk w nowych obszarach takich jak czarna energia i czarna materia. Równie wielkie badawcze inwestycje infrastrukturalne są realizowane w dziedzinie laserów na swobodnych elektronach. Największy z takich laserów w Europie jest właśnie budowany w DESY. Istnieją sile motywacje dla prowadzenia badań naukowych w dziedzinie laserów na swobodnych elektronach - FEL. Fotony o różnych długościach fali są jednym z najbardziej użytecznych narzędzi w różnego typu pomiarach. Źródła światła czwartej generacji są jedynymi, które mogą generować bardzo intensywne, koherentne światło od dalekiej podczerwieni poprzez widza len i ultrafiolet do promieniowania rentgenowskiego. Tak szerokiego przestrajania nie można uzyskać w żadnym innym laserze. W laserze FEL światło jest generowane przez energetyczne, relatywistyczne elektrony poruszające się wzdłuż drogi sinusoidalnej i generujące promieniowanie SASE - samo wzmacniające się promieniowanie emisji własnej. Elektrony w laserze FEL są przyspieszane do energii relatywistycznych w akceleratorze liniowym. Eksperyment CMS Eksperymenty zbudowane na wielkim akceleratorze hydronowym LHC, takie jak Atlas, CMS, Alice i inne poszukują znaków nowej fizyki uzupełniającej i rozszerzającej Model Standardowy lub wręcz wych... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Integracja elementów pojemnościowych z płytką obwodu drukowanego (Wojciech Stęplewski, Grażyna Kozioł, Tomasz Serzysko, Kamil Janeczek, Aneta Araźna)
Od wielu lat w różnych światowych ośrodkach badawczych prowadzone są prace mające na celu opracowanie technologii wbudowywania elementów biernych wewnątrz płytki obwodu drukowanego w procesie jej produkcji. Elementy bierne są niezbędne w każdym układzie elektronicznym, a w wielu wypadkach stanowią znaczną jego cześć. Ich udział w wyrobach elektronicznych stale rośnie i chociaż wymiary tych podzespołów ulegają ciągłemu zmniejszaniu, to otaczająca je powierzchnia nie może być dalej zmniejszana z powodów ograniczeń narzuconych przez urządzenia montażowe oraz wymagania procesu lutowania. Idea upakowania większej liczby podzespołów na płytce obwodu drukowanego przez wprowadzenie nowych technologii wbudowywania elementów biernych wewnątrz płytki staje się obecnie dla producentów nowoczesnego sprzętu koniecznością. Koncepcja wbudowywania elementów pasywnych, w tym kondensatorów, do wnętrza płytki obwodu drukowanego powstała już wiele lat temu. Pierwsze próby z wbudowywaniem kondensatorów rozpoczęto jeszcze pod koniec lat sześćdziesiątych ubiegłego wieku [1]. Do tej pory powstało wiele materiałów, które mogą być wykorzystywane na kondensatory, jednak technologia ta wykorzystywana jest w niewielkim stopniu najczęściej w zastosowaniach wojskowych i elektronice lotniczej, w tym również elektronice używanej w przestrzeni kosmicznej. W ostatnich latach wielki wzrost zapotrzebowania na wysoko zaawansowane, a jednocześnie tanie urządzenia elektroniczne, takie jak telefony komórkowe, laptopy, urządzenia sieciowe itp. spowodował szerokie zainteresowanie nowymi technologiami, w tym technologiami elementów biernych wbudowanych. Można zauważyć trend w rozwoju płytek obwodów drukowanych, który zmierza do jak największej integracji z nią elementów elektronicznych. Materiały i konstrukcje wbudowanych kondensatorów planarnych Obecnie na rynku dostępnych jest wiele materiałów przeznaczonych do wytwarzania kondensatorów wbudowanych. Coraz więcej fi... więcej»

Eksperymentalna walidacja elektromechanicznych modeli ultradźwiękowych przetworników piezoceramicznych (Andrzej Milewski, Paweł Kogut, Witold Kardyś, Piotr Kluk)
Piezoceramika od wielu lat jest materiałem wykorzystywanym do budowy przetworników ultradźwiękowych dużej mocy ze względu na ich bardzo dobre parametry, jak chociażby dużą sprawność i zdolność energetyczną oraz wytrzymałość mechaniczną. Naj- Rys. 1. Piezoceramiczne przetworniki ultradźwiękowe Fig. 1. Piezoceramic ultrasonic transducers częściej stosowana jest ceramika o geometrii walcowej wstępnie spolaryzowana w kierunku osiowym. Przykłady opisanych przetworników piezocermicznych zaprezentowano na rys. 1. Przetworniki ultradźwiękowe projektowane są na zadane parametry, takie jak częstotliwość pracy czy moc wyjściowa. Do projektowania technicznego przetwornika ultradźwiękowego potrzebny jest model matematyczny, który pozwoli na wstępną estymację wymaganych parametrów, w tym parametrów elementów składowych takich jak przetwornik piezoceramiczny. Model przetwornika piezoceramicznego jest również niezbędny do walidacji parametrów piezoceramiki dostarczonej od producenta, co jest szczególnie ważne ze względu na rozrzut technologiczny, który jak podają niektórzy producenci standardowo wynosi ~20%. W niniejszym artykule skupiono się na opisie elektromechanicznego modelu dla przypadku drgań osiowych oraz na metodach estymacji parametrów statycznych przetworników piezoceramicznych w oparciu o pomiary charakterystyk impedancyjnych. 16 Elektronika 8/2012 Model drgań osiowych Przypadek drgań osiowych obejmuje problem, w którym przetwornik w kształcie cienkiego dysku lub krążka zostaje poddany harmonicznemu pobudzeniu elektrycznemu oraz obustronnemu obciążeniu akustycznemu w kierunku osiowym. Problem ten wraz z warunkami wymuszenia oraz zadanymi warunkami brzegowymi ilustruje rys. 2. (3) gdzie k t jest efektywnym współczynnikiem sprzężenia elektromechanicznego drgań osiowych: (4) Estymacja parametrów statycznych przetwornika Technologia wytwarzania przetworników piezoceramicznych charakteryzuje się dużym rozrzutem technologicznym,... więcej»

Aparatura do oznaczania reakcyjności koksu wobec CO2 metodą analizy gazów poreakcyjnych – badania eksploatacyjne w warunkach przemysłowych (Artur WITOWSKI, Krzysztof JASEK, Władysław LATOCHA)
Jednym z powszechnie stosowanych kryteriów przydatności koksu do zastosowań w procesach wielkopiecowych jest jego reakcyjność wobec CO2. Kryterium to zostało opracowane przez Nippon Steel Corporation (NSC) w latach 80. XX w., a następnie wykorzystano je przy redagowaniu norm ISO 18894 i ASTM D 5341a [1, 2] dotyczących określania właściwości użytkowych koksu. Normatywne oznaczenie reakcyjności koksu wobec ditlenku węgla polega na określeniu względnego procentowego ubytku masy koksu po zakończeniu dwugodzinnej reakcji z ditlenkiem węgla prowadzonej w temperaturze 1100oC (współczynnika reakcyjności CRI). Mimo upływu 30 lat od opracowania wymienionych norm, obowiązują one do chwili obecnej, chociaż zawarte w nich kryterium w sposób bardzo uproszczony opisuje rzeczywiste wzajemne oddziaływanie reagentów w procesach produkcyjnych. Powszechne stosowanie pomiarów współczynnika reakcyjności CRI koksu wobec CO2 jako wskaźnika przydatności danej partii koksu do zastosowań w procesach wielkopiecowych związane jest z prostotą wykonania oznaczeń w warunkach przemysłowych. Jednocześnie w wielu ośrodkach naukowych podejmowane są prace badawcze i konstrukcyjne poświęcone doskonaleniu metod i urządzeń umożliwiających bardziej precyzyjny opis zjawisk fizykochemicznych zachodzących pomiędzy koksem a ditlenkiem węgla w procesach produkcyjnych. Tematyka tych prac dotyczy przede wszystkim zagadnień związanych z monitorowaniem dynamiki zmian reakcyjności koksu wobec CO2 w trakcie ich wzajemnego oddziaływania [3-7]. Prace poświęcone tym zagadnieniom prowadzone są również Instytucie Tele- i Radiotechnicznym. Efektem tych prac jest opracowanie dwóch metod oznaczania chwilowych wartości reakcyjności koksu wobec ditlenku węgla: metody opartej o analizę gazów poreakcyjnych [8] oraz metody opartej o pomiar dodatkowej energii cieplnej dostarczanej od grzejnika pieca do retorty z próbką koksu w trakcie trwania reakcji izotermicznej [9]. Wyniki, prowadzonych... więcej»

International Symposium on Electric Vehicles 2012
Dwudniowa konferencja była kontynuacją odbytej w 2010 roku w Politechnice Warszawskiej międzynarodowej konferencji naukowej na temat pojazdów elektrycznych, hybrydowych i ich infrastruktury. Poświęcona była wskazywaniu dróg postępu przez badania naukowe, rozwój edukacji i wprowadzania innowacji do nowoczesnego transportu ekologicznego. Przedstawiono również wymagania stawiane energetyce niskoemisyjnej w odniesieniu do pojazdów z napędem elektrycznym w transporcie publicznym. Patronat nad konferencją sprawowali: ● Wicepremier, Minister Gospodarki - Waldemar Pawlak, ● JM rektor Politechniki Wars... więcej»

Wieloprocesorowy system kontrolno-pomiarowy analizatora NDIR (Zbigniew Rudolf, Marek Orzyłowski, Krzysztof Jasek)
Kontrola jakości paliw stałych powinna obejmować badania ich kaloryczności oraz zawartości substancji, które w procesie spalania wytwarzają produkty zanieczyszczające środowisko. Dlatego też badania jakości paliw, przeprowadzane w kopalniach oraz elektrowniach i elektrociepłowniach, obejmują przede wszystkim pomiar zawartości węgla i siarki. W wyniku spalania paliw stałych w Polsce powstaje rocznie ok. 15 mln. ton popiołów. Zależnie od składu mogą one być stosowane jako dodatki do betonów i konstrukcji drogowych, poprawiając ich parametry i eliminując kłopotliwe składowanie niewykorzystanych popiołów. Utylizacja popiołów do wspomnianych celów wymusza również badania ich składu, zwłaszcza pod kątem zanieczyszczeń węglem oraz związkami siarki. Niniejszy artykuł dotyczy opracowania automatycznego analizatora zawartości węgla i siarki w popiołach i paliwach stałych, który bazuje na analizie składu produktów ich spalania. W wyniku spalania próbki węgla lub popiołu uzyskuje się gazy, w których mierzy się zawartość CO2 oraz SO2. Do przemysłowych pomiarów stężeń CO2 i SO2 powszechnie stosuje się analizatory NDIR (ang. Non-Dispersive-InfraRed) działające na zasadzie absorpcji promieniowania podczerwonego [1, 2]. Charakteryzują się one dużą selektywnością i trwałością. Analizatory NDIR mogą zawierać różnego typu detektory promieniowania, a do najczęściej stosowanych należą optopneumatyczne i piroelektryczne. W Instytucie Tele- i Radiotechnicznym przy współpracy z Wojskową Akademią Techniczną, w poprzednich latach został opracowany analizator zawartości węgla i siarki w paliwach stałych, działający na wspomnianej zasadzie [2], w którym obróbka sygnału następowała na drodze analogowej. Obecnie trwają prace nad nowym analizatorem NDIR zawartości węgla i siarki w popiołach, przeznaczonych do wykorzystania także w budownictwie. W porównaniu z poprzednio opracowanym analizatorem charakteryzuje się on dodatkowo niższymi zakresami pomiaru st... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Multisensor system for monitoring human psycho-physiologic state with the use of microwave sensor (Krzysztof Różanowski, Tadeusz Sondej, Jarosław Lewandowski, Mariusz Łuszczyk)
The psychophysiological-state monitoring system presented herein combines technologies of communication between sensor subsystems, technologies of measurement-information transfer, and an IT layer comprising advanced data-processing, decisionmaking, and management modules. The implementation uses state-of-the-art technologies in the area of micro-sensors - miniature non-invasive electronic devices which provide digital information about the human body state and location. Thanks to the small size of those sensors and the manner of their application, they do not cause any restrictions or discomfort in performing everyday tasks by the subjects. The developed set of micro-sensors and the data processing algorithms enable working out certain indicators to assess the psychophysiological state. Such indicators can be transmitted to a remote supervision system (operator console, command center). Two monitoring modes are supported: online and offline (with storing the data to a locally installed memory card). The system has been designed to be used in the process of selecting subjects by determining their predisposition to combat operations. The requirements for such systems are definitely more stringent than in case of systems designed for use in laboratories with defined device operating conditions. In extreme conditions, most otherwise proven methods of information acquisition may be inapplicable. An important element of the designed system is a noninvasive sensor of glucose level in blood, consisting of a microwave probe with an bio-oscillator and a measuring module. The works on developing a microwave-based technology to measure changes of glycaemia in humans required research in overlapping areas of such disciplines as microwave electronics, medicine, physiology, chemistry, and signal processing. It is an inElektronika 7/2012 83 novative task. Many years of work resulted in a number or original results. The achievements include... więcej»

Automatic image registration for computer-aided Burn Wounds evaluation (WOJCIECH TYLMAN, WOJCIECH KUZAŃSKI, MARCIN JANICKI, ANDRZEJ NAPIERALSKI)
The ability to perform temperature measurements of human body areas is important in some types of medical diagnosis. In particular, it has been shown that precise temperature measurements carry valuable indications for the treatment of burn wounds. Such measurements may be used, for example, when the physician has to determine whether the particular area of the wound may be expected to heal by itself, without surgical intervention. One possible approach to such measurements is utilisation of thermovision measurements, in particular the solutions where matrix infrared sensors are used. Such sensors are capable of capturing the temperature of many (hundreds of thousands) points at the same time. The resulting temperature map - a thermovision image - is ideally suited to the purpose of burn wound evaluation, as the burn wound itself is very often a large object, requiring multipoint measurements. Once the thermal image is captured, a detailed analysis is required in order to extract useful information. This analysis should be carried out by the physician in the hospital environment. Precision of results, short analysis time and ease of use are important here. For this purpose a dedicated software solution has been proposed, described in [1]. This paper presents further work aiming at improving and enhancing the software. BurnDiag - a PC solution for analysis of Burn Wounds This section briefly introduces BurnDiag software. For details consult [1]. Input data and user interface The BurnDiag software is intended to work with two types of images: thermovision and visible light. The main input is the thermovision image, the visible light one is supplemental, providing means to map burn wound areas to the body areas as seen by the human eye. Both images are read from a disk (usually a memory card of the camera). Although it would be possible to use a direct connection with the camera, this would require additional cables, which a... więcej»

Właściwości hydrofilowe przezroczystych i półprzewodzących cienkich warstw tlenków Ti-V do zastosowań w transparentnej elektronice (Karolina Sieradzka, Jarosław Domaradzki, Bogdan Adamiak, Kosma Baniewicz )
W ostatnich latach, w literaturze światowej obserwujemy zwiększone zainteresowanie nanokrystalicznymi materiałami tlenkowymi. Coraz bardziej pożądane są nowoczesne materiały o zadanych, ściśle określonych takich właściwościach, jak np. wysoka przezroczystość, dobre przewodnictwo elektryczne, właściwości hydrofilowe lub hydrofobowe, właściwości antyrefleksyjne itp. [1, 2]. Nanokrystaliczne cienkie warstwy ze względu na fakt, iż łączą w sobie przede wszystkim dwie specyficzne cechy [3]: (1) wysoką przezroczystość dla światła oraz (2) zdolność przewodzenia nośników prądu elektrycznego w temperaturze pokojowej, stanowią alternatywę dla klasycznych półprzewodników. W zależności od poziomu rezystywności elektrycznej, tlenki te, zaliczane są do materiałów typu TCO (ang. Transparent Conducting Oxide) lub TOS (ang. Transparent Oxide Semiconductor). Zwiększone zainteresowanie materiałami typu TCO oraz TOS wynika również z faktu, że bardzo często wykazują one dodatkowo inne pożądane właściwości. Dla przykładu, cienkie warstwy tlenków o właściwościach antyrefleksyjnych, wytwarzane zwykle w układzie wielowarstwowym TiO2-SiO2 [2], pozwalają uzyskać znaczną redukcję współczynnika odbicia światła. Inny przykład stanowią warstwy o właściwościach hydrofilowych, mające zdolność do równomiernego zwilżania wodą powierzchni materiału [1]. Wówczas, krople wody łącząc się w obrębie większego obszaru, zbierają napotykane na swojej drodze wszelkie zabrudzenia i spływając pozostawiają czystą, pozbawioną smug powierzchnię. Zazwyczaj, kąt zwilżania dla wody w wypadku najczę... więcej»

Two-dimentional phased array planar antenna for K-band (BRONISŁAW STEC, ANDRZEJ JEZIORSKI, MIROSŁAW CZYŻEWSKI, ADAM SŁOWIK )
Planar antennas are nowadays often used in all telecommunication systems. Technical solutions of this antenna type are known since middle XX century, but complicated analytical description and lack of the suitable computational instruments caused lots of problems with practical realisations. The development in computational techniques and numeric methods provided the instruments for the quick and simple planar structures designing. Thanks this development, much number of planar patch antenna construction have been used both in military and commercial applications. The most often configuration of used planar patch antennas are two-dimensional arrays. By adequate number and arrangement way of radiation elements, the antenna with required parameters can be obtained. But important part of the array is the feeding network too. The radiation element can be excited in serial, parallel or mixed configuration. Mixed serial-parallel configuration was chosen for presented antennas. Serial exciting configuration lets for easy various antenna configuration creation, e.g. theoretically arbitrary radiation elements number in single row. The rows with various elements number can be used to array forming, such as: rectangle, circle, ellipse. The radiating elements by microstrip line circuit have been feeded. The main disadvantage of the serial feeding is relative narrow bandwidth. This is caused by inphase exciting necessity. Great advantages of patch antennas are: simple construction, easy and cheap production, qui... więcej»

Plazmonika w fotowoltaice - próby aplikacji (ZBIGNIEW Starowicz, MAREK Lipiński)
Fotowoltaika jest dynamicznie rozwijającą się dziedziną nauki i przemysłu o ogromnym potencjale. Aby fotowoltaika stała się powszechnym i opłacalnym źródłem energii elektrycznej, potrzebna jest wysoka sprawność ogniw słonecznych oraz redukcja jej kosztów pozyskania - np. koszty materiałowe. Potrzeba znacznej redukcji grubości ogniw doprowadziła do rozwoju technologii cienkowarstwowych ogniw, które mają nieco niższą sprawność niż "grube" ogniwa krzemowe. W przypadku ogniw cienkowarstwowych nie ma możliwości wytworzenia tekstury w celu lepszego pułapkowania światła, gdyż geometryczne rozmiary charakterystycznych piramid przekraczają całkowitą grubość ogniwa. Dlatego też duże nadzieje związane są z plazmoniką, która dostarcza odpowiednich metod pozwalających uzyskać zwiększenie absorpcji światła w półprzewodniku. Plazmonika to stosunkowo nowa dziedzina nauki i techniki zajmującą się związaniem światła, w strukturach metalicznych w skali nano. Zachodzi tu wiele ciekawych zjawisk, które mogą być zaaplikowane w wielu różnych dziedzinach. W przypadku fotowoltaiki nanocząstki metali reagując ze światłem mogą powodować rozpraszanie go w kierunku podłoża pod różnymi kątami wydłużając przy tym długość drogi optycznej lub wspomagać generację nośników, dzięki oddziaływaniu bliskiego pola wokół cząstek [1]. Ich właściwości zmieniają się w szerokim zakresie, co pozwala dostosować je do każdego rodzaju ogniw [2]. Poszukuje się także nowych łatwiejszych i tańsz... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Recycling of silicon solar cells (Piotr Ostrowski)
W odpowiednio długiej perspektywie czasowej, wynoszącej średnio 25 lat, krzemowe moduły PV podobnie jak inne przedmioty użytkowe stają się odpadem. Globalna tendencja zmierzająca do wykorzystania materiałów odpadowych, skłania do zagospodarowania materiałów odpadowych komercyjnych modułów PV. Efektywną metodą gospodarowania odpadami jest odzysk. Dotychczasowa praktyka polegająca na składowaniu zużytych modułów PV na składowiskach odpadów, w odniesieniu do modułów PV, na dłuższą metę nie jest do zaakceptowania. Eksperyment Strumień odpadów w sektorze fotowoltaicznym można podzielić na dwie grupy: odpady generowane na etapie produkcji oraz wynikające z procesów starzeniowych (odpad poeksploatacyjny). Na 1000 wytworzonych krzemowych ogniw PV, średnio 50 sztuk nie spełnia stawianych im wymagań, zatem do produkcji modułów PV można wykorzystać 950 szt. pojedynczych ogniw, których parametry są zgodne z oczekiwanymi. Natomiast na 1000 wytworzonych modułów PV, średnio 10 sztuk nie spełni wymagań. Do eksploatacji trafi zatem 990 modułów PV. Dodatkowo ilość zużytych modułów PV zwiększa się w wyniku ich naturalnego starzenia podczas, którego zmianie ulęgają właściwości fizyko-chemiczne poszczególnych materiałów składowych. Na rys. 1 przedstawiono widok zużytych komercyjnych modułów PV. masowym poszczególnych elementów podatnych na recykling w odniesieniu do jego całkowitej masy (1). (1) gdzie: Mws - masowy wskaźnik podatności ogniwa/modułu PV na recykling, mri - masa części podatnych na recykling, m - ogólna masa modułu PV. Rozdział wycofanego z dalszej eksploat... więcej»

Algorytm sterowania procesem spalania z wykorzystaniem sygnałów optycznych (Waldemar WÓJCIK, Andrzej KOTYRA, Konrad GROMASZEK, Andrzej SMOLARZ, Krzysztof JAGIEŁŁO)
Współczesne pojęcie efektywności dotyczy parametrów techniczno- ekonomicznych, jak i ekologicznych - w oparciu o wytyczne Komisji Europejskiej - norm dyrektywy IPPC (Integrated Pollution Prevention and Control), ograniczają emisję NOx, CO i SO2. Instalacje przemysłowe, w których wykorzystywane jest spalanie węgla, muszą efektywnie prowadzić proces spalania w kotłach, które w dużej mierze pochodzą sprzed 50 lat. Dlatego też, przy wytwarzaniu energii opartym na spalaniu węgla kamiennego, brunatnego oraz współspalaniu biomasy, dużo uwagi poświęca się metodom pierwotnym niskoemisyjnych technik spalania [3, 4, 6]. Wykorzystanie skojarzonych z metodami pierwotnymi układów pomiarowych, diagnostycznych oraz wykonawczych pozwoli spełnić rygory dyrektywy LCP (ang. Large Combustion Plants), dotyczącej spalania w kotłach energetycznych, przy redukcji kosztów w stosunku do potencjalnych wdrożeń metod redukcji katalitycznej [4]. Tania redukcja tlenków azotu (NOx) stanowi bardzo istotne zagadnienie [3, 6]. Trudności efektywnego sterowania takim procesem wynikają między innymi: ze wzajemnej interferencji nieliniowych zjawisk fizyko-chemicznych, dużej dynamiki, opóźnień, niedostępności niektórych wielkości pomiarowych oraz z faktu występowania zagrożeń, przy nieprzewidywalnym jego przebiegu. Ponadto, istniejące ograniczenia w zakresie ster... więcej»

Photocatalytic degradation of the organic compounds enhanced by chemical oxidants (Jus tyna Dziedzic, Paweł Nowak, Piotr Warszyński, Jerzy Haber)
Water for drinking and domestic purposes must not contain harmful substances. It should be transparent, colorless, odorless, have a pleasant and refreshing taste and cannot contain pathogenic bacteria [1]. One of the basic problems of water treatment is the removal of organic species, especially humic substances (HS) - compounds, which have not as yet been properly chemically defined. HS represent a major fraction of natural organic matter (NOM) in ground and surface waters. Their presence causes growth of microorganisms resulting in undesirable odor and change of color and turbidity of water [2]. NOM occurrence in water, especially that part which cannot be removed by coagulation, determines demand for chlorine in chlorination process. However, toxicological studies indicate that after chlorination carcinogenic byproducts, such as trihalomethanes, can be found. Therefore, the efficient removal of NOM leads to reduction of the required amount of disinfectant, decreases the risk of formation trihalomethanes and also prevents the formation of biofilm [3]. For these reasons there exists a strong demand for new methods for NOM removal. As photocatalysis, is a promising method for removing organic compounds from water, in recent years, TiO2 based photocatalysis of humic acids (HAs) has been extensively investigated [4-7]. In this work, the photocatalytic removal of humic acid (HA) under artificial sun light (ASL) and UV irradiation was examined by monitoring changes in the UV absorbance at 254 nm (UV254). That absorbance is the widely accepted measure for determination of the degradation rate of humic acid and is used as the surrogate parameter for the total organic carbon (TOC) - usually applied to determine degree of HA photodegradation [8]. As the alternative method, the measurements of the chemical oxygen demand (COD) were al... więcej»

Printed transparent electrodes with graphene nanoplatelets (Małgorzata JAKUBOWSKA, Marcin SŁOMA, Daniel JANCZAK, Anna Młożniak, Grzegorz WRÓBLEWSKI)
In last years notable development in research of sustainable, regenerative and ecological electrical energy generation solutions can be observed. This is caused by rising costs of fossil fuels, increasing demand for energy, especially in emerging countries and environmental problems for instance carbon dioxide amount in atmosphere, climate change or air contamination [1]. Nuclear plants could be a good alternative for fossil fuels plants, but they are considered to be dangerous especially in regions of earth where earthquakes, tsunamis and other disasters can take place [2]. They are some regenerative electrical energy generation solutions but they have also some disadvantages and they are not totally environmental friendly. For example a hydropower plant needs large areas of terrain to be flooded - ecosystems changes [3] and need of homesteads relocations. Wind farms are not a perfect idea neither because they are interfering with flying animals causing even fatality through collision with rotating turbine rotor blades [4]. Those drawbacks made authorities, researchers and investors looking for other sources of energy, and solar energy seems to have prominent future. Crystalline silicon solar cells are are actually well developed photovoltaic devices but still too expensive per kWh in comparison to other energy sources as regard mass energy generation. Therefore organic solar cells are investigated and can be a promising alternative for low cost energy generation. Furthermore using organic materials give great opportunity in elastic photovoltaic devices production. This paper is focused on transparent organic electrodes which are parts of photovoltaic cells. Indium tin Oxide (ITO) and fluorine tin oxide (FTO) have been common materials as window electrodes in optoelectronic devices [5], but they have some disadvantages e.g. high price, chemical instability and low mechanical strength. They have been made many studies on other... więcej»

Experimental Validation of New Classes of Dyes for Dye-Sensitised Solar Cells (Michal G. Zubel, Jacqueline M. Cole, Paul G. Waddell)
Solar power is numbered, along with wind, water (waves, tides, dams, run-on-the-river systems), biomass growth (traditional and advanced) and geothermal heat among renewable energy sources. Although the accuracy of any long-term forecast can be considered questionable, especially in the times when the spectacular failure of the predictions of the Club of Rome, expressed in their 1972 book “Limits to Growth", has become evident, it is recognised that the photovoltaic energy harvesting seems to be the only branch able to provide cheap and clean energy in the future [1]. This is because the other above-mentioned “green" technologies have not enough growth potential and area of availability to be regarded major sources of cheap energy for the future. Energy production from renewable sources encompass still emerging technologies. They constitute only 6% of the global final energy consumption (2009), excluding traditional biomass [2]. Their share of the global electricity consumption (2010) is higher but it is still smaller than 20%, whereas about 16% is attributed to hydroelectricity [2], the most established renewable energy source. All the other sources contribute around 3.3% of the global share. Obviously, fossil fuels dominate both rankings. The main parameter to characterise energy sources is the average cost of production per kilowatt‑hour or megawatt-hour. Looking at the comparison of the cost [2] it is no wonder that photovoltaics are not in widespread use. The cost of electric energy from this source is 5-10 times higher than from the cheapest renewable one, i.e. hydroelectricity. It is also estimated to be around 3 times more expensive than electric energy from coal [3]. Various reports give different figures on the average costs of energy, but in each of them the tendency for photovoltaic energy to be much more expensive is clear. Solar cells will not be competitive with other energy sources as long as... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

IFA Global Press Conference
W dniach 12-15 kwietnia w Dubrowniku (Chorwacja) odbyła się Międzynarodowa Konferencja Prasowa prezentującą doroczną wystawę radiową. W ciągu trzech dni trwania konferencji organizatorzy przedstawili swoje zamierzenia związane z ekspozycją, która ma się odbyć w dniach od 31 sierpnia do 5 września br. Ogromny wzrost dynamiki innowacji w odczuciu klientów, którzy są zafascynowani nowymi opracowaniami stworzył nastrój optymizmu wśród producentów elektronicznego sprzętu powszechnego użytku i placówek handlowych. Międzynarodowa Wystawa Radiowa, organizowana corocznie w Berlinie (IFA Internationale FunkAusstellung), w ostatnich latach wyjątkowo... więcej»

Digital signal processing in the diagnosis of brainstem auditory evoked potentials (Andrzej P. Dobrowolski, Michał Suchocki, Kazimierz Tomczykiewicz)
Examination of evoked potentials (EP) is one of the methods for diagnosing a human brain. This examination allows for monitoring and registering bioelectrical activities of the brain. By using EP one can examine sight and hearing and evaluate responses to different stimuli that activate different parts of the brain. This article is devoted to neurological diagnostics based upon examination of Auditory Evoked Potentials (AEP) [1]. The authors explain what evoked potentials are and how important role they play in hearing examination and discuss the current methods for analysis of its results. The major subject of the article is to describe an alternative way of analyzing the survey results, based on digital signal processing. Moreover, it presents problems associated with acquisition of digital recording of auditory evoked potentials and exemplary waveforms of the potentials corresponding to normal and pathological cases as functions of time and frequency. BEAP All brain activities are closely associated with movements of ions and charge polarization. Electric charges that are moving within the nerve structures can be recorded and received in the form of electric potential. If we stimulate a sensory-sensual receptor, we will automatically receive the response in the form of an electrical signal. Evoked potentials are generated this way. Under the influence of acoustic stimuli in the auditory pathway, the ear, which is a sensory receptor (Fig. 1), produces voltage changes, known as auditory evoked potentials. Evoked potentials are according to response time to stimulation that generates the response. In biomedical terminology, the response time is referred to as latency (in technical nomenclature it would be called a delay). We can classify auditory evoked potentials as short, medium or long latency potentials, according to the reaction time. Taking into account their clinical suitability, only Short Latency Auditory Evoked Pot... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient’s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor’s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient’s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article “Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą ‘VBS & new-cost’ (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 2 - linia przesyłowa (Jarosław Halarewicz, Piotr Domanowski, Jerzy Dora, Andrzej Wawrzak, Kazimierz Karwowski, Piotr Pinio, Artur Wiatrowski, Witold Michał Posadowski)
Przemysłowe linie osadzania powłok cienkowarstwowych można podzielić, ze względu na sposób pracy, na systemy tzw. in-line i off-line. Odpowiednikiem w języku polskim są odpowiednio, potokowe i wsadowe systemy nanoszenia cienkich warstw. Różnica między nimi polega na sposobie realizacji cyklu próżniowego. W wypadku systemu potokowego (in-line) podłoża są pokrywane powłokami w sposób ciągły i przemieszczają się przez kolejne komory urządzenia przy "otwartym" wejściu i wyjściu linii. Warunki próżniowe są osiągane w wyniku pompowania kolejnych komór oraz śluz między nimi (tzw. komór buforowych). Dzięki odpowiednim rozwiązaniom konstrukcyjnym są zapewnione wymagane warunki procesów osadzania warstw przy dynamiczne "otwartym" systemie próżniowym. Kolejne partie, przesuwających się wzdłuż linii, podłoży są pokrywane w sposób ciągły powłokami cienkowarstwowymi i cykl produkcyjny zamyka się w jednym cyklu próżniowym. W wypadku systemu wsadowego (off-line), po załadowaniu do komory roboczej określonej liczby podłoży, następuje proces pompowania, procesy obróbki wstępnej podłoży, właściwy proces pokrywania warstwami, a następnie komora robocza jest zapowietrzana. Po zakończeniu cyklu próżniowego, podłoża są wyładowywane z komory, ich miejsce zajmuje następna partia podłoży i jest realizowany kolejny cykl próżniowy. Zatem na cykl produkcyjny składają się kolejne cykle próżniowe. Wybór systemu do nanoszenia cienkich warstw zależy od stawionych wymagań. Linie potokowe składają się z kilku (kilkunastu) komór roboczych, a ich długość jest rzędu kilkudziesięciu metrów. Działanie systemu wsadowego zakłada prowadzenie procesu otrzymywania warstw w jednej komorze roboczej. W systemie potokowym istnieje możliwość pokrywania wielu podłoży, ale w praktyce tylko płaskich. Mogą również wystąpić ograniczenia przy stosowaniu bardziej specjalistycznych technologii. W systemie wsadowym stwarza się różnorodne możliwości technologiczne oraz zapewnia nanos... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Strategiczne kierunki rozwoju technologii i produktów militarnych w Bumar Elektronika (Zenon Szczepaniak, Jerzy Miłosz, Andrzej Kątcki, Zenon Obrycki, HENRYK KANTECKI)
W perspektywie 2012-2020 Dywizja Bumar Elektronika powinna osiągnąć następujące cele strategiczne: - Utrzymać wiodącą pozycję dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, - Wejść ze swoimi produktami i usługami na rynek uzbrojenia zagraniczny, szczególnie europejski, - Zdobyć wybrany segment rynku cywilnego (krajowego i zagranicznego). W celu utrzymania wiodącej pozycji dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, w wyżej opisanych warunkach rosnącej konkurencji, a więc możliwości dostaw (obiektów) systemów wspomagania dowodzenia i sensorów przez konkurencyjne firmy (krajowe i zagraniczne), należy zdobyć pozycję integratora systemu C4ISR SZ RP. Wtedy Bumar Elektronika będzie miała wpływ na kształtowanie architektury systemu oraz zasad integracji, wzrośnie też szansa, że podsystemy, obiekty i produkowane sensory będą bardziej konkurencyjne w stosunku do wyrobów innych producentów. Realnym jest wejście na rynki zagraniczne (w tym europejski) z podzespołami, podsystemami, czy specyficznymi usługami (szczególnie w zakresie oprogramowania), ale jako podwykonawca czy dostawca wybranej firmy lub firm europejskich. Natomiast, w celu uzyskania konkurencyjności wybranych produktów i usług Bumar Elektronika na rynku cywilnym należy wydzielić "linię produkcji cywilnej" lub powołać "firmę -córkę", która nie byłaby obciążona kosztami związanymi z wymaganiami dotyczącymi produkcji wojskowej. Proces osiągania celów strategicznych powinien składać się z następujących faz: - Faza I - konsolidacja spółek - cel bliższy (ok. 2 lata) - utrzymanie ciągłości realizacji umów i zobowiązań, - Faza II - utrzymanie rynku i budowanie bazy do osiągania celów strategicznych - cel średnioterminowy (do ok. 5 lat). Osiąganie celu bliższego (Faza I) polega na wdrożeniu takich struktur organizacyjnych oraz zachowaniu zasobów ludzkich pozwalających na realizację podpisanych (obe... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Czujnik wodoru AlGaN/GaN FAT-HEMT (Bogdan Paszkiewicz, Mateusz Wośko, Wojciech Macherzyński, Regina Paszkiewicz, Marek Tłaczała)
Heterostruktury AlGaN/GaN typu HEMT (ang. High Electron Mobility Transistors), ze względu na swoje unikalne właściwości [1], stanowią podstawę konstrukcji wielu przyrządów Elektronicznych - tranzystorów mikrofalowych [2], w tym na zakres THz, czujników gazów [3] i przetworników w czujnikach biologicznych [2]. Jest to związane z dużą nasyconą prędkością unoszenia elektronów 2DEG (ang. Two-Dimensional Electron Gas) w kanale tranzystora (~2,5 × 107 cm/s), dużym maksymalnym napięciem przebicia (~3,3 MV/cm) oraz odpornością materiału na działanie czynników chemicznych i wysokiej temperatury. Jednym z istotnych wyzwań współczesnej elektroniki jest ich zastosowanie do konstrukcji czujników wodoru, które będą mogły pracować w systemach bezpieczeństwa silników na paliwo wodorowe i wodorowych ogniw paliwowych. Aby czujniki te mogły być zastosowane, do detekcji nieszczelności muszą zapewniać szybki czas reakcji na wodór, już przy możliwie małych jego koncentracjach oraz szeroki zakres defekowanych stężeń. W WEMiF PWr opracowano technologię i konstrukcję diodowych i tranzystorowych czujników wodoru na bazie heterostruktur AlGaN/GaN z palladowymi i platynowymi elektrodami katalitycznymi [4]. Typowo odpowiedzi czujników wodoru na bazie hetero struktur AlGaN/GaN są badane w zakresie koncentracji wodoru od dziesiątek do setek ppm [5]. W artykule zbadano odpowiedzi opracowanego w WEMiF PWr, czujnika AlGaN typu FAT-HEMT (tzw. "Tłusty-HEMT") z bramką katalityczną Pt) w szerokim zakresie stężeń wodoru w azocie 0,1…3000 ppm w celu określenia potencjalnych obszarów zastosowań tego rodzaju czujników. Wytwarzanie czujników wodoru Heterostruktury AlGaN/GaN osadzano w stanowisku CCS 3 × 2" firmy AIXTRON na podłożach szafirowych o orientacji c techniką MOVPE (Metalorganic Vapor Phase Epitaxy). Niedomieszkowana warstwa Al0.22Ga078N, o grubości 25 nm, była osadzana na wysokorezystywnej warstwie GaN o grubości 2 μm. Metodą spektroskopii imped... więcej»

Parametry detektorów MSM wykorzystujących heterostruktury GaAsN/GaAs i MQW InGaAsN/GaAs (Iwona Zborowska -Lindert, Beata Ściana, Damian Pucicki, Damian Radziewicz, Bogusław Boratyński ,Marek Tłaczała)
W ostatnich latach zaobserwowano znaczne zainteresowanie rozrzedzonymi azotkami (GaAsN), zarówno z powodu ich właściwości fizycznych, jak i możliwością wykorzystania badanych warstw ze względu na zakres pracy związany z szerokością przerwy energetycznej o wartości ok. 1 eV przy jednoczesnym dopasowaniu do sieci GaAs. Nawet niewielka ilość atomów azotu w sieci krystalograficznej GaAs powoduje zmniejszenie przerwy energetycznej o około 150 meV na 1% azotu dodawanego do związku GaAs. Jednocześnie dodanie atomów azotu zmienia stałą sieci krystalograficznej. Pojawiają się artykuły opisujące technologię i parametry różnego rodzaju przyrządów optoelektronicznych wykorzystujących struktury epitaksjalne rozcieńczonych azotków na przykład lasery [1], heterofototranzystory [2], rozmaite typy fotodetektorów [3, 4] i ogniwa słoneczne [5]. W tej pracy badany jest wpływ parametrów materiałowych na fotoodpowiedź detektorów MSM. Podstawowym problemem związanym z jakością fotodetektorów MSM jest powiązanie jego parametrów z wysokością bariery Schottky’ego kontaktów. W sytuacji, gdy bariera Schottky’ego jest niska, wzrasta prąd ciemny, co znacząco zmniejsza czułość fotodetektora. W pracy badano wartość prądu ciemnego i oceniano, czy jest ona dostatecznie niska, aby fotoodpowiedź MSM na warstwach GaAsN/GaAs i wielostudniach kwantowych (MQW) InGaAsN/GaAs była znacząco wyższa dla fal powyżej krawędzi absorbcji dla warstw GaAs czyli 870 nm. Technologia fotodetektorów MSM Badane fotodetektory MSM wykonane zostały na heterostrukturach rozcieńczonych azotków typu GaAsN oraz MQW InGaAsN/ GaAs wytworzonych w technologii MOCVD. Epitaksja MOCVD Heterostruktury wytworzono na półizolacyjnych podłożach Ga... więcej»

BDD z atrybutem negacji w syntezie ukierunkowanej na elementy XOR (Dariusz Kania, Adam Opara)
Struktury matrycowe CPLD (ang. Complex Programmable Logic Devices) stanowią jedną z grup układów programowalnych. Architektura tych układów obejmuje programowalną matrycę połączeń otoczoną na obrzeżach konfigurowalnymi komórkami logicznymi. Charakterystycznym elementem komórki, występującym w większości układów CPLD jest blok kombinacyjny podobny do struktury PAL. Zawiera on pewną, stałą, czasami zmienną liczbę iloczynów dołączonych do sumy. Tego typu blok zwykle nazywany jest blokiem logicznym typu PAL. Blok ten występuje w większości dostępnych obecnie na rynku układów CPLD. Struktury takie można precyzyjnie nazwać układami CPLD typu PAL, w odróżnieniu od drugiej, obecnie bardzo mało popularnej rodziny układów zwanych układami CPLD typu PLA. Charakterystycznym elementem bloków logicznych zawartych w strukturach CPLD jest bramka XOR. Obecność tego elementu może istotnie wpłynąć na efektywność syntezy, której nadrzędnym celem jest minimalizacja liczby iloczynów. Obecność bramki XOR pozwala na bezproblemową realizację funkcji z warunków działania, bądź niedziałania, umożliwia negację wyrażeń, co bezpośrednio wpływa na możliwość ograniczenia liczby iloczynów niezbędnych do realizacji funkcji. Uogólniona struktura bloku logicznego typu PAL z elementem XOR przedstawiona jest na rys. 1. Klasyczna metoda syntezy układów realizowanych w strukturach CPLD typu PAL, przedstawiona między innymi w pracach [1, 5] rozpoczyna się zwykle dwupoziomową minimalizacją wykonywaną dla każdej funkcji oddzielnie, po której następuje etap odwzorowania technologicznego zminimalizowanej postaci funkcji w k-iloczynowych blokach logicznych typu PAL. W przypadku funkcji, będących sumą p implikantów (p>k), zachodzi potrzeba wykorzystywania większej liczby bloków poprzez wprowadzanie sprzężeń zwrotnych zwiększających czas propagacji sygnału. Tego typu metodologia jest powszechnie wykorzystywana w komercyjnych systemach syntezy. Znane są oczywiście od daw... więcej»

O bezpieczeństwie algorytmu RSA (Wojciech Nowakowski)
Podstawowym elementem aplikacji i protokołów szyfrowania danych są algorytmy kryptograficzne. Tematem niniejszego artykułu jest bardzo szeroko obecnie stosowany algorytm RSA [1]. RSA jest algorytmem kryptograficznym z kluczem publicznym, który umożliwia zarówno szyfrowanie jak i podpisywanie cyfrowe (weryfikacja). Podstawową zaletą kryptografii z kluczem publicznym jest to, że klucze nie muszą być przekazywane lub ujawniane nikomu, w odróżnieniu od kluczy prywatnych (tajnych), które muszą być przekazywane, gdyż ten sam klucz służy do szyfrowania i deszyfrowania danych. System RSA opracowali w 1977 r. Ronald Rivest, Adi Shamir i Leonard Adleman (Fot.). Algorytm RSA działa w następujący sposób: &#61550; Wybieramy dwie duże liczby pierwsze:{p, q} oraz obliczamy ich iloczyn n = pq oraz funkcję Eulera &#966; = (p - 1)(q - 1). Wybieramy losowo liczbę e < n, względnie pierwszą* z liczbą &#966;. Liczba e będzie kluczem szyfrującym. Znajdujemy (korzystając z rozszerzonego algorytmu Euklidesa) liczbę d taką, że: d &#8801; e-1 (mod &#966;) lub de &#8801; 1 (mod &#966;), d<&#966;. Liczby d i n są także względnie pierwsze. Liczby {e,n} stanowią klucz publiczny, który ujawniamy, zaś liczby {d,n} stanowią klucz prywatny, który powinien być ściśle chroniony (liczba d) [2]. Szyfrowanie, deszyfrowanie, podpisywanie lub weryfikacja polega w... więcej»

Dwuwymiarowe kryształy fotoniczne jako materiał nowoczesnej fotoniki &#8211; metody wytwarzania i zastosowania (Szymon Lis, Konrad Ptasiński, Przemysław Ryba, Marcin Wielichowski, Adrian Zakrzewski, Sergiusz Patel )
Kryształ fotoniczny to sztucznie wytworzona nanostruktura, w której występuje okresowa zmienność współczynnika załamania. Zmienność ta może mieć charakter jedno-, dwu- lub trójwymiarowy. Jeżeli okres zmian jest porównywalny z długością fali światła w strukturze, może wystąpić optyczna przerwa zabroniona. Kryształy fotoniczne z optyczną przerwą zabronioną, to nowa klasa "materiałów" na bazie których można wytwarzać nowe, bardziej efektywne i mniejsze przyrządy fotoniki, w tym układy optoelektroniki zintegrowanej o dużej skali integracji, nanolasery, światłowody o niespotykanych dotąd właściwościach oraz nowe typy czujników optycznych. Obszary zastosowań kryształów fotonicznych to: optyka, optoelektronika, technika mikrofalowa, biofotonika, akustyka, sensoryka [1]. Przykłady jedno- i dwuwymiarowych struktur fotonicznych to zwierciadło Bragga, włóknisty światłowód fotoniczny bądź też periodyczna matryca otworów wytrawiona w światłowodzie warstwowym. Najwięcej możliwości oferują struktury trójwymiarowe, ich technologia jest jednak kłopotliwa i wykracza poza obszar klasycznych technologii mikroelektroniki. W porównaniu do struktur trójwymiarowych dwuwymiarowe (planarne) kryształy fotoniczne charakteryzuje prostota wytwarzania i małe koszty wytwarzania. Rys. 1. Przykłady kryształów fotonicznych. Jasne i ciemne bloki reprezentują materiały o wyższym i niższym współczynniku załamania: a) - jednowymiarowy KF; b) - dwuwymiarowy KF o modulacji współczynnika załamania w płaszczyźnie XY; c) - trójwymiarowy KF Fig. 1. Examples of photonic crystals. Bright and dark fields represent materials of high and low refractive index: a) one-dimensional PhC, b) two-dimensional PhC with refractive index modulated inXY plane, c) three-dimensional PhC a) b) c) 30 Elektronika 2/2012 Metody wytwarzania dwuwymiarowych kryształów fotonicznych Dwuwymiarowe kryształy fotoniczne można wytwarzać metodami dobrze znanymi i opracowanymi na użytek mikroelektroni... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Dynamic research of foot pressure distribution - the four-points shoe insert with PVDF sensors (Ewa Klimiec, Wiesław Zaraska, Szymon Kuczyński)
The human foot structure majorly decides about his/her movement possibilities. Correctly constructed foot is arched on internal side. The weight is distributed in a way, that medial arch acts like a shock absorber, by softening shocks caused by walking. Correctness of the foot structure can be estimate, by examining foot pressure distribution on the ground. Faulty posture manifest itself by different than correct, foot pressure distribution on the ground. Currently there are two measuring systems on the market, allowing diagnosis. It is EMed-SF [1, 2] and PEDAR - System [3, 4]. In the first one, examined person crosses through the track, placing third step on the measuring platform. Contact with the platform surface should be measured in a natural way so, that there was no measuring distortion by aware step shortening or lengthening. For this purpose, several trials heve to be done and starter has to be suitably set up. Obtained results are in the form of map which shows the pressure distribution on foot contact surface with measuring platform in N/cm2. The example of recorded pressure distribution for healthy foot structure is shown on Fig.1. ted: under the heel, medial arch, mid-foot and hallux. Films were glued together. The view of the four-points measuring shoe insert is shown on Fig. 2. Fig. 1. Pressure distribution of healthy foot to the ground recorded by EMed-SF system Rys. 1. Rozkład nacisku prawidłowo zbudowanej stopy na podłoże, zarejestrowany przez EMed-SF system Data presented on Fig. 1 shows that for healthy foot, the biggest values of the pressure are observe under heel, midfoot and on hallux. Measuring system PEDAR is characterized by the fact that we examine the foot pressure between foot and shoe sole. The pressure is recorded by pressure sensors which are installed into shoe insole. The system is expensive and shoe insole very thick. It will be profitable to develop competitive system which will be able t... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Modulacja amplitudy sygnałem pseudolosowym (Rafał Stępień, Janusz Walczak)
Sygnały pseudolosowe wykorzystywane są w wielu dziedzinach techniki. Są one stosowane między innymi w metodzie analizy Monte Carlo [13], symulatorach procesów ekonomicznych czy technologicznych oraz kryptografii [1]. W telekomunikacji są one stosowane w systemach transmisji z widmem rozproszonym DSSS [10]. Istnieje wiele metod generacji sygnałów pseudolosowych [1, 8, 13]. Niektóre metody generacji sygnałów pseudolosowych i własności sekwencji pseudolosowych opisano w dalszej części artykułu. Modulacja amplitudy należy do najprostszych rodzajów modulacji wykorzystywanych w technice. Znanych jest kilka rodzajów tej modulacji [12]. Najczęściej rozpatruje się przypadek modulacji monoharmonicznej fali nośnej sinusoidalnym sygnałem modulującym [12]. Efektem tej modulacji jest przesunięcie widma sygnału modulującego w otoczenie częstotliwości fali nośnej. W artykule rozpatrzono problem modulacji amplitudy monoharmonicznej fali nośnej sygnałem pseudolosowym, w efekcie widmo sygnału pseudolosowego zostaje przesunięte w zakres częstotliwości fali nośnej [19]. Jednym z możliwych zastosowań rozpatrywanego procesu modulacji jest możliwość zagłuszania transmisji w wybranym zakresie częstotliwości kanału transmisyjnego [16]. W porównaniu z innymi metodami zagłuszania transmisji [17] zaproponowana metoda jest relatywnie prosta. W artykule zaproponowano układ realizujący proces modulacji i zbadano doświadczalnie możliwość zagłuszania transmisji w zakresie radiofonii FM-CCIR. Sygnały pseudolosowe i wybrane metody ich generacji W technice cyfrowej generacja liczb pełni losowych nie jest możliwa. Urządzenia cyfrowe są z założenia układami w pełni deterministycznymi (o skończonej liczbie stanów) i nie mają właściwości losowych. W kryptografii wykorzystuje się jednak algorytmy generujące ciągi pseudolosowe [1]. Dla obserwatora sekwencji wyjściowej generatora ciągi takie mogą mieć cechy losowe i odróżnienie sekwencji pseudolosowej od sekwencji w ... więcej»

Oxide layers fabricated by spray pyrolysis on metallic surfaces (Katarzyna Kobierowska, Magdalena Karpińska, Sebastian Molin, Piotr Jasiński)
A rapid degradation of the implants is the main problem of the contemporary implantology. Due to the structural role of the bone, the titanium alloys and austenitic steel, type 316L are frequently used for the manufacturing of implants. This steel is not deformed, does not change color, and has hypoallergic properties. However susceptibility to pitting and crevice corrosion in chloride ions environment are objectionable features [1]. This is a significant issue to prepare a suitable implant&#8217;s outer layer to improve adhesion of osteogenic cells and anti-corrosion properties. The most commonly used methods of thin films layering are: CVD (Chemical Vapor Deposition), PVD (Physical Vapor Deposition) or PLD (Pulsed Laser Deposition). Unfortunately, most of them are relatively expensive and the process is complex. It would be useful to find the cheaper method with the less complexity. Spray pyrolysis deposition of thin ceramic films depends on the atomization of liquid precursor, droplet transport towards the heated substrate, droplet impact, spreading the liquid on the substrate and the evaporation of the solvent, then the distribution of deposited material [2]. Such layers can be obtained when the operating temperature is above the boiling point of the precursor. It is important to remember about the limit of the surface temperature above which it is not possible to obtain a continuous layers. In this paper it has been determined the optimal conditions preparation for the yttrium stabilized zirconium layers on the steel substrate. The spray pyrolysis method to produce corrosion protective ... więcej»

Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several &#956;m. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»