profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik ISSN 0033-2089

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Porównanie intensywności kawitacji w temperaturach 50 i 60°C roztworów wybranych soli przy częstotliwościach ultradźwięków 26 i 38 kHz (Bogdan Niemczewski )
Oczyszczanie ultradźwiękowe w roztworach wodnych prowadzi się najczęściej stosując, ze względu na reakcje chemiczne roztworów z zanieczyszczeniami, substancje alkaliczne lub kwasy. Czasami jednak rodzaj usuwanych zanieczyszczeń powoduje, że bardziej efektywne są inne środki oczyszczające, na przykład utleniacze, reduktory lub same tylko środki powierzchniowo czynne a nawet, z powodu wysokiej intensywności kawitacji, woda bez żadnych dodatków. Woda bowiem, jak to uznawano dotychczas, jest cieczą zdolną kawitować najintensywniej, przy czym temperatura jej maksymalnej kawitacji wynosi 35ºC [1, 2]. Publikacje autora z ostatnich lat dowodzą jednak, że przy zastosowaniu ultradźwięków o częstotliwości 34…39 kHz i wysokiej mocy, roztwory niektórych substancji alkalicznych kawitują, zwłaszcza w podwyższonych temperaturach, intensywniej niż woda. Fakt ten stwierdzono dla roztworów 1…2-procentowych Na3PO4 przy częstotliwości 34 kHz, a przy częstotliwości 38 kHz również dla licznych innych roztworów substancji alkalicznych [3-5]. Powstaje pytanie, czy jest to cechą wyłącznie substancji o odczynie alkalicznym, czy też odczyn nie ma tu istotnego znaczenia. Jeżeli również niektóre inne sole zdolne byłyby w pewnych warunkach podwyższać intensywność kawitacji, to można byłoby je wykorzystywać do maksymalizacji intensywności kawitacji, a tym samym maksymalizacji efektywności oczyszczania ultradźwiękowego. Przedmiotem pracy zreferowanej w niniejszym artykule jest próba porównania wpływu na intensywność kawitacji dodatku do wody różnych soli nieorganicznych. Przyjęto 3-procentowe stężenia nadźwiękawianych roztworów, ponieważ jak wykazały wcześniejsze badania, przy tej zawartości soli w roztworze wpływ stężenia na spadek intensywności kawitacji jest jeszcze stosunkowo niewielki [4]. 35 użytych do prób soli przy częstotliwości 26 kHz i 23 przy częstotliwości 38 kHz oczywiście daleko nie wyczerpuje palety rozpuszczalnych w wodzie... więcej»

Dostrajanie regulatora z pominięciem eksperymentu identyfikacji obiektu przy użyciu Imperialist Competitive Algorithm (Michał Awtoniuk)
Wyniki badania prowadzone przez najznamienitszych naukowców świata wskazują na to, że 90% pętli regulacji działających w przemyśle bazuje na algorytmie PID [1, 2]. Olbrzymia popularność tego algorytmu nie przekłada się jednak na jakość regulacji. Badania firmy Honeywell wskazują, że wiele spośród pętli regulacji pozostaje otwarta [3]. Sytuację tą można poprawić wykorzystując dostępne w sterownikach PLC procedury automatycznego doboru nastaw. Jest to rozwiązanie korzystne ze względu na to, że takie podejście nie wymaga specjalistycznej wiedzy. Zazwyczaj producenci sterowników udostępniają w ramach wsparcia technicznego dokumentację, która krok po kroku opisuje co należy zrobić aby uruchomić funkcję autotuningu. Innym rozwiązaniem jest ręczny dobór parametrów regulatora. W tym przypadku konieczna jest już niestety pewna wiedza teoretyczna. Zazwyczaj utalentowany automatyk-praktyk jest w stanie dobrać nastawy zdecydowanie lepsze od nawet najskuteczniej działającej procedury strojenia automatycznego. W przytoczonych wcześniej badaniach można również znaleźć informację na temat zamkniętych pętli regulacji. Okazuje się, że zaledwie połowę z nich cechuje zadowalająca jakość [3]. Fakt ten powinien być bodźcem powodującym głębszą analizę tychże układów. Obiekt regulacji Doświadczenia były prowadzone na obiekcie schematycznie przedstawionym na rysunku 1. Jest to zbiornik z regulowanym poziomem wypełnienia wodą przy pomocą pompy. Jej wydatek jest sterowany sygnałem analogowym u pochodzącym ze sterownika PLC. Sygnał rozpatrywany jest w zakresie 0..10 V, gdzie 0 V oznacza całkowite wyłączenie pompy, natomiast 10 V pracę z maksymalnym wydatkiem. W omawianym układzie regulacji, sygnał ten będzie traktowany jako wyjście regulatora. Otwarty zawór Z2 powoduje samoczynny wypływ cieczy ze zbiornika. Stan tego zaworu może diametralnie zmienić obiekt sterownia. W przypadku, gdy zbiornik będzie szczelny, bez żadnego wypływu cieczy, wówczas obiekt ... więcej»

Metody integracji systemów INS/GNSS (Piotr Kaniewski, Stanisław Konatowski)
Zadania nawigacji sprowadzają się do odpowiedzi na pytania, które powstają podczas ruchu osób i pojazdów. Przede wszystkim jest to pytanie o miejsce położenia obiektu nawigowanego. Może być nim np. osoba, pojazd lądowy, obiekt pływający nawodny lub podwodny, statek powietrzny lub statek kosmiczny. Odpowiedź na to pytanie jest równocześnie rozwiązaniem zadania pozycjonowania. W celu ułatwienia nawigacji w warunkach stale rosnącego zagęszczenia ruchu, wzrostu prędkości maksymalnej pojazdów oraz wymagań ich użytkowników, niezbędna staje się automatyzacja obliczeń realizowana w zintegrowanych systemach pozycjonujących i nawigacyjnych [1, 2, 5]. W pozycjonowaniu i nawigacji pojazdów powszechne zastosowanie znajdują systemy zintegrowane złożone z systemu nawigacji inercjalnej INS (Inertial Navigation System) [4] i odbiornika GNSS (Global Navigation Satellite Systems) [3], oznaczane skrótem INS/GNSS. Systemy takie mogą być zintegrowane metodą filtracji lub kompensacji z korekcją w przód lub wstecz. W zależności od stopnia centralizacji algorytmu przetwarzania danych, mogą być one luźno lub ściśle zintegrowane [1]. Wybór jednej z metod integracji zależy zwykle od rodzaju integrowanych przyrządów nawigacyjnych i od uwarunkowań aplikacji (wymaganej dokładności, dostępnej mocy obliczeniowej itd.). Integracja metodą filtracji Integracja INS i odbiornika GNSS metodą filtracji polega na przetwarzaniu danych z obu urządzeń nawigacyjnych i estymacji elementów nawigacyjnych opisujących ruch pojazdu, takich jak położenie, prędkość i orientacja przestrzenna. Schemat blokowy takiego systemu INS/GNSS przedstawiono na rys. 1. Stopień integracji obu przyrządów zależy od tego, czy INS i odbiornik GNSS są traktowane jako systemy, czy jako czujniki oraz od stopnia sprzężenia pomiędzy nimi. Jeśli INS i odbiornik GNSS są traktowane jako systemy dostarczające wstępnie przetworzonych danych w postaci obliczonych elementów nawigacyjnych (położenia, prędk... więcej»

Algorytm kompensacyjny w procesach identyfikacji i sterowania złożonych systemów dynamicznych (STANISŁAW KAPKA)
Współczesne złożone systemy dynamiczne są instalowane w przemyśle lotniczym, chemicznym, militarnym, elektroenergetycznym, robotyce. Rozwiązania zagadnień identyfikacji i sterowania w większości są realizowane techniką cyfrową. Wiąże się to z szerokimi możliwościami współczesnych technologii i systemów komputerowych. Wraz ze wzrostem złożoności systemu dynamicznego, czego przykładem jest system elektroenergetyczny, wydajne algorytmy sterowania komputerowego by zachować przewagę technologiczną, powinny być wspierane rozwiązaniami tworzącymi najniższą warstwę identyfikacji i sterowania o działaniu równoczesnym. Znajduje to potwierdzenie w opisie stanów nieustalonych, stabilności, regulacji, stabilizacji systemu elektroenergetycznego [1, 2], a także w opisie systemów cyfrowych [3, 4]. Wraz ze wzrostem wymiaru systemu, pojawiają się trudności z konstrukcją modelu jak również z szybkim uzyskaniem rezultatów symulacyjnych. Aby przyspieszyć procesy symulacyjne można wprowadzić proponowany algorytm kompensacyjny, umiejscowiony w najniższej warstwie identyfikacji i sterowania. Jest on realizowalny w strukturze elektronicznej, w opisie funkcjonalnym prezentowanym w [1- 6]. Na rysunku 1 zilustrowano typowy układ regulacji automatycznej z analogowym sprzężeniem zwrotnym, gdzie: EP - element porównujący, yO(t)- wielkość odniesienia, e(t) - sygnał uchybu, PID - regulator, u(t), u’(t) - sterowania, z’(t) - zakłócenia, y’(t), y’’(t) - wyjścia obiektu regulacji odpowiednio analogowe i impulsowe. Stosownie do wyjść, wprowadza się czujniki analogowe lub impulsowe realizujące proces konwersji sygnałów silnoprądowych na odpowiednie sygnały napięciowe, dalej przetwarzane w elemencie pomiarowym i przetwarzającym. Niedogodnością struktury z analogowym sprzężeniem zwrotnym jest wpływ przełącznika umiejscowionego w torze sprzężenia zwrotnego (elementu porównania) na sterowanie. Proces przełączania pętla otwarta/pętla zamk... więcej»

Formal analysis of destination reachability under given restrictions for multi-path routing in Network on Chip (Piotr Dziurzański)
Networks on Chips (NoCs) have proved their assets as a mean of communication for future Multi-Processor Systems on Chips (MPSoCs) [2]. The majority of research in this field, however, assumes the mesh NoCs and a single-path wormhole switching utilizing the XY routing algorithm [3]. This assumptions deteriorates the potential of NoCs. As we checked in our earlier work [6], for typical multimedia algorithms the NoCs’ links are far from being utilized in a balanced way. Similarly, using the state-of-the-art XY routing algorithm, a number of links is not utilized at all while others are characterized with a large number of contentions. Thus the relatively large portion of links in a mesh can be omitted without any influence on the total transfer or latency of the NoC. It is not necessary to have a number of paths between two nodes if, due to the XY routing algorithm, only one of them can be utilized. This is in sheer contrast with the traditional computer networks, where multi-path routings are omnipresent. This fact can be explained with the difference in router requirements between these two networks scales. In NoCs the implementation cost of mechanisms needed for streams splitting and joining is significant both in terms of time and chip area. The benefits of higher utilization of links and improved balance is often lost by the additional spatial and/or temporal requirements [10]. The situation may look a bit different in case of the typical multimedia data processing system, which are usually computation- intensive and utterly dominated by data. MPSoCs realizing these algorithms are characterized with a relatively large amount of data transmitted between cores, what requires the guarantee of sufficient bandwidth of the connections to work in real-time. As a transfer pattern is the same during relative long time, i.e., during executing the same application in NoC, contentions are especially likely to occur, as it was show... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Dobór mikrokontrolera do sterowania inwerterem napięcia w systemach UPS (Zbigniew Rymarski)
Publikowane dotąd artykuły na ogół przedstawiały konkretne rozwiązania układów mikroprocesorowych sterujących inwerterami (autor stosuje określenie "inwerter", rezerwując określenie "falownik" dla napędów silników indukcyjnych, gdzie należy uzyskiwać zmienną częstotliwość generowanego napięcia), nie starając się jednak uzasadnić wyboru danego układu. Trzeba zresztą przyznać, że przy obecnej doskonałości mikrokontrolerów i układów FPGA w większości przypadków uzyskuje się pożądany efekt. Jednak świadomy dobór, ogólnie mówiąc, układu sterującego (bez uwzględniania wpływu sprzężenia zwrotnego, które i tak nie zlikwiduje błędów spowodowanych sposobem generacji PWM) może pomóc w niewielkiej poprawie jakości przebiegu napięcia wyjściowego (poniżej 0,5% współczynnika zniekształceń harmonicznych THD). Współczynnik THD filtrowanego napięcia wyjściowego inwertera napięcia jest definiowany przez normy IEEE-519 i PN-EN 62040-3. Określona przez PN-EN 62040-3 graniczna wartość THD dla obciążenia liniowego i nieliniowego (prostownikowego z filtrem RC o PF = 0,7) dla najlepszej tzw. opcji klasyfikacyjnej S systemu UPS licząc do 40. harmonicznej wynosi 8%. Norma IEEE-519 mówi o zalecanym nie przekraczaniu 5% THD i wymaga, aby amplituda żadnej z harmonicznych napięcia nie przekroczyła 3% amplitudy podstawowej harmonicznej (fm). Omówione parametry dotyczyły filtrowanego napięcia wyjściowego i mogły służyć jako podstawa do doboru parametrów filtra wyjściowego [1-6]. Dobór rozwiązań konstrukcyjnych modulatora wymaga jednak analizy niefiltrowanego sygnału napięciowego PWM. Przy wysokim stosunku częstotliwości przebiegu modulowanego do modulującego fs /fm (w praktyce dla UPS powyżej kilkuset) niezbędny jest podział widma harmonicznych niefiltrowanego napięcia na dwa pasma - "niskich" harmonicznych w zakresie do połowy częstotliwości przełączania i "wysokich" harmonicznych - powyżej tej częstotliwości. Właściwy i rozsądny (o ograniczonych wymiarach... więcej»

Technologia wytwarzania i pomiary absorpcji szkieł chalkogenidkowych domieszkowanych jonami ziem rzadkich (Łukasz Sójka, Elżbieta Bereś-Pawlik, Zhuogi Tang, David Furniss, Angela Beth Seddon, Trevor Mark Benson, Sławomir Sujecki)
Jednym z podstawowych problemów współczesnej fotoniki jest opracowanie efektywnych źródeł światła pracujących w zakresie średniej podczerwieni. Potencjalne źródła światła pracujące w tym zakresie mogą znaleźć wiele zastosowanie w branży medycznej oraz czujnikowej. Źródła pracujące w tym zakresie powinny się charakteryzować prostą konstrukcją, wysoką efektywnością, niezawodnością, przystępną ceną, dobrą jakością wiązki wyjściowej. Jednym z urządzeń, które spełniają te wymagania są lasery światłowodowe [1-3]. Sygnały generowane przez obecnie lasery światłowodowe oparte na szkle krzemionkowym oraz fluorkowym mogą pokryć zakres długości fali do około 3 μm. Barierą technologiczną która blokuje konstrukcje laserów światłowodowych powyżej 3 μm jest wysoka energia fononów szkła krzemionkowego (1100 cm-1) oraz szkła fluorkowego (560 cm-1) [4, 5]. W celu osiągnięcia emisji powyżej 3 μm potrzebne jest szkło charakteryzujące się niską energią fononów. Jednym z materiałów który może spełnić to wymaganie jest szkło chalkogenidkowe. Szkła te charakteryzują się niską energią fononów poniżej 400 cm-1 co predysponuje je do osiągnięcia emisji powyżej 3 μm [6-9]. Szkła chalkogenidkowe są to szkła oparte na materiałach z 16 grupy układu okresowego pierwiastków tj. S (siarka), Se (Selen) oraz Te (Tellur), elementy te wraz z elementami z 14 oraz 15 grupy układu okresowego tj Ge (German), As (Arsen), Sb (Antymon), Ga (Gal) two... więcej»

Światłowodowy demodulator fazy - model i wyniki eksperymentalne (Zbigniew HOŁDYŃSKI, Idzi MERTA, Leszek R. JAROSZEWICZ, Rafał ŚWIŁŁO)
Różne metody analizy obrazów prążkowych a także modulacji i demodulacji sygnałów świetlnych w tym w światłowodach zaprezentowane są w pracach [1-5]. Optyczna demodulacja fazy jest trudna w realizacji i w dalszym ciągu jest przedmiotem zainteresowania szczególnie w dziedzinie czujników światłowodowych [5]. Idea i pierwsze symulacje numeryczne prezentowanego demodulatora zaprezentowano w pracy [6]. Wykorzystano w nim: klasyczne interferencyjne doświadczenie Younga, własności transformacyjne cienkiej soczewki sferycznej oraz dwuelementowy fotodetektor z przerwą q - rys. 1. Rolę punktowych źródeł światła stanowią dwa światłowody zakończone kolimatorami na wyjściu których znajdują się pinhole o średnicy d. Wiązki po złożeniu na pryzmacie są do siebie równoległe i znajdują się obok siebie w odległości 2b [7-9]. W płaszczyźnie ogniskowej przedmiotowej soczewki skupiającej położone są pinhole, a w płaszczyźnie ogniskowej obrazowej powstaje ich dyfrakcyjny obraz Airy’ego zmodulowany przestrzennie.... więcej»

Wykorzystanie światła rozproszonego do wyznaczania dwójłomności modowej światłowodów planarnych (Kazimierz GUT, Tomasz HERZOG)
Światłowodowe struktury optyczne wytwarzane technologią optyki planarnej obok zastosowań w dziedzinie telekomunikacji (pracujące m.in. jako modulatory, multi- i demultipleksery), ze względu na liczne zalety nieosiągalne w technologii włókien optycznych znajdują coraz szersze wykorzystanie w budowie układów sensorowych monitorujących wielkości fizyczne, procesy biologiczne i chemiczne, a także liczne parametry w różnych gałęziach nauki i przemysłu. Świadczy o tym stale rosnąca liczba publikacji naukowych prezentujących nowe rozwiązania i udoskonalenia czujników optycznych wykorzystujących planarne struktury światłowodowe [4]. Jednym z najważniejszych parametrów charakteryzujących wytworzony falowód optyki zintegrowanej jest tłumienność, definiowana jako strata mocy optycznej na jednostkową drogę propagacji [3]. W przypadku układów optyki zintegrowanej właściwy dobór metody pomiaru tłumienia jest znacznie bardziej skomplikowany niż w przypadku włókien optycznych, przede wszystkim ze względu na inną geometrię, budowę, przeznaczenie wytworzonego układu oraz zróżnicowany przedział badanych strat, z tego też powodu nie jest możliwe opracowanie jednej uniwersalnej metody pomiaru tłumienności, a większość dotychczas stosowanych metod to przede wszystkim projekty przeznaczone do wykonywania pomiarów w ... więcej»

Światłowodowy czujnik temperatury progowej na bazie wypełnionego włókna mikrostrukturalnego (Paweł Marć, Paweł Piliszek, Tomasz Nasiłowski, Michał Murawski, Michał Szymański, Leszek R. Jaroszewicz, Katarzyna Pawlik )
Fotoniczne włókna światłowodowe (PCF) lub inaczej mikrostrukturalne (MSF) są coraz częściej wykorzystywane w telekomunikacji i czujnikach światłowodowych. Możliwość zmiany geometrii otworów wewnętrznych,tworzących mikrostrukturę włókna prowadzącą wiązkę świetlną, pozwala modyfikować jego dyspersję, strukturę modową, dwójłomność czy też nieliniowość, a dzięki tym nowym własnościom stosować je tam gdzie wcześniej nie było to możliwe. Łatwy dostęp do otworów powietrznych pozwala również na wprowadzanie różnego typu materiałów do jego wnętrza. Najczęściej stosowane materiały to polimery [1], ciekłe kryształy [2, 3], specjalizowane ciecze immersyjne [4], ciecze z nanocząstakim [5], czy też złożone substancje organiczne [6]. Wykorzystanie procesu zwilżania kapilarnego jest najczęściej stosowaną techniką wypełniania mikrostruktury włókna [1-6]. Tak przygotowane włókna stają się podstawą konstrukcji różnego typu elementów światłowodowych takich jak przełączniki optyczne, tłumiki optyczne czy też optody czujników chemicznych. W niniejszej pracy do wytworzenia czujnika temperatury progowej wykorzystano komercyjnie dostępne włókno światłowodowe typu LMA10 produkowane przez firmę NKT Photonics [7]. Zostało ono wypełnione substancją organiczną wykorzystując do tego celu wyżej wspomnianą technikę, a optodę czujnika tworzy patchcord światłowodowy zakończony standardowymi złączami FC/PC. Światłowodowy czujnik progowej wartości temperatury Opracowana w Zakładzie Technicznych Zastosowań Fizyki WAT aparatura pozwala na wyp... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Analiza parametrów anteny typu F umieszczonej w pobliżu ciała człowieka (Łukasz Januszkiewicz, Piotr Wasilewski)
która znalazła zastosowanie zarówno w paśmie fal ultra krótkich jak i mikrofal. Duża popularność tej anteny wynika z jej niewielkich rozmiarów w porównaniu z innymi antenami zasilanymi niesymetrycznie, takimi jak unipol ćwierćfalowy lub antena typu T. Antena zasilana jest niesymetrycznie, a jej impedancja wejściowa może być równa 50 Ω, dzięki czemu nie jest konieczne stosowanie układów dopasowujących w przypadku podłączenia anteny do bardzo wielu stosowanych obecnie nadajników. Anteny tego typu znalazły liczne zastosowania w systemach łączności ruchomej instalowanych w pojazdach [1-2] oraz po wprowadzeniu pewnych modyfikacji (tzw. planarna antena typu F - PIFA) również w terminalach przenośnych systemów komórkowych [3-4]. Anteny typu F mogą być wykonane w technice obwodów drukowanych. Kształt odpowiednio zmodyfikowanej litery F przyjmuje wtedy warstwa metalizacji ułożona na podłożu dielektrycznym. W takim wykonaniu anteny typu F znalazły bardzo szerokie zastosowanie np. w miniaturowych nadajnikach bezprzewodowych sieci sensorowych [5] lub nadajnikach bezprzewodowych sieci komputerowych [3, 6]. Kolejnym popularnym zastosowaniem są miniaturowe transceiwery pracujące w paśmie 2,4 GHz w protokole ZigBee. Producenci miniaturowych nadajników bardzo często przedstawiają w dokumentacji układów kształt obszaru metalizacji obwodu drukowanego tworzącego antenę, bądź też wykonują ją na płytkach testowych, na których umieszczone są miniaturowe nadajniki [7, 8]. Na rysunku 1 przedstawiono wymiary oraz widok anteny typu F zrealizowanej w technice obwodów drukowanych, która została umieszczona na płytce testowej nadajnika ZigBee firmy Chipcon [7]. Ze względu na bardzo małe rozmiary płytek testowych z modułami ZigBee i ich niewielki pobór energii możliwe byłoby wykorzystanie ich do realizacji bezprzewodowych sieci sensorowych działających w pobliżu ciała człowieka. Sieci tego typu mogą realizować różnorodne funkcje związane np. z monito... więcej»

Targi w Norymberdze
19 września 2012 r. w Warszawie odbyła się konferencja prasowa, na której przedstawiciele organizatorów przedstawili odbywające się w Norymberdze targi z zakresu elektryki i elektroniki. SMT Hybrid Packaging Targi SMT Hybrid Packaging, odbywające się w terminie 16-18.04.2013 ponownie oferują firmom szansę uzyskania informacji oraz zaprezentowania się na tej czołowej w Europie imprezie w zakresie integracji systemów w mikroelektronice. Podczas tego międzynarodowego spotkania branży zostaną przedstawione najnowsze produkty, usługi oraz rozwiązania dla wszystkich dziedzin produkcji elektronicznej. Główne zagadnienia tych specjalistycznych targów to urządzenia technologiczne do wytwarzania płytek z... więcej»

Inkrementacyjne sekwencje adresowe o niskim narzucie sprzętowym w dwuprzebiegowych testach krokowych (Ireneusz Mrozek, Svetlana V. Yarmolik )
Pamięci półprzewodnikowe RAM stanowią jeden z głównych elementów współczesnych modułów i urządzeń elektronicznych. Zwiększająca się w szybkim tempie złożoność i pojemność układów pamięci stawia wciąż nowe wyzwania związane z efektywnym jej testowaniem. Jednym z najbardziej skomplikowanych uszkodzeń pamięci RAM, analizowanym w wielu kluczowych publikacjach odnoszących się do dziedziny, jest uszkodzenie uwarunkowane zawartością opisane modelem PSF (ang. Pattern Sensitive Faults) [3-4]. Ten typ uszkodzenia oraz korespondujące z nim testy zdefiniował w 1980 roku J.P. Hayes [5]. Dalsze badania prowadzili m.in. Suk i Reddy [6]. Testy CM-79N i March-100N pozwalające zwiększyć dotychczasową efektywność wykrywania uszkodzeń PSF zaproponował Cheng [7]. W literaturze przedmiotu (np. Cascaval et. al. [8]) można znaleźć również wiele modyfikacji testów dedykowanych uszkodzeniom PSF, pozwalających wykrywać różne klasy tych uszkodzeń. Dotychczasowe badania wykazały, iż przy obecnych rozmiarach pamięci jedynymi testami możliwymi do realnego zastosowania w procesie testowania pamięci są testy z grupy testów maszerujących określanych również mianem testów krokowych (ang. march tests). Charakteryzują się one liniową złożonością, wysokim pokryciem uszkodzeń i niskim narzutem sprzętowym przy ich implementacji jako testy wbudowane BIST (ang. Built- In Self-Test). Ponadto klasyczne testy krokowe są łatwo konwertowalne do testów transparentnych (ang. transparent march tests). Z uwagi na narzut czasowy jaki powstaje przy tradycyjnej konwersji i implementacji testu krokowego jako testu transparentnego, zaproponowane zostały różne techniki zwiększające efektywność testowania transparentnego [14-16]. Jednak tradycyjne testy krokowe nie generują wszystkich możliwych wzorców niezbędnych do detekcji uszkodzeń PSF. Dlatego zaproponowane zostały techniki, wykorzystujące w swej podstawie testy krokowe, umożliwiające zwiększenie pokrycia uszkodzeń PSF. Jedn... więcej»

Tendencje rozwojowe w elektronice 2012
W trakcie czołowych światowych targów elektroniki konsumenckiej IFA (Internationale FunkAusstellung Berlin wrzesień 2012) zaprezentowano całą gamę produktów z branży rozwijającej się niezwykle dynamicznie. Coraz większe ekrany telewizyjne z ostrym obrazem o lśniących kolorach, wyświetlanie przestrzenne (3D) z okularami i i bez okularów. Przedstawiono także komputery cienkie, lekkie, o wielkiej wydajności, szybkie, wspólpracujące z sieciami telekomunikacyjnymi, urządzeniami do pracy w domu i w podróży. Na targach IFA 2012 prezentowano tendencje rozwojowe wszystkich części sektora. Telewizory o wielkiej rozdzielczości (HD) z jaskrawymi kolorami, z obrazem przestrzennym (3D) i bez konieczności używania okularów stały się już prawie codziennością. Tegorocznym gorącym tematem jest tajemniczy skrót 4k. Oznacza to format obrazu 4096 x 2160 pikseli, co odpowiada rozdzielczości ponad 8 megapikseli. Czterokrotne zwiększenie rozdzielczości w stosunku do, dotychczas maksymalnej osiągalnej (Full HD), powoduje, że takie rozwiązanie staje się idealne dla projektorów i dużych ekranów, a także do wyświetlania filmów stereoskopowych. W porównaniu z konwencjonalnymi ekranami HD, ekrany 4k mają dwa razy więcej linii. Sprawia to, że możliwe jest zbudowanie telewizorów 3D, które wytwarzają obrazy w pełnej rozdzielczości HD, nawet jeśli są oglądane p... więcej»

Optoelektronika, komunikacja, multimedia - Wilga 2012 (Ryszard S.Romaniuk)
Światłowody ciekłokrystaliczne, w których rdzeń jest ciekłym kryształem, są przedmiotem badań dla celów budowy fotonicznych komponentów funkcjonalnych kompatybilnych ze standardem jednomodowych światłowodów teletransmisyjnych SM OF. Wartości stałych elastycznych w nematycznych ciekłych kryształach odgrywają rolę w pewnych rozwiązaniach czujników i modulatorów, jak również w elementach fotoniki nieliniowej. Badania nad światłowodami ciekłokrystalicznymi i nieliniową fotoniką są intensywnie prowadzone na Wydziale Fizyki PW (prof. T. Woliński, prof. A. Domański, prof. M. Karpierz). Ciekłe kryształy LC używane w światłowodach i fotonice nieliniowej są: smektykami SLC, nematykami NLC oraz chiralnymi nematykami NLC*. Reorientacja molekuł w odniesieniu do orientacji początkowej jest modyfikowana przez zewnętrzne pole elektryczne. Początkowa konfiguracja w komórkach NLC jest zasadniczo homeotropowa i planarna. W światłowodzie, orientacja względem osi długiej włókna może być: planarna, aksjalna, radialna, poprzeczna oraz mieszana. Podstawowe deformacje komórek NLC, widoczne powyżej pewnego progu oddziaływania pola pobudzającego są: rozpostarcie, skręcenie i zakrzywienie, za co są odpowiedzialne trzy stałe elastyczne: k11 , k22, oraz k33. Współczynnik k11 jest odpowiedzialny za zjawisko Fredericksa. Pomiary tych stałych bazują na zjawisku elektrooptycznym, ale również na metodzie nieliniowej samodyfrakcji, technice z-skanu oraz metodzie całkowicie optycznej. W metodzie samodyfrakcyjnej i teksturze homeotropowej (k33), polaryzacja światła nie jest ważna. W metodzie samodyfrakcyjnej i teksturze planarnej (k22) polaryzacja jest prostopadła do długiej osi molekuł. Metoda pomiaru samo-dyfrakcji stałych elastycznych Franka jest tak dobra jak tradycyjna metoda z zewnętrznym polem elektrycznym. Ciekłe kryształy wykazują anizotropie elektryczną, magnetyczną, optyczną, termiczną i mechaniczną. Powyżej pewnej temperatury progowej anizotropie zan... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Modulatory Δ z adaptacją interwału próbkowania - rozwiązania predyktorów w technologii CMOS (RYSZARD GOLAŃSKI, JULIUSZ GODEK, JACEK KOŁODZIEJ)
Obszary zastosowań modulatorów z asynchronicznym próbkowaniem, to np.: medyczne techniki obrazowania (tomografia komputerowa i rezonans magnetyczny, rejestracja sygnałów EKG i ogólnie zdalne nadzorowanie), rejestracja zakłóceń impulsowych w liniach energetycznych, czujniki i rejestratory stężenia gazów np. w kopalniach [1]. Istotną cechą metod kodowania różnicowego jest to, że uwalniając całkowitą informację źródła od redundancji i kodując jej pozostałą część, mogą silnie zmniejszać wymaganą liczbę bitów, czyli zwiększać kompresję. Algorytmy modulacji różnicowych w swym opisie funkcjonalnym są bardzo proste, co skłania ku ich bezpośredniej realizacji sprzętowej. Modulatory ANS-DM (ang. Adaptive Nonuniform Sampling - Delta Modulation [2]), to przetworniki różnicowe 1-bitowe z adaptacją zarówno kroku kwantyzacji jak i częstotliwości próbkowania (NS-DM - to przetworniki różnicowe 1-bitowe z adaptacją jedynie częstotliwości próbkowania). Dzięki jednoczesnemu zmniejszaniu odstępu próbkowania τpi (i - kolejny moment próbkowania) i zwiększaniu kroku kwantyzacji qi koder ANS-DM charakteryzuje się dużą szybkością zmian sygnału aproksymującego, przy stosunkowo niewielkim zakresie zmian każdego z adaptowanych parametrów. Zmniejsza to szumy przeciążenia stromości przez ograniczenie przeregulowań [3], zapewniając, wypadkowo wzrost SNR co jest szczególnie istotne przy konwersji analogowych sygnałów niestacjonarnych. Pojawiające się w przetwarzanym sygnale składowe wolnozmienne prowadzą do zmniejszenia odstępów między kolejnymi momentami próbkowania i kroku kwantyzacji, a to z kolei redukuje szum granulacji i średnią przepływność bitową [2, 3]. Zgodnie ze schematem blokowym modulacji ANS-DM, (rys. 1) analogowy sygnał wejściowy x(t) porównywany jest z sygnałem aproksymującym y(t), którego wielkość na wyjściu predyktora w chwilach próbkowania ti wynosi: (1) Operacja kwantowania, podobnie jak w przypadku NS-DM przebiega zgodnie z: (2... więcej»

Dobór parametrów procesu wytwarzania sprzęgaczy siatkowych struktur fotonicznych przy zastosowaniu techniki trawienia skupioną wiązką jonową (Natalia Salamon, Zbigniew Lisik)
W niniejszym artykule zaprezentowany został sposób wytwarzania specjalnych struktur fotonicznych, umożliwiających wprowadzanie światła do ścieżek optycznych układów scalonych, przy zastosowaniu techniki trawienia skupioną wiązką jonową (FIB). Atrakcyjność tej metody wynika z faktu, że średnica wiązki jonowej jest mniejsza niż 10 nm, co umożliwia wytwarzanie struktur o rozmiarach rzędu kilkuset nanometrów, bez konieczności stosowania wieloetapowego procesu fotolitografii z użyciem kosztownych masek [1]. Wykorzystywane w obszarze fotoniki zintegrowanej planarne struktury falowodowe, ze względu na niewielki przekrój poprzeczny, cechują się bardzo dużym stopniem integracji. Pojawia się jednak problem połączenia nanofotonicznych obwodów krzemowych (o wymiarach ok. 200 × 500 nm) z wielokrotnie większym światłowodem, którego standardowe wymiary to 10 × 10 μm. Aby zminimalizować straty światła przy takim połączeniu, należy znaleźć sposób rozwiązania tego problemu [2, 3]. Jednym z obiecujących pomysłów jest wykorzystanie w tym celu struktur fotonicznych ze sprzęgaczami siatkowymi. Sprzęgacze siatkowe Sprzęgacze siatkowe, to struktury dyfrakcyjne służące do wprowadzania światła ze światłowodu do ścieżek optycznych obwodów nanofotonicznych. Wykonane są one w postaci periodycznych zaburzeń współczynnika załamania na powierzchni warstwy falowodowej [1]. Pionowe sprzęgacze siatkowe Typowe sprzęgacze siatkowe (rys. 1a) składają się z płytkich szczelin wytrawionych w krzemowej warstwie falowodowej, prostopadle do jej powierzchni. Choć wykorzystanie tego typu struktur jest niezwykle obiecującym sposobem łączenia światłowodów z nanofotonicznymi obwodami krzemowymi, to zarówno wyniki symulacji, jak i przeprowadzonych do tej pory eksperymentów świadczą o konieczności udoskonalenia tej metody. Maksymalna efektywność połączenia, jaką uzyskano przy wykorzystaniu pakietu MEEP (Mit Electromagnetic Equation Propagation) przeznaczonego do symu... więcej»

Analiza układu lokalnego ogrzewania próbki cieczy o nanolitrowej objętości w wieloparametrycznych czujnikach kapilarnych (Andrzej Kociubiński, Marcin Kozicki, Michał Borecki, Jerzy Kalenik)
Istota układu ogrzewania próbki cieczy. Ważnym zagadnieniem badawczym jest wieloparametryczna ocena parametrów cieczy biologicznych. Umożliwia ona klasyfikację stanu organizmu, który ją wyprodukował, np. w weterynarii stan zapalny gruczołów mlecznych jest określany na podstawie badań mleka [1]. Obecnie badana i optymalizowana jest metoda klasyfikacji ośrodków ciekłych, polegająca na poddawaniu cieczy, wypełniającej krótki odcinek kapilary optycznej, wymuszonym cyklom termicznym [2]. Cykle te powstają na skutek lokalnego ogrzania fragmentu kapilary wykorzystując grzejnik oporowy - rys. 1. Analiza układu lokalnego ogrzewania próbki jest istotna ze względu na możliwości interpretacji wyników otrzymywanych z cykli pomiarowych oraz ze względu na określenie zakresu możliwych do zbadania cieczy, jak i ze względu na optymalizację konstrukcji głowicy. Popularne w metodach analitycznych przybliżenie rozwinięcia warstwowego układu kapilara-grzejnik dla badanych układów prowadzi do znacznych odchyłek, które praktycznie uniemożliwiają projektowanie i optymalizację wieloparametrycznego czujnika kapilarnego.Parametry i technologia grzejników Praktyczne aplikacje czujnika kapilarnego związane są z wymiennością optrod... więcej»

Transport fononów przez nadstruktury GaAs/AlAs (Dariusz Żak, Włodzimierz Nakwaski)
W nowoczesnych przyrządach półprzewodnikowych nadstruktury składają się zwykle z wielu cienkich warstw dwóch różnych materiałów o wyraźnie różniących się współczynnikach załamania. Cieplna przewodność nadstruktur jest anizotropowa, o innych wartościach w kierunku prostopadłym do granic warstw i w kierunku do nich równoległym. W dodatku obie te przewodności są zazwyczaj znacznie mniejsze od przewodności objętościowych (bulk resistances) obu tych materiałów, co jest związane z odbijaniem i rozpraszaniem fononów na granicach warstw. Niekiedy, jako uzupełniający mechanizm transportu fononów, należy również uwzględnić możliwość ich tunelowania przez bardzo cienkie warstwy. Wpływ pozostałych, poza fononowymi, procesów odprowadzenia ciepła w standardowych przyrządach półprzewodnikowych w temperaturach bliskich temperaturze pokojowej, tj. procesów promieniowania cieplnego oraz przekazywania energii cieplnej cząstkom powietrza, jest nieznaczny, czego efektem jest zdominowanie transportu ciepła w takich półprzewodnikowych przyrządach przez przewodnictwo fononów do obudów tych przyrządów. Cieplna oporność przejścia Wielokrotne odbicia fononów w nadstrukturach nowoczesnych przyrządów półprzewodnikowych w znacznym stopniu redukują skuteczność ich transportu [1, 2]. W szczególności transport fononów w kierunku równoległym do granic warstw (i będąca jego wynikiem przewodność cieplna λIP w tym kierunku) są odmienne od tychże zjawisk dotyczących kierunku prostopadłego do granic (czemu odpowiada przewodność λCP) [3]: (1) (2) gdzie L1 i L2 są grubościami, a λ1 i λ2 przewodnościami cieplnymi obu naprzemiennych warstw nadstruktury. 1 2 1 1 2 2 L L λ λ L λ L IP + + ... więcej»

Charakterystyki statyczne i parametry tranzystorów MOSFET mocy z krzemu i z węglika krzemu (Krzysztof Górecki, Janusz Zarębski)
Tranzystory MOSFET są podstawowymi elementami półprzewodnikowymi wykorzystywanymi w układach elektronicznych i energoelektronicznych [1]. Pełnią one rolę elementów wzmacniających lub przełączających. Oprócz klasycznych krzemowych tranzystorów MOSFET wykonywane są także tranzystory MOSFET z węglika krzemu. Materiał ten jest coraz powszechniej stosowany do wytwarzania półprzewodnikowych przyrządów mocy. Materiał ten, w porównaniu z krzemem, charakteryzuje się około 2,5-krotnie większą szerokością przerwy energetycznej, dużo mniejszą wartością koncentracji nośników samoistnych w temperaturze pokojowej, ponad 3-krotnie większą wartością przewodności cieplnej, a złącze SiC posiada 10-krotnie większą wartość krytycznego natężenia pola elektrycznego niż złącze krzemowe. Korzystne cechy węglika krzemu powodują, że elementy SiC, w porównaniu z elementami krzemowymi, legitymują się również korzystniejszymi wartościami parametrów eksploatacyjnych, np. większą wytrzymałością napięciową, korzystniejszymi właściwościami termicznymi oraz krótszymi czasami przełączania [1, 4]. W pracy [2] porównano właściwości łącznika zawierającego krzemowy tranzystor IGBT oraz diody wykonane z krzemu oraz z węglika krzemu. Na podstawie przedstawionych wyników badań stwierdzono, że zastosowanie diod Schottky’ego z węglika krzemu pozwoliło na zmniejszenie o 50% strat energii w tym łączniku. Z kolei, w pracy [3] przedstawiono wyniki pomiarów charakterystyk termometrycznych diod Schottky’ego i tranzystora JFET wykonanych z węglika krzemu. Przedstawione wyniki pomiarów dowiodły, że zarówno rezystancja włączonego kanału tranzystora JFET, jak i napięcie przewodzenia diody są monotonicznymi funkcjami temperatury, a odpowiednie współczynniki temperaturowe są mniejsze niż dla elementów krzemowych. Charakterystyki statyczne diod Schottky’ego z węglika krzemu przedstawiono m.in. w pracy [6], a tranzystora MESFET z węglika krzemu w pracy [7]. W praca... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Bezpieczeństwo w chmurach (Marek Hołyński)
Cloud computing szybko awansowało do roli obowiązującego słowa magicznego. Jego orędownicy ogłaszają, iż jest to najbardziej obiecujący kierunek rozwojowy informatyki i robią to na tyle przekonywująco, że niemal co druga organizowana w ostatnim roku konferencja dotyczy jakiegoś aspektu przetwarzania w chmurze. Ale są też sceptycy utrzymujący, że z dużej chmury mały deszcz, a cały ten zgiełk to zręczny chwyt marketingowy, służący jedynie rozkręceniu popytu na sprzęt i usługi. Obie strony mają trochę racji. Model przetwarzania oparty na zasobach zewnętrznych nie jest niczym nowym i w naturalny sposób stanowi rozwinięcie dotychczasowych koncepcji. Zamiast robić wszystko samemu na własnym komputerze, wyrzucamy co się da na zewnątrz, pozbywając się zawracania głowy i odciążając nasz system od zbędnych zadań. Nic nowego pod chmurami Sam pomysł nie jest nowy, to raczej kolejna faza rysującej się już od dość dawna tendencji. Już w latach 70. pojawił się termin distributed computing na określenie systemów umożliwiających współdzielenie rozproszonych mocy obliczeniow... więcej»

Sonotroda do maceracji materiałów roślinnych (Piotr Gawryś, Paweł Kogut, Łukasz Krzemiński, Bohdan Młynarski)
Ultradźwięki to fale mechaniczne o częstotliwości drgań z zakresu 15 kHz…100 MHz. Istnieje szereg zastosowań ultradźwięków, a jednym z nich jest ekstrakcja materiałów roślinnych z tkanek. Jest to zastosowanie o tyle ważne, że przynosi wymierne korzyści i jest stosowane na skalę przemysłową. Zjawisko ekstrakcji polega na rozdzieleniu zawiesiny i przejściu poszczególnych frakcji gęstości substancji z wnętrza ciał stałych do objętości cieczy poprzez wypłukiwania roztworu. W polu oddziaływania ultradźwięków ekstrakcja ma szybsze tempo, o ile zachodzi jednocześnie kawitacja (zjawisko wywołane zmiennym polem ciśnień cieczy, polegające na tworzeniu się, powiększeniu i zanikaniu pęcherzyków pary). Jednak kawitacja, jako zjawisko intensyfikujące ekstrakcje powoduje również degradację narzędzi. Końcowym produktem ekstrakcji jest uzyskanie roztworu zawierającego oczekiwany produkt albo pewną substancję pośrednią, poddawaną następnie dalszej obróbce. Mając taki roztwór możemy wydobyć z niego pożądane substancje poprzez suszenie, odsączenie, odparowywanie lub krystalizację. Typowe częstotliwości przydatne przy procesie ekstrakcji to zakres 20…500 kHz. Ekstrakcja ultradźwiękowa znajduje zastosowanie w biotechnologii, farmacji, przemyśle spożywczym, kosmetycznym i perfumeryjnym. W artykule skupimy się na narzędziach służących do przekazywania drgań (sonotrodach) o częstotliwości pracy 20 kHz. Ponadto zostaną omówione zagadnienia związane z projektowaniem sonotrod tego typu i procesy wpływające na żywotność narzędzi. Sonotroda Sonotroda (narzędzie) jest elementem zestawu ultradźwiękowego i ma bezpośredni kontakt z materiałem poddawanym wpływowi drgań ultradźwiękowych. Jak każdy element zestawu ultradźwiękowego jest ona elementem falowodowym i musi posiadać wymiary silnie skorelowane z częstotliwością pracy sonotrody. Przy projektowaniu sonotrod należy przeprowadzić obliczenia amplitudy drgań uwzględniając zjawiska prędkości roz... więcej»

Metody cyfrowego przetwarzania w impulsowym radarze do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar) cieszą się coraz to większym zainteresowaniem, zarówno w rozwiązaniach cywilnych jak i wojskowych. Służą między innymi w geologii do poszukiwania wartościowych, z historycznego punktu widzenia, przedmiotów. Radary podziemne wykorzystuje się także do wykrywania uszkodzeń wałów przeciwpowodziowych, czy też lokalizacji rur wodociągowych w przypadku braku informacji o ich faktycznym położeniu. Specjalizowane radary GPR służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Z uwagi na niejednorodność środowiska, w jakim pracuje GPR, obróbka sygnałów w tego typu radarach jest dużo trudniejsza niż w tradycyjnych jednostkach do wykrywania obiektów w przestrzeni powietrznej. Niejednorodność analizowanej gleby wpływa niekorzystnie na zasięg radaru [4]. Nieciągłość powstała na granicy dwóch warstw ziemi powoduje odbicie fali, ponadto każda warstwa charakteryzuje się niezerowym współczynnikiem tłumienia, przez co zakres odległości obserwacji GPR wynosi kilka metrów. Maksymalny zasięg wynikający z wielu czynników tłumiących osiągany jest dla suchej ziemi. Najbardziej tłumiącym ośrodkiem jest woda, dla której moc sygnału sondującego maleje o 100 dB/m [1]. Z tego względu pomiary dla wilgotnej ziemi nie przynoszą pożądanych rezultatów. W niniejszym artykule opisane zostały impulsowe radary transmitujące sygnał z liniową modulacją częstotliwości LFM (ang. Linear Frequency Modulation). W pracy przedstawione zostały wyniki rzeczywistych pomiarów radaru GPR o fali impulsowej, radar ten został wyprodukowany przez włoską firmę IDS - Ingegneria dei S. p. A. Kompresja danych symulacyjnych w kierunku azymutalnym została wykonana przy wykorzystaniu koherentnej obróbki SAR (ang. Synthetic Aperture Radar). Radary z syntetyczną aperturą (SAR) wykorzystują antenę umieszczoną na ruchomym nośniku, która przyjmuje kolejne położenia wzdłuż trajektorii ruch... więcej»

Doświadczenia z badań i oceny systemów alarmowych w procesie certyfikacji (Andrzej Krzysztof WACH)
Jakość wyrobów jest istotnym kryterium decydującym o sukcesie producenta na rynku. Jednym z elementów wiarygodnego potwierdzenia jakości wyrobu jest jego certyfikat, wskazujący dokumenty (prawne i/lub normatywne), których wymagania spełnia wyrób. Zauważmy, że certyfikacja prowadzona przez akredytowaną jednostkę jest obiektywnym sposobem oceny zgodności wyrobu. Proces certyfikacji (ustalony w programie certyfikacji) określa sposób postępowania, w ramach którego trzecia strona (niezależna od producenta i klienta), będąca jednostką o potwierdzonych kompetencjach, w formie pisemnej zapewnia, że produkt jest zgodny z wymaganiami odpowiedniego (wyszczególnionego) dokumentu. Dokumentem stanowiącym pisemne zapewnienie spełnienia określonych wymagań jest certyfikat zgodności, który może jednocześnie upoważniać producenta (importera) do używania odpowiedniego znaku zgodności. Certyfikat zgodności (wydany np. w systemie 5 wg PKN-ISO/IEC Guide 67:2007) potwierdza, że proces wytwarzania wyrobu przebiega w warunkach stabilnych, jest odpowiednio udokumentowany, podlega właściwemu nadzorowi, a stosowane materiały i etapy procesu wytwarzania spełniają warunki określone obowiązującym prawem. Jednocześnie uzyskany w wyniku tego procesu wytwarzania wyrób spełnia wymagania określonych (w certyfikacie), odpowiednich dla wyrobu, dokumentów. Celem procesu certyfikacji jest ustanowienie zaufania pomiędzy producentem (importerem), a klientem i/lub władzami danego kraju. Przewagą certyfikacji (nad innymi rodzajami potwierdzeń) jest fakt, że realizowana jest ona przez niezależny ośrodek certyfikacji, którego kompetencje potwierdzane są okresowo przez krajową jednostkę akredytującą. Istotnym jest również fakt, że wymagania stawiane wyrobowi w procesie certyfikacji, jak i wymagania techniczne na wykonywane badania, są jednoznacznie zdefiniowane w ogólnie dostępnych dokumentach. Certyfikacja jest szczególnie ważnym elementem, gdy dotyczy urządzeń techni... więcej»

System diagnostyczny dla oceny sztywności kończyn w terapii choroby Parkinsona (Bożena Dobrowiecka, Witold Kornacki, Tadeusz Kozłowski, Marek Pikiel, Tomasz Wódka, Włodzimierz Mocny)
Metodyka i koncepcja kontroli efektu sztywności parkinsonowskiej W projekcie N R13 0066 10 pt. "Mobilny system diagnostyczny dla oceny efektu sztywności kończyn w terapii choroby Parkinsona", na podstawie którego powstał niniejszy artykuł, przyjęto, że sposób badania efektu sztywności w chorobie Parkinsona, będący jednym z podstawowych objawów klinicznych tej choroby [1], będzie analogiczny do obecnie stosowanego przez lekarza, tj. z manualnym wymuszaniem ruchu przedramienia pacjenta, ale w którym ocena oporów ruchu będzie dokonywana poprzez analizę zmierzonych i zarejestrowanych takich parametrów, jak: siła oporu przy ruchu dwukierunkowym, charakter zmian tej siły w funkcji kąta obrotu przedramienia, zmiany przyśpieszenia, prędkość. Akwizycja danych pomiarowych jest dokonywana w sposób automatyczny, a zapamiętane dane są przesyłane do komputera lekarza w sposób bezprzewodowy. Komputer jest wyposażony w oprogramowanie diagnostyczne z modułami programowymi do statystycznej obróbki danych pomiarowych i archiwizacji z wykorzystaniem komputerowej bazy danych. Konstrukcyjnie system pomiarowy ograniczony jest do niewielkiego układu elektronicznego oraz uchwytu z czujnikami pomiarowymi zakładanego na przegub dłoni pacjenta. Jest to więc system mobilny, umożliwiający monitorowanie objawów sztywności mięśni zarówno w gabinecie lekarskim, jak i w warunkach domowych. W ramach projektu jest również opracowywana zmodyfikowana wersja systemu ze zmechanizowanym wymuszaniem ruchu przedramienia. Opory ruchu są mierzone w tym przypadku poprzez pomiar momentu siły. Ze względu na rozwiązania konstrukcyjne system ten jest przeznaczony do zastosowań stacjonarnych w gabinetach lekarskich. Dodatkowym wyposażeniem zestawu urządzeń diagnostycznych choroby Parkinsona będzie system do badań i oceny zaburzeń postawy pacjenta. System ten wraz z tremorometrem i wyżej przedstawionymi systemami do oceny sztywności mięśni kończyn będzie stanowił kompletną... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Method of temperature fluctuations compensation in the silicon photomultiplier measurement system (Mateusz Baszczyk, Piotr Dorosz, Sebastian Głąb, Wojciech Kucewicz, Łukasz Mik, Maria Sapor )
Independently of the direction the p-n junction is polarized in, the currents in it are strongly dependent on temperature. In the state of the avalanche breakdown, the increase of the temperature contributes to the more vivid vibrations of the particles of the crystal lattice. The vibrating atom occupies more space and the probability of the collision with an accelerated carrier increases. The collisions occur earlier so the free path is shorter. It means that the carriers are accelerated on shorter path and have smaller kinetic energies. Insufficient energy results in a reduction of the probability of knocking out carriers pairs. Avalanche multiplication becomes weaker and the avalanche current decreases. Silicon Photomultiplier operates in Geiger mode which mean that it is polarized beyond the breakdown voltage. Variation of breakdown voltage especially influence the parameters of SiPM. This voltage depends on temperature. When temperature increase value of the breakdown voltage increase also [1]. This variation leads to fluctuation of the current of SiPM because polarization voltage is constant during measurement. Distance between polarization voltage and the breakdown voltage is changed. To set operating parameters of SiPM on the stable level there is need to control temperature. This article introduce new method for compensating temperature fluctuations. This method is based on controlling distance between breakdown voltage and polarization voltage to set current of the p-n junction on the stable level. If the temperature of the Silicon Photomultiplier is higher than 0K, inside the detector, due to vibrations of the lattice, pairs of the electron-hole carriers are created. It is called the thermal generation of the carriers. The probability of detecting the photon (detecting the absorption of the photon resulting in the generation of avalanche current) is directly proportional to the value of bias voltage of the detector.... więcej»

A wearable microstrip rectangular patch antenna (Mariusz Woźniak, Adrian Durka, Marek Bugaj, Rafał Przesmycki, Leszek Nowosielski, Marian Wnuk)
Designing wearable antennas for wireless communication systems is a very important field of knowledge nowadays. These antennas can be applied in body-centric communication systems, such as paramedics, fire fighting and military. Besides, wearable antennas also can be used for youngsters, the aged and athletes for the purpose of monitoring. Commonly, wearable antenna requirements are small size, light weight, low cost, no need of installation and, which is one of the most important properties, ideally low radiation level in the direction of the human body. Moreover, wearable antennas should be almost maintenance-free and failure-free [1]. There are two major types of wearable antennas: conventional wearable designs (which include planar dipoles [2], monopoles [3], PIFAs (planar-inverted Fs) [4], microstrip patches [5], button antennas [6]) and textile antenna designs [7] (made of conductive fabrics called electro-textiles). The major disadvantage of antennas presented in these referenced articles is that they don’t limit backward radiation. In this paper a microstrip rectangular patch antenna is proposed. Patch antennas are feasible for both on-body and off-body communication due to the low profile they utilize. The ground plane of such antenna effectively shields both the antenna (from the influence of the human body) and the user (from negative effects of electromagnetic field). Antenna design Figures 1 shows the presented antenna geometry. The substrate selected for the antenna was ULTRALAM 2000 with effective dielectric constant εr = 2.6 and loss tangent δ = 0.0022 made by Rodgers ... więcej»

An energy-aware topology control in wireless sensor network (Marcin Wawryszczuk )
Wireless sensor networks have become an emerging technology that has an incredibly wide range of prospective. Typically, a network consists of a large number of nodes, distributed over some specific area and organized into multi hop system. The node of wireless sensor network is simple device equipped with control unit, communication unit, sensing unit and power supply. The power supply is usually a small, low capacity battery which is very hard to replace. It makes the energy factor of the sensor node a crucial one. This fact imply that the power supply of a node should be managed very carefully, to achieve longer life of the node. In the opposite to the energy conservation are often the objectives, which the network has to fulfill. Energy efficient topology control means to allow the network conserves the energy and keep the network performance on acceptable level. The topology control can be broadly categorized into any of the two approaches. First is called the nodes activity control. The basic idea of this group of methods is to maintain a small subgroup of nodes operative, while the rest of nodes go into sleep mode. The other methods are called sleep/wakeup algorithms. The nodes with implemented sleep/wake-up algorithm stay active for a small period of time and then turn into sleep mode, where the communication, sensing and control units are deactivated. Related work Much of the related research are addressed to WSN that are dense, battery powered and self configured. Because of these requirements, most of the author are concentrated on finding solution at various levels of the communication protocol, including extremely energy efficient aspects [1]. Some of the most popular solutions in energy effective topology control are GAF, SPAN, ASCENT, STEAM, SWP. Comparing the methods described above, GAF and SPAN can reduce the energy consumption 3 times [2], ASCENT more than 5 times [2]. In group of sleep/wakeup methods, the... więcej»

Analysis of tracking errors of multiple model neural filter for marine navigational radar (WITOLD KAZIMIERSKI)
Target tracking is currently one of key functionalities in modern marine navigational radars. Almost every ship at sea is nowadays equipped with tracking radar. Three basic standards are determined in SOLAS (Safety of Life at Sea) convention: ATA (Automatic Tracking Aid), EPA (Electronic Plotting Aid), and most sophisticated ARPA (Automatic Radar Plotting Aid). There are also nonconventional solutions like mARPA (mini ARPA) on smaller boat. Nevertheless which kind of device is installed on board, the heart of the system is always target tracker, which allows to estimated true and relative movement parameters of the vessels around own ship. Determination of movement parameters of other vessels is the key issue for navigational officer on board of the marine ship. This information is the basis for any maneuver decision, so it should be as accurate and as actual as possible. Thus the quality of tracking has a direct impact on safety of navigation. Many methods for tracking of marine targets have been developed, starting from simple α - β algorithms, through linear Kalman filter up to its non-linear modifications. The quality of target tracking depends on the tracking filter applied. Most commonly used nowadays are the numerical filters based on Kalman filtering, like Extended Kalman Filter (EKF) or multiple model filters. There are however other approaches possible. One of them is to use artificial neural networks for tracking. These have been studied in Maritime University of Szczecin for last several years and published for example in [1-3]. For last two years however the research have focused on developing of multiple model neural filter. Such w filter was verified in the research presented in this paper. Suitable research set has been developed, the idea of each was to implement the filter for tracking targets with the real data gathered directly on board of the vessel, as well as in the simulation mode. These have... więcej»

SAR/InSAR Raw Data Simulator using 3D terrain model (Damian Gromek, Artur Gromek, Krzysztof S. Kulpa, Mateusz Malanowski, Piotr Samczyński)
The research on new SAR algorithms are based on the theoretical background, algorithms verification using simulations and real-life data tests. The real experiments are expensive and time consuming. Due to that many researchers and software developers put many efforts to design and develop efficient tools for SAR simulations. Last years it has been design and developed many SAR simulators using different solvers [1], [3], [4], [5], [6], [7]. One of the simulator has been proposed and design by Warsaw University of Technology in 2003 [1], [3]. Due to the available that time computational power, the simulator was used to test a SAR algorithms based on the simple scene definitions, which include few dominant scattering in the scene [1], [3]. Such solution allowed for testing most of SAR algorithms, where have been tested such phenomena as non-linear flight path, geometrical distortion of the SAR image, etc [8], [9], [11], [12]. The computational power and required computer memory in the solver used for simulation depends linearly with the number of scattering points in the scene. That time it was not possible to simulate a complex and realistic scene including ground (consist of many scatterers) and shadowing, double and multi-bounds effect. The available in the market computational power and participation in the projects, where new SAR algorithms have to be developed [10], [11], [12], [13], [14], led authors to developed a new extended version of the SAR/ InSAR simulator. This paper presents new results of simulation, where the real DTM models of the Earth has been used. Simulator description Simulation are basing on given radiolocation scene and the parameters of the transmitted radar signal, then simulator solver generates a radar echo. The simulator knowing the location of the radar and of the object in the radiolocation scene. Based on this knowledge, the distance fr... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Wytwarzanie miniaturowych sensorów elektrochemicznych i matryc sensorów na podłożu krzemowym (MICHAŁ ZABOROWSKI, KRZYSZTOF DOMAŃSKI, PIOTR PROKARYN, URSZULA WAWRZYNIAK, PATRYCJA CIOSEK, WOJCIECH WRÓBLEWSKI, PIOTR GRABIEC)
Materiały i metody technologiczne, wypracowane dla potrzeb technologii planarnej układów scalonych, znajdują także zastosowanie w produkcji różnego rodzaju sensorów. W Zakładzie Technologii Mikrosystemów i Nanostruktur Krzemowych ITE w Piasecznie podejmowano już prace związane z wytwarzaniem czujników chemicznych na podłożach krzemowych [1, 2]. W ramach niniejszej pracy wytworzono trzy rodzaje sensorów w technologii planarnej, kompatybilnej z technologią CMOS. Prace prowadzone były na linii technologicznej, działającej w cleanroomach klasy ISO 6 (1000) i ISO 4 (10). Opis technologii W pracach używano jednostronnie polerowane płytki z monokrystalicznego krzemu o orientacji (100) i średnicy 100 mm. Na płytkach o rezystywności 0,01 Ωcm wytwarzano warstwę tlenku termicznego o grubości 100 nm w rurze kwarcowej w 1000°C. Następnie w reaktorze LPCVD w wyniku reakcji dwuchlorosilanu (SiH2Cl2) z amonia... więcej»

Dwuwymiarowe kryształy fotoniczne jako elementy aktywne spektroskopowych czujników gazów (Marcin WIELICHOWSKI, Adrian ZAKRZEWSKI, Sergiusz PATELA)
Optyczna detekcja gazów możliwa jest dzięki oddziaływaniu światła z ośrodkiem gazowym. Obecność molekuł gazu podlegającego detekcji zmienia właściwości fizyczne ośrodka (np. powietrza). Interesujące z punktu widzenia optycznej detekcji gazów, zmieniające się właściwości fizyczne powietrza, to optyczny współczynnik załamania i optyczny współczynnik absorpcji. O ile zmiany współczynnika załamania manifestują się niezależnie od długości fali światła, o tyle zmiany absorpcji zachodzą tylko dla ściśle określonych zakresów długości fali (piki absorpcji). Ponieważ selektywność ze względu na długość fali przekłada się na selektywność ze względu na rodzaj wykrywanego gazu, w praktyce wykorzystuje się przede wszystkim zmiany współczynnika absorpcji. Absorpcyjne pomiary stężenia gazów to część rozległej, dobrze opanowanej dziedziny - spektroskopii absorpcyjnej. Oprócz selektywności, istotną cechą detekcji optycznej w czujnikach jest brak konieczności chemicznego oddziaływania wykrywanego gazu ... więcej»

Opracowane w ITE krzemowe detektory cząstek do międzynarodowych badań nad transaktynowcami (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Rugard DRESSLER, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrzej PANAS, Jerzy SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Alexander YAKUSHEV, Michał ZABOROWSKI)
Transaktynowce - najcięższe pierwiastki chemiczne (liczba atomowa większa od 103), nie występujące w przyrodzie, otrzymywane w wyniku reakcji jądrowych, są przedmiotem badań w wielu ośrodkach światowych, z których najważniejszymi są: ● Lawrence Berkeley National Laboratory w Berkeley, w USA (BNL), ● Zjednoczony Instytut Badań Jądrowych w Dubnej w Rosji (ZIBJ), ● GSI Helmholtzzentrum für Schwerionenforschung GmbH w Darmstadt w RFN (GSI). W 2004 roku Instytut Technologii Elektronowej nawiązał współpracę z Institut für Radiochemie - Technische Universität München (IR TUM) w dziedzinie detektorów do badań nad transaktynowcami. Na zamówienie i we współpracy z IR TUM opracowano i wykonano w ITE 4 typy 64-elementowych matryc chromatograficznych (64 x 100 mm2) nazwanych TUM1/Al i TUM1/Au, oraz TUM2/SiO2, TUM2/Au do opracowanego tam systemu detekcyjnego COMPACT (Cryo On-line Multidetector for Physics And Chemistry of Transactinides) przeznaczonego do międzynarodowych badań, prowadzonych głównie w GSI. Matryce TUM1 i TUM2 stosowano w badaniach nad otrzymywaniem i właściwościami hasu (symbol Hs, liczba atomowa 108). Kolejne 2, zmodyfikowane typy (TUM4/SiO2, TUM4/Au) opracowano i wykonano dla GSI. Matryce TUM4 stosowano w badaniach nad pierwiastkiem 114, a obecnie stosowane są do pierwszych na świecie badań nad pierwiastkiem 119 i 120. Bardzo dobre rezultaty, uzyskane w badaniach hasu, przy zastosowaniu matryc TUM1, spowodowały zainteresowanie Paul Scherrer Institut - Villigen - Szwajcaria (PSI) detektorami ITE. Na zamówienie i we współpracy z PSI opracowano i wykonano w ITE... więcej»

Krzemowe, 16-elementowe matryce fotodiodowe specjalizowane do monitorowania optycznego czujników mikrodźwigniowych (Maciej Węgrzecki, Jan Bar, Tadeusz Budzyński, Teodor Gosztalk, Piotr Grabiec, Dariusz Lipiński, Konrad Nieradka, Andrzej Panas, Jerzy Sarnecki, Wojciech Słysz, Iwona Węgrzecka, Michał Zaborowski)
W czujnikach mikrodźwigniowych, zmiany stanu fizyko-chemicznego rejestrowane są poprzez rejestrację przemieszczenia (ugięcia) mikrodźwigni. Jedną z najczulszych metod pomiaru tego przemieszczenia jest metoda odbicia wiązki optycznej (Optical Beam Deflection - OBD). W metodzie tej, odchylenie wiązki świetlnej odbitej od mikrodźwigni, padającej na matrycę fotodiodową o odpowiedniej konfiguracji elementów światłoczułych, wykrywane jest przez pomiar zmiany rozkładu mocy optycznej na ... więcej»

GaAsN as a photovoltaic material - photoelectrical characterization (Paulina Kamyczek, Ewa Placzek-Popko, Piotr Biegański, Eunika Zielony, Beata Sciana, Marek Tłaczala )
GaAsN and InGaAsN materials have attracted considerable attention due to their unique physical properties and wide range of their possible application in optoelectronics, especially in infrared laser diodes for 1.3 and 1.55 mm [1, 2] and high efficiency multi-junction (MJ) solar sells [3, 4], where these low-band-gap materials can, in principle, be used to efficiently collect the lowphoton- energy portion of the solar spectrum [4]. In this paper the results of studies on the layers of GaAs1-xNx grown on (100)-oriented Si-doped n-type GaAs substrates by atmospheric pressure metal organic vapour phase epitaxy APMOVPE are presented. In the first step the layers of GaAs1-xNx were characterized with the use of optical methods, then Schottky diodes were realized and the rectifying properties of the diodes were studied with electrical methods. The diodes exhibit light-energy conversion effect. Basic parameters of the solar cells ( short-circuit current Isc, open circuit-voltage, Voc, and fill factor, FF) were determined. Obtained results confirm that the diodes are promising as efficien... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Application of scale-invariant feature transform to fingerprint classification (Jakub Sobek, Damian Cetnarowicz, Adam Dąbrowski)
Recognition of fingerprints is one of the main biometric methods for people identification. In general, the biometric methods aim to determine identity using anatomical or behavioural characteristics. Classical identification methods utilize tokens (keys) or knowledge (passwords). Such methods identify not a person but, in fact, some information, which is held by the person and can be lost or stolen. In the first case this is a kind of trouble but in the latter case this is a kind of danger. Because of these reasons efforts in biometry research are aimed to recognize people by their body or behaviour. Common biometrics are: face, iris, ear, voice, hand geometry, vein geometry, fingerprint, gait, palm print, rhythm of typing, DNA, etc. Each biometric has its advantages and its weakness. Among these, fingerprint is the oldest method of biometric identification [1]. In the late nineteenth century Sir Francis Galton systematized characteristic elements of fingerprint image. These elements are called minutiae and are parameterised by their position, type, and orientation. The best assessment of fingerprint importance is the fact that this is accepted by the law. Currently, since the technological development has arisen, fingerprint is also the biometric with the easiest technique of acquisition [2]. Because of that it is used in locks and even in mobile devices. At the beginning of fingerprint application, the two impressions of a fingerprint were compared manually. It is still the most accurate way for comparison. As computer technology was developed, algorithms for automatic fingerprint matching have been invented. The automatic recognition is much faster but its accuracy is lower. In manual matching a set of minutiae has to be found for each fingerprint. Given these sets, an expert compares minutiae, their positions and other parameters (attributes). A difficulty of this comparison is that the minutiae positions are distorted b... więcej»

Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

Narodowy test interoperacyjności podpisu elektronicznego (Marek Hołyński)
Duży zbiór rodzajów dokumentów elektronicznych oraz różnorodne ich przeznaczenie wymusza wielość formatów i rodzajów e-podpisu. Na rynku pojawiają się rozmaite, nie zawsze zgodne z sobą produkty oraz aplikacje. Istnieje zatem pilna potrzeba uporządkowania tej sytuacji i praktycznej weryfikacji oferowanych przez producentów rozwiązań na otwartym publicznym forum. Dla oceny rzeczywistej sytuacji w dniach 26-27 października 2011 r. został zorganizowany w Warszawie Narodowy Test Interoperacyjności Podpisu Elektronicznego. Koordynacji tego wydarzenia podjął się Instytut Maszyn Matematycznych, w którym od dwóch lat działa Laboratorium Podpisu Elektronicznego. Impreza organizowana była przy współpracy Ministerstwa Gospodarki i pod osobistym ... więcej»

FPGA implementation of parallel image processing system (Przemysław Brylski, Michał Strzelecki)
During the last decade field programmable gate array (FPGA) devices achieved technology grade competitive to traditional digital processor systems (DPS). Nowadays FPGA offer very high logical capacity, parallel processing possibilities, high speed and flexibility. These features of FPGA devices make them suitable for development of digital image processing systems. The strong demand of fast parallel processing of data results in designing and implementing of digital processor in a number of various architectures. One of the possible and promising approaches to parallel data processing is a network of synchronized oscillators [1]. It has been proven that such a network is a reliable tool for image analysis tasks, including segmentation or noise removal. Its operation is based on the "temporary correlation" theory [2], which attempts to explain scene recognition as performed by human brain. Based on this idea, the parallel digital image processor for image segmentation and analysis was proposed in [3]. Described processor was implemented in VHDL [6, 7] language and simulated in ModelSim software for 8×8 image size. Performed tests confirm that this processor can be successfully applied for segmentation of binary images. In order to reduce a utilization of FPGA logic by a single image processing unit (node), several modifications of the image processor structure were proposed in [4, 5]. As described in [5] a significant reduction of LUTs needed for node realization (more than 15 times) and general purpose registers (more than 6 times) was achieved. These changes also adopted an algorithm of the image processor for more effective operation in the FPGA structure. As a result, implementation of a processor capable to analyse an image of 16×16 pixels in the Xilinx XC3S500E Spartan-3E family device ... więcej»

Naziemna telewizja cyfrowa - wybrane zagadnienia (JAN BOGUCKI)
Telewizja analogowa jest znana na świecie od ponad pięćdziesięciu lat. Można bez cienia wątpliwości stwierdzić, że ten system nadawania programów sprawdził się. Mimo to, w Polsce 31 lipca 2013 roku [4] zostanie wyłączony ostatni telewizyjny nadajnik analogowy. Nadawanie telewizji od tego momentu będzie się odbywało tylko w formie cyfrowej. Jakie czynniki zadecydowały o tak radykalnym zmianie sytemu? Otóż na zmianę tę wpłynął szereg czynników. Najważniejszy z nich jest związany z tzw. dywidendą cyfrową, polegającym na tym, że cały kraj może być pokryty nawet 8 programami telewizyjnymi przy wykorzystaniu teoretycznie tylko jednego dotychczasowego kanału analogowego o szerokości 8 MHz. A więc oszczędności widma elektromagnetycznego, które jest dobrem ograniczonym, a tym samym, które należy eksploatować oszczędnie, nie da się przecenić. Innym czynnikiem jest rozwój nowych technologii, wymagający dostępnego pasma elektromagnetycznego np. dla transmisji danych w technologii LTE (Long Term Evolution). W artykule przedstawiono pewne charakterystyczne aspekty dotyczące naziemnej telewizji cyfrowej. Nadawanie tradycyjne i cyfrowe W telewizji analogowej dla każdego programu konieczne jest zbudowanie własnej, odrębnej sieci dystrybucyjnej (rys. 1), tzn. sieci nadajników dostarczających abonentom określony program. (W praktyce sprowadza się to do tego, że różni nadawcy wykorzystują tą samą antenę czy maszt w danej miejscowości.) Wiąże się to z faktem, że każdy z tych programów musi być transmitowany w dedykowanym tylko jemu kanale częstotliwościowym 8 MHz. Z reguły są wykorzystywane nadajniki dużej mocy i w tych kanałach występuje zjawisko zakłóceń interferencyjnych. Z tego powodu ogranicza się poziom zakłóceń wspólnokanałowych m.in. w ten sposób, że przy transmisji analogowej nadajniki sąsiednich ośrodków zawsze pracują na innych częstotliwościach kanałów. Wzrasta wtedy szerokość wykorzystywanego pasma częstotliwości, a tym samym taka... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB’s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

Ideal traffic system creator (Janusz Pochmara, Aleksandra Świetlicka, Mateusz Majchrzycki, Krzysztof Kolanowski, Alicja Szulta, Piotr Szablata, Jakub Pałasiewicz)
An effective distribution of goods must assure the movement of products and materials from the supplier’s warehouses to the customer’s objects at the possibly lowest cost. This means that the distribution costs, such as the costs of transport, supply and administration are to be reduced, which requires the improvement of the customers service standards at the same time. The improvement of customers service standards manifest mainly in on-time delivery. The on-time delivery is connected with formation of the transport standards in order to keep it on time [1]. In logistics, every distribution system is a fundamental component of a market economy which must consist of: ● tracking and tracing system, ● monitoring with GSM/GPS communication system, ● alerts system, while is transit, ● route optimization in real time system, ● safeguarding people system, ● pay per use possibility. Combining these systems together with wireless technology makes it possible to track down and trace vehicles, goods shipments, employees and mobile resources. It therefore supports logistics companies that need to constantly monitor the flow of goods they transport. This also implies an organization and synchronization of flows through nodes and network strategies. When drivers get stuck in a traffic jam, their level of stress rises rapidly. It is connected with anxiety of being late or missing an appointment (time and money loss), impossibility to predict a journey time, wasting fuel or breathing in exhaust fumes [2]. Consequently, stressful life can lead to many diseases, such as heart attack, increased blood pressure, migraine headaches etc. ... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: ● how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; ● how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; ● how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Miniaturized arms for three-dimensional thick-film thermoelectric microgenerator (Piotr Markowski)
When two different metals are connected by their ends and there is a temperature difference between the junctions the electric current flows into the circuit. This kind of structure is called thermocouple and it can be used to electrical power generation. Output voltage and power can be multiplied if a number of thermocouples are electrically connected in series. At the same time all “cold" junction should have approximately the same temperature - lower than the temperature of "hot" joints (thermocouples should be thermally connected in parallel). Such a structure is called thermopile. Thermopiles produce “green" energy and can be used as an alternative power sources for microsystems and low-power electronic micro-circuits [1, 2]. Their dimensions should be small - comparable with dimensions of powered systems. It is the reason why miniaturization of such generators is important. Fabrication process Two ways of fabrication of thermopiles are presented. First one bases on precise screen-printing only. Ag and Ni or PdAg pastes were used. They were printed using AUREL VS1520 Fine Line Screen Stencil Printer. In the second method precise screen-printing and photoimageable inks technique were combined. Ag-based photosensitive paste was used to fabricate first thermocouples’ arms. Second arms were precisely screen printed between Ag paths. As a substrate DP951 unfired ceramic foil was used in both cases. LTCC (Low Temperature Cofired Ceramic) technique allows fabrication of microelectronic multilayer structures [3]. It can be exploited to construct stack of thermopiles - a number of thermopiles fabricated on single foils are connected in one, multilayer stack (“sandwich" structure). In the result the output parameters (like generated voltage or electrical power) are multiplied. DuPont ceramic was chosen because of its good compatibility with used thick-film pastes. Precise printing - the "A" type structure... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Strategiczne kierunki rozwoju technologii i produktów militarnych w Bumar Elektronika (Zenon Szczepaniak, Jerzy Miłosz, Andrzej Kątcki, Zenon Obrycki, HENRYK KANTECKI)
W perspektywie 2012-2020 Dywizja Bumar Elektronika powinna osiągnąć następujące cele strategiczne: - Utrzymać wiodącą pozycję dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, - Wejść ze swoimi produktami i usługami na rynek uzbrojenia zagraniczny, szczególnie europejski, - Zdobyć wybrany segment rynku cywilnego (krajowego i zagranicznego). W celu utrzymania wiodącej pozycji dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, w wyżej opisanych warunkach rosnącej konkurencji, a więc możliwości dostaw (obiektów) systemów wspomagania dowodzenia i sensorów przez konkurencyjne firmy (krajowe i zagraniczne), należy zdobyć pozycję integratora systemu C4ISR SZ RP. Wtedy Bumar Elektronika będzie miała wpływ na kształtowanie architektury systemu oraz zasad integracji, wzrośnie też szansa, że podsystemy, obiekty i produkowane sensory będą bardziej konkurencyjne w stosunku do wyrobów innych producentów. Realnym jest wejście na rynki zagraniczne (w tym europejski) z podzespołami, podsystemami, czy specyficznymi usługami (szczególnie w zakresie oprogramowania), ale jako podwykonawca czy dostawca wybranej firmy lub firm europejskich. Natomiast, w celu uzyskania konkurencyjności wybranych produktów i usług Bumar Elektronika na rynku cywilnym należy wydzielić "linię produkcji cywilnej" lub powołać "firmę -córkę", która nie byłaby obciążona kosztami związanymi z wymaganiami dotyczącymi produkcji wojskowej. Proces osiągania celów strategicznych powinien składać się z następujących faz: - Faza I - konsolidacja spółek - cel bliższy (ok. 2 lata) - utrzymanie ciągłości realizacji umów i zobowiązań, - Faza II - utrzymanie rynku i budowanie bazy do osiągania celów strategicznych - cel średnioterminowy (do ok. 5 lat). Osiąganie celu bliższego (Faza I) polega na wdrożeniu takich struktur organizacyjnych oraz zachowaniu zasobów ludzkich pozwalających na realizację podpisanych (obe... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Nowe zadania pomiarów ostrzowych w procesie wytwarzania przyrządów półprzewodnikowych (JERZY F. KOŁODZIEJSKI, JULIUSZ SZCZĘSNY)
Większość operacji technologicznych w procesie wytwarzania przyrządów półprzewodnikowych przeprowadza się na płytkach wyciętych z monokryształu półprzewodnika. W przypadku najczęściej stosowanego monokrystalicznego krzemu (Si) średnica płytek dochodzi obecnie do 300 mm (12 cali) przy grubości płytek 775 μm; grubość ze względu na wytrzymałość mechaniczną musi być większa dla dużych płytek - przy średnicy płytek 51 mm wynosiła ona tylko 275 μm. Podaje się [1], że dla danej średnicy płytki d [mm] i przewidywanej powierzchni wytwarzanego przyrządu np. układu scalonego S [mm2] można otrzymać teoretycznie następującą liczbę struktur DPW (Die Per Wafer) DPW = d π (d/4S - 1/√2S) (1) Strukturę (die) może stanowić oddzielny element półprzewodnikowy np. tranzystor mocy lub złożony wieloelementowy układ scalony (mikroukład). Struktura powstaje w wyniku przeprowadzenia wielu, zwykle powyżej kilkudziesięciu, operacji (procesów) chemicznych i fizycznych. Wśród nich wymienić należy utlenianie powierzchni półprzewodnika, dyfuzję w podwyższonej temperaturze wybranych domieszek, implantację jonów domieszek, trawienie chemiczne oraz nanoszenie metalicznych ścieżek połączeń i pól kontaktowych. Zaprojektowane rozmieszczenie w półprzewodniku powstających dzięki tym operacjom obszarów o różnych właściwościach i ich ukształtowanie uzyskuje się w wyniku zastosowania odpowiednich masek i wykorzystaniu procesów fotolitograficznych lub elektronolitografii. Kilka-, kilkanaście płytek półprzewodnika, tworzących partię produkcyjną jest poddawane obróbce w tym samym czasie, a w niektórych operacjach sekwencyjnie. Koszt wytworzenia na płytce jednej struktury jest zatem niewielki, nawet po uwzględnieniu, że uzysk - rozumiany jako stosunek liczby struktur dobrych do wszystkich struktur na płytce - odbiega od jedności. Kwalifikację struktur na płytce można przeprowadzić wówczas, gdy na strukturę zostały naniesione metaliczne pola kontaktow... więcej»

O bezpieczeństwie algorytmu RSA (Wojciech Nowakowski)
Podstawowym elementem aplikacji i protokołów szyfrowania danych są algorytmy kryptograficzne. Tematem niniejszego artykułu jest bardzo szeroko obecnie stosowany algorytm RSA [1]. RSA jest algorytmem kryptograficznym z kluczem publicznym, który umożliwia zarówno szyfrowanie jak i podpisywanie cyfrowe (weryfikacja). Podstawową zaletą kryptografii z kluczem publicznym jest to, że klucze nie muszą być przekazywane lub ujawniane nikomu, w odróżnieniu od kluczy prywatnych (tajnych), które muszą być przekazywane, gdyż ten sam klucz służy do szyfrowania i deszyfrowania danych. System RSA opracowali w 1977 r. Ronald Rivest, Adi Shamir i Leonard Adleman (Fot.). Algorytm RSA działa w następujący sposób: &#61550; Wybieramy dwie duże liczby pierwsze:{p, q} oraz obliczamy ich iloczyn n = pq oraz funkcję Eulera &#966; = (p - 1)(q - 1). Wybieramy losowo liczbę e < n, względnie pierwszą* z liczbą &#966;. Liczba e będzie kluczem szyfrującym. Znajdujemy (korzystając z rozszerzonego algorytmu Euklidesa) liczbę d taką, że: d &#8801; e-1 (mod &#966;) lub de &#8801; 1 (mod &#966;), d<&#966;. Liczby d i n są także względnie pierwsze. Liczby {e,n} stanowią klucz publiczny, który ujawniamy, zaś liczby {d,n} stanowią klucz prywatny, który powinien być ściśle chroniony (liczba d) [2]. Szyfrowanie, deszyfrowanie, podpisywanie lub weryfikacja polega w... więcej»

Czujnik wodoru AlGaN/GaN FAT-HEMT (Bogdan Paszkiewicz, Mateusz Wośko, Wojciech Macherzyński, Regina Paszkiewicz, Marek Tłaczała)
Heterostruktury AlGaN/GaN typu HEMT (ang. High Electron Mobility Transistors), ze względu na swoje unikalne właściwości [1], stanowią podstawę konstrukcji wielu przyrządów Elektronicznych - tranzystorów mikrofalowych [2], w tym na zakres THz, czujników gazów [3] i przetworników w czujnikach biologicznych [2]. Jest to związane z dużą nasyconą prędkością unoszenia elektronów 2DEG (ang. Two-Dimensional Electron Gas) w kanale tranzystora (~2,5 × 107 cm/s), dużym maksymalnym napięciem przebicia (~3,3 MV/cm) oraz odpornością materiału na działanie czynników chemicznych i wysokiej temperatury. Jednym z istotnych wyzwań współczesnej elektroniki jest ich zastosowanie do konstrukcji czujników wodoru, które będą mogły pracować w systemach bezpieczeństwa silników na paliwo wodorowe i wodorowych ogniw paliwowych. Aby czujniki te mogły być zastosowane, do detekcji nieszczelności muszą zapewniać szybki czas reakcji na wodór, już przy możliwie małych jego koncentracjach oraz szeroki zakres defekowanych stężeń. W WEMiF PWr opracowano technologię i konstrukcję diodowych i tranzystorowych czujników wodoru na bazie heterostruktur AlGaN/GaN z palladowymi i platynowymi elektrodami katalitycznymi [4]. Typowo odpowiedzi czujników wodoru na bazie hetero struktur AlGaN/GaN są badane w zakresie koncentracji wodoru od dziesiątek do setek ppm [5]. W artykule zbadano odpowiedzi opracowanego w WEMiF PWr, czujnika AlGaN typu FAT-HEMT (tzw. "Tłusty-HEMT") z bramką katalityczną Pt) w szerokim zakresie stężeń wodoru w azocie 0,1&#8230;3000 ppm w celu określenia potencjalnych obszarów zastosowań tego rodzaju czujników. Wytwarzanie czujników wodoru Heterostruktury AlGaN/GaN osadzano w stanowisku CCS 3 × 2" firmy AIXTRON na podłożach szafirowych o orientacji c techniką MOVPE (Metalorganic Vapor Phase Epitaxy). Niedomieszkowana warstwa Al0.22Ga078N, o grubości 25 nm, była osadzana na wysokorezystywnej warstwie GaN o grubości 2 &#956;m. Metodą spektroskopii imped... więcej»

Synteza nanocząstek materiałów sensorowych (Helena Teterycz, Dominika Oleś, Marta Fiedot , Olga Rac, Patrycja Suchorska, Patryk Halek, Grzegorz Halek)
W ostatnich kilkunastu latach w literaturze pojawiają się doniesienia o możliwości syntezy nanomateriałów różnymi metodami. Syntezuje się je między innymi następującymi metodami: hydrotermalną [1], techniką "odwróconego opalu" [2], z roztworu ciekłego [3], za pomocą wzorca [4], elektrochemicznie [5], utleniania termicznego [6], itp. Metodami tymi otrzymuje się nanorurki, nanopręty, nanokwiatki, nanopastylki oraz inne interesujące nanostruktury. Materiały o takiej nanostrukturze mogą znaleźć zastosowanie nie tylko w technice sensorowej, jak warstwy gazoczułe i filtry aktywne [7], ale również jako różne materiały w nanoelektronice i optoelektronice do konstrukcji różnych elementów, np. ogniw słonecznych, czy kryształów fotonicznych, jako katalizatory heterogeniczne, nanomateriały magnetyczne, wypełniacze do kompozytów i wiele innych [8]. W niniejszym artykule przedstawiono wyniki otrzymywania różnych nanomateriałów nową metodą z roztworu wodnego zawierającego organiczne związki stabilizujące. Część eksperymentalna Nanocząstki dwutlenku tytanu otrzymano w reakcji strącania chlorku tytanu(III) wodorotlenkiem amonu z roztworu wodnego (1), a następnie utleniania powietrzem atmosferycznym (2). (1) (2) W początkowym etapie syntezy nanocząstek tlenku tytanu(IV) przygotowywano wodny roztwór prekursora jonów tytanu (TiCl3), syntetycznego polimeru (polietylenoimina, PEI) oraz surfaktantu niejonowego (Triton &#174; X-100). Otrzymany roztwór mieszano na mieszadle magnetycznym i stopniowo dodawano roztwór wodorotlenku amonu. Nanocząstki złota otrzymywano w wodnym roztworze prekursora jonów złota (HAuCl4) oraz niejonowego surfaktantu (Tween &#174; 80). Otrzymany roztwór reakcyjny mieszano mieszadłem magnetycznym ... więcej»

Parametry detektorów MSM wykorzystujących heterostruktury GaAsN/GaAs i MQW InGaAsN/GaAs (Iwona Zborowska -Lindert, Beata Ściana, Damian Pucicki, Damian Radziewicz, Bogusław Boratyński ,Marek Tłaczała)
W ostatnich latach zaobserwowano znaczne zainteresowanie rozrzedzonymi azotkami (GaAsN), zarówno z powodu ich właściwości fizycznych, jak i możliwością wykorzystania badanych warstw ze względu na zakres pracy związany z szerokością przerwy energetycznej o wartości ok. 1 eV przy jednoczesnym dopasowaniu do sieci GaAs. Nawet niewielka ilość atomów azotu w sieci krystalograficznej GaAs powoduje zmniejszenie przerwy energetycznej o około 150 meV na 1% azotu dodawanego do związku GaAs. Jednocześnie dodanie atomów azotu zmienia stałą sieci krystalograficznej. Pojawiają się artykuły opisujące technologię i parametry różnego rodzaju przyrządów optoelektronicznych wykorzystujących struktury epitaksjalne rozcieńczonych azotków na przykład lasery [1], heterofototranzystory [2], rozmaite typy fotodetektorów [3, 4] i ogniwa słoneczne [5]. W tej pracy badany jest wpływ parametrów materiałowych na fotoodpowiedź detektorów MSM. Podstawowym problemem związanym z jakością fotodetektorów MSM jest powiązanie jego parametrów z wysokością bariery Schottky&#8217;ego kontaktów. W sytuacji, gdy bariera Schottky&#8217;ego jest niska, wzrasta prąd ciemny, co znacząco zmniejsza czułość fotodetektora. W pracy badano wartość prądu ciemnego i oceniano, czy jest ona dostatecznie niska, aby fotoodpowiedź MSM na warstwach GaAsN/GaAs i wielostudniach kwantowych (MQW) InGaAsN/GaAs była znacząco wyższa dla fal powyżej krawędzi absorbcji dla warstw GaAs czyli 870 nm. Technologia fotodetektorów MSM Badane fotodetektory MSM wykonane zostały na heterostrukturach rozcieńczonych azotków typu GaAsN oraz MQW InGaAsN/ GaAs wytworzonych w technologii MOCVD. Epitaksja MOCVD Heterostruktury wytworzono na półizolacyjnych podłożach Ga... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Study of IDE as a sensor head for interfacing with handheld electrochemical analyzer system (Vijayalakshmi Velusamy, Khalil Arshak, Olga Korostynska, Catherine Adley)
Electrochemical biosensors have been receiving more attention in recent years since they are simple to use, cost-effective, offer high sensitivity and suitable for in situ analysis [7-10]. Applications are mainly focused on food quality monitoring for the detection of foodborne pathogens [11], environmental quality monitoring for the detection of contamination of potable water resources due to pathogenic micro organisms and industrial by-products [12, 13] and in biosecurity for the detection of biowarfare agents [14]. An electrochemical sensor is an electrical device in which the biological and/or the chemical information are converted to an electrical signal, which is then processed and recorded for further analysis. Towards the development of an electrochemical analyzer system, a sensor was initially designed that may be interfaced with the handheld system comprising both the potentiostat and the impedance analyzer. In biosensors the lower limit of detection is a big challenge and numerous electrode geometries have been developed during the past decade to address this problem. Among various electrode geometries IDE have advantage in bioanalytical applications. A thick-film gold IDE was employed in this research and it was prepared by screen printing technique. Thick-film sensors are advantageous since it is compact, robust and relatively cost-effective. It is possible to mass produce from macro- to microscale, with greater reproducibility. However, the applicability of the technology is limited to a possible minimum line width (100 &#956;m) [15]. The planar IDE sensors based on thick films are very wellsuited to integrate with electronic circuits. The IDE sensors can be combined with other planar technologies like plasma/chemical vapor deposition for surface modification. The device produced by the thick-film technique has the ability to facilitate as a supporting structure upon which other sensing materials can be deposited... więcej»

Electronic measurement system for monitoring of geometrical parameters of rolling shaped metal profiles (Snezhinka Zaharieva, Valentin Mutkov, Ivan Georgiev)
The measurement of the complex and the differential geometric parameters in the production process of cylindrical, square and rectangular rolling shaped metal profiles will undoubtedly lead to a rise in the production quality. The dynamics of the technological process and the influence of great number of outside factors on geometrical parameters of revolving, enforce development of an electronic measurement system, which may reliably reads and preserves measured data immediately in the production process of rolling shaped metal [1, 5]. Adopting a microprocessor technique in measuring systems gives an opportunity for &#1072; program processing of information and retroaction towards the technological process. Thus measuring systems will come up &#1086;n a new high quality level, their measurement capacities will be expanded, the measurement regime will be chosen automatically, the immediate measurement results will be stored and the necessary calculations will be made. This will allow the removal of subjective and objective factors affecting measurement accuracy. The accomplished electronic measurement system for monitoring of geometric parameters of rolling shaped metal performs an active firsthand control in the production process, for the purpose of management of the quality of the finished production. The paper is organized as follows. First, the block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal is presented. Second, the principle electrical scheme of the system is described. Finally, the results of the work of the experimental setting are presented as well as the main results obtained by the authors are summarized. Block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal A block diagram, shown in Figure 1, contains nine information channels, eight of which are identical and carry the information from eigh... więcej»

GENESI: Wireless Sensor Networks for structural monitoring (Brendan O&#8217;Flynn, David Boyle, E. Popovici, Michele Magno, C. Petrioli)
The GENESI project has the ambitious goal of bringing WSN technology to the level where it can provide the core of the next generation of systems for structural health monitoring that are long lasting, pervasive and totally distributed and autonomous. Sensor nodes are being redesigned to overcome their current limitations, especially concerning energy storage and provisioning (we need devices with virtually infinite lifetime) and resilience to faults and interferences (for reliability and robustness). New software and protocols will be defined to fully take advantage of the new hardware, providing new paradigms for cross-layer interaction at all layers of the protocol stack and satisfying the requirements of a new concept of Quality of Service (QoS) that is application-driven, truly reflecting the end user perspective and expectations. The GENESI system will be deployed in two pilot deployments; namely the monitoring of a bridge (Pont de la Poya, Switzerland) and a metro tunnel (Metropolitana Linea B, Rome), both during and after construction. System requirement analysis GENESI (Green sEnsor NEtworks for Structural monItoring) [1] exhibits a range of system requirements from a variety of established and emerging technical scientific disciplines. The systems are required to be &#8220;Green" and Sustainable - The use of energy scavanging techniques (i.e. harnessing available environmental energy) to extend the lifetime of GENESI nodes will be employed. Realistic potential sources include solar and wind energy. A fuel cell or series of fuel cells, capable of providing significant amounts of energy, will also be integrated in the design of a novel power unit. This unit may also make use of integrated suitable battery cell(s) and/or other storage techniques (such as capacitors). It should provide sufficient energy to power the GENESI wireless sensor nodes for extended periods of time. In addition to developing novel hardware to add... więcej»

Numerical study of the interface heat transfer characteristics of micro-cooler with CNT structures (Yan Zhang, Shun Wang, Shiwei Ma, Zhili Hu, Johan Liu, Janusz Sitek, Kamil Janeczek)
With the continuously increasing packaging density in electronic products, the system ability to dissipate heat loads has become a concern in the overall performance. Some novel cooling techniques have emerged to meet the thermal management requirements of high power microelectronics components and devices. Micro cooling, including micro-pin-fin, micro-channel and so on, provides a promising solution for high-powered electronics. Meanwhile, carbon nanotubes (CNTs) have shown advantages in material properties such as the electrical conductivity [1], [2], the thermal conductivity [3], [4] and the mechanical properties [5], [6]. CNTs can be used as the micro-cooler construction due to the excellent thermal conductivity [7]. A micro-channel cooler with vertically aligned CNT arrays had been developed [8], [9], where the CNT structures were employed as channels inside to enhance the heat transfer. And experimental measurement had also been carried out to evaluate the overall heat removal capability of the CNT-based micro-cooler. Beside experimental works, the macroscopic heat transfer characteristics of the micro-channel heat sinks with carbon nanotubes were also studied numerically [10], [11], in which parameters such as the inlet velocity, the heating power, the CNT structure size as well as the flow field and the temperature distribution were analyzed. The most widely used fabrication method to obtain aligned CNTs is the thermal or plasma-enhanced chemical vapour deposition (CVD). During the process, the carrier substrate typically needs to be heated up to approximately 700°C or even higher. Such a high temperature is not compatible with most of the temperature- sensitive components or devices. A transfer method was proposed as a solution to this problem, in which the pre-prepared CNT forest could be transferred onto the target surface at a low temperature so that the integration of the CNTs into various device and material pro... więcej»

Mechanoakustyczny czujnik aktywności układu sercowo-naczyniowego (Jarosław Lewandowski, Łukasz Dziuda, Krzysztof Celiński-Spodar)
Pomimo rozwoju wielu metod diagnostyki stanu zdrowia wciąż niezmiernie ważne i powszechnie stosowane jest osłuchiwanie ciała w celu zbadania aktywności serca za pomocą stetoskopu. Stetoskop jest nieodzownym, używanym w diagnostyce kardiologicznej narzędziem wykorzystywanym podczas badania fizykalnego. Pomimo postępu technicznego jaki dokonał się w diagnostyce, konstrukcja stetoskopu praktycznie nie uległa zmianom. Stetoskop był również użyty przez autorów jako element pomiarowy, określający sygnał referencyjny dla stanowisk pomiarowych, wyposażonych w czujniki służące do bezkontaktowego monitorowania parametrów psychofizjologicznych, opracowywanych w ramach projektu "Bezkontaktowe metody pomiaru sygnałów psychofizjologicznych z funkcją automatycznego wykrywania zagrożeń" [1] - Program Operacyjny Innowacyjna Gospodarka - realizowanego przez autorów z Wojskowego Instytutu Medycyny Lotniczej. Czujniki te służą do monitorowania aktywności serca i aktywności oddechowej. W przykładowym rozwiązaniu rolę czujnika pełni poduszka pneumatyczna z wbudowaną w nią siatką Bragga, która służy do pomiaru drgań ciała wywołanych pracą serca i aktywnością oddechową. Podczas badań pomiary porównywano z sygnałem referencyjnym pochodzącym z elektrod EKG. Sygnał ten był jednak przesunięty względem sygnału z "poduszki" i nie był sygnałem optycznym. W związku z tym było konieczne stosowanie dodatkowej karty przetwornikowej. Potrzeba posiadania sygnału optycznego jako sygnału odniesienia w jednym torze interrogacji spowodowała, że opracowano dwa światłowodowe czujniki referencyjne służące do odbioru sygnału pulsu jako sygnału mechanicznego generowanego przez fale przepływającej w naczyniach krwi. Jednym z czujników referencyjnych jest wykonany na zasadzie mankietu do pomiaru ciśnienia krwi. Drugim czujnikiem jest opisany w niniejszej pracy mechnoakustyczny czujnik aktywności układu sercowo-naczyniowego o konstrukcji wykorzystującej działanie stetosk... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»