profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Czynniki ograniczające przepustowość w sieciach standardu 802.11 (Antoni Masiukiewicz, IWONA Dolińska)
Bezprzewodowe sieci pracujące zgodnie ze standardem 802.11, nazywane sieciami WiFi lub WLAN, zostały wdrożone do eksploatacji w latach 90. Ewolucja sieci WiFi spowodowała, że obecnie współistnieją cztery wersje standardu 802.11 oznaczone literami a/b/g/n, z których powszechnie są wykorzystywane dwie ostatnie. W 2013 r. przewidywane jest końcowe uzgodnienie i ratyfikowanie wersji 802.11ac [1,4]. Podstawowym celem opracowania kolejnych wersji standardu 802.11 było sukcesywne zwiększanie przepustowości sieci. W ciągu dwóch dekad ich wartości wzrosły od 1 Mbit/s do kilkuset Mbit/s. Przewidywana przepustowość w standardzie 802.11ac ma przekroczyć granicę 1 Gbit/s [1]. Osiągniecie tak wysokich poziomów przepustowości wiąże się oczywiście z koniecznością wprowadzenia nowych, ale też poprawy aktualnie stosowanych rozwiązań technologicznych. Chodzi tutaj przede wszystkim o technologię MIMO (Multiple Input Multiple Output), pozwalającą na obsługę wielu przestrzennych strumieni danych przez jedno urządzenie [1, 2, 7, 8]. W standardzie 802.11ac przewidywana jest możliwość jednoczesnej transmisji przy wykorzystaniu 8 strumieni danych (8xMIMO), przy czym dopuszcza się zarówno komunikację z użytkownikami wykorzystującymi technologię SISO (Single Input Single Output), jak i MIMO. Następnym czynnikiem poprawiającym przepustowość jest zastosowanie kanałów radiowych o większej szerokości. Początkowo były to kanały o szerokości 20 MHz (802.11 a/b/g), później 40 MHz (802.11n), a obecnie 80 i 160 MHz (802.11 ac). Wprowadzane są też nowe schematy modulacji MCS (Modulation Code Scheme) o wyższych współczynnikach (M=256 dla QAM- 802.11 ac). Na rys. 1 pokazano obszar przepustowości dostępnych dla standardu 802.11ac. W zależności od doboru parametrów połączenia, projektowana przepustowość systemu może zmieniać się od 6,5 Mbit/s, dla kanału o szerokości 20 MHz, niskich schematów modulacji i transmisji o charakterze SISO, do 7 Gbit/s dla kanału o szer... więcej»

Procesy łączeniowe tranzystorów MOSFET w mostkach wysokonapięciowych (Piotr Grzejszczak, Mieczysław Nowak, Roman Barlik)
Dążenie do zwiększenia współczynnika gęstości mocy przekształtników energoelektronicznych, przy zachowaniu wysokiej sprawności energetycznej, skłania do ciągłego podwyższania częstotliwości przełączeń łączników mocy. Ograniczanie strat energii w takich układach uzyskuje się głównie przez skracanie czasów załączania ton i wyłączania toff tranzystorów, co powoduje zwiększanie stromości napięć i prądów w obwodach głównych przekształtników. Obecnie dostępne przyrządy półprzewodnikowe, takie jak wysokonapięciowe krzemowe tranzystory MOSFET, tranzystory JFET i MOSFET oraz diody Schottky’ego z węglika krzemu, pozwalają na pracę z bardzo szybkimi procesami łączeniowymi (poniżej 50 ns) przy napięciach znacznie powyżej 300 V. Duże stromości napięć i prądów są przyczyną występowania niekorzystnych zjawisk, wynikających z istnienia indukcyjności i pojemności pasożytniczych w rzeczywistych obwodach głównych przekształtników [1-3]. Do tych zjawisk należy zaliczyć przede wszystkim sprzężenia elektromagnetyczne (EMI) oraz zaburzenia procesów łączeniowych, które mogą być przyczyną zwiększonych strat a nawet zniszczenia tych elementów [4]. Mechanizmy poszczególnych niepożądanych zjawisk występujących w przekształtnikach z szybkimi łącznikami zostały opisane w szeregu publikacji [5-9]. Celem pracy jest lepsze rozpoznanie istotnych problemów dotyczących wpływu konfiguracji geometrycznej obwodu głównego i sterującego na pracę tranzystorów MOSFET w gałęzi mostka. Głównie zwrócono przy tym uwagę na wysokonapięciowe tranzystory krzemowe [10]. W pierwszej części pracy opisano ograniczenia związane z elementami pasożytniczymi, występującymi w obwodzie głównym gałęzi i w obwodach sterowników bramkowych oraz w samych tranzystorach MOSFET (indukcyjności i pojemności pasożytnicze, dioda strukturalna (podłożowa) tranzystora). Drugą część pracy poświęcono metodom poprawy konfiguracji przestrzennej obwodu mającym na celu zmniejszenie łączeniowych stra... więcej»

Dostrajanie regulatora z pominięciem eksperymentu identyfikacji obiektu przy użyciu Imperialist Competitive Algorithm (Michał Awtoniuk)
Wyniki badania prowadzone przez najznamienitszych naukowców świata wskazują na to, że 90% pętli regulacji działających w przemyśle bazuje na algorytmie PID [1, 2]. Olbrzymia popularność tego algorytmu nie przekłada się jednak na jakość regulacji. Badania firmy Honeywell wskazują, że wiele spośród pętli regulacji pozostaje otwarta [3]. Sytuację tą można poprawić wykorzystując dostępne w sterownikach PLC procedury automatycznego doboru nastaw. Jest to rozwiązanie korzystne ze względu na to, że takie podejście nie wymaga specjalistycznej wiedzy. Zazwyczaj producenci sterowników udostępniają w ramach wsparcia technicznego dokumentację, która krok po kroku opisuje co należy zrobić aby uruchomić funkcję autotuningu. Innym rozwiązaniem jest ręczny dobór parametrów regulatora. W tym przypadku konieczna jest już niestety pewna wiedza teoretyczna. Zazwyczaj utalentowany automatyk-praktyk jest w stanie dobrać nastawy zdecydowanie lepsze od nawet najskuteczniej działającej procedury strojenia automatycznego. W przytoczonych wcześniej badaniach można również znaleźć informację na temat zamkniętych pętli regulacji. Okazuje się, że zaledwie połowę z nich cechuje zadowalająca jakość [3]. Fakt ten powinien być bodźcem powodującym głębszą analizę tychże układów. Obiekt regulacji Doświadczenia były prowadzone na obiekcie schematycznie przedstawionym na rysunku 1. Jest to zbiornik z regulowanym poziomem wypełnienia wodą przy pomocą pompy. Jej wydatek jest sterowany sygnałem analogowym u pochodzącym ze sterownika PLC. Sygnał rozpatrywany jest w zakresie 0..10 V, gdzie 0 V oznacza całkowite wyłączenie pompy, natomiast 10 V pracę z maksymalnym wydatkiem. W omawianym układzie regulacji, sygnał ten będzie traktowany jako wyjście regulatora. Otwarty zawór Z2 powoduje samoczynny wypływ cieczy ze zbiornika. Stan tego zaworu może diametralnie zmienić obiekt sterownia. W przypadku, gdy zbiornik będzie szczelny, bez żadnego wypływu cieczy, wówczas obiekt ... więcej»

Efficient neural amplifiers using MOS and MIM capacitors in 180 nm CMOS process (Wzmacniacze sygnałów neurobiologicznych o bardzo małej powierzchni wykorzystujące pojemności MOS i MIM wykonane w technologii CMOS 180 nm) (Piotr Kmon, Paweł Grybos, Robert Szczygieł, Miros Ław Żołądź)
Access to modern technologies made it possible to build minimally invasive monitoring systems for observing electrical activity of specific brain areas. Such systems have already been presented as promising tools in diagnosing, detecting and identifying neural patterns that are specific to behavioral phenomenon [1, 2]. In particular, there is a need to develop brain machine interfaces that could help people suffering from neurological disorders such as blindness, spinal cord injuries, dystonia, tremor, Parkinson’s disease and some of such systems have already been reported [3, 4]. One of the main requirements of such a system is that it should be chronically implantable, occupy small area and have wireless capabilities.The Fig. 1 shows a conceptual scheme of an Integrated Circuit (IC) that can be employed in such a system. It may be built of a multielectrode array (MEA) that have to be bump bonded with an IC. The most popular are MEAs proposed by University of Utah [5] where interelectrode pitch is 400 μm. To satisfy functionality requirements such systems should comprise many operating blocks like recording and stimulating units, data compression, wireless power and data transmission or neural pattern classification. A crucial part of such systems is a neural recording amplifier that have to fulfill strict requirements regarding to the low noise and low power operation. Furthermore, taking into account large functionality of the final system, the recording channel should occupy a small silicon area. Nevertheless, because recording channel should have ability to form a frequency bandwidth in a very broad range (i.e. lower cut-off frequency should be tuned from mHz up to the hundreds of Hz) methods to minimize area occupied by the filters should be introduced. Based on our experience in designing multichannel systems for neurobiology applications [6-8] and in utilizing modern submicron processes [9], we propose to us... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Konstrukcja A-FORS-3 – autonomicznego światłowodowego sejsmometru rotacyjnego (Zbigniew Krajewski, Leszek R. Jaroszewicz, Henryk Kowalski )
Rejestracja efektów rotacyjnych [1, 2] występujących podczas zdarzeń sejsmicznych wymaga konstrukcji nowego rodzaju sejsmometrów, ponieważ klasyczne sejsmometry są bezwładnościowymi czujnikami przyśpieszenia liniowego (prędkości liniowej), dlatego nie mogą być bezpośrednio zastosowane do rejestracji ruchu obrotowego. Oczywistym rozwiązaniem tego problemu wydaje się zastosowanie jako sejsmometru rotacyjnego światłowodowego interferometru Sagnaca. Zasadniczym czynnikiem różniącym A-FORS-3 od klasycznych konstrukcji giroskopów światłowodowych jest fakt, iż mierzy on prędkość kątową a nie kąt [3, 4]. Dlatego też problem dryfu występujący w giroskopach optycznych jest tutaj praktycznie do pominięcia. Układ czujnika został zoptymalizowany pod kątem osiągnięcia jak największej czułość, z czym związana była maksymalizacji takich parametrów jako: promień pętli czujnika, moc optyczna źródła i długość użytego włókna. Zapewnienie mobilności takiego układu oraz bezawaryjnego przesyłania rejestrowanych dany... więcej»

Właściwości czujnikowe światłowodowych siatek Bragga na kilkumodowych wysoce dwójłomnych włóknach mikrostrukturalnych (Tadeusz Tenderenda, Michał Murawski, Michał Szymański, Martin Becker, Manfred Rothhardt, Hartmut Bartelt, Paweł Mergo, Krzysztof Poturaj, Mariusz Makara, Krzysztof Skorupski, Paweł Marć, Leszek R. Jaroszewicz, Tomasz Nasiłowski)
Jednym z najciekawszych tematów w dziedzinie fotoniki i technologii światłowodowej w ostatnich latach stały się włókna mikrostrukturalne MSF (ang. Microstructured Fibers), zwane również włóknami fotonicznymi PCF (ang. Photonic Crystal Fibre) [1]. Dzięki praktycznie nieograniczonym możliwościom doboru parametrów i właściwości propagacyjnych poprzez odpowiednie zaprojektowanie geometrii i domieszkowania, znalazły one zastosowania w bardzo wielu dziedzinach fotoniki (w generacji supercontinuum [2], w laserach światłowodowych [3], jako włókna kompensujące dyspersje lub jako włókna o zmniejszonej wrażliwości na makrozgięcia [4, 5]). Ponadto włókna MSF doskonale nadają się do zastosowań metrologicznych w światłowodowych czujnikach interferometrycznych oraz polarymetrycznych różnych wielkości fizycznych (między innymi temperatury, ciśnienia, wydłużenia, wygięcia oraz współczynnika załamania otoczenia [6-8]). W [9] przedstawiono teoretyczną oraz eksperymentalną analizę wpływu rozkładu oraz rozmiaru otworów powietrznych w trzech wysoce dwójłomnych włóknach mikrostrukturalnych dedykowanych do zastosowań czujnikowych na ich polarymetryczną czułość na temperaturę (KT). Okazało się, że dzięki odpowiednio zaprojektowanej geometrii włókna możliwe jest nie tylko znaczące wpływanie na wartość czułości temperaturowej, ale również zmiana jej znaku, co z kolei umożliwiło zaprojektowanie włókna o zerowej czułości temperaturowej. Wyniki te potwierdzają, że możliwe jest zaprojektowanie włókna do zastosowań w czujnikach mechanicznych niewymagających dodatkowych układów do kompensacji temperatury. W naszej niedawnej pracy [10] przedstawiliśmy inne włókno o innowacyjnej geometrii charakteryzujące się z kolei bardzo wysoką i stabilną dwójłomnością drugiego modu (~ 1,7 × 10-3 na 1550 nm). Jako że maksima modu drugiego rzędu... więcej»

Badanie dyspersji chromatycznej serii włókien mikrostrukturalnych o silnie nieliniowych właściwościach do generacji typu supercontinuum (Zbigniew Hołdyński, Michał Szymański, Michał Murawski, Paweł Mergo, Idzi Merta, Małgorzata Gawrońska, Paweł Marć, Leszek R. Jaroszewicz, Tomasz Nasiłowski)
Włókna mikrostrukturalne (MSFs) posiadają niezwykle atrakcyjne własności umożliwiające badanie efektów nieliniowych [1]. Jednym z stosunkowo niedawno odkrytych najbardziej znanych efektów nieliniowych jest proces generacji typu superconinuum. Tego typu generacja została opisana teoretycznie z dodatkowym numerycznym opisem zachodzących zjawisk z uwzględnieniem parametrów geometrycznych włókien [1]. Precyzyjne opracowanie własności dyspersyjnych pozwala na określenie wpływu na poszczególne efekty nieliniowe [13]. Istotna jest możliwość szerokiego przestrajania własności dyspersyjnych w kierunku normalnym lub anomalnym [6, 9, 11]. Tolerancje technologiczne decydują o uzyskiwanych właściwościach dyspersyjnych włókien dlatego muszą spełniać odpowiednie poziomy korelacji z numerycznymi rezultatami w celu zachowania odpowiednich parametrów. Większość prezentowanych dotychczas rezultatów charakteryzacji dyspersji chromatycznej w MSFs dotyczy jednego lub dwóch włókien które są weryfikowane z numerycznymi rezultatami [2, 3, 4, 8, 10, 12, 14]. Wpływ tolerancji technologicznych dla licznych serii włókien nie był obiektem badań. Interferometryczna metoda pozwala na charakteryzację bardzo krótkich odcinków włókien wykorzystywanych do generacji typu supercontinuum z ekstremalną precyzją [3, 12]. W artykule przedstawiamy podstawy zasad charakteryzacji własności dyspersyjnych włókien wraz z eksperymentalnymi rezultatami z wykorzystaniem metody interferometrycznej. W rozdziale drugim prezentujemy rezultaty pomiaru dyspersji chromatycznej oraz numerycznych obliczeń. Wyniki pomiaru dla serii światłowodów o zróżnicowanych parametrach geometrycznych pozwolą na uzyskanie informacji na temat możliwości modyfikacji własności dyspersyjnych. Możliwości sterowania parametrami geometrycznymi wiążą się ze zmianą warunków generacji efektów nieliniowych w tego typu strukturach (rys. 1b). Teoretyczne podstawy charakteryzacji własności dyspersyjnych Dyspe... więcej»

Analiza możliwości wykorzystania siatek długookresowych w strukturach gradientowych światłowodów planarnych (Tomasz Kotyczka, Roman Rogoziński)
Obecnie w przemyśle elektronicznym wraz z dynamicznym rozwojem technologii, obserwować można nieustanne dążenie do miniaturyzacji układów, a tym samym redukcji kosztów ich produkcji. Układy elektroniczne stają się coraz mniejsze, tańsze oraz bardziej energooszczędne. Coraz popularniejsze stają się jednostki zintegrowane, w których poszczególne komponenty urządzenia elektronicznego produkowane są w postaci pojedynczego układu. Podobną tendencję widać w dziedzinie układów optycznych. Z dobrze opanowanymi technologiami produkcji, bazując na materiałach wysokiej jakości, można wytwarzać układy optoelektroniczne z dużą precyzją oraz w sposób wysoce powtarzalny. Urządzenia optyczne w stosunku do swoich elektronicznych odpowiedników charakteryzują się przede wszystkim niewrażliwością na obecność oraz zmiany pola elektrycznego i magnetycznego. Mogą pracować w skrajnie trudnych warunkach, a także często dzięki swojej budowie ich czas życia znacząco się wydłuża. Głównym motorem ciągłego postępu oraz poszukiwania nowych rozwiązań jest potrzeba automatyzacji oraz kontroli i nadzoru wszelkiego rodzaju procesów. Dotyczy to zarówno wszystkich gałęzi przemysłu jak również technologii medycznych gdzie główny nacisk kładzie się na niezawodność oraz precyzję działania. Wszędzie gdzie występują trudne warunki lub wymagana jest nieustanna kontrola projektuje się czujniki, które z duża dokładnością oraz w krótkim czasie pozwolą na detekcję pożądanych parametrów. W raz z rozwojem telekomunikacji znaczącą role zaczęły odgrywać układy wytwarzane bezpośrednio na włóknach. Do przykładów takich rozwiązań należą chociażby lasery światłowodowe [16], pompy optyczne, wszelkiego rodzaju czujniki płynów oraz gazów, a także filtry [3, 5, 6, 13, 15]. Te ostatnie oparte są na siatkach długookresowych LPG (Long Period Fiber Grating) [13]. Umożliwiają one sprzęganie mocy poszczególnych modów propagujących się w światłowodzie. Ze względu jednak na ograniczenia mat... więcej»

Technologia i Zastosowania Laserów 2012 (Jerzy Gajda, Ryszard S. Romaniuk)
W jubileuszowym X Sympozjum Techniki Laserowej wzięło udział 120 osób. Zaprezentowano 11 referatów przeglądowych, 42 komunikaty naukowo-techniczne oraz 59 plakatów. Technika laserowa rozwija się w Polsce intensywnie od początku lat sześćdziesiątych. Pierwszy laser w kraju został uruchomiony w roku 1969. Pierwszymi krajowymi ośrodkami badawczymi, w których uruchomiono lasery były Wojskowa Akademia Techniczna (prof. Z. Puzewicz), Politechnika Warszawska (prof. W. Woliński) i Uniwersytet Adama Mickiewicza (prof. F. Kaczmarek). Krajowe środowisko naukowo-techniczne związane z techniką laserową spotyka się od prawie 30 lat na krajowych sympozjach laserowych. Prace prowadzone w kraju w dziedzinie techniki laserowej dotyczą obecnie technologii materiałów laserowych, konstrukcji nowych laserów i związanego z laserami sprzętu, a także nowych aplikacji laserów. Wiele zespołów technicznych uczestniczy w Europejskich laserowych programach badawczych i infrastrukturalnych, dzieląc się i rozpowszechniając wiedzę w tej dziedzinie fotoniki. Technika laserowa jest ważnym narzędziem praktycznym i jednocześnie siłą napędową dla rozwoju wielu dziedzin nauki, techniki, medycyny oraz przemysłu. Obejmuje ona materiały optyczne, materiały laserujące, konstrukcję laserów od gazowych po półprzewodnikowe oraz liczne dziedziny zastosowań. Zakres badanych materiałów jest bardzo szeroki: optyczne, optoelektroniczne, bierne, aktywne, nieliniowe, funkcjonalne, kryształy, półprzewodniki, szkła, metale, gazy i wiele innych. Konstrukcje laserowe obejmują optymalizację istniejących rozwiązań, oraz poszukiwania nowych rozwiązań. Badane są materiały, komponenty, urządzenia laserowe, technologie wytwarzania, techniki pomiarowe parametrów lasera i wiązki optycznej. Rodzaje badanych laserów obejmują: półprzewodnikowe, fotoniczne, gazowe, jonowe, na ciele stałym, na swobodnych elektronach i inne. Sygnały optyczne podlegają generacji, wzmocnieniu, synchronizacji, ko... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Inteligencja obliczeniowa, zastosowania biomedyczne i ontologiczne bazy wiedzy, Wilga 2012 (Ryszard S.Romaniuk)
Kryptografia, bezpieczeństwo sieci pomiarowych Rozproszone sieci kontrolno-pomiarowe, monitorujące krytyczne parametry, wymagają pewnej formy bezpieczeństwa. Szeroki rozkład geograficzny sieci, zbierającej istotne dane przez niezabezpieczone kanały komunikacyjne powoduje, że taka sieć jest podatna na ataki cyfrowe. Kryptograficznie bezpieczny sprzętowy generator liczb przypadkowych dedykowany do zabezpieczenia takich sieci jest badany przez zespół w IRE PW (prof. W. Winiecki) oraz ISE PW (prof. T. Adamski). Motywacją i usprawiedliwieniem badań nad bezpieczeństwem systemów kontrolno pomiarowych jest: sieci takie charakteryzują się znaczną asymetrią mocy obliczeniowej, kanały komunikacji radiowej mają wąskie pasmo, kanały komunikacji fotonicznej mają szerokie pasmo, zasilanie z baterii jest dosyć skromne i wymaga oszczędności energii lub zastosowania technologii energy/power harwesting. Radiowe kanały komunikacyjne RF lub otwarte optyczne są podatne na dodanie informacji, intencjonalną zmianę informacji, interferencję, itp. Istnieje potrzeba zastosowania bezpiecznych podsystemów komunikacyjnych dla takich sieci. Projektowany pod-system bazuje na sprzętowym generatorze liczb losowych, analogicznym do stosowanych w systemach kryptograficznych. Generator prawdziwych liczb losowych TRNG bazuje na nieprzewidywalnym zjawisku losowym, np. szumie białym. Generator liczb pseudolosowych PRNG bazuje na deterministycznym algorytmie obliczeniowym. System zrealizowano na generatorze chaotycznym z zastosowaniem procesora ATmega oraz oprogramowania Python (P. Czernik, IRE PW). W modelu zastosowano generator liczb losowych RDieHarder z zastosowaniem interfejsu GNU R. Zrealizowany TRNG był testowany i okazał się wystarczającym rozwiązaniem dla systemów pomiarowych o asymetrycznych zasobach. Lepsza przypadkowość była osiągana dla mniejszych częstotliwości próbkowania. Bity przypadkowe w przykładowym słowie 10-bitowym są rozmieszczone nierównomi... więcej»

Realizacja nieliniowego ortogonalnego filtru klasy Volterry-Wienera na platformie wieloprocesorowej (Paweł Biernacki)
Rozpatrując wzór opisujący działanie nieliniowego ortogonalnego filtru parametryzującego klasy Volterry-Wienera [3]:gdzie x ρi są uogólnionymi (wielowymiarowymi) współczynnikami Fouriera (Schura) sygnału y(k) [6], łatwo zauważyć, iż parametrami jakie stanowią o złożoności filtru są: rząd filtru N (pamięciowość filtru) oraz stopień nieliniowości filtru M. Zwiększenie któregokolwiek z nich pociąga za sobą szybki wzrost nakładu obliczeniowego potrzebnego do wyznaczenia sygnału y(k). Liczba rotorów w bloku dekorelującym, dla przypadku niestacjonarnego wyrażona jest wzorem: (2) Rysunek 1 pokazuje jak szybko rośnie wartość wyrażenia (2) przy zmianie N lub M.     - L =0 N =0 N =i N =i ,..., i y(k )= ρ x +...+ ... ρx i1 i1 i2 1 iM M 1 ki1 M x ki1 x i1 Filtr ten może działać w trybie off-line i on-line. W pierwszym przypadku w jednym momencie czasu na wszystkich wejściach pojawiają się odpowiednie sygnały wejściowe w postaci wektorów próbek. Każda sekcja filtru (rotor) jest wykorzystana tylko jeden raz w procesie filtracji. Takie działanie filtru wykorzystują procedury parametryzacji sygnału, ekstrakcji... więcej»

Wprowadzenie w problemy, badania i rozwój informatycznych technologii wspomagających komunikację osób niewidomych i widzących w obszarze matematyki (Jolanta Brzostek-Pawłowska, Dariusz Mikułowski )
Próby umożliwienia osobom niewidomym samodzielnego czytania tekstów matematycznych, jak również ich pisania, podejmowane są już od wielu lat. Tego rodzaju badania są prowadzone zarówno za granicą, jak i w Polsce. Mimo to, do dzisiaj nie istnieje kompleksowe, w pełni zadowalające użytkowników, rozwiązanie tego problemu. Główną trudnością przy wspólnej pracy niewidomych i widzących nad tekstem zawierającym formuły matematyczne jest to, że w notacji ludzi widzących są one eksponowane w formie dwuwymiarowych zestawów symboli graficznych. W alfabecie Brajla, którym posługują się niewidomi, ta ekspozycja ma formę zapisu liniowego. Dodatkowym problemem jest to, że w tym liniowym zapisie interpretacja znaczeniowa poszczególnych symboli zależy często od kontekstu (sąsiedztwo z innymi symbolami, odstęp przed lub po symbolu itp.). Automatyczna translacja pomiędzy tymi dwoma sposobami wyrażenia języka matematyki jest problemem dość złożonym. Obecnie na rynku dostępne są rozwiązania zapewniające tylko ograniczoną możliwość zapisu przez niewidomych formuł matematycznych tak, aby były one dostępne dla widzących oraz odczytu przez niewidomych tekstów matematycznych przygotowanych przez osoby widzące. Niektóre z tych sposobów, takie jak pisanie formuł przy pomocy edytora równań w programie MS Word, czy czytanie publikacji matematycznych w formie elektronicznej (PDF, PS) i drukowanej są całkowicie niedostępne dla niewidomych. Inne, takie jak pisanie równań z użyciem różnych środowisk edycyjnych bazujących na języku LaTeX przez użytkownika niewidomego, lub pakietu MS Office, wiążą się z dużymi trudnościami o różnym charakterze. Osoby niewidome są w stanie pisać teksty matematyczne przy pomocy notatników brajlowskich. Jednakże ten zapis jest całkowicie nieczytelny dla widzących nie posiadających znajomości alfabetu brajla oraz zestawu reguł i symboli brajlowskiej notacji matematycznej. Pozostałe, powstające w ostatnich latach rozwiązania tego p... więcej»

Analityczna metoda opisująca działanie układów arbitrażu z rotacją priorytetów (Krzysztof Taborek)
W systemach wieloprocesorowych, ale także w wielu innych urządzeniach np. telekomunikacyjnych, stosuje się tzw. układy arbitrażu (zwane często po prostu arbitrami ). Ich głównym zadaniem jest rozstrzygać konflikty, które powstają gdy wielu klientów (aktywne podzespoły) chce jednocześnie wykorzystać wspólny zasób systemu. W systemie wieloprocesorowym tymi klientami są procesory, które chcą wymieniać dane ze wspólną pamięcią (zwaną także pamięcią globalną). W danym momencie tylko jeden z nich może to robić i układ arbitrażu wybiera spośród zgłaszających się procesorów jednego, któremu udostępnia magistralę, łącząc go z pamięcią globalną. Układ arbitrażu dokonuje tego wyboru stosując określony algorytm (protokół) obsługi zgłoszeń. W układach arbitrażu można zaimplementować różne algorytmy obsługi zgłoszeń np.: FCFS (FIFO), LCFS (LIFO), czy też różne protokoły priorytetowe. W systemach wieloprocesorowych bardzo często stosowane są układy arbitrażu, wykorzystujące protokoły z tzw. rotacją priorytetów [3]. Rodzaje protokołów z rotacją priorytetów Można wyróżnić kilka typów protokołów obsługi z rotacją priorytetów. Działanie dwóch spośród nich pokazano graficznie na rys. 1. Działanie najbardziej popularnego tego rodzaju protokołu przedstawiono na rys. 1 (lewa strona). Algorytm ten można szczegółowo nazwać - z pełną rotacją priorytetów do najniższego. Na tym rysunku i w dalszej części artykułu będzie on oznaczany symbolicznie jako RL. Dla tego rodzaju algorytmu, kiedy arbiter wybrał klienta (zgłoszenie od procesora) o k-tym priorytecie to, po jego obsłudze, klientowi temu nadawany jest najniższy z możliwych priorytetów w systemie. Klienci o wyższych priorytetach (0,... k-1) zachowują swoje priorytety, natomiast klienci o niższych priorytetach (k+1,... K-1) zwiększają swój priorytet o jeden. Algorytm ten charakteryzuje się dużą sprawiedliwością (fairness) w obsłudze klientów [3]. Drugi z protokołów, których działanie przedstawiono na... więcej»

Zastosowanie mikrokontrolera do sterowania ploterem (Wiesław Madej, Paweł Majchrzak)
Obecnie na rynku istnieje wiele wyspecjalizowanych, dokładnych i niezawodnych ploterów o różnorodnej konstrukcji. Niestety w większości przypadków są to rozwiązania stosunkowo drogie. Dlatego też zrodził się pomysł próby opracowania w pełni funkcjonalnego i taniego systemu sterowania ploterem. Jedną z dróg rozumowania może być próba wykorzystania interfejsu IEEE 1284 zwanego również portem LPT. Port LPT posiada 8 dwukierunkowych linii danych, 4 linie nadające sygnały sterujące oraz 5 linii odbierających sygnały kontrolne. Tak więc w najprostszej konfiguracji złącze zapewnia możliwość uzyskania jednocześnie 12 sygnałów wyjściowych oraz 5 sygnałów wejściowych. Fakt ten, jak i łatwość dostępu do rejestrów kontrolnych i sterujących interfejsu był powodem powstania kilku amatorskich lub komercyjnych aplikacji np.: Mach2, STEP2CNC, KCam, Master5, TurboCNC. Pozwalają one w prosty sposób sterować za pomocą jednego interfejsu LPT nawet czterema silnikami krokowymi. Silniki muszą być zasilane przez mniej lub bardziej złożone sterowniki, które wymagają trzech sygnałów sterujących: - uaktywnienie sterownika, - określenie kierunku obrotowego silnika, - sygnał taktujący kolejne kroki silnika. Poza sygnałami sterującymi dysponujemy również możliwością monitorowania sygnałów kontrolnych z wyłączników krańcowych lub wyłączników bezpieczeństwa. Rozwiązanie choć proste w realizacji i w pełni funkcjonalne, nie jest jednak pozbawione wad. Głównym problemem może być fakt ograniczonej liczby sygnałów kontrolnych, jak i ilości sterowanych silników. Należy również zaznaczyć iż standard IEEE 1284 przechodzi niejako do lamusa. Wypierany jest przez inne interfejsy takie jak standard USB czy choćby FireWire. Dlatego też niniejsza praca ma na celu próbę opracowania systemu, który pozwoli na przeniesienie realizacji funkcji sterowania ploterem na zewnątrz komputera. Rola komputera ograniczona zostanie jedynie do wysyłania poleceń kontrolnych i odbierania... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Modulatory Δ z adaptacją interwału próbkowania - rozwiązania predyktorów w technologii CMOS (RYSZARD GOLAŃSKI, JULIUSZ GODEK, JACEK KOŁODZIEJ)
Obszary zastosowań modulatorów z asynchronicznym próbkowaniem, to np.: medyczne techniki obrazowania (tomografia komputerowa i rezonans magnetyczny, rejestracja sygnałów EKG i ogólnie zdalne nadzorowanie), rejestracja zakłóceń impulsowych w liniach energetycznych, czujniki i rejestratory stężenia gazów np. w kopalniach [1]. Istotną cechą metod kodowania różnicowego jest to, że uwalniając całkowitą informację źródła od redundancji i kodując jej pozostałą część, mogą silnie zmniejszać wymaganą liczbę bitów, czyli zwiększać kompresję. Algorytmy modulacji różnicowych w swym opisie funkcjonalnym są bardzo proste, co skłania ku ich bezpośredniej realizacji sprzętowej. Modulatory ANS-DM (ang. Adaptive Nonuniform Sampling - Delta Modulation [2]), to przetworniki różnicowe 1-bitowe z adaptacją zarówno kroku kwantyzacji jak i częstotliwości próbkowania (NS-DM - to przetworniki różnicowe 1-bitowe z adaptacją jedynie częstotliwości próbkowania). Dzięki jednoczesnemu zmniejszaniu odstępu próbkowania τpi (i - kolejny moment próbkowania) i zwiększaniu kroku kwantyzacji qi koder ANS-DM charakteryzuje się dużą szybkością zmian sygnału aproksymującego, przy stosunkowo niewielkim zakresie zmian każdego z adaptowanych parametrów. Zmniejsza to szumy przeciążenia stromości przez ograniczenie przeregulowań [3], zapewniając, wypadkowo wzrost SNR co jest szczególnie istotne przy konwersji analogowych sygnałów niestacjonarnych. Pojawiające się w przetwarzanym sygnale składowe wolnozmienne prowadzą do zmniejszenia odstępów między kolejnymi momentami próbkowania i kroku kwantyzacji, a to z kolei redukuje szum granulacji i średnią przepływność bitową [2, 3]. Zgodnie ze schematem blokowym modulacji ANS-DM, (rys. 1) analogowy sygnał wejściowy x(t) porównywany jest z sygnałem aproksymującym y(t), którego wielkość na wyjściu predyktora w chwilach próbkowania ti wynosi: (1) Operacja kwantowania, podobnie jak w przypadku NS-DM przebiega zgodnie z: (2... więcej»

Wpływ procesu wygrzewania w atmosferze O2 i N2O na właściwości warstwy przejściowej dielektryk/półprzewodnik w kondensatorach MOS Al/SiO2/4H-SiC (Krystian Król, Małgorzata Kalisz, Mariusz Sochacki, Jan Szmidt)
Węglik krzemu (SiC), zaliczany do półprzewodników złożonych grupy AIV-BIV, charakteryzuje się atrakcyjnymi parametrami z punktu widzenia potencjalnych zastosowań w porównaniu z innymi materiałami półprzewodnikowymi, przede wszystkim w zakresie krytycznego pola elektrycznego, przewodnictwa cieplnego i maksymalnej prędkości unoszenia elektronów [1]. Ze względu na wyższe wartości wymienionych parametrów przyrządy półprzewodnikowe wytwarzane na podłożach SiC uzyskują lepsze parametry z zastosowaniach dużej mocy i wysokiej częstotliwości pracujących w podwyższonej temperaturze w porównaniu z przyrządami wytwarzanymi na podłożach krzemowych i na podłożach z arsenku galu (GaAs) [1]. Dzięki szerokiej przerwie energetycznej odmiany politypowej 4H-SiC, wynoszącej 3,26 eV, można znacznie ograniczyć prądy upływu i zwiększyć wartość napięcia przebicia przyrządów pracujących w podwyższonej temperaturze. Jedną z najważniejszych cech węglika krzemu jest możliwość wytwarzania warstwy SiO2 w procesie utleniania termicznego, czyli w procesie pozwalającym na otrzymywanie warstw dielektrycznych wysokiej jakości w najbardziej dojrzałej technologii krzemowej. Uzyskiwana jakość warstwy przejściowej SiO2/SiC jest wyraźnie gorsza w porównaniu z dobrze zbadanym układem SiO2/Si z powodu występowania ładunku stałego w warstwie dielektryka i stanów pułapkowych o dużej gęstości w obszarze opisywanego interfejsu [2, 3]. Pochodzenie stanów pułapkowych jest związane z bardziej skomplikowaną budową materiału dwuskładnikowego, jakim jest węglik krzemu w porównaniu z powszechnie wykorzystywanym w mikroelektronice krzemem. Proces utleniania węglika krzemu ma charakter wieloetapowy i prowadzi do powstawania skomplikowanych w opisie centrów pułapkowych związanych głównie z obecnością zanieczyszczeń węglowych kumulujących się w bezpośrednim sąsiedztwie obszaru przejściowego dielektryk/ półprzewodnik, prowadzących bezpośrednio do obniżenia jakości warstwy dielektr... więcej»

Nanostemplowanie w zastosowaniu do wytwarzania struktur fotonicznych w GaN (Marek Ekielski, Zuzanna Sidor, Marcin Juchniewicz, Mariusz Płuska, Marek Wzorek, Anna Piotrowska, Valery Kolkovsky, Zbigniew Żytkiewicz, Maciej Gruszka, Robert Kucharski)
Azotek galu jest atrakcyjnym materiałem do zastosowań w przyrządach elektronicznych wysokich mocy i dużych częstotliwości oraz zaawansowanych aplikacjach optoelektronicznych [1-3]. Duża odporność chemiczna tego materiału z jednej strony sprawia, że urządzenia mogą pracować w agresywnym środowisku, z drugiej strony utrudnia jego strukturyzację. W przypadku struktur fotonicznych, charakteryzujących się periodycznością, perspektywiczną techniką jest nanostemplowanie. Umożliwia ono wykonanie dużej ilości procesów w krótkim czasie przy uzyskaniu wzorów o wymiarach sięgających 20 nm. Ideą procesu nanostemplowania w trybie Th-NIL jest mechaniczne odciśnięcie wzoru stempla w warstwie rezystu ogrzewanego powyżej temperatury zeszklenia Tg (ang. Glass Transition Temperature), a następnie chłodzonego w celu utrwalenia powstałego odcisku. W przypadku trybu UV, etapem odpowiadającym za utrwalenie powstałego odcisku jest promieniowanie UV, dzięki któremu następuje usieciowanie użytego rezystu. Do transferu submikrometrowych wzorów w głąb azotku galu wykorzystuje się technikę trawienia w plazmie o wysokiej gęstości ICP (ang. Inductive Coupled Plasma). Najszerzej stosowana jest plazma chlorowa oraz jej warianty z domieszką trójchlorku boru [4-6], azotu [7] czy argonu [8, 9]. Celem prezentowanej pracy było opracowanie technologii strukturyzacji GaN technikami nanostemplowania oraz trawienia ICP. Planując badania określono następujące kryteria oceny procesów: - profil trawienia możliwie najbardziej anizotropowy; - szybkość trawienia powyżej 100 nm/min (niższe szybkości powodują wydłużenie czasów trawienia struktur o głębokościach powyżej 1000 nm); - chropowatość wytrawionej powierzchni (RMS) poniżej 20 nm. Eksperyment W eksperymencie wykorzystano trzy rodzaje azotku galu o orientacji (0001): warstwy epitaks... więcej»

Układ do wyznaczania energii kinetycznej pocisków o niewielkiej prędkości (Janusz Tuśnio, Norbert Tuśnio)
Produkowana amunicja strzelecka, artyleryjska i pociski rakietowe podlegają bardzo wszechstronnym badaniom, w których podstawowymi parametrami jest prędkość i energia kinetyczna wyrobów [3]. Metodyka badań i warunki odbioru wspomnianych wyrobów zostały opracowane i dość rzadko podlegają modyfikacjom. Cechą charakterystyczną wymienionych wcześniej wyrobów jest znaczna prędkość wylotowa (rzędu kilkuset m/s) i znakomita powtarzalność toru lotu, co sprzyja pewnym uproszczeniom budowy aparatury kontrolno-pomiarowej. W ostatnich kilkunastu latach pojawiło się wiele wyrobów cywilnych o zasadzie działania amunicji strzeleckiej, których prędkość wylotowa i energia kinetyczna są niewielkie, konstrukcja pocisku sprawia, że tor lotu jest w niewielkim stopniu powtarzalny. Wyrobami tymi są na ogół wystrzeliwane ze służącej zabawie i działaniom sportowym broni pociski z tworzyw sztucznych, których szkodliwe działanie na człowieka w przypadku trafienia musi być zminimalizowane, stąd też normy określające energię kinetyczną tych wyrobów są dość ostre, a dopuszczenie do sprzedaży wyrobu uzależnione jest od pozytywnego wyniku badań certyfikujących. Odbiegający od ostrołuku kształt tych wyrobów sprawia, że tor ich lotu jest w znacznym stopniu przypadkowy, skąd trudność dokonania pomiaru prędkości za pomocą dwóch bramek optoelektronicznych. Również w technice wojskowej istnieją wyroby, których prędkości wylotowe są niewielkie, kształt pocisku odbiega od ostrołuku, a tor lotu jest w pewnym stopniu przypadkowy. Przykładowo są to niewielkie pociski rakietowe imitatorów desantu skoczków spadochronowych lub też uwalniane z lotniczych bomb kasetowych kasety zawierające włókna służące obezwładnianiu (zwieraniu) linii przesyłowych wysokiego napięcia. W pracy przedstawiono zasady wyznaczania prędkości wylotowej i energii kinetycznej wymienionych wcześniej wyrobów oraz konstrukcję układu pomiarowego służącego tym celom. Zasady pomiarów prędkości i ener... więcej»

Mikro- i nanostruktury krzemowe jako materiał termoelektryczny (Marcin Turczyński, Zbigniew Lisik)
Pierwsze generatory o mocy rzędu kilku kilowatów zostały zaprezentowane przez rosyjskich i amerykańskich naukowców w latach 50. XX wieku i znalazły zastosowanie w misjach kosmicznych. Obecnie generacja termoelektryczna skupiona jest na odzyskiwaniu energii cieplnej traconej podczas wielu procesów technologicznych, a najczęściej stosowanym materiałem do budowy elementów termoelektrycznych jest BiTe oraz jego stopy (np. z antymonem czy selenem). Niestety sprawność generatorów budowanych z tych materiałów nie przekracza 5%, a jedną z ich największych wad jest niska maksymalna temperatura pracy wynosząca 300°C. Maksymalna moc dla elementów typu n oraz typu p jest osiągana przy 100°C. Materiał ten jest także zbyt drogi by budowa termogeneratorów na dużą skalę była opłacalna, dlatego ogólnodostępny krzem może stać się rozwiązaniem wyżej opisanego problemu. Krzem jest wykorzystywany od wielu lat do budowy praktycznie każdego urządzenia elektronicznego co powoduje, że technologia jego wytwarzania jest doskonale opanowana, a jego koszt produkcji jest relatywnie niski. Co więcej, krzem charakteryzuje się dobrymi właściwościami elektrycznymi takimi jak współczynnik Seebeck’a oraz przewodność elektryczna, które są składowymi współczynnika efektywności ZT = α2δT/λ, gdzie α - współczynnik Seebeck’a, δ - przewodność elektryczna, λ - przewodność cieplna, T - temperatura bezwzględna. Niestety, dużą jego wadą jest wysoka przewodność cieplna λ, która także jest częścią parametru ZT i jest około sto razy większa niż dla BiTe (porównanie właściwości termoelektrycznych zostało przedstawione w tabeli). Przewodność cieplna jest sumą dwóch przewodności składowych λ = λ l + λ e, sieciowej oraz elektronowej. Pierwsza z nich związana jest z budową krystalograficzną, w której ciepło przewodzą fonony, w drugiej natomiast odpowiedzialne są za to elektrony. Porównanie właściwości termoelektryczny... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Układy przetwarzania sygnałów wyjściowych przetworników bezrdzeniowych o małym poziomie szumów własnych (Aleksander Lisowiec )
Bezrdzeniowe przetworniki pola magnetycznego działające na zasadzie cewki Rogowskiego charakteryzują się doskonałą liniowością w bardzo szerokim zakresie mierzonego prądu. Od dołu zakres pomiarowy jest ograniczony szumami termicznymi rezystancji własnej przetwornika, a od góry napięciem przebicia między zwojami jego cewki. Schemat zastępczy bezrdzeniowego przetwornika pola magnetycznego, zwanego dalej przetwornikiem, przedstawiono na rys. 1. Napięcie pomiarowe Up przetwornika jest proporcjonalne do indukcyjności wzajemnej M cewki przetwornika oraz do pochodnej mierzonego prądu. Indukcyjność wzajemna M jest zależna od parametrów geometrycznych cewki tworzącej przetwornik. Dla prądu sinusoidalnego i (t ) = sin(2 ⋅ π ⋅ f ⋅ t) płynącego w obwodzie pierwotnym przetwornika zachodzi Up(t ) = M ⋅ 2 ⋅ π ⋅ f ⋅ i (t). Iloraz Up(t )/ i (t ), równy 100 ⋅ π ⋅ M dla f = 50 Hz, jest nazywany czułością przetwornika i mówi on, jaka jest wartość RMS napięcia Up dla prądu sinusoidalnego o wartości 1 ARMS płynącego w obwodzie pierwotnym cewki przetwornika. Napięcie na wyjściu przetwornika obciążonego rezystancją Robc wyraża się równaniem: (1) gdzie: (2) F( f ) R R R U U obc obc p o ⋅ + = 2 0 2 0 2 0 ( ) ( ) j f Q f j f f F f f + ⋅ ⋅ + ⋅ = Rys. 1. Elektryczny układ zastępczy bezrdzeniowego przetwornika prądowego Fig. 1. Electrical equivalent circuit of an air core current transducer Up=M(di/dt) L R eR C Robc Uo 92 Elektronika 8/2012 jest charakterystyką częstotliwościową przetwornika [1]. Dla typowych konstrukcji przetwornika charakterystyka częstotliwościowa jest płaska do wartości co najmniej 10 kHz. Właściwości szumowe przetwornika Wartość skuteczna szumów termicznych rezystancji R wyraża się zależnością: (3) gdzie T jest temperaturą w Kelvinach, kB = 1,380658(12) ⋅10-23 J·... więcej»

Sol-gel and ALD antireflection coatings for silicon solar cells (Leszek Adam Dobrzański, Marek Szindler)
The application of one or more antireflection coatings on the front surface of the solar cells reduces the reflection of the incident light, which increases the device efficiency. For solar cells it is important to have a minimum reflection over all the visible spectrum range [1]. The studies of solar cells can be divided into two approaches. One is to reduce production costs, the second is to increasing efficiency of solar cells. The design of low-cost antireflection coatings is possible by using the sol gel method. It is a process for preparing materials at low temperatures from solutions. We can produce different forms of materials include gels, gel-derived glasses, ceramics in form of nano- and micro-powders, bulk, fibres, thin films and coatings as well as more recent materials such as hybrid organicinorganic materials and composites. Controlling of the physical and chemical parameters of production process gives materials with precisely adjusted parameters such as mechanical strength, transparency, size and distribution of the pores. Generally the sol gel method consists in a few steps as shown in Fig. 1 [2-4]. There are many kinds methods of deposition antireflection coatings from solutions. For example, by spinning, dipping or spraying. Spin coating is a fast and easy method to prepare thin and homogeneous organic and inorganic films. Spin coating is a procedure used to deposit uniform thin films onto fla... więcej»

Process-oriented suboptimal controller for SiC bulk crystal growth system (Marek Orzyłowski)
The described controlled system is a furnace for silicon carbide (SiC) bulk crystal growth. This modern semiconductor material is used for the production of electronic elements having properties not available earlier: white and blue LEDs, ultra-fast high-voltage Schottky diodes, MOSFET transistors and high-temperature highcurrent thyristors. These elements work at high frequencies and are both radiation resistant, and temperature resistant up to a few hundred °C. Due to good heat conductivity SiC wafers are used as substrate for other semiconductor compounds. Because of technological difficulties, a high quality SiC wafer costs 350…3500 USD while an equivalent ordinary silicon wafer costs about 5 USD. The technological process of the SiC bulk crystal growth bases on the physical vapor transport (PVT) and takes place at temperatures reaching 2500°C in argon atmosphere of low pressure [1]. The known constructions of systems for such purposes usually base on a single-section inductive heater, although preliminary concepts of construction with resistance heating have appeared [2]. In the presented solution the temperature field is formed by a two-section resistance heater of innovative construction worked out together with the described control system. It is worth emphasizing that the high-temperature part of the system can only be made of graphite, which has both electrical and thermal conductivities high. The reactor with the heating system is closed in a vacuum chamber. It is possible to measure the temperature in the reactor from outside by means of the pyrometers using optical channels, whose number and arrangement affect the temperature distribution inside and brings on significant complication of the construction. The intended suboptimal controller should ensure a relatively low deterioration of the control performance index compared to the optimal value. The concept and the solution of a dedicated suboptimal temperat... więcej»

System zabezpieczeń w urządzeniu do automatycznej kontroli filtrów przeciwzakłóceniowych (Tadeusz KOZŁOWSKI, Kazimierz STROJNY)
System kontroli filtrów typ SKF-11 (rys. 1) przeznaczony jest do automatycznego sprawdzania parametrów elektrycznych, segregacji i znakowania filtrów przeciwzakłóceniowych. Urządzenie obsługiwane jest (w trybie pracy automatycznym) przez 1. operatora, którego rola sprowadza się do układania na transporterze wejściowym filtrów do badania oraz zdejmowania filtrów spełniających kryteria jakości, z transportera wyjściowego po badaniu i znakowaniu. Filtry nie spełniające wymagań (braki) są segregowane i automatycznie wrzucane do odpowiednich pojemników. System sterowania urządzenia składa się z 3 sterowników PLC lokalnych oraz komputera sterującego pełniącego rolę "mastera". Komputer sterujący również wykonuje i zarządza pomiarami parametrów elektrycznych filtrów. Sterowniki lokalne sterują poszczególnymi zespołami urządzenia: ● zespołem karuzeli pomiarowej, ● zespołem podawania filtrów, ● zespołem segregacji i znakowania. Komunikacja w systemie sterowania odbywa się poprzez sieć Ethernet z protokołem Modbus TCP/IP. W przypadku awarii podsystemu podawania filtrów do badania, możliwa jest praca z ręcznym wkładaniem filtrów w głowice pomiarowe, pozostała część ... więcej»

Nowa metoda pomiaru wysokich napięć przy wykorzystaniu materiałów nanokompozytowych (Andrzej Czopik, Sławomir Krawczyk, Katarzyna Olszewska)
Pomiar wysokiego napięcia powyżej 50 kV wykonywany jest zazwyczaj w sposób pośredni przez złożone układy pomiarowe i związany jest często z wydzielaniem dużych mocy, które muszą być odprowadzane. Znanych jest kilka konstrukcji przyrządów i układów wykorzystywanych do pomiarów wysokich napięć stosowanych w zależności od źródła i rodzaju napięcia, warunków zewnętrznych, a także celu pomiaru. Do określania wartości: napięcia stałego, szczytowej napięcia przemiennego, lub szczytowej napięcia udarowego stosowany jest iskiernik. Wykorzystuje on skończoną wytrzymałość elektryczną powietrza i zależność napięcia przeskoku w powietrzu od odległości elektrod, do których to napięcie jest przyłożone. Zazwyczaj stosuje się iskierniki kulowe o znormalizowanych średnicach kul, a wytworzone między nimi pole elektryczne zależy od tych średnic i ich odległości. Na napięcie przeskoku oprócz wielkości pola elektrycznego, wpływają warunki atmosferyczne oraz otaczające przedmioty. Innym przyrządem do pomiaru wysokiego napięcia jest dzielnik napięciowy. Pomiar napięcia za pomocą dzielników polega na zmniejszeniu wartości napięcia doprowadzanego do przyrządu pomiarowego przy możliwie wiernym zachowaniu jego kształtu. W tym celu stosuje się dzielniki rezystancyjne, pojemnościowe lub rezystancyjno-pojemnościowe. Mierzona wartość zależy od stosunku impedancji poszczególnych elementów dzielnika. Przy doborze tych elementów należy również uwzględnić wydzielanie się na nich dużych ilości ciepła w wyniku przepływu prądu. Kolejnym znanym przyr... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
AMMONO-GaN substrates for microwave and RF electronics applications (ROBERT Dwiliński, ROMAN Doradziński, LESZEK Sierzputowski, ROBERT Kucharski, MARCIN Zając)
At present, next generation of high-efficiency lighting and highpower electronics are one of the focus areas for energy saving innovation technologies in world industry. Gallium Nitride semiconductor crystallizes in wurtzite-type structure and has wide, direct band-gap (about 3.44 eV at room temperature) [1]. Besides, it has high electron mobility, high breakdown voltage, good thermal conductivity and mechanical properties. Therefore, Gallium Nitride (GaN) has attracted a great attention for these material properties that are useful for applications in short-wavelength optoelectronic and high power electronic devices, such as white or colour light emitting diodes (LEDs), blue laser diodes (LDs), UV detectors and high-power -high-frequency transistors. For example, GaN-based High Electron Mobility Transistors (HEMTs) are characterized by at least one order of magnitude higher power density and efficiency than Si- and GaAs-based conventional devices [2], enabling 10-fold reduction of electronic chip size under the same output power. However, the currently available devices use GaN deposited by heteroepitaxy on sapphire or SiC substrates. The resulting thin films suffer from large defect concentrations (dislocation density 106 - 109 cm-2), mainly due to a difference in lattice parameters and thermal expansion coefficients between such non-native substrates and GaN. High dislocation density also increases the level of energy dissipation in HEMTs used for high power electronics. Therefore, the development of low-cost optoelectronic and HEMT devices of sufficiently high efficiency is limited due to a lack of suitable substrates for growing homoepitaxial structures. Under such circumstances, the use of truly bulk GaN substrates would be an ideal solution of this problem. At the moment, satisfactory results were obtained by growth of thick layer by Hydride Vapor Phase Epitaxy (HVPE) [3], used commercially for fabrication of lasers in ... więcej»

CMOS inverter based analog multipliers - new experimental results and improvement study (Witold MACHOWSKI, Jacek JASIELSKI)
Starting from Naut's famous transconductor [1] complimentary push-pull CMOS inverter, invented by Wanlass and dedicated for low power digital logic has been more and more frequently used in analog applications [2-6]. Various authors have different motivations for such approach - one might be expected compatibility of EDA tools for both digital as well as analog CMOS, despite full design automation for analog so far seems to be unreachable goal. Our interest for inverter based analog circuits is motivated by extremely low supply voltage requirement of this block - just double threshold voltage, which is the minimum one, as long as circuits working in saturation region are under consideration. While most authors focus on linear analog applications, our unique contribution to this area is a design of the firsts and single so far known architecture of four quadrant analog multiplier based entirely on CMOS inverters [7, 8]. The analog multipliers, on the other hand, are versatile building blocks used for numerous communication signal processing applications like Phase-Lock Loops (PLLs), automatic variable gain amplifiers, mixers, modulators, demodulators and many other non-linear operations - including division, square rooting, frequency conversion etc. Thus they are necessary in any more sophisticated VLSI design. In the paper we describe a quarter-square analog four-quadrant multipliers based on aforementioned proprietary core architecture using four CMOS quasi-inverters. An emphasis on auxiliary circuit implementation for improved driving of the same core [9,10] was put as well as new architecture comprising regular inverters has been found [11]. Our most recent journal paper [10] on the subject does contain post-layout simulation results only, while now some new experimental data are available. In current paper we recall some simulation results and compare them with that of real prototype measurements. Two different arch... więcej»

SAR/InSAR Raw Data Simulator using 3D terrain model (Damian Gromek, Artur Gromek, Krzysztof S. Kulpa, Mateusz Malanowski, Piotr Samczyński)
The research on new SAR algorithms are based on the theoretical background, algorithms verification using simulations and real-life data tests. The real experiments are expensive and time consuming. Due to that many researchers and software developers put many efforts to design and develop efficient tools for SAR simulations. Last years it has been design and developed many SAR simulators using different solvers [1], [3], [4], [5], [6], [7]. One of the simulator has been proposed and design by Warsaw University of Technology in 2003 [1], [3]. Due to the available that time computational power, the simulator was used to test a SAR algorithms based on the simple scene definitions, which include few dominant scattering in the scene [1], [3]. Such solution allowed for testing most of SAR algorithms, where have been tested such phenomena as non-linear flight path, geometrical distortion of the SAR image, etc [8], [9], [11], [12]. The computational power and required computer memory in the solver used for simulation depends linearly with the number of scattering points in the scene. That time it was not possible to simulate a complex and realistic scene including ground (consist of many scatterers) and shadowing, double and multi-bounds effect. The available in the market computational power and participation in the projects, where new SAR algorithms have to be developed [10], [11], [12], [13], [14], led authors to developed a new extended version of the SAR/ InSAR simulator. This paper presents new results of simulation, where the real DTM models of the Earth has been used. Simulator description Simulation are basing on given radiolocation scene and the parameters of the transmitted radar signal, then simulator solver generates a radar echo. The simulator knowing the location of the radar and of the object in the radiolocation scene. Based on this knowledge, the distance fr... więcej»

Analiza właściwości cienkich warstw TiO2:Tb jako powłok fotokatalitycznych (Damian Wojcieszak, Danuta Kaczmarek, Jarosław Domaradzki, Eugeniusz Prociów, Michał Mazur, Piotr Domanowski )
Rozwój nowoczesnych technologii związany jest obecnie w dużym stopniu z właściwościami oraz z możliwościami zastosowania materiałów na bazie tlenków metali. Jednym z takich materiałów jest dwutlenek tytanu (TiO2), który ma szereg takich zalet jak np. duża przezroczystość, duża stabilność termiczna, chemiczna i mechaniczna oraz duża aktywność fotokatalityczna [1-3]. Właściwości dwutlenku tytanu mogą być modyfikowane m.in. przez zmianę parametrów procesu nanoszenia [4], domieszkowanie [4, 5] lub też przez obróbkę poprocesową (np. wygrzewanie) [6]. TiO2 jest uznanym materiałem fotokatalitycznym, powszechnie stosowanym przy wytwarzaniu powłok samoczyszczących. Jego aktywność fotokatalityczną można dodatkowo zwiększyć wytwarzając materiały o większej powierzchni aktywnej lub stosując domieszki np. w postaci takich pierwiastków ziem rzadkich jak terb, europ, czy też neodym [2, 3, 5]. Część eksperymentalna Cienkie warstwy TiO2 i TiO2:Tb naniesiono metodą wysokoenergetycznego rozpylania magnetronowego, rozpylając metaliczne targety Ti oraz Ti... więcej»

Detection of targets in two band radar (Tadeusz Brenner, Jan Hardejewicz, Marek Rupniewski, Marek Nałęcz)
The idea of fusion of signals from different bands described in the presented solution is based on the concept of fusion of orthogonal signals (summation of non-coherent signals - square amplitudes) in common signal processing unit. This method, called MIMO (Multiple Input Multiple Output) [1], uses, in general, many transmitters and receivers and exploits space and/or frequency diversity of received signals. In our case we use two inputs and two outputs i.e. two active radars working in the same place, but in two different bands (S and C). Hence we get a typical frequency diversity. The same idea can be used in any multiband case as well. The paper deals with the potential capability of such fusion when the two transmit-receive antennas are placed back to back. This means that the signals received from the same target are shifted half of the antenna’s rotation period apart. In consequence the signals from the same range-azimuth-elevation cells cannot be directly summed because of unknown target velocities. The summation (fusion) is possible only after track initiation of a target, i.e., when the target position in a half of antenna rotation period can be predicted. It is self-evident that the profit of such fusion algorithm results from the frequency diversity of independently fluctuating signals. In our case there is an additional benefit due to the cueing. Namely, it allows to lower the threshold of detection within the predicted region of the tracking gate. The profit obtained in this way depends on the number of cued targets and the dimensions of the predicted targets gates. Another advantage is that the refreshment rate of tracked objects is doubled. Diagram of data and signal fusion The proposed block diagram of the signal processing subsystem, including fusion of signals and data from different bands, for the case of two-band radar is shown in Fig. 1. In the both ... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Badanie wpływu alkoholi na odpowiedź funkcjonalizowanych czujników impedancyjnych (Konrad CHABOWSKI, Piotr PAŁETKO, Karol NITSCH, Tomasz PIASECKI, Piotr GRABIEC, Paweł JANUS, Teodor GOTSZALK)
Obecnie obserwuje się wzrost zainteresowania zastosowaniem monowarstw samoorganizujących (Self Assembled Monolayer - SAM) do funkcjonalizacji powierzchni bioczujników [1]. W badaniach właściwości elektrycznych warstw samoorganizujących na powierzchni SiO2 czujnika wykorzystuje się min. metodę spektroskopii impedancyjnej [3, 8]. Wiadomym jest, że konduktywność i przenikalność elektryczna cieczy wpływa na odpowiedź planarnego czujnika impedancyjnego. Celem niniejszej pracy było zbadanie, czy jest możliwa identyfikacja zjawisk zachodzących na powierzchni międzyelektrodowej czujnika w zależności od jej właściwości fizykochemicznych zmienianych za pomocą funkcjonalizacji w środowiskach modelowych cieczy. Powierzchnia międzyelektrodowa może adsorbować molekuły cieczy, w której znajduje się czujnik, tworząc dodatkową warstwę przewodnictwa powierzchniowego lub sama wykazywać przewodnictwo. Kształtuje w ten sposób dodatkowy kanał przepływu ładunku elektrycznego w zdominowanym przez przewodnictwo objętościowe środowisku. Pomiary właściwości zmiennoprądowych czujników przeprowadzono w wybranych cieczach z szeregu homologicznego pierwszorzędowych alkoholi zawierające odpowiednio 1, 2, 3, 4, 6 i 8 atomów węgla w łańcuchu alkilowym. Miniaturowe czujniki impedancyjne Na rysunku 1 przedstawiono miniaturowy czujnik impedancyjny ze złotymi elektrodami o strukturze palczastej wykonane na krzemie. Dla zapewnienia separacji galwanicznej elektrody oddzielono od podłoża warstwą dwutlenku krzemu. Odległość między elektrodami i szerokości palców elektrod wynosiły 20 μm zaś cały czujnik miał wymiary 0,6×1 mm2. Sensor zaprojektowano tak, aby można było umieszczać go we wtyczce micro USB B, co wyeliminowało kon... więcej»

Nanokompozyty TiO2 / SnO2 jako rezystancyjne sensory gazu (Anna KUSIOR, Joanna KLICH-KAFEL, Marta RADECKA, Maria LUBECKA, Adam CZAPLA, Katarzyna ZAKRZEWSKA)
Rezystancyjne detektory gazów na bazie prostych tlenków metali, takich jak TiO2 i SnO2 są znane od wielu lat, jednakże pomimo dużej czułości ich podstawową wadą jest brak selektywności. Czujniki gazów na bazie TiO2 w przeciwieństwie do SnO2 pracują w bardzo wysokich temperaturach. Ostatnio obserwuje się rosnące zainteresowanie materiałami kompozytowymi, które składają się z dwóch tlenków metali, np. SnO2/ZnO, Fe2O3/ZnO, Fe2O3/SnO2, WO3/SnO2 dla aplikacji sensorowych. Kompozyty TiO2/SnO2 znane są jako czujniki wodoru i materiały katalityczne [1-4] gdyż łączą najkorzystniejsze właściwości poszczególnych składników. Mechanizm detekcji amoniaku jest bardziej złożony [5-7]. Na powierzchni czujnika zachodzą dwa przeciwstawne procesy. Oddziaływanie NH3 z zaadsorbowanym tlenem na powierzchni powoduje obniżenie oporu oraz powstanie H2O i NOx (NO i NO2), natomiast reakcja pomiędzy amoniakiem a tlenkami NO i NO2 jest odpowiedzialna za wzrost oporu. Oba zachodzące jednocześnie p... więcej»

Detekcja neutronów i detekcja radonu przy wykorzystaniu krzemowych detektorów naładowanych cząstek – nowa koncepcja osobistej dozymetrii (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Michał CIEŻ, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrze j PANAS, Werner RÜHM, SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Marek WIELUNSKI, Krzysztof WITEK, Michał ZABOROWSKI)
W Institut für Strahlenschutz, Helmholtz Zentrum München (HZM) opracowywane są przyrządy nowej generacji do monitorowania zagrożeń radiacyjnych, wykorzystujące detektory krzemowe. Są one jednymi z pierwszych na świecie miniaturowych, zasilanych bateryjnie przyrządów tego typu - o wymiarach porównywalnych z dozymetrami kliszowymi. Czas ich nieprzerwanej pracy bez wymiany baterii przekracza 6 miesięcy. Pomiar odbywa się w sposób ciągły (w czasie rzeczywistym), co umożliwia natychmiastowe sygnalizowanie zagrożeń. Wyniki pomiarów są gromadzone w pamięci, dzięki czemu możliwe jest kontrolowanie historii występowania zagrożeń. W Instytucie Technologii Elektronowej (ITE) opracowywane są we współpracy z HZM i wytwarzane detektory krzemowe do opracowywanych w HZM przyrządów. Detektory te, dla spełnienia wymagań stawianych przez przyrządy nowej generacji muszą charakteryzować się ekstremalnie dobrymi parametrami (bardzo mały prąd ciemny, bardzo małe szumy, duża czułość, duża powierzchnia aktywna, małe napięcie pracy). W niniejszej pracy opisano opracowane w ITE sensory neutronów dla dozymetru neutronów do monitorowania składowisk zużytego paliwa nuklear... więcej»

Evaluation of surface morphology of texturized Si wafers for solar cells applications (Sławomir Białas )
Nauką zajmującą się pozyskiwaniem energii elektrycznej z promieniowania słonecznego jest fotowoltaika, a jej głównym kręgiem zainteresowań są ogniwa słoneczne (ogniwa fotowoltaiczne, ogniwa PV). Sprawność ogniwa słonecznego, a więc jego zdolność do efektywnej konwersji promieniowania świetlnego na prąd elektryczny, zależy od szeregu czynników takich jak: ● rodzaj i grubość materiału użytego do wytworzenia ogniwa, ● technologia wytworzenia, ● zasłonięcie obszaru ogniwa pod elektrodą, ● warunki pracy (widmo promieniowania, temperatura, zacienienie), ● straty wynikające z nieabsorbowania fotonów wysoko- i niskoenergetycznych, ● straty wynikające z rekombinacji nośników prądu i rezystancji pasożytniczych, ● straty wynikające z odbicia promieniowania od powierzchni ogniwa. Ostatni z wymienionych czynników można minimalizować dzięki teksturyzacji, to znaczy rozwinięciu powierzchni w taki sposób, aby promieniowanie nie ulegało odbiciu, lecz pochłonięciu. Im więcej promieniowania zostanie pochłonięte, tym więcej fotonów dotrze w głąb materiału, a więc jest większe prawdopodobieństwo zajścia efektu fotowoltaicznego. Badania nad teksturyzacją powierzchni ogniw krzemowych prowadzone są przez autora niniejszej publikacji w ramach pracy magisterskiej w Zakładzie Mikroelektroniki i Nanotechnologii WEMiF Politechniki Wrocławskiej. Skupiono się nad znalezieniem najbardziej optymalnej geometrii tekstury, która wytworzona na powierzchni podłoża krzemowego zapewniałaby możliwie najmniejszy (a wręcz zerowy) współczynnik odbicia. W tym celu przeanalizowano zaprezentowane w literaturze symulacje komputerowe różnych struktur. Następnie zbadano (przy użyciu mikroskopii SEM) morfologię powierzchni podłoży krzemowych poddanych procesowi teksturyzacji. Celem analiz było skorelowanie geometrii powstającej tekstury ze spektralną charakterys... więcej»

Model and design of integrated LTCC piezoelectric accelerometer and package (Arkadiusz DĄBROWSKI, Dominik JURKÓW, Tomasz ZAWADA, Leszek GOLONKA)
Low Temperature Co-fired Ceramics (LTCC) and thick-film technology can be applied not only in fabrication of multilayer electronic circuits, but also in microsystem technology [1, 2]. The LTCC technology is based on flexible ceramic tape processing. 3-dimensional devices with cavities, channels, beams and diaphragms are made of properly machined stacked layers of the ceramic tape. It is possible to build various type of sensors e.g. pressure sensor [5] and force sensor [3] utilizing the LTCC technology. There is also possible to use ceramic materials to fabricate packages for electronic circuits or devices made of e.g. Si [4]. In this paper the model and preliminary project of the LTCC package for piezoelectric accelerometer are presented. The sensor has been successfully designed and manufactured previously. Unpackaged sensor is presented in Fig. 1a. The sensor is made of the LTCC with TF2100 PZT thick film (Meggitt Sensing Systems, Kvistgaard,... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Field characteristic of magnetic sensors on the split hall structures (Roman Holyaka, Zenon Hotra, Mariusz Węglarski, Tetyana Marusenkova)
Galvanomagnetic sensors are widely used for magnetic field measurement due to their capability to work in a wide range of magnetic flux density (from 10-6 T to several tens of Tesla) and temperature (from 1 K to 400 K), their small sizes (several millimeters) and low cost (in large-scale production) [1, 2]. Hall sensors are a kind of galvanomagnetic sensors. A typical Hall sensor is a rectangular semiconductor slab with two pairs of electrodes: one pair is used for energizing the slab whilst the other is intended for Hall voltage measurement (these two electrodes are referenced to as potential electrodes, they are placed symmetrically along the current-flow line) [3, 4]. One can distinguish two typical variants of probes of Hall sensors - with normal (transverse) and with axial position of a sensor in a probe. Such probes are intended for measuring the only magnetic-field vector’s projection which is normal to the probe’s work surface. This fact causes two problems. The first problem is restricted spatial resolution; the second one is impossibility of simultaneous measurement of three magnetic-field vector’s projections (BX, BY, BZ) in a certain point of space. As shown in Fig. 1a, there no difficulties concerned to measurement of the magnetic-field vector’s projection normal to a certain surface. In order to measure this projection sensor is to be placed immediately on this surface. The distance d between the surface being measured and the effective layer (active region) can be rather short and depends on the width of the effective layer’s substrate. Thinning the substrate appropriately, one can achieve the distance d nearly equal to 0.2…0.3 mm. However if the magnetic-field vector’s projections parallel to the surface are to be measured then the sensor’s structure is to be set vertically (Fig. 1b). This causes the minimal possible distance d between the sensor’s active reg... więcej»

LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient’s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor’s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient’s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article “Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

World Telecommunication and Information Society Day 2012 (WTISD): "Women and Girls in ICT" (Hamadoun I. Touré)
Dear Sir/Madam, World Telecommunication and Information Society Day, celebrated each year on 17 May, marks the anniversary of the signature of the first International Telegraph Convention in 1865 which led to the creation of the International Telecommunication Union. I am... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding ’noisy’ directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Szeregowanie zadań periodycznych w heterogenicznych systemach wieloprocesorowych (Mirosław Gajer)
Teoria szeregowania i alokacji zadań obecnie rozwijana jest równolegle przez badaczy działających w ramach dwóch różnych dyscyplin naukowych, do których zaliczają się badania operacyjne oraz architektury systemów komputerowych. W przypadku drugiej z wymienionych gałęzi wiedzy, zasadniczym celem jest wskazanie miejsca wykonywania zadań obliczeniowych, tzn. określenie do której jednostki obliczeniowej zostaną przydzielone, oraz wyznaczenie czasu rozpoczęcia i zakończenia ich realizacji [1]. Teoria szeregowania zadań nabiera szczególnego znaczenia w kontekście komputerowych systemów sterujących, a zwłaszcza systemów czasu rzeczywistego o ostrych ograniczeniach czasowych (ang. hard real-time), w przypadku których naruszenie ograniczenia czasowego dowolnego z zadań obliczeniowych prowadzić może do trudnych do oszacowania skutków, będących następstwami powstania poważnej awarii, katastrofy, wielkich strat finansowych, a nawet zagrożenia życia ludzkiego [2]. Ponieważ obecnie systemy czasu rzeczywistego spotykane są praktycznie w każdym obszarze technicznej działalności człowieka, a zwłaszcza w energetyce, telekomunikacji, transporcie, inżynierii biomedycznej i zautomatyzowanych systemach produkcyjnych, kwestie bezpieczeństwa pracy tego typu systemów nabierają szczególnego znaczenia [3]. Ponieważ w przypadku komputerowych systemów sterujących w żadnym wypadku nie można pozwolić sobie na przeprowadzane w warunkach rzeczywistych eksperymenty, które mogłyby nieść ze sobą pewne katastrofalne następstwa, zatem pozostaje jedynie wykorzystanie dostępnych metod formalnych i wykazanie już samym etapie projektu systemu, że w każdych możliwych warunkach jego pracy każde z wykonywanych zadań obliczeniowych zawsze dochowa swego ograniczenia czasowego [4]. Jest to niezmiernie ważne, jeśli weźmie się pod uwagę, że w przypadku systemu czasu rzeczywistego uzyskanie poprawnych wyników, pod względem ich analizy logicznej, lecz spóźnionych, jest całkow... więcej»

Fabrication and properties of multilayer capacitors with multicomponent ferroelectric dielectric (Jan Kulawik, Dorota Szwagierczak)
Multilayer ceramic capacitors can offer small size, high capacitance, stable temperature characteristics, high reliability and low cost [1-8]. The successful attainment of these features is strongly dependent on applied dielectric materials. The MLCC structure manufactured in LTCC process consists of alternate dielectric layers and metallic electrodes in parallel configuration. High dielectric constant, small thickness and large number of dielectric layers are factors determining high volumetric efficiency of a multilayer capacitor. The progress in tape casting and LTCC technology has made it possible to produce hundreds of very thin dielectric layers with a thickness diminished down to 3 μm. The early dielectric formulations are based on BaTiO3 which resulted in necessity of the use of expensive platinum or gold platinum internal electrodes. Application of sintering aids lowering BaTiO3 firing temperature down to 1150°C allowed utilization of cheaper palladium-silver electrodes. A further decrease in this temperature making possible the use of Ag electrodes requires excessive amounts of fluxes and causes detrimental diminishing of dielectric constant of BaTiO3 ceramic. One of the best solutions overcoming these problems is the introduction of relaxor compounds with perovskite structure and a general formula of Pb(B’B")O3 (B’=Mg, Zn, Fe; B"=Nb, Ta, W). High and broad maxima of dielectric permittivity along with low sintering temperature and ability to form thin layers are advantages of capacitor dielectrics containing these materials. In this work the multicomponent composition of dielectric was tailored to attain a few purposes determining processing conditions and desired properties of multilayer capacito... więcej»

HTML5 versus Flash - możliwości tworzenia interaktywnych multimediów dla m-learningu (Jolanta Brzostek-Pawłowska)
Poziom rozwoju standardu HTML5 [4] oraz technologii tworzących środowisko rozwoju i udostępniania aplikacji i treści w tym standardzie jest na tyle zaawansowany, że warto bliżej rozpoznać tę technologię i zacząć stosować w nowych projektach. Większość przeglądarek WWW, tzw. Internetu stacjonarnego (komputery stacjonarne, laptopy) w znacznym stopniu wspiera już HTML5, słabiej radzą sobie z pełnym wykorzystaniem HTML5 przeglądarki mobilne ze względu na ograniczenia sprzętu mobilnego. HTML5 uznawany jest jako idealny dla urządzeń mobilnych, ponieważ może zapewniać dostępność ze wszystkich platform mobilnych. A brak tej dostępności jest zmorą wszystkich deweloperów tworzących rozwiązania na sprzęt mobilny. Konieczność tworzenia kolejnych wersji produktu dla różnych środowisk mobilnych jest czynnikiem pogarszającym wskaźniki efektywności produkcji. HTML5 wykonuje samodzielnie funkcje, dotychczas wspomagane różnymi wtyczkami do przeglądarek ("playery", "viewery"). Dokładniej mówiąc - samodzielnie wraz z przyjaciółmi, jakimi są kaskadowe arkusze stylów CSS level 3 (CSS 3) i Javascript (JS). W HTML5 nie istnieje problem konieczności instalowania wtyczek lub ich niedostępności, czego przykładem może być technologia Flash, niedopuszczona przez Steve Jobsa (Thoughts on Flash, [2]) na urządzenia iPhone i iPad firmy Apple, jako nie otwarty standard. Apple, Google, nawet Microsoft ze swoją technologią Silverlight (konkurencyjną do Flash), idą wyraźnie w kierunku HTML5, CSS3 i JavaScript. Apple i Google stworzyły nawet strony dedykowane promocji HTML5 http://www. apple.com/html5/i http://www.html5rocks.com/. Na tej ostatniej stronie o nazwie "HTML5 Rocks" Google prezentuje rozwiązania, które mogą być wykonane przy pomocy HTML5 (oraz CSS3 i JS) takie, jak: interaktywne prezentacje, przewodniki, "sandboxy" (generowanie gradientów i innych wizualnych obiektów i efektów) i inne nowości HTML5. Wydaje się, że HTML5 może stać się alternatywą dla ... więcej»

Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą ‘VBS & new-cost’ (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Kwantowy efekt Hall'a w epitaksjalnym grafenie otrzymanym w ITME (Lech Dobrzański, Włodzimierz Strupiński, Rafał Stankiewicz, Marta Borysiewicz, Krzysztof Góra, Andrzej Kozłowski, Beata Stańczyk)
Warstwy grafenu otrzymano w ITME oryginalną opatentowaną metodą wzrostu epitaksjalnego [1] na podłożu z węglika krzemu firmy Cree. Wzrost warstw był prowadzony na wypolerowanej stronie krzemowej płytki 4H-SiC o orientacji krystalograficznej (0001). Struktura do pomiaru efektu Hall’a została wykonana metodą fotolitografii i trawienia warstwy grafenu w plazmie tlenowej. Metalizacja kontaktów składała się z dwóch warstw Ti/Au o grubościach odpowiednio 5/200 nm. Wzór metalizacji powstał w wyniku fotolitografii odwrotnej (lift off ). Konstrukcję struktury przedstawiono na rys. 1. Wartość rezystancji ρXX w tym zakresie pól spada, jednak nie do zera, a do wartości ok. 0,1RK. Zmiana nachylenia wykresu ρXY na rys. 2 dla wartości pola ok. ±2T ma miejsce dla wartości rezystancji równej 1/6 RK. Na rysunku 3 przedstawiono wynik pomiaru innej struktury wykonanej na tej samej płytce SiC. Przy wartości rezystancji 1/6 RK występuje wyraźna półka. Rys. 1. Struktura badawcza do pomiaru efektu Hall’a Fig. 1. Hall bar test structure Przepływ prądu wymuszano pomiędzy kontaktami 1-5. Szerokość rezystora wynosi 20 μm, a jego długość 240 μm. W przedstawionej strukturze jest możliwy pomiar napięcia Hall’a pomiędzy kontaktami 3-7, 2-8, ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Właściwości cienkowarstwowych, przezroczystych półprzewodników o zadanym typie przewodnictwa elektrycznego do zastosowań w transparentnej elektronice (Karolina Sieradzka, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Eugeniusz L. Prociów, Tadeusz Berlicki)
W ostatnich latach nastąpił wyraźny wzrost zainteresowania tlenkami o ściśle określonych właściwościach optycznych i elektrycznych. Na takie materiały istnieje obecnie silne zapotrzebowanie m.in. w takich gałęziach przemysłu, jak optoelektronika, fotowoltaika czy też mikroelektronika. Materiały tlenkowe o bardzo dobrej przezroczystości dla światła, zazwyczaj są równocześnie słabymi przewodnikami prądu elektrycznego. Wyjątek stanowią materiały typu TOS (Transparent Oxide Semiconductor) oraz TCO (Transparent Conducting Oxide), w których możliwe jest połączenie tych dwóch przeciwstawnych właściwości [1, 2]. Dobre przewodnictwo elektryczne w przezroczystych materiałach tlenkowych można uzyskać, między innymi, przez wytwarzanie tlenków niestechiometrycznych lub przez ich domieszkowanie. Tlenki niestechiometryczne, jak np. TiO2-x ze względu na występowanie w ich sieci krystalicznej licznych wakansji tlenowych wykazują dobre właściwości przewodzące. Jednakże, charakteryzują się również gorszą przezroczystością dla światła oraz są niestabilne. Wygrzewanie w powietrzu powoduje zazwyczaj ich utlenienie, a to przekłada się z kolei na pogorszenie ich przewodnictwa elektrycznego. Metodą, która powszechnie stosowana jest w przemyśle mikroelektronicznym w celu zmiany właściwości elektrycznych różnych materiałów jest domieszkowanie. W wypadku tlenków na bazie TiO2 metoda ta jednak nie jest prosta i wymaga niekonwencjonalnego podejścia. W przeciwieństwie do konwencjonalnych półprzewodników, w których występują wiązania kowalencyjne, tlenki są to materiały o wiązaniach jonowych. Mechanizm przewodnictwa elektrycznego w tlenkach półprzewodnikowych jest podobny do tego, który występuje w półprzewodnikowych materiałach amorficznych. Wraz z wprowadzeniem domieszek w przerwie energetycznej takich materiałów pojawiają się dodatkowe, poziomy energetyczne. Płytkie poziomy donorowe lub akceptorowe, zlokalizowane są w pobliżu środka przerwy energetyczne... więcej»

Magnetronowe rozpylanie – technika i technologia (Witold M. Posadowski, Artur Wiatrowski, Katarzyna Tadaszak, Józef Kudzia)
Cienkie warstwy materiałów jednoskładnikowych, stopów i związków chemicznych mogą być otrzymywane metodą rozpylania magnetronowego. Na podłożach o różnych kształtach i rozmiarach, możliwe jest osadzanie warstw przewodzących, półprzewodnikowych i dielektrycznych. Nanowymiarowe struktury cienkowarstwowe jedno- i wieloskładnikowe mogą być wykonywane w postaci wielowarstw, kompozytów, cermetów, mieszanin itp. Atrakcyjność metody magnetronowego rozpylania wynika z możliwości równomiernego, wysokowydajnego osadzania warstw na różnego kształtu powierzchniach, co pozwala spełniać wymagania procesów przemysłowych. W Zakładzie Technologii Próżniowych i Plazmowych, Wydziału Elektroniki Mikrosystemów i Fotoniki, Politechniki Wrocławskiej prowadzone są badania niekonwencjonalnych procesów magnetronowego rozpylania. Obejmują one opracowywanie i wykonywanie prototypów nowych źródeł magnetronowych oraz badania procesów technologicznych realizowanych za pomocą tych urządzeń. W badaniach są wykorzystywane wyrzutnie magnetronowe typu WM (WMK - kołowa, WMP - prostokątna, WMC - cylindryczna), których konstrukcja jest opracowywana pod kątem realizowania oryginalnych technologii nanoszenia cienkich warstw, ze szczególnym uwzględnieniem procesów autorozpylania i impulsowego reaktywnego osadzania cienkich warstw. Układy magnetronowe typu WM Koncepcja budowy magnetronów WM uwzględnia możliwość stosowania tych urządzeń w wysokowydajnych, powtarzalnych procesach technologicznych. Układ magnetyczny magnetronów zapewnia prawidłowe działanie przy stosunkowo niskich ciśnieniach pracy z jednoczesnym efektywnym wykorzystaniem materiału rozpylanego. Wybrane parametry rodziny magnetronów typu WM przedstawiono w tabeli oraz na rys. 1. Układy WM cechuje możliwość pracy przy mocach targetu (znacznie większych) oraz ciśnieniach roboczych (znacznie niższych) odbiegających od wartości stosowanych w standardowych układach magnetronowych. Jest to możliwe dzięki efek... więcej»

BDD z atrybutem negacji w syntezie ukierunkowanej na elementy XOR (Dariusz Kania, Adam Opara)
Struktury matrycowe CPLD (ang. Complex Programmable Logic Devices) stanowią jedną z grup układów programowalnych. Architektura tych układów obejmuje programowalną matrycę połączeń otoczoną na obrzeżach konfigurowalnymi komórkami logicznymi. Charakterystycznym elementem komórki, występującym w większości układów CPLD jest blok kombinacyjny podobny do struktury PAL. Zawiera on pewną, stałą, czasami zmienną liczbę iloczynów dołączonych do sumy. Tego typu blok zwykle nazywany jest blokiem logicznym typu PAL. Blok ten występuje w większości dostępnych obecnie na rynku układów CPLD. Struktury takie można precyzyjnie nazwać układami CPLD typu PAL, w odróżnieniu od drugiej, obecnie bardzo mało popularnej rodziny układów zwanych układami CPLD typu PLA. Charakterystycznym elementem bloków logicznych zawartych w strukturach CPLD jest bramka XOR. Obecność tego elementu może istotnie wpłynąć na efektywność syntezy, której nadrzędnym celem jest minimalizacja liczby iloczynów. Obecność bramki XOR pozwala na bezproblemową realizację funkcji z warunków działania, bądź niedziałania, umożliwia negację wyrażeń, co bezpośrednio wpływa na możliwość ograniczenia liczby iloczynów niezbędnych do realizacji funkcji. Uogólniona struktura bloku logicznego typu PAL z elementem XOR przedstawiona jest na rys. 1. Klasyczna metoda syntezy układów realizowanych w strukturach CPLD typu PAL, przedstawiona między innymi w pracach [1, 5] rozpoczyna się zwykle dwupoziomową minimalizacją wykonywaną dla każdej funkcji oddzielnie, po której następuje etap odwzorowania technologicznego zminimalizowanej postaci funkcji w k-iloczynowych blokach logicznych typu PAL. W przypadku funkcji, będących sumą p implikantów (p>k), zachodzi potrzeba wykorzystywania większej liczby bloków poprzez wprowadzanie sprzężeń zwrotnych zwiększających czas propagacji sygnału. Tego typu metodologia jest powszechnie wykorzystywana w komercyjnych systemach syntezy. Znane są oczywiście od daw... więcej»

System detekcyjny elektronów wtórnych i wstecznie rozproszonych do obrazowania 3D w niskopróżniowej SEM (Witold Słówko, Michał Krysztof)
Skaningowa Mikroskopia Elektronowa (SEM) jest szeroko rozpowszechnionym narzędziem badawczym i pomiarowym, historycznie rzecz biorąc uważanym za instrument próżniowy, umożliwiający obrazowanie dwuwymiarowe. Prace prowadzone w ostatnich latach zmieniają te cechy, pozwalając na obserwacje wymagających tego obiektów w atmosferze gazowej (VP SEM -Variable Pressure SEM), lub trójwymiarowe (3D) obrazowanie topografii ich powierzchni. Autorzy mieli już okazję przedstawić w Elektronice wyniki swoich prac w obu wymienionych technikach badawczych [1, 2], jednak zupełnie nowym przedsięwzięciem jest ich połączenie, zmierzające do trójwymiarowego obrazowania topografii obiektów badanych w atmosferze gazowej, np. preparatów nieprzewodzących, czy też zawierających wodę [3]. Autorzy stosują w swych pracach techniki wielodetektorowe wywodzące się z metody fotometrycznej [4]. W tym wypadku, synteza obrazu trójwymiarowego opiera się na informacjach wynikających z rozkładu kątowego elektronów wtórnych i wstecznie rozproszonych. Zakłada się, że jest to rozkład lambertowski, a kierunkowy przepływ elektronów z danego punktu emisji do czterech symetrycznie rozmieszczonych detektorów jest źródłem sygnałów, których wzajemna relacja jest miarą nachylenia powierzchni w tym punkcie. Sygnały te są zapamiętywane w formie czterech obrazów wejściowych. Całkowanie nachyleń zgodnie z siatką obrazową pozwala na wyznaczenie kształtu powierzchni, zapamiętywanego w formie bit-mapy wysokości. Powierzchnia może być wizualizowana w dowolnej formie, z wykorzystaniem znanych technik komputerowych. Nowym problemem wynikającym z zastosowania opisanej techniki w atmosferze gazowej jest rozpraszanie elektronów na skutek zderzeń z molekułami gazu... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju – część 2 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej gabarytowo i ciężkiej aparatury na platformie samochodowej (mobilnej) było praktycznie niemożliwe. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, ogólnie zarówno w płaszczyźnie elewacji, jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można w razie potrzeby dynamicznie regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, rakiety, w tym balistyczne, oraz różnego rodzaju pociski, głównie moździerzowe. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Pojęcie radaru wielofunkcyjnego odnosi się do nowoczesnych systemów radiolokacyjnych, które oprócz "standardowego" określenia współrzędnych położenia wykrywanych celów ruchomych p... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
EMC Aspects in microelectronics structures made in LTCC technology (Wiesław SABAT, Dariusz KLEPACKI, Włodzimierz KALITA)
The fast development of LTCC technology (Low Temeperature Cofired Ceramic) is observed in relation to realization of multilayered hybrid structures. It is applied for manufacturing of wide range of microelectronic circuits, especially MCM-C structures (Multi Chip Module on Ceramics) which are used in different areas of industry. The multilayered structures, sensors, microsystems, passive elements, microwave elements can be found in telecommunication, informatics, radioengineering, mechatronics, transport, etc. The possibility of creation of channels and cavities inside of LTCC module allows to realization of chemical microreactors, hydraulic systems in microscale (together with pumps and valves), fuel cells, flat plasma displays, sensors of physical quantities and systems applied in biotechnology and medicine [1, 2]. Parasitic elements of paths’ system The calculations of mutual capacitance CM and effective inductance Lz (for two parallel paths system with parametrically changed the mutual distance "s" and paths width "w") were made using elaborated PACAPIND program. They allowed to determine range of parameters changes of parasitic elements in typical LTCC structure for three basic configurations. For experimental investigations (determination of per-unitlength parameters) the test circuits were made in configuration of mutual parallel path systems (Fig. 1) on the basis of silver conductive paste HF612Ag and LTCC substrate 943PX from DuPont. The test circuits were made in three configurations: onelayered, two-layered with ground plane (microstrip configurations) and layered with the same thickness of subs... więcej»

Investigations of passive components embedded in printed circuit boards (Wojciech Stęplewski, Tomasz Serzysko, Grażyna Kozioł, Kamil Janeczek, Andrzej Dziedzic)
The concept of passive components embedded between inner layers of printed circuit board (PCB) was introduced many years ago. The first trials of embedded capacitors started at the end of sixties of the last century [1]. In the beginning of seventies started the applying of NiP layers for manufacturing of thin layer resistors [2]. Up to present day many materials which can be used for embedded passives were elaborated. But this technology is used in small range, especially in military and air electronics as well as in space electronics. Due to the increasing number of components which are now required to support a single active device, the passives are quickly becoming the major bottleneck in the general miniaturization trend which has become so important in today’s electronics world. The miniaturization of conventional passives reaches its limits and the next obvious choice is to embed the passive components into the PCB. This allows further miniaturization, has the potential to reduce cost and moreover exhibits superior electrical behavior with respect to the minimization of parasitic effects [3, 4]. Despite unquestionable advantages which characterize the embedded elements, they are not generally used in the production of PCBs. As well the designing of electronic devices such as filters, generators, RFID systems and many others, which are composed of passive components, was not to this time used on larger scale and knowledge in this matter is still very poor. Embedding passives will permit to integrate these elements and whole structures into the PCB. The idea of packing more and more elements in PCBs by application and development of embedding passives technologies becomes a necessity for electronic equipment producers. Materials and structures Thin-film resistors In the investigations two types of materials with sheet resistance of 25 Ω/□ (thickness 0.4 μm) and 100 Ω/□ (thickness 0.1 &#9... więcej»

Device for road holes and obstacles detection (Wojciech Gelmuda, Andrzej Kos)
Today’s life as we know it is based on visual signs. Practically all the important information needed to go independently through an average person’s day is provided by their sight. Let us focus on some urban environment. A person is able to see objects, determine their approximate distance, distinguish between a hole and a bump on a road, detect and recognize an important element from its background or simply read some text information from books, posters, etc. Most of these actions, if not all, allow people to gather information and give them time to react before they approach some objects. Furthermore, there are many devices that help people gain more important for them information than they would be able to learn from a closest environment in their field of view, such as navigation systems. There are also many devices that help people keep safe and avoid some accidents, like for instance, street lights and road signs. But neither of them is well suited for visually impaired people. Of course, there are special audio signals for blind people near some pedestrian crossings and there are devices which help visual impaired people avoid obstacles [1], but they are still not sufficient to keep them safe and well informed about their surrounding environment [2]. This is mostly due to a change of sensors positions while a blind person is moving. That is why we develop a MOBIAN© project - Mobile Safety System for the Blind [3]. This project is supported by The National Centre for Research and Development under: NR13-0065-10. A part of the MOBIAN© project is to create a highly reliable device for detecting obstacles and holes of various length and depth, as it is presented in Fig. 1. There is no doubt that special algorithms have to be designed, tested and implemented for this purpose. Fig. 1. Holes and other obstacle detection Rys. 1. Wykrywanie dziur, usk... więcej»

Analysis of long-term stability of thin-film and polymer thick-film resistors embedded in Printed Circuit Boards (Paweł Winiarski, Andrzej Dziedzic, Adam Kłossowicz, Wojciech Stęplewski, Grażyna Kozioł)
Embedded passives play a major role in miniaturisation of electronic circuits, where e.g. MCM or HDI technologies [1] can be used. In most cases resistors represent the majority of passive components used on a circuit board. Besides size aspects, there are other very important issues like tolerance, reliability and long-term stability of components, especially in specialized applications. Technology and production processes are extensively studied and improved. However, to determine real reliability of fabricated components proper measuring methods are needed. To analyze stability of the resistors an accelerated ageing process can be used. Treating resistors with elevated temperature (or/and humidity) allows (in quite short time) obtain long-term behaviour of tested samples referred to a few years of service [2]. Test structures The thin-film resistors were fabricated on FR-4 laminate in accordance with Ohmega-Ply® techno-logy [3, 4]. In this technique firstly thin layer of Nickel-Phosphorous alloy is electroplated on copper foil, afterwards this composite foil called RCM (resistor-conductor material) is laminated to FR-4 substrate. Finally copper circuitry and planar resistors are realized by subtractive processes. Two types of resistive foil were used for fabrication of structures with sheet resistance 25 Ω/sq and 100 Ω/sq (with thickness 0.4 μm and 0.1 μm respectively). The rectangular resistors, with width from 0.25 mm to 1.5 mm and aspect ratio n=l/w between 1 and 4, were designed and fabricated. Moreover, to investigate embedded resistors, part of the samples was covered with two types of cladding - Resin Coated Copper (RCC) or Laser Drillable Prepreg (LDP) 2 × 106. The cladding gives additional protection from environ-mental conditions. The PTF resistors were made using a standard thick-film method [5]. To fabricate resistors three types of resistive inks were used, with sheet resistance 20 &#93... więcej»

High temperature properties of thick-film and LTCC components (Damian Nowak, Mateusz Janiak, Andrzej Dziedzic, Tomasz Piasecki)
There is an increased demand for electronics that can work in harsh environment involving high temperature. Applications include sensors and actuators for control in petroleum and geothermal industry, process monitoring and distributed control systems in automotive and aerospace [1-3]. Complete extreme high-temperature electronic systems require active devices as well as proper passive components (eg. resistors, capacitors, inductors). There comes also the requirement for further miniaturization and integration of electronic components. Thick-film and LTCC (low temperature co-fired ceramics) technologies are well-established and relatively low-cost fabrication method of passives. Thus, they represent promising fabrication techniques to meet the demands for devices that are miniaturized and operate at high temperature [4-7]. This paper presents manufacturing process of thick-film and LTCC resistors, planar inductors and interdigital capacitors as well as their chosen electrical and stability properties in a wide frequency and temperature range. Test structures fabrication Square planar inductors and interdigital capacitors were made on alumina (96% Al2O3, 635 μm thick) or fired LTCC (DP951, 300 μm thick) substrates. The size of the fabricated components was 3×3 mm2 and 50 μm track width/50 μm spacing were designed. The inductors consist of 2 or 3 tu... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»