profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Problemy występujące podczas pomiarów przepięć w sieciach SN (Ryszard Beniak, Arkadiusz Gardecki )
Jednym z kryteriów oceny jakości energii elektrycznej są przepięcia napięciowe. Wyróżniamy trzy zasadnicze rodzaje przepięć: krótkotrwałe wzrosty napięcia, przepięcia oscylacyjne oraz przepięcia impulsowe. Natura ich powstawania może być różnorodna. Przyczyną ich mogą być np. wyładowania atmosferyczne ale także manewry łączeniowe na liniach zasilających oraz w rozdzielniach a także krótkotrwałe jednofazowe zwarcia [1]. Może to być powodem poważnych trudności związanych z działaniem nowoczesnych systemów kontroli i sterowania procesami technologicznymi [2]. W referacie przedstawione zostaną techniczne uwarunkowania pomiarów jednego z rodzajów zakłóceń tego typu pochodzących od wyłączników próżniowych w sieci SN o napięciu 20 kV. Przyrząd pomiarowy wykorzystywany do pomiaru przepięć Krótkotrwałe wzrosty napięcia charakteryzują się wzrostem amplitudy napięcia powyżej 110% napięcia znamionowego i czasie trwania od 0,6 s do 60 s. Przepięcia oscylacyjne natomiast wyróżnia czas trwania od 5 μs do 50 ms oraz zmiana amplitudy nawet do 8 krotnej wartości napięcia znamionowego. Przepięcia impulsowe można scharakteryzować przy pomocy czasu narastania zbocza który zawiera się w przedziale 5 ns…0,1 ms oraz czasu trwania 50 ns…1 ms. Z informacji podanej w poprzednim akapicie wynikają specyficzne wymagania dotyczące parametrów sprzętu pomiarowego umożliwiającego pomiar dla większości podanych zakresów w sieciach elektroenergetycznych SN (20 kV). Wymagania te możemy scharakteryzować następująco: - częstotliwość pomiarowa powinna być jak największa, - możliwie dokładny pomiar prądów - jak najdokładniejszy pomiar napięć, - odporność sprzętu pomiarowego na zakłócenia, - zabezpieczenie układu pomiarowego przed zwarciami międzyfazowymi oraz zwarciami faza-masa. Do wykonania pomiarów stanów dynamicznych podczas zadziałania wyłącznika próżniowego w warunkach przemysłowych użyto modułowego systemu pomiarowego wykorzystującego el... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Koncepcja wielomikroprocesorowego urządzenia do nagrzewania indukcyjnego (Marcin Wesołowski, Ryszard Niedbała)
Konstrukcja wielu urządzeń przeznaczonych do nagrzewania indukcyjnego opiera się na wykorzystaniu generatorów funkcjonalnych dostosowanych do racjonalnego nagrzewania dedykowanym układzie wzbudnik-wsad. Takie nagrzewnice pracują zazwyczaj w wąskim zakresie częstotliwości, w którym zachowują wysoką sprawność elektryczną, zwłaszcza w fazie końcowej procesu. Kryterium to przestaje być podstawowym w przypadku konieczności kształtowania profilu temperatury wsadu oraz podczas funkcjonowania układów regulacyjnych. Sprawność elektryczna przybliżana przez parametry zastępcze indukcyjnych układów grzejnych [3] opisywana jest zależnością: (1) gdzie: indeksem 1 oznaczono parametry wzbudnika a 2 wsadu. R - rezystancja; d, l - średnice i długości; ρ, μ - rezystywność i przenikalność magnetyczna; Fr(ξ ) - współczynnik kształtu wsadu; ξ = d2 δ 2 - współrzędna względna (średnica odniesiona do głębokości wnikania fali em) Analiza podstawowych zależności [3] wskazuje, że największa wartość sprawności osiągana jest przy jak najwyższych częstotliwościach. Wówczas współczynnik kształtu Fr dąży do jedności - maksymalnej wartości - czyniąc stosunek oporów R1 / R2 możliwie małym. Tym niemniej, biorąc pod uwagę cel jaki powinien spełniać proces nagrzewania, np. jednorodnie nagrzewać wsad, podstawowym kryterium staje się warunek zachowania we wsadzie maksymalnej średniej mocy objętościowej pvśr odniesionej do mocy objętościowej na jego powierzchni pv 0: (2) Dla wsadów cylindrycznych zależność powyższa przyjmuje postać określoną zależnością (3), z której już jednoznacznie można określić optymalną częstotliwość nagrzewania: (3) Powyższą zależność cechuje wyraźne występowanie maksimum. Jednoznacznie wykazana jest także konieczność dostosowywania częstotliwości w procesie nagrzewania wraz ze zmieniającymi się parametrami materiałowymi będącymi funkcjami temperatury i natężenia pola magnetycznego. Prowadząc proces nagrzewania ... więcej»

Koncepcja wzmacniacza operacyjnego dla energoelektroniki (Michał GWÓŹDŹ)
Zadaniem układów energoelektronicznych (przekształtników) jest przekształcanie energii elektrycznej pobieranej ze źródła o określonych (najczęściej narzuconych) parametrach na napięcie lub prąd o kształcie i częstotliwości wymaganej przez odbiornik energii elektrycznej, a także sterowanie przepływem tej energii. Zgodnie z obecnymi tendencjami związanymi z zadaniami zapewnienia odpowiedniej jakości energii elektrycznej, przekształtniki nie powinny zakłócać pracy źródeł energii, pobierając z nich energię tylko o takiej wartości, która jest niezbędna do wykonania określonej pracy przez odbiornik. Winno być to realizowane za pomocą energetycznych sygnałów napięcia lub prądu, w sposób optymalny, ze względu na zadania wykonywane przez odbiornik. Wśród szerokiej grupy energoelektronicznych układów przekształtnikowych szczególnie istotną stanowią od dawna falowniki niezależne realizowane w oparciu o zawory w pełni sterowalne, które pozwalają na generację energetycznych sygnałów napięci i prądu o, na ogół, dobrym stopniu odwzorowania w nich sygnału zadanego. Zapotrzebowanie na tego typu układy występuje w wielu dziedzinach techniki, a szczególnie: elektrycznych układach napędowych ogólnego, układach sterowania przepływem mocy w sieciach elektroenergetycznych, energetycznych filtrach aktywnych (kompensatorów odkształceń prądów i napięć), urządzeń do bezprzerwowego zasilania (UPS), urządzeń dla bioelektromedycyny, wzmacniaczy elektroakustycznych dużej mocy i innych [1-3, 10]. Rozumianym w ten sposób zagadnieniem przekształcania energii wychodzą naprzeciw energoelektroniczne szerokopasmowe sterowane źródła napięć (VCVS - ang. Voltage Contolled Voltage Source) i prądów (VCCS - ang. Voltage Controlled Current Source) bazujące na koncepcji wzmacniacza operacyjnego w wersji silnoprądowej zwanego dalej energoelektronicznym wzmacniaczem operacyjnym. Energoelektroniczne szerokopasmowe źródła sterowane napięć i prądów Określenie pewnego rodza... więcej»

Sterownik bramkowy dla tranzystorów SiC pracujących w układzie mostka (Jacek RĄBKOWSKI, Mariusz ZDANOWSKI, Roman BARLIK)
Rosnące zainteresowanie elementami z węglika krzemu, które można obserwować szczególnie w obszarze energoelektroniki już od kilkunastu lat [1-5], nasiliło się po wprowadzeniu na rynek kolejnych elementów sterowanych. Dostępność tranzystorów SiC: JFET, BJT i MOSFET już nie w formie próbek, ale elementów opisanych pełnymi danymi katalogowymi i notami aplikacyjnymi sprzyja przesunięciu akcentów z obszaru tylko i wyłącznie badań na zastosowania w przemyśle. Jednocześnie, obok wszechstronnie badanych właściwości elektrycznych tych elementów istotne stają się inne czynniki takie jak niezawodność elementów, stabilność parametrów w czasie czy przede wszystkim ich cena. Jednym z elementów, na który warto zwrócić uwagę jest tranzystor JFET o charakterystyce normalnie załączony [6-11] o relatywnie niskiej cenie i interesujących parametrach. Jest to tranzystor o identycznej strukturze jak tzw. Depletion Mode JFET o charakterystyce "normalnie załączony", jednak dzięki zwiększonemu domieszkowaniu i zmianie szerokości kanału napięcie progowe zostało przesunięte w obszar napięć dodatnich. Dzięki temu uzyskano element o charakterystyce normalnie wyłączonej (tzw. Enhanced Mode), znacznie bardziej przydatny w energoelektronice. Niestety, element w stanie przewodzenia wymaga dostarczenia prądu bramki, co czyni go z punktu widzenia sterownika podobnym do tranzystora bipolarnego. Kolejna wada tego tranzystora to duża zależność rezystancji przewodzenia od temperatury. Ponadto napięcie progowe rzędu 1-2 V powoduje dużą czułość na zakłócenia, co jest szczególnie niekorzystne, gdy tranzystor pracuje w układzie mostka. Dlatego zagadnienie sterowania tego tranzystora nie należy do najprostszych. W pracach [12-17] przedstawiono szereg rozwiązań sterowników bramkowych dla normalnie wyłączonego tranzystora SiC JFET. Można zastosować polecane przez producenta sterowniki dwustopniowe z rezystorami [12-14] lub inne proponowane w literaturze rozwiązania [15... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Światłowodowe skośne siatki Bragga (Kazimierz JĘDRZEJEWSKI, Tomasz OSUCH, Lech LEWANDOWSK, Wiesław JASIEWICZ )
W metodzie maski fazowej modyfikację charakterystyk spektralnych siatek Bragga uzyskuje się wieloma sposobami. Może być to zmiana długości siatki, czasu naświetlania (głębokości zmian współczynnika załamania), wprowadzenia chirpu lub apodyzacji. W pracy przedstawiono realizację siatek skośnych, które obok siatek apodyzowanych i zmienno-okresowych, stanowią jeden ze standardowych rodzajów siatek opisywanych w dostępnych monografiach [3, 7]. Skośne ustawienie prążków interferencyjnych względem osi włókna powoduje znaczącą zmianę charakterystyki spektralnej siatek Bragga. Siatki skośne maja bardzo rozbudowana charakterystykę transmisyjną po stronie niższych od braggowskiej długości fal. Jest to rezultat pojawienia się, w wyniku zmian w propagacji sygnału pobudzającego, modów radiacyjnych i płaszczowych w kierunkach zgodnym lub przeciwnym do kierunku propagacji, które mogą zostać odbite, zaabsorbowane lub wypromieniowane. Wraz ze wzrostem kąta skosu zjawisko to jest coraz bardziej widoczne, a podstawowe minimum braggowskie zanika i jest widoczne tylko w pomiarach sygnału odbitego. Zjawisko takie występuje, gdy współczynnik załamania otoczenia jest niższy niż szkła np. przy pomiarach w powietrzu. Jednym z powszechniejszych zastosowań siatek skośnych jest spłaszczanie charakterystyki wzmocnienia w funkcji długości fali poprzez umieszczenie s... więcej»

Pomiar czułości włókien mikrostruturalnych przy wykorzystaniu interferometru Macha-Zehndera (Michał Murawski, Michał Szymański, Zbigniew Hołdyński, Tadeusz Tenderenda, Łukasz Ostrowski, Katarzyna Pawlik, Ariel Łukowski, Henryk Krisch, Paweł Marć, Leszek R. Jaroszewicz, Tomasz Nasiłowski)
Unikalne właściwości światłowodów mikrostrukturalnych (MSF lub fotonicznych PCF), takie jak: nieskończona jednomodowa praca [1], niezwykłe właściwości dyspersyjne [2-5], bardzo duża średnica pola modu [6], wysoka dwójłomność [7] itd. Właściwości te wynikają z geometrycznego prowadzenia światła w światłowodzie. Zasadniczo PCFy zbudowane są z jednego materiału oraz z macierzy otworów powietrznych na całej długości włókna światłowodowego. Włókna takie maja szereg zalet w porównaniu do standardowych włókien światłowodowych (takich jak np. SMF- 28). Największą zaletą takich włókien jest obniżona czułość na temperaturę takiego włókna. Wynika ona z braku naprężeń termicznych występujących pomiędzy rdzeniem (domieszkowanym Ge), a płaszczem włókna światłowodowego. Właściwość ta była naszą motywacją do wykorzystania włókien MSF(PCF) jako ramię czujnikowe w światłowodowym interferometrze Macha-Zhendera. MSF i PCF były rozważane jako elementy czujnikowe przez ostatnich parę lat ze względu na ich niezwyczajne właściwości i teoretycznie niższą czułością temperaturową. Włókna te były wykorzystywane w różnych układach czujnikowych [7-8]. Jednakże według naszej wiedzy nie istnieją publikacje opisujące czujnikowe aplikacje światłowodowych interferometrów Macha-Zhendera na włóknach MSF do pomiarów rozciągania, zginania, ciśnienia statycznego i dynamicznego etc. Wiele publikacja pokazuje nieczułe temperaturowo interferometryczne czujniki światłowodowe oparte o konfiguracje interferometru Sagnaca (lub Fiber Loop Mirror) [8-10] gdzie do pomiarów zastosowane są źródła o szerokim zakresie spektralnym oraz optyczny analizator widmowy, które są elementami drogimi. Należy pamiętać że interferometr Sagnaca jest często ograniczony warunkami polaryzacji (zastosowanie włókien trzymających polaryzację). Kolejnym przykładem wykorzystania włókien MSF jest interferometr dwu-modowy [11-13] który może być wykorzystany jako sprzęgacz między modowy, selektywny fi... więcej»

Mach-Zehnder non-zero chirp intensity modulator static characteristics parameters estimation based on intensity data (Zbigniew LACH)
The fundamental concept for the on-off keying signaling (OOK) signaling in optical lines is to modulate intensity of an optical signal in the binary manner and then to use direct detection in a receiver to recover transmitted data. Optical phase is relevant in detection of an OOK signal. However, any phase modulation accompanying the intensity modulation affects the shape of the received signal if it is propagated through a dispersive medium, hence influences quality of reception. Such phase variations produced by an intensity modulator can result from imperfection of fabrication which exists even in modulators claimed to be zero-chirp, or can be the effect of the nonzero- chirp design [1, 6] which aims at compensation of some defined amount of chromatic dispersion to be encountered in an optical link. It is usually sufficient to know chirp parameter of the modulator in order to be able to calculate effects of optical field distortions exerted by interaction of phase variations and chromatic dispersion of a fiber for a typical shape of an optical pulse. This may not be the case in optical link measurements in which parameters of interest are estimated on the basis of fitting the shape of a photodetected signal to it’s “exact" model. In this case complete knowledge on how modulating signal is transformed to optical field, i.e. on static characteristics of the modulator, is indispensable. On such occasion the modulator characteristics shall be learned from some extra measurements, possibly while the component is “in-service", before the measurements of interest are performed. Taking into account the non-coherent OOK context an appropriate measurement method shall not resort to coherent ones and retrieve phase from intensity data instead. In the following parameters that describe a static characteristics of a Mach-Zehnder intensity modulator and a method for their estimation from a collection of intensity sampl... więcej»

Światłowodowy demodulator fazy - model i wyniki eksperymentalne (Zbigniew HOŁDYŃSKI, Idzi MERTA, Leszek R. JAROSZEWICZ, Rafał ŚWIŁŁO)
Różne metody analizy obrazów prążkowych a także modulacji i demodulacji sygnałów świetlnych w tym w światłowodach zaprezentowane są w pracach [1-5]. Optyczna demodulacja fazy jest trudna w realizacji i w dalszym ciągu jest przedmiotem zainteresowania szczególnie w dziedzinie czujników światłowodowych [5]. Idea i pierwsze symulacje numeryczne prezentowanego demodulatora zaprezentowano w pracy [6]. Wykorzystano w nim: klasyczne interferencyjne doświadczenie Younga, własności transformacyjne cienkiej soczewki sferycznej oraz dwuelementowy fotodetektor z przerwą q - rys. 1. Rolę punktowych źródeł światła stanowią dwa światłowody zakończone kolimatorami na wyjściu których znajdują się pinhole o średnicy d. Wiązki po złożeniu na pryzmacie są do siebie równoległe i znajdują się obok siebie w odległości 2b [7-9]. W płaszczyźnie ogniskowej przedmiotowej soczewki skupiającej położone są pinhole, a w płaszczyźnie ogniskowej obrazowej powstaje ich dyfrakcyjny obraz Airy’ego zmodulowany przestrzennie.... więcej»

Projekt i wykonanie eksperymentalnej światłowodowej sieci odniesienia DWDM o przepływności 80 Gbit/s (Grzegorz Żegliński , Jerzy Gajda)
Zapotrzebowanie na usługi związane z transmisją danych i obrazów wymagających dużych przepływności stymuluję większe zapotrzebowanie na instalacje sieciowe dostępowe i transportowe dla Internetu optycznego. Jak również rozwój telekomunikacji radiowej opartej na transporcie poprzez szybkie sieci światłowodowe (np.: Internet szybki LTE o przepływności 100 Mbit/s) wpływa na zmianę architektury transportowej sieci światłowodowych. Prace z ostatnich kilku lat o wymienionej tematyce wskazują na znaczący postęp naukowy w zakresie sieci DWDM (Dense Wavelenght Division Multiplexing) na co wskazuję nowe podejście do tematu modulacji i uzyskiwanie coraz większych efektywności spektralnych źródeł laserowych stosowanych w nadajnikach DWDM [1-5]. Z drugiej strony rozwój optycznych pasywnych sieci dostępowych wskazuje na potrzebę tworzenia i wdrażania nowych standardów teleinformatycznych wykorzystujących zwielokrotnienie falowe: sieci WDM-PON (Wavelenght Division Multiplexing Passive Optical Network) [6-8]. W niniejszej pracy została zrealizowana zaawansowana technologicznie i naukowo, zaprojektowana w 2008 roku numerycznie w środowisku RSOFTOPTSIM i zainstalowana w latach 2009-2010 w Laboratorium Technologii Teleinformatycznych i Fotoniki propozycja uniwersalnej transportowej sieci odniesienia pozwalającej na testowanie i pomiary wielu różnych standardów sieci wykorzystujących zwielokrotnienie falowe. W roku 2011 wykonano sprawdzenia zrealizowanego projektu w ramach pracy dyplomowej przez studentów kierunku Elektronika i Telekomunikacja (Wydział Elektryczny Zachodniopomorskiego Uniwersytetu Technologicznego) [9]. Transportowa sieć odniesienia DWDM Sieć odniesienia została zrealizowania w Pracowni Optyczn... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Model wpływu układu optycznego na czułość detektorów podczerwieni w matrycy mikrobolometrycznej (Sławomir Gogler, Grzegorz Bieszczad, Michał Krupiński, Tomasz Sosnowski)
W nowoczesnych systemach wizyjnych stosowanych w wojsku i ochronie obiektów coraz częściej stosuje się kamery termowizyjne, które służą do zobrazowania rozkładu promieniowania podczerwonego na obserwowanej scenie [1, 2]. Współczesne kamery termowizyjne wyposażone są w wieloelementowe matrycowe detektory podczerwieni [3, 4]. Detektory promieniowania podczerwonego w matrycy zwracają informację w postaci sygnału elektrycznego proporcjonalnego do strumienia promieniowania padającego na ich powierzchnię [4, 5]. Jednym z najistotniejszych parametrów detektorów podczerwieni jest ich czułość napięciowa na strumień padającego na nie promieniowania podczerwonego [6, 7]. Kamery termowizyjne oraz używane w nich matrycowe detektory podczerwieni są w procesie produkcyjnym poddawane procedurze kalibracji i wyznaczania czułości napięciowej. Na stanowisku kalibracyjnym detektory w matrycy są oświetlane promieniowaniem podczerwonym poprzez specjalny układ optyczny. Każdy zastosowany w torze układ optyczny wpływa na rozkład promieniowania padającego na powierzchnię matrycy detektorów. W artykule opisano model służący do opisu rozkładu natężenia promieniowania podczerwonego padającego na matrycę detektorów podczerwieni pracującą z układem optycznym zastosowanym w stanowisku do kalibracji kamer termowizyjnych [8-11]. Pomiar natężenia promieniowania padającego na każdy detektor pozwala na zobrazowanie rozkładu promieniowania na obserwowanej scenie. Specjalny układ odczytu umożliwia sekwencyjny odczyt zmierzonej wartości napięcia proporcjonalnego do natężenia promieniowania podczerwonego z każdego detektora w matrycy [12-14]. Na rysunku 1 przedstawiono szkic budowy mikrobolometru w postaci mikromostka wykonanego w technologii monolitycznej. Element czynny, wykonany w kształcie mikromostka o grubości 0,1 μm, jest podtrzymywany na dwóch metalowych słupkach zakotwiczonych w podłożu krzemowym. Słupki stanowią jednocześnie połączenie elektryczne... więcej»

Astronomia i techniki satelitarne, Wilga 2012 (Ryszard S.Romaniuk)
Trzydzieste, jubileuszowe Sympozjum Wilga 2012 "Fotonika i Inżynieria Internetu" zgromadziło ponad 250 uczestników, w edycji styczniowej i majowej. Zaprezentowano ponad 200 artykułów - głównie dotyczących realizowanych prac doktorskich oraz uczestnictwa w dużych projektach badawczych, krajowych i europejskich. Przedstawiono również kilkanaście referatów plenarnych na temat systemów fotonicznych i elektronicznych. Sympozjum jest organizowane pod auspicjami SPIE - The International Society for Optical Engineering, IEEE Sekcja Polska i Region 8, Polskiego Stowarzyszenia Fotonicznego, KEiT PAN, PKOpto SEP oraz WEiTI PW. Sympozjum jest organizowane corocznie przez młodych uczonych z laboratorium PERG/EHEP ISE PW we współpracy z Oddziałami Studenckimi SPIE i IEEE. Patronat medialny i publikacyjny nad Sympozjum Wilga sprawują: Elektronika oraz International Journal of Electronics and Telecommunications KEiT PAN, a także Proceedings SPIE. Sympozjum Wilga jest tematycznie związane z cyklicznymi konferencjami na temat światłowodów i ich zastosowań organizowanych co 18 miesięcy w Białowieży przez prof. J. Dorosza (Politechnika Białostocka) oraz poprzednio w Krasnobrodzie, a obecnie w Nałęczowie przez UMCS Lublin i prof. Waldemara Wójcika (Politechnika Lubelska). Artykuł przedstawia wybrane zagadnienia dyskutowane w czasie Sympozjum w zakresie tematycznym astronomii i technologii satelitarnych. Główne ośrodki prezentujące tą tematykę były: CBK PAN, CAMK PAN, UW i PW. Tematyka jubileuszowego XXX Sympozjum Wilga 2012 Fotonika i Inżynieria Sieci Internet Główne grupy tematyczne Sympozjum Wilga 2012 były następujące: nanotechnologie i nanomateriały dla optoelektroniki i fotoniki, światłowody czujnikowe, światłowody aktywne, światłowody nieliniowe, elementy i urządzenia w pełni fotoniczne, czujniki i sieci czujnikowe - optyczne i hybrydowe, obiektowo zorientowane projektowanie sprzętu fotonicznego i optoelektronicznego, zastosowania fotonik... więcej»

Najnowsze zastosowania aplikacyjne mikroskopii sił atomowych (Bartosz Radkowski)
Radkowski B.: Najnowsze zastosowania aplikacyjne mikroskopii sił atomowych Mikroskopia sił atomowych (AFM) znajduje obecnie szerokie zastosowanie w dziedzinie charakteryzacji materiałów elektronicznych. Oprócz precyzyjnego pomiaru topografii powierzchni z rozdzielczością umożliwiającą obserwowanie stopni atomowych, współczesne urządzenia tego typu oferują wiele dodatkowych możliwości, obejmujących badanie właściwości elektrycznych, magnetycznych jak i temperaturowych. W niniejszej pracy przedstawimy najnowsze rozwiązania techniczne na tym polu, uzupełniające dotychczas rozwinięte techniki AFM i pozwalające na zwiększenie możliwych zastosowań badawczych, obejmujące zautomatyzowane tryby obrazowania topograficznego, tryby mapowania pozwalające na ocenę właściwości mechanicznych powierzchni oraz przewodnictwa elektrycznego. Dzięki tym nowościom znacznie został poszerzony obszar zastosowań mikroskopii sił atomowych, pozwalając poddać badaniom materiały, które wcześniej nie nadawały się do zastosowania tego rodzaju technik badawczych. Słowa kluczowe: mikroskopia sił atomowych, topografia powierzchni, przewodnictwo elektryczne, właściwości mechaniczne.Mikroskopia sił atomowych AFM (Atomic Force Microscopy) znajduje obecnie szerokie zastosowanie w dziedzinie charakteryzacji materiałów elektronicznych. Oprócz precyzyjnego pomiaru topografii powierzchni z rozdzielczością umożliwiającą obserwowanie stopni atomowych, współczesne urządzenia tego typu oferują wiele dodatkowych możliwości, obejmujących badanie właściwości elektrycznych, magnetycznych jak i temperaturowych. W niniejszej pracy przedstawimy najnowsze rozwiązania techniczne na tym polu, uzupełniające dotychczas rozwinięte techniki AFM i pozwalające na zwiększenie... więcej»

Fractional-order harmonic oscillators (Zdzisław Trzaska )
In the last two decades, integral and differential calculus of an arbitrary (or fractional) order has become a subject of great interest in numerous areas of physics, biology, economics and other sciences [1], [4]. This state resulted of the fact that nowadays the behavior of many dynamical systems can be properly described in terms of the theory of fractional order systems. The growing number of such applications indicates that there is a significant demand for better mathematical models of real objects, and that the fractional calculus provides one possible approach on the way to more adequate mathematical modelling of real objects and processes. Notice that in the literature, the terms “fractional order calculus (FOC)", or “fractional order dynamical system (FODS)" are often in using where “fractional" actually means “non-integer". For example, d 0.5 f (t) dt 0.5 is the so-called “semi-differentiation". We emphasize that many real dynamical systems are better characterized using fractional order dynamic models based on fractional calculus of differentiation or integration of non-integer orders. This approach is accepted today as a new tool that extends the descriptive power of the conventional calculus, supporting mathematical models that, in many cases, describe more accurately the dynamic response of actual systems in various applications. While the theoretical and practical interest of these fractional order operators is nowadays well established, its applicability to science and engineering can be considered an emerging topic. Among other, the need to numerically compute the fractional order derivatives and integrals arises frequently in many fields, especially in electronics, telecommunications, automatic control and digital signal processing [7], [8]. Basic characterization of fractional order systems Models and representations To explain precisely a multitude of diverse physical phenomen... więcej»

Segmentacja obrazu w fotografii laserowej (Marek Piszczek, Marcin Kowalski)
Systemy wizyjne znajdują coraz szersze zastosowania w różnych dziedzinach gospodarki narodowej, między innymi takich jak na przykład przemysł w zakresie kontroli jakości wytwarzanych produktów, czy też w obszarze szeroko rozumianego bezpieczeństwa publicznego do wykrywania i monitorowania potencjalnych zagrożeń. Sukces tego typu rozwiązań związany jest niewątpliwie z zastosowaniem technologii optoelektronicznych. Mimo tego, że systemy wizyjne mają już ugruntowaną pozycję w licznych aplikacjach, to jednak wciąż poszukuje się nowych rozwiązań, zarówno w zakresie akwizycji jak i przetwarzania danych obrazowych. Efektem tych prac jest niejednokrotnie wzrost potencjału informacyjnego opracowanego systemu wizyjnego. Możliwość pozyskiwania informacji z danych obrazowych uwarunkowana jest jakością obrazu oraz możliwymi do użycia metodami jego przetwarzania. Takim podstawowym zagadnieniem z punktu widzenia przetwarzania obrazu jest jego segmentacja. W zależności od sceny będącej przedmiotem analizy można stosować różne metody, mniej lub bardziej zaawansowane. Faktem jest jednak to, że przetwarzanie tego typu bywa czasami bardzo czasochłonne, a wyniki nie zawsze są zadowalające. Kluczem do sukcesu wydaje się być sam proces pozyskiwania obrazu, który powinien dostarczać do segmentacji "odpowiednio przygotowane dane". I rzeczywiście wiele metod obrazowania stosuje "odpowiednie zabiegi" już na etapie pozyskiwania danych. Gdyby udało się udostępniać do przetwarzania i analizy obrazy posegmentowane już w procesie akwizycji. Metody realizujące taką funkcjonalność dostępne są współcześnie i są szeroko stosowane w przemysłowych systemach wizyjnych, gdzie możemy mieć do czynienia z wysoce kontr... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Transport fononów przez nadstruktury GaAs/AlAs (Dariusz Żak, Włodzimierz Nakwaski)
W nowoczesnych przyrządach półprzewodnikowych nadstruktury składają się zwykle z wielu cienkich warstw dwóch różnych materiałów o wyraźnie różniących się współczynnikach załamania. Cieplna przewodność nadstruktur jest anizotropowa, o innych wartościach w kierunku prostopadłym do granic warstw i w kierunku do nich równoległym. W dodatku obie te przewodności są zazwyczaj znacznie mniejsze od przewodności objętościowych (bulk resistances) obu tych materiałów, co jest związane z odbijaniem i rozpraszaniem fononów na granicach warstw. Niekiedy, jako uzupełniający mechanizm transportu fononów, należy również uwzględnić możliwość ich tunelowania przez bardzo cienkie warstwy. Wpływ pozostałych, poza fononowymi, procesów odprowadzenia ciepła w standardowych przyrządach półprzewodnikowych w temperaturach bliskich temperaturze pokojowej, tj. procesów promieniowania cieplnego oraz przekazywania energii cieplnej cząstkom powietrza, jest nieznaczny, czego efektem jest zdominowanie transportu ciepła w takich półprzewodnikowych przyrządach przez przewodnictwo fononów do obudów tych przyrządów. Cieplna oporność przejścia Wielokrotne odbicia fononów w nadstrukturach nowoczesnych przyrządów półprzewodnikowych w znacznym stopniu redukują skuteczność ich transportu [1, 2]. W szczególności transport fononów w kierunku równoległym do granic warstw (i będąca jego wynikiem przewodność cieplna λIP w tym kierunku) są odmienne od tychże zjawisk dotyczących kierunku prostopadłego do granic (czemu odpowiada przewodność λCP) [3]: (1) (2) gdzie L1 i L2 są grubościami, a λ1 i λ2 przewodnościami cieplnymi obu naprzemiennych warstw nadstruktury. 1 2 1 1 2 2 L L λ λ L λ L IP + + ... więcej»

Analiza układu lokalnego ogrzewania próbki cieczy o nanolitrowej objętości w wieloparametrycznych czujnikach kapilarnych (Andrzej Kociubiński, Marcin Kozicki, Michał Borecki, Jerzy Kalenik)
Istota układu ogrzewania próbki cieczy. Ważnym zagadnieniem badawczym jest wieloparametryczna ocena parametrów cieczy biologicznych. Umożliwia ona klasyfikację stanu organizmu, który ją wyprodukował, np. w weterynarii stan zapalny gruczołów mlecznych jest określany na podstawie badań mleka [1]. Obecnie badana i optymalizowana jest metoda klasyfikacji ośrodków ciekłych, polegająca na poddawaniu cieczy, wypełniającej krótki odcinek kapilary optycznej, wymuszonym cyklom termicznym [2]. Cykle te powstają na skutek lokalnego ogrzania fragmentu kapilary wykorzystując grzejnik oporowy - rys. 1. Analiza układu lokalnego ogrzewania próbki jest istotna ze względu na możliwości interpretacji wyników otrzymywanych z cykli pomiarowych oraz ze względu na określenie zakresu możliwych do zbadania cieczy, jak i ze względu na optymalizację konstrukcji głowicy. Popularne w metodach analitycznych przybliżenie rozwinięcia warstwowego układu kapilara-grzejnik dla badanych układów prowadzi do znacznych odchyłek, które praktycznie uniemożliwiają projektowanie i optymalizację wieloparametrycznego czujnika kapilarnego.Parametry i technologia grzejników Praktyczne aplikacje czujnika kapilarnego związane są z wymiennością optrod... więcej»

Wyniki pomiarów szumowym radarem do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Wśród licznych rodzajów radarów jednym z głównych nurtów współczesnej radiolokacji są radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar). Szeroki zakres ich możliwości sprawił, iż są wykorzystywane w przemyśle cywilnym, jak i wojskowym. Początki radaru GPR sięgają lat 20 XX wieku, które pozwalały określić grubość lodowca. Wynalazek ten został jednak zapomniany, aż do lat pięćdziesiątych, kiedy to katastrofa lotnicza doprowadziła do szybkiego rozwoju GPR. Wtedy to wówczas schodzący do lądowania na Grenlandii samolot korzystając z radaru pokładowego uzyskał zobrazowanie skał będących pod powierzchnią lodowca. Operator radaru błędnie przyjął poziom gruntu jako sygnał pochodzący od skał, zaniedbując przy tym sygnał echa od lodowca. Spowodowało to w konsekwencji rozbicie samolotu. Radary do sondowań podpowierzchniowych znajdują zastosowanie w wykopaliskach archeologicznych umożliwiając wykrycie ukrytych w ziemi ruin o dużym znaczeniu historycznym. GPR służy także przy wykrywaniu uszkodzeń wałów przeciwpowodziowych, umożliwiając wyeliminowanie zagrożenia powodzią. Georadar ma możliwość wykrywania defektów w mostach, czy też w drogach, niektóre z nich pozwalają odnaleźć faktyczny przebieg dawno zapomnianych rurociągów. Specjalizowane radary wykorzystywane przez służby wojskowe służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Umożliwiając przy tym wczesną zmianę trasy przejazdu konwoju wojska na terytorium wroga. Głównymi miejscami, gdzie GPR jest tak bardzo pożądany jest Irak czy Afganistan. Ziemia jest bardzo trudnym do analizy środowiskiem, ogólnie jest to ośrodek niejednorodny składający się z wielu warstw o różnej przenikalności elektrycznej. Poprawne odwzorowanie czasu powrotu sygnału nadawanego przez radar na głębokość, na której nastąpiło odbicie wymaga wiedzy o parametrach elektrycznych ziemi. Powyżej wymienione czynniki powodują, iż obróbka sygnałów w tego typu ra... więcej»

Charakterystyki statyczne i parametry tranzystorów MOSFET mocy z krzemu i z węglika krzemu (Krzysztof Górecki, Janusz Zarębski)
Tranzystory MOSFET są podstawowymi elementami półprzewodnikowymi wykorzystywanymi w układach elektronicznych i energoelektronicznych [1]. Pełnią one rolę elementów wzmacniających lub przełączających. Oprócz klasycznych krzemowych tranzystorów MOSFET wykonywane są także tranzystory MOSFET z węglika krzemu. Materiał ten jest coraz powszechniej stosowany do wytwarzania półprzewodnikowych przyrządów mocy. Materiał ten, w porównaniu z krzemem, charakteryzuje się około 2,5-krotnie większą szerokością przerwy energetycznej, dużo mniejszą wartością koncentracji nośników samoistnych w temperaturze pokojowej, ponad 3-krotnie większą wartością przewodności cieplnej, a złącze SiC posiada 10-krotnie większą wartość krytycznego natężenia pola elektrycznego niż złącze krzemowe. Korzystne cechy węglika krzemu powodują, że elementy SiC, w porównaniu z elementami krzemowymi, legitymują się również korzystniejszymi wartościami parametrów eksploatacyjnych, np. większą wytrzymałością napięciową, korzystniejszymi właściwościami termicznymi oraz krótszymi czasami przełączania [1, 4]. W pracy [2] porównano właściwości łącznika zawierającego krzemowy tranzystor IGBT oraz diody wykonane z krzemu oraz z węglika krzemu. Na podstawie przedstawionych wyników badań stwierdzono, że zastosowanie diod Schottky’ego z węglika krzemu pozwoliło na zmniejszenie o 50% strat energii w tym łączniku. Z kolei, w pracy [3] przedstawiono wyniki pomiarów charakterystyk termometrycznych diod Schottky’ego i tranzystora JFET wykonanych z węglika krzemu. Przedstawione wyniki pomiarów dowiodły, że zarówno rezystancja włączonego kanału tranzystora JFET, jak i napięcie przewodzenia diody są monotonicznymi funkcjami temperatury, a odpowiednie współczynniki temperaturowe są mniejsze niż dla elementów krzemowych. Charakterystyki statyczne diod Schottky’ego z węglika krzemu przedstawiono m.in. w pracy [6], a tranzystora MESFET z węglika krzemu w pracy [7]. W praca... więcej»

System rekonstrukcji scen rzeczywistych dla potrzeb prezentacji dotykowej otoczenia trójwymiarowego niewidomym (Marcin Morański, Andrzej Materka)
Jedno z podejść do konstruowania urządzeń technicznych wspomagających osoby niewidome polega na przekazaniu informacji o niewidocznym otoczeniu za pomocą innego zmysłu. Tak rozumianą "substytucję zmysłów" zastosowano w [1] do prezentacji przeszkód w scenie trójwymiarowej (3D) obserwowanej za pomocą kamer stereowizyjnych przy użyciu dźwięku przestrzennego. W niniejszym doniesieniu opisano zaprojektowany i skonstruowany przez autorów system z kamerą aktywną wykorzystującą estymację czasu przelotu światła (ang. time-of-flight, ToF) [2] oraz interfejsem haptycznym - do prezentacji otoczenia za pośrednictwem dotyku. Ideę tego systemu przedstawiono na rysunku 1. Kamera aktywna wytwarza 2,5 wymiarowy obraz głębi - odległości do przedmiotów sceny. Do celów prezentacji dotykowej trzeba opracować algorytm segmentacji mapy głębi, wybrać urządzenie prezentacji oraz opracować metodę odwzorowania modelowanej sceny za pomocą tego urządzenia. Obecnie nastąpił znaczny rozwój urządzeń służących do rejestracji scen oraz pomiaru wymiarów obiektów wchodzących w jej skład. Przykładem są urządzenia SR4000 [2] i PMD CamCube 3.0 [3], które do odtworzenia głębi wykorzystują aktywną metodę ToF (ang. Time of Flight) oraz kamera Kinect [4] bazująca na oświetleniu strukturalnym. Wytwarzają one mapę głębi, która może być wykorzystana do reprezentacji otoczenia. Rejestracja sceny za pomocą kamer aktywnych pozwala na uzyskanie mapy głębi, z dokładnością niezależną od rodzaju obiektów znajdujących się w scenie, ich tekstury oraz zewnętrznego oświetlenia. Ponieważ obliczenia głębi są wykonywane sprzętowo, nie ma potrzeby stosowania dodatkowej platformy obliczeniowej (komputera). Zalet tych nie posiada najczęściej obecnie wykorzystywana metoda rekonstrukcji głębi - stereowizja [5]. Prezentacja dźwiękowa zawodzi w miejscach (np. ulica o dużym natężeniu hałasu), w których zdolności percepcyjne słuchu są zaburzone. W takich sytuacjach słuch można uzupełnić dotyki... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Zastosowanie enkodera absolutnego do sterowania silnikiem synchronicznym z magnesami trwałymi (Tomasz Rudnicki, Robert Czerwiński)
Pojawienie się silników z magnesami trwałymi o sinusoidalnym rozkładzie SEM wprowadziło nową jakość w układach napędowych. Silnik ten pozwala uzyskać duży moment obrotowy, dużą sprawność. Posiada liniową charakterystykę mechaniczną, największy współczynnik mocy z masy silnika, małe elektromechaniczne stałe czasowe, dużą przeciążalność oraz posiada możliwość wytwarzania momentu w czasie postoju [1,6]. Celem artykułu jest przedstawienie wykorzystania enkodera absolutnego do sterowania bezszczotkowego silnika synchronicznego z magnesami trwałymi o sinusoidalnym rozkładzie SEM (PMSM). Zastosowanie enkodera umożliwia także pomiar prędkości obrotowej silnika. Układ napędowy z silnikiem synchronicznym wzbudzanym magnesami trwałymi Silnik synchroniczny z magnesami trwałymi o sinusoidalnym rozkładzie SEM (PMSM) umożiwia pracę układu napędowego w dwóch strefach regulacji prędkości obrotowej [1]: - w strefie pierwszej, to jest w zakresie prędkości obrotowej 0 < n &#8804; nn (regulacja przy stałym momencie), regulacja odbywa się poprzez zmianę wartości napięcia silnika, - w drugiej strefie, to jest w zakresie prędkości obrotowej nn < n&#8804; nmax (regulacja przy stałej mocy) odbywa się przez odwzbudzanie silnika prądem twornika. W pierwszej strefie regulacji wektory strumienia wzbudzenia &#968;f i siły magnetomotorycznej twornika &#920; są do siebie prostopadłe i nie oddziaływują na siebie. W drugiej strefie regulacji kąt &#948; między wektorami strumienia wzbudzenia &#968;f i siły magnetomotorycznej twornika &#920; zmienia się w przedziale 90°<&#948;<180°, co powoduje odwzbudzanie silnika. Regulacja prędkości obrotowej w dwóch strefach wymaga rozbudowanego układu sterowania. Praca w dwóch strefach regulacji została przedstawiona na rys. 1 [3, 4]. Poprawnie działający układ napędowy powinien realizować możliwie szybko zadawane mu polecenia. Wymaga to ciągłego i dokładnego pomiaru kąta położenia wirnika względem osi pasm uzwojenia two... więcej»

Wybrane problemy wizyjnej analizy parametrów geometrycznych oraz właściwości powierzchniowych próbki dla oceny typu koksu metodą Gray-Kinga (Jerzy Zając, Marcin Karliński, Wiesław Małkiński)
W artykule przedstawiono wybrane problemy wizyjnej analizy parametrów próbki dla oceny typu koksu metodą Gray-Kinga. Metodę analizy typu koksu, która została zaimplementowana w analizatorze, określa norma [5]. Oznaczanie typu koksu, będącego produktem spiekania dokonuje się dotychczas na podstawie wizualnej oceny jego kształtu, poprzez porównanie z kształtami wzorcowymi, a także na podstawie oceny właściwości fizycznych koksu (kruchość, łamliwość, liczba kawałków, na które ulega on rozpadowi przy niewielkim obciążeniu, twardość, charakter przełomu, dźwięk wydawany przy pocieraniu itp.). Ocena taka, zwłaszcza w części wizualnej jest w dużej mierze szacunkowa i zawiera w sobie szereg czynników subiektywnych. Opracowany analizator umożliwia uzyskanie dobrej powtarzalności oraz niezawodności kontroli poprzez wprowadzenie oceny ilościowej oraz wyeliminowanie czynników subiektywnych w trakcie badania. Oprogramowanie analizatora zrealizowane zostało w zintegrowanym środowisku wizyjnym eVision firmy Euresys, przeznaczonym do akwizycji, przetwarzania i analizy obrazów. Odniesienie do norm Metodę oznaczania typu koksu, kształt i wielkość próbek oraz sposób ich przygotowania określa norma [5]. Zasada metody polega na równomiernym ogrzewaniu próbki węgla o masie 20 g do temperatury 600&#186;C w znormalizowanych warunkach (jeśli zachodzi potrzeba, z dodatkiem substancji inertnych) i oznaczaniu typu otrzymanego koksu przez porównanie go z wzorcową skalą typów koksu. Typ otrzymanego koksu ustala się przez porównanie go ze skalą wzorców w przedziale od A do G (rys. 1). System akwizycji obrazów Na rysunku 2 przedstawiono schemat ideowy analizatora. Układ akwizycji obrazu składa się z kamery z obiektywem połączonej z komputerem PC oraz zestawu oświetlaczy. Kamera umieszczona jest na statywie umożliwiającym zmianę odległości przedmiotowej w zakresie 200&#8230;420 mm. Rys. 1. Wzorce typów koksu według normy PN-84 G-04519 (wzorce zbinaryzowa... więcej»

Aparatura do oznaczania reakcyjności koksu wobec CO2 metodą analizy gazów poreakcyjnych &#8211; badania eksploatacyjne w warunkach przemysłowych (Artur WITOWSKI, Krzysztof JASEK, Władysław LATOCHA)
Jednym z powszechnie stosowanych kryteriów przydatności koksu do zastosowań w procesach wielkopiecowych jest jego reakcyjność wobec CO2. Kryterium to zostało opracowane przez Nippon Steel Corporation (NSC) w latach 80. XX w., a następnie wykorzystano je przy redagowaniu norm ISO 18894 i ASTM D 5341a [1, 2] dotyczących określania właściwości użytkowych koksu. Normatywne oznaczenie reakcyjności koksu wobec ditlenku węgla polega na określeniu względnego procentowego ubytku masy koksu po zakończeniu dwugodzinnej reakcji z ditlenkiem węgla prowadzonej w temperaturze 1100oC (współczynnika reakcyjności CRI). Mimo upływu 30 lat od opracowania wymienionych norm, obowiązują one do chwili obecnej, chociaż zawarte w nich kryterium w sposób bardzo uproszczony opisuje rzeczywiste wzajemne oddziaływanie reagentów w procesach produkcyjnych. Powszechne stosowanie pomiarów współczynnika reakcyjności CRI koksu wobec CO2 jako wskaźnika przydatności danej partii koksu do zastosowań w procesach wielkopiecowych związane jest z prostotą wykonania oznaczeń w warunkach przemysłowych. Jednocześnie w wielu ośrodkach naukowych podejmowane są prace badawcze i konstrukcyjne poświęcone doskonaleniu metod i urządzeń umożliwiających bardziej precyzyjny opis zjawisk fizykochemicznych zachodzących pomiędzy koksem a ditlenkiem węgla w procesach produkcyjnych. Tematyka tych prac dotyczy przede wszystkim zagadnień związanych z monitorowaniem dynamiki zmian reakcyjności koksu wobec CO2 w trakcie ich wzajemnego oddziaływania [3-7]. Prace poświęcone tym zagadnieniom prowadzone są również Instytucie Tele- i Radiotechnicznym. Efektem tych prac jest opracowanie dwóch metod oznaczania chwilowych wartości reakcyjności koksu wobec ditlenku węgla: metody opartej o analizę gazów poreakcyjnych [8] oraz metody opartej o pomiar dodatkowej energii cieplnej dostarczanej od grzejnika pieca do retorty z próbką koksu w trakcie trwania reakcji izotermicznej [9]. Wyniki, prowadzonych... więcej»

Szacowanie niepewności w pomiarach z autokorelacją obserwacji (Zygmunt Lech WARSZA)
Stosowanie obecnej wersji zaleceń międzynarodowego przewodnika Guide to the Expression of Uncertainty in Measurement znanego pod akronimem GUM [1, 2] i jego Suplementów natrafia na ograniczenia w wielu rodzajach pomiarów, szczególnie przeprowadzanych przyrządami i systemami o zautomatyzowanym procesie pomiarowym z próbkowaniem sygnału wejściowego i przetwarzaniem a/c. Nie ma jeszcze ustalonych międzynarodowo zasad jak wyznaczać niepewność pomiaru wielkości, sygnałów i procesów zmiennych w czasie, chociaż rozpoczęto już opracowywanie podstaw naukowych do ich tworzenia [19] i istnieją wcześniejsze opracowania obejmujące częściowo tę problematykę [M5], [M6]. Propozycje udoskonalenia zaleceń GUM i rozszerzania zakresu stosowania pojęcia niepewność omawiane są też w szeregu publikacjach oraz dyskutowane na seminariach krajowych i międzynarodowych. Weryfikacją treści GUM i opracowywaniem kolejno wydawanych Suplementów zajmuje się powołany w 1997 r. wspólny komitet siedmiu organizacji międzynarodowych o skrócie JCGM, pod przewodnictwem dyrektora Międzynarodowego Biura Miar i Wag BIPM. Opracowywanie międzynarodowych przepisów metrologicznych jest jednak procesem długotrwałym i wymaga poprzedzającej weryfikacji w praktyce w różnych dziedzinach. Dlatego też przepisy te nie nadążają za bieżącymi potrzebami szybko rozwijającej się techniki pomiarowej. Dalej omówiono możliwość stosunkowo łatwego rozszerzenia zaleceń GUM na pomiary wielkości zmiennych w czasie o obserwacjach uzyskiwanych przy regularnym próbkowaniu sygnału. Przedstawiono metodę przetwarzania danych próbki umożliwiającą poprawne oszacowanie niepewności dla przypadku, gdy obserwacje są ze sobą powiązane statystycznie, czyli autoskorelowane. Podano też sposób wyznaczania estymaty funkcji autokorelacji z tych danych. "Czyszczenie" surowych danych Zmiany zbioru "surowych" wartości obserwacji pomiarowych, czyli próbki wywołany jest przez przyczyny zarówno zdeterminowane, jak ... więcej»

Wytwarzanie nanoigieł z krzemku palladu (Ewa Kowalska, Elżbieta Czerwosz, Joanna Radomska, Halina Wronka)
Cienkie warstwy typu metal-krzem (Me-Si) są integralną częścią większości mikrourządzeń elektronicznych opartych na tranzystorach polowych typu FET (Field Effect Transistor), złączowych tranzystorach polowych (Junction FET), tranzystorach z izolowaną bramką - MOSFET (Metal Oxide Semiconductor FET), czy tranzystorach cienkowarstwowych TFT (Thin Film Transistor). Warstwy te stosowane są jako kontakty omowe, kontakty z barierą Schottkiego (złącze metal-półprzewodnik), bariery dyfuzyjne zwłaszcza w obszarze bramki, źródła czy też drenu dla redukcji ich oporności. Warstwy te można również wykorzystać w urządzeniach typu MOS (Metal Oxide Semiconductor), CMOS (Complementary Metal Oxide Semiconductor), FED (Field Emission Display), czy diodach półprzewodnikowych [1]. Większość krzemków metali posiada dobre przewodnictwo elektryczne i niską oporność od 10 do 100 &#956;&#937;cm [2]. W tabeli 1 przedstawiono oporność krzemków metali syntezowanych podczas reakcji cienkiej warstwy metalu (Me) z mono- lub polikrystalicznym krzemem, jak również wartość temperatury tworzenia krzemków MeySix, i ich strukturę krystalograficzną [1]. Tab. 1. Oporność różnych krzemków metali wraz z temperaturą ich tworzenia i rodzajem struktury krystalograficznej Tabl. 1. The resistivity of various metal silicides and the temperature of their formation and the type of crystallographic structure Typ krzemku Temp. reakcji [°C] Oporność [&#956;&#937;cm] Struktura krystalograficzna TiSi2 625&#8230;675a 850&#8230;900b 13&#8230;16 ortorombowa CoSi2 400&#8230;540a 700&#8230;800b 18&#8230;20 kubiczna NiSi 400&#8230;650 ~50 kubiczna Pd2Si 175&#8230;450 30&#8230;35 heksagonalna PtSi 400&#8230;600 28&#8230;35 ortorombowa WSi2 690&#8230;740 ~70 tetragonalna MoSi2 850 90&#8230;100 tetragonalna a) temperatura pierwszego wygrzewania, b) temperatura drugiego wygrzewania w celu uzyskania krzemku o niskiej oporności Większość krzemków metali powstaje na drodze reakcji w... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
SAR imaging for bistatic passive radars using space-based pulse radars as illuminators of opportunity (PIOTR SAMCZYNSKI, KRZYSZTOF KULPA)
Over recent years a few bistatic radar experiments have been carried out using ground stationary receivers and spaceborne illuminators [1], [5], [6], [8], [10]. Most of them were conducted successfully and the results show new capabilities of SAR imaging [1], [5], [6], [8], [10]. Taking into account the advantage of the use of bistatic geometry [1], [2] and its low cost nature, passive SAR technology seems to be a good candidate as an additional sensor in the future in regards to Earth monitoring. Recently, the Warsaw University of Technology started research in passive SAR. The first step was designing the passive radar receiver and recording the real signal using the EnviSat-1 satellite as an illuminator [9]. The first raw radar data was successfully collected during trials carried out in 2011 [9]. The second and parallel step was to develop passive SAR algorithms and test them using simulated data generated by the Raw Radar Simulator [11]. The results of this stage of research are presented in this paper. Passive SAR bistatic geometry The simplified bistatic radar geometry for a stationary ground receiver has been presented in Fig. 1. The illuminator of opportunity is a SAR radar mounted to the spaceborne platform flying with the constant velocity v at the altitude H above the ground level. The distance between the radar transmitter (Tx) and passive receiver (Rx) equals RT (t). The range resolution in passive SAR strongly depends on the bistatic geometry presented in Fig. 1 and is given by the following formula [3], [4]: (1) where &#952;Tx is the incidence angle of the transmitted signal pointing to the target, &#952;Rx is the incidence angle of the received signal pointing to the target, B is the transmitted signal bandwidth and c &#8776; 3&#183;10 8 m/s is the speed of light. The cross-range resolution for a passive SAR image is given by the following equation [3], [4]: (2) where &#955; is the transmitted signal wavel... więcej»

AMMONO-GaN substrates for microwave and RF electronics applications (ROBERT Dwiliński, ROMAN Doradziński, LESZEK Sierzputowski, ROBERT Kucharski, MARCIN Zając)
At present, next generation of high-efficiency lighting and highpower electronics are one of the focus areas for energy saving innovation technologies in world industry. Gallium Nitride semiconductor crystallizes in wurtzite-type structure and has wide, direct band-gap (about 3.44 eV at room temperature) [1]. Besides, it has high electron mobility, high breakdown voltage, good thermal conductivity and mechanical properties. Therefore, Gallium Nitride (GaN) has attracted a great attention for these material properties that are useful for applications in short-wavelength optoelectronic and high power electronic devices, such as white or colour light emitting diodes (LEDs), blue laser diodes (LDs), UV detectors and high-power -high-frequency transistors. For example, GaN-based High Electron Mobility Transistors (HEMTs) are characterized by at least one order of magnitude higher power density and efficiency than Si- and GaAs-based conventional devices [2], enabling 10-fold reduction of electronic chip size under the same output power. However, the currently available devices use GaN deposited by heteroepitaxy on sapphire or SiC substrates. The resulting thin films suffer from large defect concentrations (dislocation density 106 - 109 cm-2), mainly due to a difference in lattice parameters and thermal expansion coefficients between such non-native substrates and GaN. High dislocation density also increases the level of energy dissipation in HEMTs used for high power electronics. Therefore, the development of low-cost optoelectronic and HEMT devices of sufficiently high efficiency is limited due to a lack of suitable substrates for growing homoepitaxial structures. Under such circumstances, the use of truly bulk GaN substrates would be an ideal solution of this problem. At the moment, satisfactory results were obtained by growth of thick layer by Hydride Vapor Phase Epitaxy (HVPE) [3], used commercially for fabrication of lasers in ... więcej»

Wtyczka do Eclipse dla kodów źródłowych VHDL: funkcjonalności (Bartłomiej Niton, Krzysztof T. Poźniak, Ryszard S. Romaniuk)
Głównym celem aplikacji omówionej w niniejszym artykule jest wspomaganie projektów realizowanych przy pomocy języka VHDL. Aplikacja jest implementowana w środowisku Eclipse [1]. Obecnie na rynku najbardziej zaawansowanymi wtyczkami do środowiska Eclipse dla języka VHDL są Simplifide HDL, Sigasi HDT oraz Zamia CAD [2-4]. Bardzo zaawansowanym projektem (choć niepracującym w oparciu o środowisko Eclipse) jest Emacs z modułem do języka VHDL, który przez wielu deweloperów wciąż jest uważany za jedno z najlepszych dostępnych narzędzi [5-6]. Kolejnym narzędziem wspierającym edycję kodu w języku VHDL jest oparty na wolnej licencji VEditor [7]. Wszystkie narzędzia (szczególnie te wymienione) wspierające projektowanie w języku VHDL posiadają wiele charakterystycznych dla tego typu aplikacji funkcjonalności, można do nich zaliczyć: - podświetlanie składni, - możliwość podglądu hierarchii projektowanego modułu, - możliwość przejścia do definicji elementu języka VHDL poprzez jego identyfikator (Emacs wykorzystuje mechanizm tzw. tagów - etags/ctags), - pokazywanie linii deklaracji elementu lub/i komentarza znajdującego się przy tej deklaracji po najechaniu na identyfikator go reprezentujący myszką (funkcjonalność ta nie jest dostępna dla narzędzi Zamia CAD i Emacs), - możliwość definiowania własnych kompilatorów i parserów do sprawdzania poprawności pisanego kodu. W wypadku narzędzia VEditor może to być dowolny kompilator, którego wyjście dostępne jest z linii komend, a informacje o błędach i ostrzeżeniach możliwe do jednoznacznego określenia przez wyrażenia regularne, - autonaprawianie błędów tzw. quickfixes. Dla języka VHDL jest ono rzadko spotykane, w wymienionych narzędziach jest ono zapewnione jedynie przez Sigasi HDL. - proponowanie zakończeń dla pisanego fragmentu kodu lub identyfikatora (tzw. code completion). Funkcjonalność wspierana jest w większości edytorów dla języka VHDL obecnych na rynku. Może ona przyjmować różny stopień... więcej»

Impact of subsurface unhomogeneity on proper interpretation of GPR data based on A-scan measurements (PAWEŁ KACZMAREK, JANUSZ KARCZEWSKI, MARIAN ŁAPIŃSKI)
Possible features of GPR signature of template object depend on radar&#8217;s parameters like range resolution or received polarizations. Patterns can be saved in a database as amplitude vs. time or any other as long as they will be viable during discrimination/interpretation phase. In the paper analyzed A-scan were interpreted using template matching method - measurements were compared with prerecorded data and percentage based comparison was given as a result [2]. Output of an algorithm used in the process suggests which of database&#8217;s entries is the most similar to analyzed Ascan. Theoretically in ideal conditions (no disturbance from noise or clutter, exactly the same soil, humidity, etc.) one can expect results close to 100% similarities. In real GPR conditions soil parameters can change few times a day. In the paper one of such numeric estimators of distance between template and measured data was discussed - Euclidean distance calculated from (1): (1) x(t) - original range profile, y(t) - measured range profile. Template matching requires range profile to be synchronized in distance (time) and normalized in amplitude, i... więcej»

Obliczenia cieplne urządzeń elektronicznych (Grzegorz Maj)
Do prawidłowej pracy każdego urządzenia elektronicznego niezbędne jest zapewnienie mu odpowiednich warunków cieplnych tak, aby temperatura nie przekraczała maksymalnej wartości dopuszczalnej przez producenta. Ponieważ, wraz ze wzrostem temperatury niezawodność elementów elektronicznych szybko maleje, często pożądane jest zapewnienie korzystniejszych warunków termicznych niż wymaga producent. Trwałość i jakość urządzeń elektronicznych zależy więc od skuteczności odprowadzania ciepła, co jest jednym z zadań osoby konstruującej urządzenie - dobór odpowiedniego chłodzenia. Obecnie konstruktorzy mają do wyboru wiele rozwiązań umożliwiających skuteczne odprowadzania ciepła z układów. Są to chłodzenie cieczowe, ogniwa Peltiera, chłodzenie dwustanowe (rurki cieplne) itp. Jednak z wielu względów nadal najbardziej rozpowszechnioną i najczęściej wykorzystywaną w elektronice metodą chłodzenia, jest metoda odprowadzania ciepła przy wykorzystaniu różnego rodzaju radiatorów, zarówno bez jak i z wymuszonym obiegiem powietrza. Metoda ta jest najtańsza, najprostsza i najbardziej niezawodna, dlatego w dalszej części artykułu zostaną dokładniej omówione metody obliczeń i doboru radiatorów. Ciepło wydziela się na elementach elektronicznych w postaci mocy strat. Radiator musi umożliwiać wypromieniowanie, co najmniej mocy równej tejże mocy strat. W przypadku, gdy istnieje możliwość doboru radiatora kupnego zazwyczaj wystarczy przeprowadzić uproszczone szacunki na podstawie następującego wzoru: (1) gdzie: P [W] - moc wydzielająca się podczas pracy elementu w postaci ciepła; t [K] - temperatura złącza elementu; t 0 [K] - temperatura otoczenia rozpatrywanego elementu; Rthja [K/W] - rezystancja cieplna "połączenia" złącze - otoczenie (junctionambient). Wielkość rezystancji cieplnej Rthja charakteryzuje konkretną obudowę elementu pod względem przewodzenia ciepła. Podawana jest ona zazwyczaj w kartach katalogowych producentów podzespołów elektroniczn... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
AP-MOVPE technology of AIIIBV-N heterostructures for photovoltaic applications (Wojciech Dawidowski, Beata Ściana, Damian Pucicki, Damian Radziewicz, Jarosław Serafińczuk, Magdalena Latkowska, Marek Tłaczała)
Properties of dilute nitrides material system like large discontinuity of a conduction band (due to high electronegativity of nitrogen) [1], large band gap bowing coefficient [2], increased electron effective mass [3], large scattering rate (connected with a small radius of nitrogen atom in comparison with the others V group atoms) [4] provide a way to novel applications: telecommunications lasers [1], heterojunction bipolar transistors [5] and very efficient solar cells [6]. InGaAsN is a very promising, lattice matched to GaAs and In0.5Ga0.5P material with band gap about 1 eV. The control of indium and nitrogen amounts in the InGaAsN quaternary alloy offers the ability to tailor the value of band gap and positions of valence and conduction band edges. Main advantage of dilute nitrides is a large reduction of band gap caused by nitrogen introduction (about ~150 meV/% of N). The technology of GaAs is better developed and still much cheaper than indium phosphide and allow to fabricate much better Bragg reflectors (based on the high refractive index contrast GaAs/AlAs heterostructure) for laser applications. Moreover, this material system guarantees a good temperature performance of light emitters and a high internal quantum efficiency of solar cells. On the other hand, growth of InGaAsN quaternary alloy causes some technological problems. The ... więcej»

Rozproszony system czujnikowy dla jachtów treningowych (Izabela AUGUSTYNIAK, Paweł KNAPKIEWICZ, Mariusz PROROK, Stanisław GUZ, Jan DZIUBAN)
Żeglarstwo od lat jest wspomagane urządzeniami elektronicznymi w celu ułatwienia żeglugi, zwiększenia jej bezpieczeństwa oraz poprawy parametrów nautycznych jednostek pływających. W literaturze przedmiotu coraz częściej spotyka się opisy wykorzystania techniki mikrosystemów połączonej z nowoczesną informatyką w celu parametryzacji żeglarstwa [1, 2]. Wieloczujnikowe systemy nadzoru znajdują zastosowanie przede wszystkim na bardzo dużych, luksusowych jednostkach, ze względu na wysoki koszt tego rodzaju systemów [3]. W ramach niniejszej pracy zaprojektowano i wykonano wieloczujnikowy system wspomagający naukę żeglowania na jachtach typu Omega. Jest to pierwszy w Polsce wieloczujnikowy system nadzoru zachowań żeglarza i łodzi w czasie rzeczywistym. Dzięki możliwości prowadzenia pomiarów w trakcie żeglugi, system ten pozwala na pomiar parametrów, który nie był możliwy w nowoczesnych ... więcej»

Evaluation of surface morphology of texturized Si wafers for solar cells applications (Sławomir Białas )
Nauką zajmującą się pozyskiwaniem energii elektrycznej z promieniowania słonecznego jest fotowoltaika, a jej głównym kręgiem zainteresowań są ogniwa słoneczne (ogniwa fotowoltaiczne, ogniwa PV). Sprawność ogniwa słonecznego, a więc jego zdolność do efektywnej konwersji promieniowania świetlnego na prąd elektryczny, zależy od szeregu czynników takich jak: &#9679; rodzaj i grubość materiału użytego do wytworzenia ogniwa, &#9679; technologia wytworzenia, &#9679; zasłonięcie obszaru ogniwa pod elektrodą, &#9679; warunki pracy (widmo promieniowania, temperatura, zacienienie), &#9679; straty wynikające z nieabsorbowania fotonów wysoko- i niskoenergetycznych, &#9679; straty wynikające z rekombinacji nośników prądu i rezystancji pasożytniczych, &#9679; straty wynikające z odbicia promieniowania od powierzchni ogniwa. Ostatni z wymienionych czynników można minimalizować dzięki teksturyzacji, to znaczy rozwinięciu powierzchni w taki sposób, aby promieniowanie nie ulegało odbiciu, lecz pochłonięciu. Im więcej promieniowania zostanie pochłonięte, tym więcej fotonów dotrze w głąb materiału, a więc jest większe prawdopodobieństwo zajścia efektu fotowoltaicznego. Badania nad teksturyzacją powierzchni ogniw krzemowych prowadzone są przez autora niniejszej publikacji w ramach pracy magisterskiej w Zakładzie Mikroelektroniki i Nanotechnologii WEMiF Politechniki Wrocławskiej. Skupiono się nad znalezieniem najbardziej optymalnej geometrii tekstury, która wytworzona na powierzchni podłoża krzemowego zapewniałaby możliwie najmniejszy (a wręcz zerowy) współczynnik odbicia. W tym celu przeanalizowano zaprezentowane w literaturze symulacje komputerowe różnych struktur. Następnie zbadano (przy użyciu mikroskopii SEM) morfologię powierzchni podłoży krzemowych poddanych procesowi teksturyzacji. Celem analiz było skorelowanie geometrii powstającej tekstury ze spektralną charakterys... więcej»

Wyznaczanie zawartości CO metodą NDIR z algorytmiczną kompensacją temperatury gazów (Sławomir Cięszczyk, Paweł Komada, Waldemar Wójcik)
Metody monitorowania i pomiarów in-situ są preferowane w wielu procesach przemysłowych. W przypadku monitorowania gazów we wnętrzu obiektów stosowane są często różnego rodzaju metody spektroskopowe. Główną ich zaletą jest ich nieinwazyjność oraz brak wpływu na przebieg procesu. W odróżnieniu od metod laboratoryjnych największym problemem w metodach in-situ jest zmienność warunków fizykochemicznych. Powoduje ona problem z kalibracją i odtwarzaniem wartości pomiarowych. W pomiarach laboratoryjnych zapewniamy stałość warunków takich jak temperatura, ciśnienie oraz wilgotność. W pomiarach środowiskowych oraz procesowych ze względu na brak powtarzalności warunków trudno jest przeprowadzić klasycznie rozumianą kalibrację, czyli powiązanie wielkości wyjściowej z wielkością wejściową systemu pomiarowego. Metoda NDIR Metody NDIR polegają na zastosowaniu odpowiednich filtrów spektralnych. Ich główną zaletą jest brak konieczności stosowania spektrom... więcej»

Wytwarzanie miniaturowych sensorów elektrochemicznych i matryc sensorów na podłożu krzemowym (MICHAŁ ZABOROWSKI, KRZYSZTOF DOMAŃSKI, PIOTR PROKARYN, URSZULA WAWRZYNIAK, PATRYCJA CIOSEK, WOJCIECH WRÓBLEWSKI, PIOTR GRABIEC)
Materiały i metody technologiczne, wypracowane dla potrzeb technologii planarnej układów scalonych, znajdują także zastosowanie w produkcji różnego rodzaju sensorów. W Zakładzie Technologii Mikrosystemów i Nanostruktur Krzemowych ITE w Piasecznie podejmowano już prace związane z wytwarzaniem czujników chemicznych na podłożach krzemowych [1, 2]. W ramach niniejszej pracy wytworzono trzy rodzaje sensorów w technologii planarnej, kompatybilnej z technologią CMOS. Prace prowadzone były na linii technologicznej, działającej w cleanroomach klasy ISO 6 (1000) i ISO 4 (10). Opis technologii W pracach używano jednostronnie polerowane płytki z monokrystalicznego krzemu o orientacji (100) i średnicy 100 mm. Na płytkach o rezystywności 0,01 &#937;cm wytwarzano warstwę tlenku termicznego o grubości 100 nm w rurze kwarcowej w 1000°C. Następnie w reaktorze LPCVD w wyniku reakcji dwuchlorosilanu (SiH2Cl2) z amonia... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

Zastosowanie przekształceń grafiki trójwymiarowej w obrazowej diagnostyce medycznej (Adam Skurski, Piotr Mazur, Jakub Chłapiński, Marek Kamiński, Andrzej Napieralski, Jarosław Kasprzak, Piotr Lipiec)
Graficzna reprezentacja wyników analiz medycznych może dostarczyć dużo większą ilość informacji przy zwiększonej czytelności prezentowanych danych, niż analiza wyłącznie tabelarycznych danych tekstowych. Dzięki rozwojowi technik cyfrowych raporty medyczne zmieniły swoją postać z wykazu wartości liczbowych na bardziej wyrafinowane i łatwiejsze w interpretacji formy prezentacji wyników. W okresie ostatnich 30 lat można zauważyć istnienie silnej tendencji w kierunku uproszczenia sposobu wyświetlania danych wynikowych poprzez przedstawianie ich w postaci wykresów, czy prezentacji kolorowych modeli. Współczesne techniki diagnostyki medycznej wymagają, aby dane prezentowane w formie graficznej były dokładne i intuicyjnie interpretowalne, co często wymaga długotrwałego przetwarzania danych zebranych podczas badania. Tego rodzaju analizy wymagają więc od personelu medycznego wydłużonego czasu oczekiwania na wynik w celu podjęcia dalszych kroków diagnostyki i przyjęcia odpowiedniej ścieżki leczenia. Ciągły postęp technologiczny umożliwia obecnie znaczące skrócenia tego czasu przyczyniając się do gwałtownego rozwoju diagnostyki obrazowej. Wykorzystanie techniki CT (ang. Computed Tomography - tomografia komputerowa) dało możliwości reprezentacji wnętrza ludzkiego ciała za pomocą obrazów dwu- i trójwymiarowych (2D/3D). Zastosowanie algorytmów segmentacji obrazu umożliwiło osiągnięcie wysokiej precyzji odwzorowania przy obserwacji pojedynczych organów wewnętrznych. Inne algorytmy, takie jak algorytm Marching Cubes [7], pozwalają na opracowanie z otrzymanych obrazów modeli analizowanych struktur w postaci cyfrowej siatki geometrycznej reprezentującej ich powierzchnię boczną. Implementacja wybranych algorytmów i zastosowanie nowoczesnych technik komputerowych umożliwiło skrócenie czasu wykonywania tego rodzaju przekształceń graficznych do kilku sekund. To natomiast sprawiło iż kolejne metody przekształceń obrazów medycznych pozwalają na uz... więcej»

Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

IFA Global Press Conference
W dniach 12-15 kwietnia w Dubrowniku (Chorwacja) odbyła się Międzynarodowa Konferencja Prasowa prezentującą doroczną wystawę radiową. W ciągu trzech dni trwania konferencji organizatorzy przedstawili swoje zamierzenia związane z ekspozycją, która ma się odbyć w dniach od 31 sierpnia do 5 września br. Ogromny wzrost dynamiki innowacji w odczuciu klientów, którzy są zafascynowani nowymi opracowaniami stworzył nastrój optymizmu wśród producentów elektronicznego sprzętu powszechnego użytku i placówek handlowych. Międzynarodowa Wystawa Radiowa, organizowana corocznie w Berlinie (IFA Internationale FunkAusstellung), w ostatnich latach wyjątkowo... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB&#8217;s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

The electrical activity of brain in upright posture provoked syncope (Kazimierz Pęczalski, Tadeusz Pałko, Dariusz Wojciechowski, Wojciech Jernajczyk, Zbigniew Dunajski)
The knowledge of symptoms and signs of patients with transient loss of consciousness (TLOC) is crucial for reliable clinical diagnosis of patients with syncope. The syncope is defined as a TLOC caused by cerebral hypoperfusion [1]. The three main types of syncope are distinguished: cardiac syncope, neurally mediated syncope and syncope due to autonomic failure (orthostatic hypotension). The cardiac syncope can be evaluated by invasive electrophysiological study. The head up tilt test (HUT) with beat to beat measurements of heart rate and blood pressure of patients provides the sufficient diagnose of neurally mediated syncope and syncope caused by autonomic failure. For diagnose the standard classification, consists of four types of vasovagal reaction (including cardiodepressive reaction i.e. heart rate decrease and vasodepressive reaction i.e. arterial pressure decrease): I. mixed, IIa. cardiodepressive, IIb. cardiodepressive, III. vasodepressive, is applied.The neurally mediated and cause by autonomic failure syncopes develop hypotension thus cerebral hypoperfusion. Therefore in presented study we extended the common use set of measurements to electrical activity of brain examination [2]. The statistically significant differences of blood flow and hemoglobin concentration in brain vessels during syncope induced by HUT observed in patients with induced lack of consciousness vs. patients with negative test results were reported in our further study [3]. The blood flow of brain was assessed by ultrasonic, transcranial doppler (TD) and hemoglobin concentration changes (oxygenated and deoxygenated fractions) by near infrared spectroscopy (NIRS). The similar results were reported by other researches. Our study [4, 5] of electrical activity of brain in course of HUT proved appearance of pathology of EEG within tyes (30-60) seconds prior to syncope attack. In our studies we didn&#8217;t determinate of the exact interval between obser... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 2 - linia przesyłowa (Jarosław Halarewicz, Piotr Domanowski, Jerzy Dora, Andrzej Wawrzak, Kazimierz Karwowski, Piotr Pinio, Artur Wiatrowski, Witold Michał Posadowski)
Przemysłowe linie osadzania powłok cienkowarstwowych można podzielić, ze względu na sposób pracy, na systemy tzw. in-line i off-line. Odpowiednikiem w języku polskim są odpowiednio, potokowe i wsadowe systemy nanoszenia cienkich warstw. Różnica między nimi polega na sposobie realizacji cyklu próżniowego. W wypadku systemu potokowego (in-line) podłoża są pokrywane powłokami w sposób ciągły i przemieszczają się przez kolejne komory urządzenia przy "otwartym" wejściu i wyjściu linii. Warunki próżniowe są osiągane w wyniku pompowania kolejnych komór oraz śluz między nimi (tzw. komór buforowych). Dzięki odpowiednim rozwiązaniom konstrukcyjnym są zapewnione wymagane warunki procesów osadzania warstw przy dynamiczne "otwartym" systemie próżniowym. Kolejne partie, przesuwających się wzdłuż linii, podłoży są pokrywane w sposób ciągły powłokami cienkowarstwowymi i cykl produkcyjny zamyka się w jednym cyklu próżniowym. W wypadku systemu wsadowego (off-line), po załadowaniu do komory roboczej określonej liczby podłoży, następuje proces pompowania, procesy obróbki wstępnej podłoży, właściwy proces pokrywania warstwami, a następnie komora robocza jest zapowietrzana. Po zakończeniu cyklu próżniowego, podłoża są wyładowywane z komory, ich miejsce zajmuje następna partia podłoży i jest realizowany kolejny cykl próżniowy. Zatem na cykl produkcyjny składają się kolejne cykle próżniowe. Wybór systemu do nanoszenia cienkich warstw zależy od stawionych wymagań. Linie potokowe składają się z kilku (kilkunastu) komór roboczych, a ich długość jest rzędu kilkudziesięciu metrów. Działanie systemu wsadowego zakłada prowadzenie procesu otrzymywania warstw w jednej komorze roboczej. W systemie potokowym istnieje możliwość pokrywania wielu podłoży, ale w praktyce tylko płaskich. Mogą również wystąpić ograniczenia przy stosowaniu bardziej specjalistycznych technologii. W systemie wsadowym stwarza się różnorodne możliwości technologiczne oraz zapewnia nanos... więcej»

Metody analizy parametrów roboczych detektora punktu rosy typu MEMS (Roman Iwaszko, Ryszard Jachowicz)
Półprzewodnikowy detektor punktu rosy typu MEMS jest zintegrowanym czujnikiem umożliwiającym pomiar wilgotności bezwzględnej gazu w sposób zgodny z definicją tego parametru. W odróżnieniu od klasycznych higrometrów z detektorem optycznym, w higrometrze z detektorem półprzewodnikowym wykorzystywana jest zależność parametrów elektrycznych detektora od ilości molekuł wody kondensującej na jego powierzchni. Parametry wypadkowe detektora, jakie ulegają zmianie wraz z pojawianiem się nowych warstw wody to wypadkowe wartości rezystancji równoległej Rp i pojemności równoległej Cp oraz moduł impedancji |Z|, będący wypadkową poprzednich dwóch wielkości. W rzeczywistości każda z wymienionych wielkości jest elementem zastępczym systemu linii transmisyjnych RiCi o stałych rozłożonych, których parametry zależą od ilości molekuł wody i rodzaju ich rozłożenia na powierzchni detektora [1], [2]. Znajomość zależności wymienionych wielkości od ilości wody na powierzchni lustra pozwala na określenie progu detekcji, a tym samym na określenie istotnego czynnika mającego wpływ na dokładność pomiaru wilgotności gazu. Problem jaki pojawia się w trakcie pomiaru wilgotności z wykorzystaniem opisywanego detektora, to wybór odpowiedniego progu detekcji, to jest wartości Cp, Rp lub |Z| dla których zmierzona temperatura powierzchni detektora jest temperaturą punktu rosy. Konstrukcja detektora typu MEMS i jego zasada pracy Detektory punktu rosy typu MEMS [3] zaprojektowano w Zespole Mikrosystemów i Czujników Pomiarowych Politechniki Warszawskiej, a wykonano w Instytucie Technologii Elektronowej na podłożu krzemowym z dwiema warstwami metalizacji (rys. 1). Rys.1. Przekrój przez strukturę detektora MEMS Fig 1. MEMS detector cross-section Rys. 2. Widok poszczególnych warstw metalizacji detektora punktu rosy: a) geometria grzejnika (linie grube) i termorezystora (linie cienkie), b) geometria detektora molekuł wody (system elektrod grzebieniowych) Fig. 2. Separ... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski&#8201;)
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Właściwości cienkowarstwowych, przezroczystych półprzewodników o zadanym typie przewodnictwa elektrycznego do zastosowań w transparentnej elektronice (Karolina Sieradzka, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Eugeniusz L. Prociów, Tadeusz Berlicki)
W ostatnich latach nastąpił wyraźny wzrost zainteresowania tlenkami o ściśle określonych właściwościach optycznych i elektrycznych. Na takie materiały istnieje obecnie silne zapotrzebowanie m.in. w takich gałęziach przemysłu, jak optoelektronika, fotowoltaika czy też mikroelektronika. Materiały tlenkowe o bardzo dobrej przezroczystości dla światła, zazwyczaj są równocześnie słabymi przewodnikami prądu elektrycznego. Wyjątek stanowią materiały typu TOS (Transparent Oxide Semiconductor) oraz TCO (Transparent Conducting Oxide), w których możliwe jest połączenie tych dwóch przeciwstawnych właściwości [1, 2]. Dobre przewodnictwo elektryczne w przezroczystych materiałach tlenkowych można uzyskać, między innymi, przez wytwarzanie tlenków niestechiometrycznych lub przez ich domieszkowanie. Tlenki niestechiometryczne, jak np. TiO2-x ze względu na występowanie w ich sieci krystalicznej licznych wakansji tlenowych wykazują dobre właściwości przewodzące. Jednakże, charakteryzują się również gorszą przezroczystością dla światła oraz są niestabilne. Wygrzewanie w powietrzu powoduje zazwyczaj ich utlenienie, a to przekłada się z kolei na pogorszenie ich przewodnictwa elektrycznego. Metodą, która powszechnie stosowana jest w przemyśle mikroelektronicznym w celu zmiany właściwości elektrycznych różnych materiałów jest domieszkowanie. W wypadku tlenków na bazie TiO2 metoda ta jednak nie jest prosta i wymaga niekonwencjonalnego podejścia. W przeciwieństwie do konwencjonalnych półprzewodników, w których występują wiązania kowalencyjne, tlenki są to materiały o wiązaniach jonowych. Mechanizm przewodnictwa elektrycznego w tlenkach półprzewodnikowych jest podobny do tego, który występuje w półprzewodnikowych materiałach amorficznych. Wraz z wprowadzeniem domieszek w przerwie energetycznej takich materiałów pojawiają się dodatkowe, poziomy energetyczne. Płytkie poziomy donorowe lub akceptorowe, zlokalizowane są w pobliżu środka przerwy energetyczne... więcej»

Wybrane mikrosystemy opracowane w Zakładzie Mikroinżynierii i Fotowoltaiki Wydziału Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej &#8211; przegląd ostatnich osiągnięć (Jan A. Dziuban)
Na jednego Amerykanina w 2002 roku przypadały 3, a w roku 2012 około 27 mikrosystemów. W najbliższym otoczeniu Wydziału Elektroniki Mikrosystemów i Fotoniki na którym pracuję - w zwykłym dniu, kiedy studenci i pracownicy przybywają do swej Alma Mater, znajduje się co najmniej 2000 sztuk różnych mikrosystemów - w samochodach, systemach ogrzewania budynków, telefonach komórkowych, komputerach, itd. Wiadomo, że rynek globalny urządzeń mikrosystemowych wynosi ok. 74 mld USD i rośnie średnio o 20% rocznie, nieprzerwanie od początku lat dziewięćdziesiątych. Tendencja ta utrzyma się przez co najmniej następne 20 lat. Technologia mikrosystemów może wykorzystywać pełną gamę materiałów i technik wytwarzania, jakie charakteryzują mikroelektronikę, z której się wywodzi. Wiodący udział mają tu jednak mikrosystemy krzemowe, tak zwane MEMSy, czyli trójwymiarowe mechanoelektryczne systemy zintegrowane, w których wykorzystuje się elektryczne/elektroniczne, jak i mechaniczne właściwości krzemu monokrystalicznego. MEMSy są tak popularne ponieważ, jako wyroby mikroelektroniczne są tanie, małe, mają małe zapotrzebowanie energetyczne na etapie wytwarzania jak i pracy, są niezawodne, wielofunkcyjne, łatwe do integracji z elektroniką klasyczną i zintegrowaną. Ponadto, MEMSy nie podlegają ograniczeniom rozwoju wynikającym z prawa Moore&#8217;a, co powoduje, że kapitał międzynarodowy chętnie inwestuje w długofalowe plany ich rozwoju. Integracja czysto mikroelektronicznych struktur planarnych stała się bazą do rozwoju techniki mikrosystemów MEMS, a przy okazji technik mikroinżynieryjnych o znacznie szerszym wymiarze technicznym. Pozwoliło to na miniaturyzację podzespołów i urządzeń w optyce (tzw. MEOMSy), mechanice (mikromaszyny, mikromechatronika), chemii (tzw. mikrosystemy chemiczne), wreszcie w biochemii i medycynie (technika lab-on-chipów) i w wielu innych obszarach nowoczesnej techniki. W efekcie, nowe wyroby mikromechaniczno-elektryczno-elektron... więcej»

Challenges of thermo-mechanical numerical prototyping in the contemporary electronic packaging (Artur Wymysłowski)
Electronic packaging refers to the packaging of integrated circuits (IC), chips (dies), their mounting and interconnecting on PCB&#8217;s for signal and power transmission and heat dissipation. In electronic systems, packaging materials may also serve as electrical conductors or insulators, provide structure, thermal paths and protect the circuits from environmental factors such as moisture, contamination, hostile chemicals, radiation, etc. Electronic packaging can be divided into four levels of which level first and second seem to be the most important. Out of that four levels two: first and second seem to be the key problem in case of thermo-mechanical prototyping. First level refers to chip and system packaging while second level refers to mounting and interconnecting packaged and/or bare chips on PCB surface. A general scheme at first and second packaging level is given in Fig. 1 [1, 2]. The current industry and market driven development trend is towards enhanced product functionality and improved reliability with balanced market parameter defined as cost vs quality. In case of electronic packaging the above can be achieved through rapid and precisely defined development stages (optimization, sensitivity analysis, tolerance design, etc.) of which numerical thermo-mechanical prototyping seems to be the key factor. The same contemporary engineers, especially due to generational change, face problems that require on one hand interdisciplinary knowledge on materials, interfaces, physical phenomena, failure mechanisms, etc. and on the other hand the advanced knowledge on thermo-mechanical prototyping methods, tools, algorithms, etc. Especially in case of electronic packaging the future trend defined by slow technology change from micro to nano scale is not feasible without profound understanding of underlying fields coupling, as thermo-mechanical or thermo-electric, etc. or availability of appropriate numerical software tools b... więcej»

Spektroskopia pojemnościowa głębokich poziomów defektowych (DLTS) w diodach Schottky&#8217;ego z węglika krzemu (4H-SiC) implantowanych jonami (Łukasz Gelczuk, Maria Dąbrowska -Szata)
Węglik krzemu (SiC) jest półprzewodnikiem, który cieszy się niesłabnącym zainteresowaniem ze względu na bardzo korzystne właściwości fizyko-chemiczne, jak: szeroka przerwa energetyczna, duża wytrzymałość na przebicie elektryczne, bardzo dobra przewodność cieplna i wytrzymałość termiczna. Ze względu na te właściwości węglik krzemu jest atrakcyjnym materiałem do zastosowań w przyrządach półprzewodnikowych dużej mocy i częstotliwości, pracujących w warunkach wysokiej temperatury (powyżej 500°C) i wysokiego poziomu radiacji, gdzie klasyczne przyrządy półprzewodnikowe na bazie krzemu czy arsenku galu nie mogłyby funkcjonować. Najbardziej znanymi politypami SiC, obecnie rozwijanymi dla elektroniki, są 3C-SiC o kubicznej strukturze krystalicznej oraz 4H- i 6H-SiC o strukturze heksagonalnej. Wśród nich polityp 4H-SiC charakteryzuje się szeroką przerwą energetyczną (3,2 eV), największą ruchliwością elektronów wśród politypów heksagonalnych (800 cm2/Vs), dużą nasyceniową prędkością dryftu elektronów (2 × 107 cm/s), dużą wartością napięcia przebicia na jednostkę powierzchni (3 MV/cm) oraz dużą przewodnością cieplną (5 W/Kcm) [1]. Niestety, w tego typu materiałach obserwuje się obecność wielu głębokich poziomów defektowych, które mają znaczący wpływ na parametry i charakterystyki struktur przyrządowych wykonanych na bazie węglika krzemu. Głębokie poziomy energetyczne defektów wpływają na czas życia i długość drogi dyfuzji mniejszościowych nośników ładunku, wydajność diod LED i fotodetektorów, wzmocnienie tranzystorów oraz wielkość temperaturowego współczynnika napięcia przebicia złączy p-n. Jest zatem oczywiste, że dalszy rozwój technologii SiC oraz możliwość tworzenia nowych przyrządów półprzewodnikowych wymagają ciągłych badań właściwości elektrycznie aktywnych defektów w warstwach epitaksjalnych SiC, wytwarzanych za pomocą różnych technik epitaksjalnych [2]. Celem tej pracy jest przedstawienie wyników badań i analiza spektralna elek... więcej»

Nowe zadania pomiarów ostrzowych w procesie wytwarzania przyrządów półprzewodnikowych (JERZY F. KOŁODZIEJSKI, JULIUSZ SZCZĘSNY)
Większość operacji technologicznych w procesie wytwarzania przyrządów półprzewodnikowych przeprowadza się na płytkach wyciętych z monokryształu półprzewodnika. W przypadku najczęściej stosowanego monokrystalicznego krzemu (Si) średnica płytek dochodzi obecnie do 300 mm (12 cali) przy grubości płytek 775 &#956;m; grubość ze względu na wytrzymałość mechaniczną musi być większa dla dużych płytek - przy średnicy płytek 51 mm wynosiła ona tylko 275 &#956;m. Podaje się [1], że dla danej średnicy płytki d [mm] i przewidywanej powierzchni wytwarzanego przyrządu np. układu scalonego S [mm2] można otrzymać teoretycznie następującą liczbę struktur DPW (Die Per Wafer) DPW = d &#960; (d/4S - 1/&#8730;2S) (1) Strukturę (die) może stanowić oddzielny element półprzewodnikowy np. tranzystor mocy lub złożony wieloelementowy układ scalony (mikroukład). Struktura powstaje w wyniku przeprowadzenia wielu, zwykle powyżej kilkudziesięciu, operacji (procesów) chemicznych i fizycznych. Wśród nich wymienić należy utlenianie powierzchni półprzewodnika, dyfuzję w podwyższonej temperaturze wybranych domieszek, implantację jonów domieszek, trawienie chemiczne oraz nanoszenie metalicznych ścieżek połączeń i pól kontaktowych. Zaprojektowane rozmieszczenie w półprzewodniku powstających dzięki tym operacjom obszarów o różnych właściwościach i ich ukształtowanie uzyskuje się w wyniku zastosowania odpowiednich masek i wykorzystaniu procesów fotolitograficznych lub elektronolitografii. Kilka-, kilkanaście płytek półprzewodnika, tworzących partię produkcyjną jest poddawane obróbce w tym samym czasie, a w niektórych operacjach sekwencyjnie. Koszt wytworzenia na płytce jednej struktury jest zatem niewielki, nawet po uwzględnieniu, że uzysk - rozumiany jako stosunek liczby struktur dobrych do wszystkich struktur na płytce - odbiega od jedności. Kwalifikację struktur na płytce można przeprowadzić wówczas, gdy na strukturę zostały naniesione metaliczne pola kontaktow... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Modulacja amplitudy sygnałem pseudolosowym (Rafał Stępień, Janusz Walczak)
Sygnały pseudolosowe wykorzystywane są w wielu dziedzinach techniki. Są one stosowane między innymi w metodzie analizy Monte Carlo [13], symulatorach procesów ekonomicznych czy technologicznych oraz kryptografii [1]. W telekomunikacji są one stosowane w systemach transmisji z widmem rozproszonym DSSS [10]. Istnieje wiele metod generacji sygnałów pseudolosowych [1, 8, 13]. Niektóre metody generacji sygnałów pseudolosowych i własności sekwencji pseudolosowych opisano w dalszej części artykułu. Modulacja amplitudy należy do najprostszych rodzajów modulacji wykorzystywanych w technice. Znanych jest kilka rodzajów tej modulacji [12]. Najczęściej rozpatruje się przypadek modulacji monoharmonicznej fali nośnej sinusoidalnym sygnałem modulującym [12]. Efektem tej modulacji jest przesunięcie widma sygnału modulującego w otoczenie częstotliwości fali nośnej. W artykule rozpatrzono problem modulacji amplitudy monoharmonicznej fali nośnej sygnałem pseudolosowym, w efekcie widmo sygnału pseudolosowego zostaje przesunięte w zakres częstotliwości fali nośnej [19]. Jednym z możliwych zastosowań rozpatrywanego procesu modulacji jest możliwość zagłuszania transmisji w wybranym zakresie częstotliwości kanału transmisyjnego [16]. W porównaniu z innymi metodami zagłuszania transmisji [17] zaproponowana metoda jest relatywnie prosta. W artykule zaproponowano układ realizujący proces modulacji i zbadano doświadczalnie możliwość zagłuszania transmisji w zakresie radiofonii FM-CCIR. Sygnały pseudolosowe i wybrane metody ich generacji W technice cyfrowej generacja liczb pełni losowych nie jest możliwa. Urządzenia cyfrowe są z założenia układami w pełni deterministycznymi (o skończonej liczbie stanów) i nie mają właściwości losowych. W kryptografii wykorzystuje się jednak algorytmy generujące ciągi pseudolosowe [1]. Dla obserwatora sekwencji wyjściowej generatora ciągi takie mogą mieć cechy losowe i odróżnienie sekwencji pseudolosowej od sekwencji w ... więcej»

Technologie informacyjne w predykcji pogodowych zagrożeń w ruchu drogowym (Andrzej W. Mitas, Marcin Bernaś, Marcin Bugdol, Artur Ryguła)
Systemy ochrony pogodowej stają się nierozłącznym elementem infrastruktury drogowej. Ten stan rzeczy wymuszony jest przez wielomilionowe straty oraz ofiary śmiertelne będące skutkiem wpływu pogody na ruch drogowy. Dla przykładu wystarczy wymienić tu wielo-pojazdowe kolizje na oblodzonej nawierzchni oraz pogodowe uszkodzenia infrastruktury drogowej. Obecnie realizowanych jest wiele projektów dla prognozy i predykcji zagrożeń na drogach o zasięgu punktowym, a także regionalnym lub globalnym - w skali całego kraju. Artykuł prezentuje wspólne elementy tych systemów, propozycję integracji systemu ochrony pogodowej oraz wyniki prac wstępnych. Metody prognozowania pogody Tradycyjne prognozowanie pogody realizowane jest poprzez długotrwałe nanoszenie na mapy synoptyczne pomiarów, które odpowiadają za ilość opadów, siłę i kierunek wiatru oraz wartości temperatur. Opracowana w ten sposób mapa jest podstawą do prognozowania warunków atmosferycznych przez synoptyków. Ich doświadczenie wpływa na poprawność prognozy oraz jej powtarzalność. Matematyczny model różniczkowy Przy tworzeniu numerycznej prognozy pogody wykorzystuje się komputery dużej mocy. Obliczenia pogodowe opierają się na skomplikowanych równaniach opisujących sposób zachowania się atmosfery. Stan atmosfery opisany jest równaniami różniczkowymi - układem równań nieliniowych [1]. Podstawowy układ równań zawierający zasadę zachowania pędu, zasadę zachowania energii oraz równanie ciągłości, uzupełniony równaniem konstytutywnym (np. równaniem gazu doskonałego dla powietrza) nosi nazwę "równań pierwotnych" lub równań Naviera-Stokesa (1)): (1) Pierwszą pracę z algorytmem predykcyjnym dla systemów opartych o równania nieliniowe (różniczkowe) opublikowali Mayne i Michalska: Receding Horizon Control of Non-linear Systems w roku 1990. Obszerne omówienie algorytmów predykcyjnych dla liniowych i nieliniowych systemów dyskretnych w czasie zaproponowali kolejno Kwon i Han (w 2005 roku)... więcej»

GENESI: Wireless Sensor Networks for structural monitoring (Brendan O&#8217;Flynn, David Boyle, E. Popovici, Michele Magno, C. Petrioli)
The GENESI project has the ambitious goal of bringing WSN technology to the level where it can provide the core of the next generation of systems for structural health monitoring that are long lasting, pervasive and totally distributed and autonomous. Sensor nodes are being redesigned to overcome their current limitations, especially concerning energy storage and provisioning (we need devices with virtually infinite lifetime) and resilience to faults and interferences (for reliability and robustness). New software and protocols will be defined to fully take advantage of the new hardware, providing new paradigms for cross-layer interaction at all layers of the protocol stack and satisfying the requirements of a new concept of Quality of Service (QoS) that is application-driven, truly reflecting the end user perspective and expectations. The GENESI system will be deployed in two pilot deployments; namely the monitoring of a bridge (Pont de la Poya, Switzerland) and a metro tunnel (Metropolitana Linea B, Rome), both during and after construction. System requirement analysis GENESI (Green sEnsor NEtworks for Structural monItoring) [1] exhibits a range of system requirements from a variety of established and emerging technical scientific disciplines. The systems are required to be &#8220;Green" and Sustainable - The use of energy scavanging techniques (i.e. harnessing available environmental energy) to extend the lifetime of GENESI nodes will be employed. Realistic potential sources include solar and wind energy. A fuel cell or series of fuel cells, capable of providing significant amounts of energy, will also be integrated in the design of a novel power unit. This unit may also make use of integrated suitable battery cell(s) and/or other storage techniques (such as capacitors). It should provide sufficient energy to power the GENESI wireless sensor nodes for extended periods of time. In addition to developing novel hardware to add... więcej»

Analysis of long-term stability of thin-film and polymer thick-film resistors embedded in Printed Circuit Boards (Paweł Winiarski, Andrzej Dziedzic, Adam Kłossowicz, Wojciech Stęplewski, Grażyna Kozioł)
Embedded passives play a major role in miniaturisation of electronic circuits, where e.g. MCM or HDI technologies [1] can be used. In most cases resistors represent the majority of passive components used on a circuit board. Besides size aspects, there are other very important issues like tolerance, reliability and long-term stability of components, especially in specialized applications. Technology and production processes are extensively studied and improved. However, to determine real reliability of fabricated components proper measuring methods are needed. To analyze stability of the resistors an accelerated ageing process can be used. Treating resistors with elevated temperature (or/and humidity) allows (in quite short time) obtain long-term behaviour of tested samples referred to a few years of service [2]. Test structures The thin-film resistors were fabricated on FR-4 laminate in accordance with Ohmega-Ply&#174; techno-logy [3, 4]. In this technique firstly thin layer of Nickel-Phosphorous alloy is electroplated on copper foil, afterwards this composite foil called RCM (resistor-conductor material) is laminated to FR-4 substrate. Finally copper circuitry and planar resistors are realized by subtractive processes. Two types of resistive foil were used for fabrication of structures with sheet resistance 25 &#937;/sq and 100 &#937;/sq (with thickness 0.4 &#956;m and 0.1 &#956;m respectively). The rectangular resistors, with width from 0.25 mm to 1.5 mm and aspect ratio n=l/w between 1 and 4, were designed and fabricated. Moreover, to investigate embedded resistors, part of the samples was covered with two types of cladding - Resin Coated Copper (RCC) or Laser Drillable Prepreg (LDP) 2 × 106. The cladding gives additional protection from environ-mental conditions. The PTF resistors were made using a standard thick-film method [5]. To fabricate resistors three types of resistive inks were used, with sheet resistance 20 &#93... więcej»

Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several &#956;m. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»