profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła (JANUSZ JAGLARZ, WOJCIECH KAPŁONEK, WŁODZIMIERZ LIPIŃSKI, MARCIN PAWEŁCZAK, ROMUALD SYNAK)
Praktyczne wykorzystanie zjawiska rozpraszania światła do pomiaru wysokości nierówności powierzchni charakteryzujących się dużą gładkością zostało zapoczątkowane przez Bennetta i Porteusa, którzy zbudowali pierwszy układ działający na zasadzie pomiaru całkowitej mocy promieniowania rozproszonego przez powierzchnię TIS (ang. Total Integrated Scatter) [1]. Później pojawiły się inne sposoby zastosowania tego zjawiska, polegające m.in. na pomiarze kątowego rozkładu natężenia promieniowania rozproszonego ARS (ang. Angle-Resolved Scatter) [3]. Rozkład taki można wyznaczyć w wybranej płaszczyźnie i przedstawić go za pomocą indykatrys rozpraszania. Istnieje również możliwość jego przedstawienia przestrzennego. W tym przypadku stosowana jest dwukierunkowa funkcja rozkładu reflektancji oznaczana akronimem BRDF (ang. Bidirectional Reflectance Distribution Function) lub BSDF (Bidirectional Scatter Distribution Function). Metody te i technika pomiarów została szeroko opisana w literaturze światowej (np. w pracach Stovera [16], Benett i Mattssona [2]), a także w monografiach krajowych [8, 12]. Zwięzły opis metod i przegląd aparatury pomiarowej podano też w pracy [18]. Pomimo powstania wielu innych technik bezstykowej oceny powierzchni gładkich, np., interferometrii i mikroskopii sił atomowych, umożliwiających uzyskanie topografii powierzchni i jej charakterystykę za pomocą bardzo wielu parametrów, metody rozpraszania światła są w dalszym ciągu intensywnie rozwijane. W wielu przypadkach, np. przy kontroli wyrobów istotny jest krótki czas pomiaru, niski koszt urządzenia i możliwość jego instalacji nawet w warunkach produkcyjnych. W takich warunkach często wystarczające jest zmierzenie kilku parametrów, a nawet jednego, którym jest najczęściej średnie kwadratowe odchylenie wysokości nierówności. Dlatego oprócz dawniej już opisywanych urządzeń przeznaczonych do takich celów [17, 22, 23] ostatnio pojawiło się wiele nowych aparatów przenośnych [... więcej»

Czynniki ograniczające przepustowość w sieciach standardu 802.11 (Antoni Masiukiewicz, IWONA Dolińska)
Bezprzewodowe sieci pracujące zgodnie ze standardem 802.11, nazywane sieciami WiFi lub WLAN, zostały wdrożone do eksploatacji w latach 90. Ewolucja sieci WiFi spowodowała, że obecnie współistnieją cztery wersje standardu 802.11 oznaczone literami a/b/g/n, z których powszechnie są wykorzystywane dwie ostatnie. W 2013 r. przewidywane jest końcowe uzgodnienie i ratyfikowanie wersji 802.11ac [1,4]. Podstawowym celem opracowania kolejnych wersji standardu 802.11 było sukcesywne zwiększanie przepustowości sieci. W ciągu dwóch dekad ich wartości wzrosły od 1 Mbit/s do kilkuset Mbit/s. Przewidywana przepustowość w standardzie 802.11ac ma przekroczyć granicę 1 Gbit/s [1]. Osiągniecie tak wysokich poziomów przepustowości wiąże się oczywiście z koniecznością wprowadzenia nowych, ale też poprawy aktualnie stosowanych rozwiązań technologicznych. Chodzi tutaj przede wszystkim o technologię MIMO (Multiple Input Multiple Output), pozwalającą na obsługę wielu przestrzennych strumieni danych przez jedno urządzenie [1, 2, 7, 8]. W standardzie 802.11ac przewidywana jest możliwość jednoczesnej transmisji przy wykorzystaniu 8 strumieni danych (8xMIMO), przy czym dopuszcza się zarówno komunikację z użytkownikami wykorzystującymi technologię SISO (Single Input Single Output), jak i MIMO. Następnym czynnikiem poprawiającym przepustowość jest zastosowanie kanałów radiowych o większej szerokości. Początkowo były to kanały o szerokości 20 MHz (802.11 a/b/g), później 40 MHz (802.11n), a obecnie 80 i 160 MHz (802.11 ac). Wprowadzane są też nowe schematy modulacji MCS (Modulation Code Scheme) o wyższych współczynnikach (M=256 dla QAM- 802.11 ac). Na rys. 1 pokazano obszar przepustowości dostępnych dla standardu 802.11ac. W zależności od doboru parametrów połączenia, projektowana przepustowość systemu może zmieniać się od 6,5 Mbit/s, dla kanału o szerokości 20 MHz, niskich schematów modulacji i transmisji o charakterze SISO, do 7 Gbit/s dla kanału o szer... więcej»

Problemy występujące podczas pomiarów przepięć w sieciach SN (Ryszard Beniak, Arkadiusz Gardecki )
Jednym z kryteriów oceny jakości energii elektrycznej są przepięcia napięciowe. Wyróżniamy trzy zasadnicze rodzaje przepięć: krótkotrwałe wzrosty napięcia, przepięcia oscylacyjne oraz przepięcia impulsowe. Natura ich powstawania może być różnorodna. Przyczyną ich mogą być np. wyładowania atmosferyczne ale także manewry łączeniowe na liniach zasilających oraz w rozdzielniach a także krótkotrwałe jednofazowe zwarcia [1]. Może to być powodem poważnych trudności związanych z działaniem nowoczesnych systemów kontroli i sterowania procesami technologicznymi [2]. W referacie przedstawione zostaną techniczne uwarunkowania pomiarów jednego z rodzajów zakłóceń tego typu pochodzących od wyłączników próżniowych w sieci SN o napięciu 20 kV. Przyrząd pomiarowy wykorzystywany do pomiaru przepięć Krótkotrwałe wzrosty napięcia charakteryzują się wzrostem amplitudy napięcia powyżej 110% napięcia znamionowego i czasie trwania od 0,6 s do 60 s. Przepięcia oscylacyjne natomiast wyróżnia czas trwania od 5 μs do 50 ms oraz zmiana amplitudy nawet do 8 krotnej wartości napięcia znamionowego. Przepięcia impulsowe można scharakteryzować przy pomocy czasu narastania zbocza który zawiera się w przedziale 5 ns…0,1 ms oraz czasu trwania 50 ns…1 ms. Z informacji podanej w poprzednim akapicie wynikają specyficzne wymagania dotyczące parametrów sprzętu pomiarowego umożliwiającego pomiar dla większości podanych zakresów w sieciach elektroenergetycznych SN (20 kV). Wymagania te możemy scharakteryzować następująco: - częstotliwość pomiarowa powinna być jak największa, - możliwie dokładny pomiar prądów - jak najdokładniejszy pomiar napięć, - odporność sprzętu pomiarowego na zakłócenia, - zabezpieczenie układu pomiarowego przed zwarciami międzyfazowymi oraz zwarciami faza-masa. Do wykonania pomiarów stanów dynamicznych podczas zadziałania wyłącznika próżniowego w warunkach przemysłowych użyto modułowego systemu pomiarowego wykorzystującego el... więcej»

Procesy łączeniowe tranzystorów MOSFET w mostkach wysokonapięciowych (Piotr Grzejszczak, Mieczysław Nowak, Roman Barlik)
Dążenie do zwiększenia współczynnika gęstości mocy przekształtników energoelektronicznych, przy zachowaniu wysokiej sprawności energetycznej, skłania do ciągłego podwyższania częstotliwości przełączeń łączników mocy. Ograniczanie strat energii w takich układach uzyskuje się głównie przez skracanie czasów załączania ton i wyłączania toff tranzystorów, co powoduje zwiększanie stromości napięć i prądów w obwodach głównych przekształtników. Obecnie dostępne przyrządy półprzewodnikowe, takie jak wysokonapięciowe krzemowe tranzystory MOSFET, tranzystory JFET i MOSFET oraz diody Schottky’ego z węglika krzemu, pozwalają na pracę z bardzo szybkimi procesami łączeniowymi (poniżej 50 ns) przy napięciach znacznie powyżej 300 V. Duże stromości napięć i prądów są przyczyną występowania niekorzystnych zjawisk, wynikających z istnienia indukcyjności i pojemności pasożytniczych w rzeczywistych obwodach głównych przekształtników [1-3]. Do tych zjawisk należy zaliczyć przede wszystkim sprzężenia elektromagnetyczne (EMI) oraz zaburzenia procesów łączeniowych, które mogą być przyczyną zwiększonych strat a nawet zniszczenia tych elementów [4]. Mechanizmy poszczególnych niepożądanych zjawisk występujących w przekształtnikach z szybkimi łącznikami zostały opisane w szeregu publikacji [5-9]. Celem pracy jest lepsze rozpoznanie istotnych problemów dotyczących wpływu konfiguracji geometrycznej obwodu głównego i sterującego na pracę tranzystorów MOSFET w gałęzi mostka. Głównie zwrócono przy tym uwagę na wysokonapięciowe tranzystory krzemowe [10]. W pierwszej części pracy opisano ograniczenia związane z elementami pasożytniczymi, występującymi w obwodzie głównym gałęzi i w obwodach sterowników bramkowych oraz w samych tranzystorach MOSFET (indukcyjności i pojemności pasożytnicze, dioda strukturalna (podłożowa) tranzystora). Drugą część pracy poświęcono metodom poprawy konfiguracji przestrzennej obwodu mającym na celu zmniejszenie łączeniowych stra... więcej»

Napędy elektrohydrauliczne dla pojazdów użytkowych (Rafał KORUPCZYŃSKI, Hubert WROTEK, Krzysztof ŻOCHOWSKI )
Celem zadania było opracowanie i wykonanie układu modelowego trakcyjnego napędu elektrohydraulicznego dla pojazdów użytkowych z własną akumulatorową baterią trakcyjną. W układzie zastosowano: - bezczujnikowy silnik reluktancyjny z klatką, - szybkoobrotową pompę hydrauliczną, - falownik PWM wykonany w oparciu o moduł IPM umożliwiający sterowanie prądowe (momentowe) silnika reluktancyjnego z zachowaniem sinusoidalnego kształtu prądów fazowych w całym zakresie nastawionych częstotliwości tj. od 0 do 100 Hz, - wysokomomentowy wolnoobrotowy silnik hydrauliczny, - rozdzielacz hydrauliczny umożliwiający zmianę kierunku wirowania silnika hydraulicznego oraz jego awaryjne hamowanie, - układ sterujący falownika PWM umożliwiający niezależną regulację prędkości obrotowej silnika reluktancyjnego i jego momentu i analogicznie silnika hydraulicznego. Schemat układu hydraulicznego przedstawiono na rys. 1. Opracowany układ napędowy umożliwia hamowanie generatorowe (ze zwrotem energii hamowania do baterii akumulatorów trakcyjnych) z pełnym momentem hamującym w zakresie prędkości od nmax (f = 100 Hz) do n = 0 obr/min (f = 0 Hz) przy pomocy opisanej dalej "elektronicznej skrzyni biegów". Po nastawieniu dźwigni rozdzielacza w położeniu neutralnym uzyskuje się funkcję hamulca postojowego. Opis układu napędowego Aktualnie daje się obserwować znaczne zainteresowanie wykorzystaniem w napędach maszyn i pojazdów użytkowych silników bezszczotkowych, w których istnieje możliwość regulacji prędkości wirnika i momentu Jednymi z dominujących rozwiązań w tym zakresie są na przykład silniki synchroniczne z magnesami stałymi, które posiadają możliwość regulacji prędkości przy sterowaniu napięciem i prądem jedynie w obwodzie stojana. silnika przy znacznych wahaniach momentu obciążenia. Rys. 1. Schemat układu hydraulicznego: 1 - trójfazowy silnik reluktancyjny, 2 - pompa hydrauliczna, 3 - rozdzielacz hydrauliczny, 4 - silnik hydrauliczny, 5 - chłodnica, 6 -... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Zastosowanie dedykowanych układów scalonych w systemach wyszukiwania punktu mocy maksymalnej (Wojciech Grzesiak, Jacek Piekarski, Michał Cież, Paweł Grzesiak)
Implementacja techniki MPPT w systemach fotowoltaicznych pozwala na zwiększenie efektywności przetwarzania energii słonecznej na elektryczną nawet o 30%. Z reguły technika ta polega na wprowadzeniu do instalacji fotowoltaicznej stosownej, sterowalnej przetwornicy DC/DC, która w połączeniu z odpowiednim algorytmem bądź algorytmami wyszukiwania punktu mocy maksymalnej zapewnia odpowiednie dopasowanie energetyczne modułów PV do obciążenia. Najczęściej rozwiązania takie oparte są o powszechnie stosowaną technikę mikroprocesorową. W wielu przypadkach mogą one być zbyt kosztowne. Dla rozwiązania tego problemu w ostatnich latach wiele wiodących firm produkujących półprzewodnikowe układy scalone opracowało i wdrożyło do produkcji dedykowane układy, pozwalające na niskokosztową realizację techniki MPPT. W artykule dokonano przeglądu i oceny najciekawszych, zdaniem autorów, rozwiązań. W tym celu zaprojektowano i wykonano modele tych układów bazując na schematach aplikacyjnych zalecanych przez producentów. Dodatkowo przy ocenie tych rozwiązań kierowano się również możliwością ich miniaturyzacji poprzez zastosowanie technologii SMD oraz realizacji w technologii grubowarstwowej. Do testów zastosowano stanowisko badawcze zbudowane w oparciu o: oprogramowanie Solar Design Studio v.6.0, symulator modułów fotowoltaicznych firmy Agilent Technologies, interface, komputer oraz opracowane w ITE specjalizowane oprogramowanie pozwalające na zarządzani... więcej»

Światłowodowy generator supercontinuum zakresu średniej podczerwieni - przykład technologii podwójnego zastosowania (Jacek Świderski, Maria Michalska, Wiesław Pichola, Marcin Mamajek)
Współczesne badania prowadzone w zakresie techniki laserowej ukierunkowane są na technologie i urządzenia będące udoskonaleniem lub alternatywą obecnie stosowanych o znaczącym potencjale cywilizacyjnym i szerokich możliwościach aplikacyjnych. Rozwój danej dziedziny nauki jest w bardzo dużym stopniu uwarunkowany zapotrzebowaniem na konkretne rozwiązania technologiczne i konstrukcyjne. Przykładem takiego zapotrzebowania mogą być światłowodowe układy laserowe generujące promieniowanie superciągłe (ang. supercontinuum) w paśmie widmowym ok. 1,5…5 μm. Układy te stanowią nowość naukową ostatnich kilku lat i mogą być przykładem technologii podwójnego zastosowania (zastosowania cywilne oraz wojskowe). Zjawisko generacji promieniowania supercontinuum po raz pierwszy zostało zaobserwowane na przełomie lat sześćdziesiątych i siedemdziesiątych ubiegłego wieku, jednakże dopiero na przestrzeni ostatnich dwóch dekad układy generatorów SC zyskały szczególne zainteresowanie - co miało miejsce za sprawą wykorzystania w procesie generacji SC włókien optycznych, w tym światłowodów fotonicznych, których zaletą jest przede wszystkim długa droga optyczna oddziaływania promieniowania z ośrodkiem oraz możliwość kształtowania charakterystyki dyspersyjnej i uzyskania wysokiego współczynnika nieliniowości włókna. Pomimo dość intensywnie prowadzonych prac nad źródłami promieniowania SC, zdecydowana większość doniesień literaturowych dotyczy generacji w widmowym zakresie widzialnym oraz w bliskiej podczerwieni [1-4], natomiast nieliczne doniesienia literaturowe dotyczące zakresu średniej podczerwieni [5-8] pokazują, iż są to rozwiązania nowe o dużym potencjale aplikacyjnym. Promieniowanie z zakresu średniej podczerwieni ma istotne zastosowanie militarne - m.in. do oślepiania rakiet ziemia-powietrze wyposażonych w głowice samonaprowadzające się na podczerwień - w tzw. układach DIRCAM (Direct Infrared Countermeasure). Zagrożenie rakietami śledzą... więcej»

Dobór mikrokontrolera do sterowania inwerterem napięcia w systemach UPS (Zbigniew Rymarski)
Publikowane dotąd artykuły na ogół przedstawiały konkretne rozwiązania układów mikroprocesorowych sterujących inwerterami (autor stosuje określenie "inwerter", rezerwując określenie "falownik" dla napędów silników indukcyjnych, gdzie należy uzyskiwać zmienną częstotliwość generowanego napięcia), nie starając się jednak uzasadnić wyboru danego układu. Trzeba zresztą przyznać, że przy obecnej doskonałości mikrokontrolerów i układów FPGA w większości przypadków uzyskuje się pożądany efekt. Jednak świadomy dobór, ogólnie mówiąc, układu sterującego (bez uwzględniania wpływu sprzężenia zwrotnego, które i tak nie zlikwiduje błędów spowodowanych sposobem generacji PWM) może pomóc w niewielkiej poprawie jakości przebiegu napięcia wyjściowego (poniżej 0,5% współczynnika zniekształceń harmonicznych THD). Współczynnik THD filtrowanego napięcia wyjściowego inwertera napięcia jest definiowany przez normy IEEE-519 i PN-EN 62040-3. Określona przez PN-EN 62040-3 graniczna wartość THD dla obciążenia liniowego i nieliniowego (prostownikowego z filtrem RC o PF = 0,7) dla najlepszej tzw. opcji klasyfikacyjnej S systemu UPS licząc do 40. harmonicznej wynosi 8%. Norma IEEE-519 mówi o zalecanym nie przekraczaniu 5% THD i wymaga, aby amplituda żadnej z harmonicznych napięcia nie przekroczyła 3% amplitudy podstawowej harmonicznej (fm). Omówione parametry dotyczyły filtrowanego napięcia wyjściowego i mogły służyć jako podstawa do doboru parametrów filtra wyjściowego [1-6]. Dobór rozwiązań konstrukcyjnych modulatora wymaga jednak analizy niefiltrowanego sygnału napięciowego PWM. Przy wysokim stosunku częstotliwości przebiegu modulowanego do modulującego fs /fm (w praktyce dla UPS powyżej kilkuset) niezbędny jest podział widma harmonicznych niefiltrowanego napięcia na dwa pasma - "niskich" harmonicznych w zakresie do połowy częstotliwości przełączania i "wysokich" harmonicznych - powyżej tej częstotliwości. Właściwy i rozsądny (o ograniczonych wymiarach... więcej»

Stan aktualny i rozwój systemu INMARSAT (Jerzy Czajkowski)
Satelitarny system INMARSAT jest nierozerwalnie związany ze Światowym Morskim Systemem Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global Maritime Distress and Safety System) i od momentu jego powstania jego głównym zadaniem było polepszenie, tj. zwiększenie efektywności i niezawodności morskiej radiokomunikacji. W szczególności chodziło o podniesienie bezpieczeństwa i zapewnienie radiokomunikacji umożliwiającej szybkie i skuteczne alarmowanie. Dlatego też tworząc system GMDSS, jeden z obszarów morskich A3 [4] zdefiniowano jako akwen żeglugi w zasięgu satelitarnego systemu z wykorzystaniem satelitów geostacjonarnych nazwanego INMARSAT. System ten został w późniejszym czasie także wykorzystany w ruchomej służbie lądowej oraz aeronautycznej.Po ponad dwudziestu latach działania jako międzynarodowa organizacja, system INMARSAT w 2001 roku w wyniku prywatyzacji został przekształcony w organizację IMSO (International Mobile Satellite Organization) spełniając funkcje systemu GMDSS, jednak nazwa systemu jako całości pozostała niezmieniona. System INMARSAT składa się z trzech zasadniczych komponentów: - segmentu kosmicznego nadzorowanego przez INMARSAT, - naziemnych stacji lądowych LES (Land Earth Station), zwanych także CES (Coast Earth Stadion) nadzorowanych przez Administracje Morskie Państw będących sygnatariuszami INMARSAT- u, - oraz stacje statkowe SES (Ship Earth Station). Strukturę segmentu kosmicznego przedstawiono na rys. 1, gdzie na orbicie geostacjonarnej w odległości ok. 36000 km od równika usytuowane są satelity umożliwiające pokrycie radiokomunikacyjne czterech obszarów oceanicznych nazwanych: Obszar Wschodni Oceanu Atlantyckiego - (AOR-E - Atlantic Ocean Region East), Obszar Zachodni Oceanu Atlantyckiego - (AOR-W - Atlantic Ocean Region West), Obszar Oceanu Indyjskiego (IOR - Indian Ocean Region), Obs... więcej»

Luminescencja izolatorów ceramicznych sieci energetycznych średnich napięć (Rafał Sobota, Arkadiusz Mandowski, Ewa Mandowska)
Zadaniem izolatorów w elektroenergetyce, oprócz funkcji czysto mechanicznych, jest skuteczne oddzielenie przewodów elektrycznych, znajdujących się pod wysokim napięciem, od otoczenia. Izolatory porcelanowe, podobnie jak ich szklani poprzednicy, sięgają historią do czasów drutów telegraficznych. Gdy ceny szkła zaczęły rosnąć, porcelana stała się atrakcyjną i niedrogą alternatywą. Izolatory porcelanowe są teraz łatwo dostępne i często stosowane. Wraz z pojawieniem się dystrybucji energii elektrycznej na przełomie XIX i XX wieku i koniecznością przesyłania prądu liniami energetycznymi w warunkach wysokich napięć, wzrosło zapotrzebowanie na większe i bardziej niezawodne izolatory. Ilość szkła w tym czasie była niewystarczająca, więc zaczęto eksperymentować z mieszaninami gliny. Ponadto pracowano nad nowymi wzorami izolatorów, spełniałyby swoje zadanie w każdych warunkach pogodowych. W dzisiejszych czasach, zakłady porcelany elektrotechnicznej oferują szeroki asortyment izolatorów do różnych zastosowań - począwszy od linii niskiego, średniego i wysokiego napięcia a skończywszy na konstrukcjach wsporczych, przepustowych oraz osłonowych. Niektóre firmy oferują również produkty typowo pod indywidualne zamówienia klientów, takie jak osłony do wyłączników, odgromników, przekładników napięciowych i prądowych, przepustów, kondensatorów, głowic kablowych, bezpieczników wysokonapięciowych, itp. Wysoka niezawodność eksploatacyjna oraz utrzymanie wymaganych parametrów, głównie w zakresie wytrzymałości mechanicznej i elektrycznej, jak również odporności na czynniki atmosferyczne oraz zanieczyszczenia, jest zapewniana przez stosowanie wysokiej jakości materiałów. W procesach produkcyjnych wykorzystuje się nowoczesne maszyny i urządzenia oraz wdrażane są nowe techniki wytwarzania. Dzisiejsze izolatory są wyrobami znormalizowanymi. Spełniają wymagania zarówno norm krajowych, jak i międzynarodowych. W elektroenergetyce izolatory można sklasyfik... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700…4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Model wpływu układu optycznego na czułość detektorów podczerwieni w matrycy mikrobolometrycznej (Sławomir Gogler, Grzegorz Bieszczad, Michał Krupiński, Tomasz Sosnowski)
W nowoczesnych systemach wizyjnych stosowanych w wojsku i ochronie obiektów coraz częściej stosuje się kamery termowizyjne, które służą do zobrazowania rozkładu promieniowania podczerwonego na obserwowanej scenie [1, 2]. Współczesne kamery termowizyjne wyposażone są w wieloelementowe matrycowe detektory podczerwieni [3, 4]. Detektory promieniowania podczerwonego w matrycy zwracają informację w postaci sygnału elektrycznego proporcjonalnego do strumienia promieniowania padającego na ich powierzchnię [4, 5]. Jednym z najistotniejszych parametrów detektorów podczerwieni jest ich czułość napięciowa na strumień padającego na nie promieniowania podczerwonego [6, 7]. Kamery termowizyjne oraz używane w nich matrycowe detektory podczerwieni są w procesie produkcyjnym poddawane procedurze kalibracji i wyznaczania czułości napięciowej. Na stanowisku kalibracyjnym detektory w matrycy są oświetlane promieniowaniem podczerwonym poprzez specjalny układ optyczny. Każdy zastosowany w torze układ optyczny wpływa na rozkład promieniowania padającego na powierzchnię matrycy detektorów. W artykule opisano model służący do opisu rozkładu natężenia promieniowania podczerwonego padającego na matrycę detektorów podczerwieni pracującą z układem optycznym zastosowanym w stanowisku do kalibracji kamer termowizyjnych [8-11]. Pomiar natężenia promieniowania padającego na każdy detektor pozwala na zobrazowanie rozkładu promieniowania na obserwowanej scenie. Specjalny układ odczytu umożliwia sekwencyjny odczyt zmierzonej wartości napięcia proporcjonalnego do natężenia promieniowania podczerwonego z każdego detektora w matrycy [12-14]. Na rysunku 1 przedstawiono szkic budowy mikrobolometru w postaci mikromostka wykonanego w technologii monolitycznej. Element czynny, wykonany w kształcie mikromostka o grubości 0,1 μm, jest podtrzymywany na dwóch metalowych słupkach zakotwiczonych w podłożu krzemowym. Słupki stanowią jednocześnie połączenie elektryczne... więcej»

Realizacja nieliniowego ortogonalnego filtru klasy Volterry-Wienera na platformie wieloprocesorowej (Paweł Biernacki)
Rozpatrując wzór opisujący działanie nieliniowego ortogonalnego filtru parametryzującego klasy Volterry-Wienera [3]:gdzie x ρi są uogólnionymi (wielowymiarowymi) współczynnikami Fouriera (Schura) sygnału y(k) [6], łatwo zauważyć, iż parametrami jakie stanowią o złożoności filtru są: rząd filtru N (pamięciowość filtru) oraz stopień nieliniowości filtru M. Zwiększenie któregokolwiek z nich pociąga za sobą szybki wzrost nakładu obliczeniowego potrzebnego do wyznaczenia sygnału y(k). Liczba rotorów w bloku dekorelującym, dla przypadku niestacjonarnego wyrażona jest wzorem: (2) Rysunek 1 pokazuje jak szybko rośnie wartość wyrażenia (2) przy zmianie N lub M.     - L =0 N =0 N =i N =i ,..., i y(k )= ρ x +...+ ... ρx i1 i1 i2 1 iM M 1 ki1 M x ki1 x i1 Filtr ten może działać w trybie off-line i on-line. W pierwszym przypadku w jednym momencie czasu na wszystkich wejściach pojawiają się odpowiednie sygnały wejściowe w postaci wektorów próbek. Każda sekcja filtru (rotor) jest wykorzystana tylko jeden raz w procesie filtracji. Takie działanie filtru wykorzystują procedury parametryzacji sygnału, ekstrakcji... więcej»

Realizacja dedykowanej aplikacji wzmacniacza fazoczułego w środowisku LabVIEW (Maciej Kubicki)
W wielu zastosowaniach pomiarowych wymagane jest określanie amplitudy i fazy sygnałów o amplitudzie mniejszej od 1 mV w obecności szumu, w przypadku gdy znana jest częstotliwość tych sygnałów. Przykładem jest detekcja sygnałów rejestrowanych przy określaniu szczelności elementów elektronicznych z zastosowaniem technik termoakusystycznych opisanych w opracowaniach [1-3]. Na rysunku 1 schematycznie przedstawiono układ testowy do pomiaru szczelności z wykorzystaniem wspomnianej metody. Termoakustyczna technika pomiaru szczelności obudów elementów elektronicznych może stanowić nieniszczącą alternatywę dla niszczących testów precyzowanych przez standardy stosowane obecnie w przemyśle [10-11]. W rozpatrywanej metodzie źródłem sygnału pomiarowego jest mikrofon umieszczony w szczelnej komorze termoakustycznej rejestrujący sygnał akustyczny pojawiający się w wyniku periodycznego wydzielania mocy w badanym elemencie. Jedną z metod pomiaru sygnału stosowaną w rozważanym przypadku jest detekcja fazoczuła. Dostępne na rynku wzmacniacze fazoczułe, poza wysokim kosztem mogą nie być dostosowane do danego pola aplikacji. W odróżnieniu od samodzielnych urządzeń, narzędzia jakie oferują współczesne systemu akwizycji sygnałów pomiarowych umożliwiają tworzenie dedykowanych aplikacji pomiarowych automatyzujących dodatkowo proces pomiaru. W artykule opisano programową realizację wzmacniacza fazoczułego, stanowiącą podstawę systemu akwizycji i przetwarzania sygnałów pomiarowych układu do pomiaru szczelności tranzystorów w obudowach metalowych z wykorzystaniem technik termoakustycznych. Aplikacja pomiarowa została stworzona w środowisku LabVIEW w oparciu o 16-bitową kartę pomiarową NI-6251. Inne przykłady programowych realizacji wzmacniaczy fazoczułych znaleźć można w pozycjach literaturowych [7-9].Zależności umożliwiające wyznaczenie amplitudy i fazy sygnału pomiarowego przytaczane są w wielu publikacjach na temat wzmacniaczy fazoczułych [4-9]. Ab... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Mikro- i nanostruktury krzemowe jako materiał termoelektryczny (Marcin Turczyński, Zbigniew Lisik)
Pierwsze generatory o mocy rzędu kilku kilowatów zostały zaprezentowane przez rosyjskich i amerykańskich naukowców w latach 50. XX wieku i znalazły zastosowanie w misjach kosmicznych. Obecnie generacja termoelektryczna skupiona jest na odzyskiwaniu energii cieplnej traconej podczas wielu procesów technologicznych, a najczęściej stosowanym materiałem do budowy elementów termoelektrycznych jest BiTe oraz jego stopy (np. z antymonem czy selenem). Niestety sprawność generatorów budowanych z tych materiałów nie przekracza 5%, a jedną z ich największych wad jest niska maksymalna temperatura pracy wynosząca 300°C. Maksymalna moc dla elementów typu n oraz typu p jest osiągana przy 100°C. Materiał ten jest także zbyt drogi by budowa termogeneratorów na dużą skalę była opłacalna, dlatego ogólnodostępny krzem może stać się rozwiązaniem wyżej opisanego problemu. Krzem jest wykorzystywany od wielu lat do budowy praktycznie każdego urządzenia elektronicznego co powoduje, że technologia jego wytwarzania jest doskonale opanowana, a jego koszt produkcji jest relatywnie niski. Co więcej, krzem charakteryzuje się dobrymi właściwościami elektrycznymi takimi jak współczynnik Seebeck’a oraz przewodność elektryczna, które są składowymi współczynnika efektywności ZT = α2δT/λ, gdzie α - współczynnik Seebeck’a, δ - przewodność elektryczna, λ - przewodność cieplna, T - temperatura bezwzględna. Niestety, dużą jego wadą jest wysoka przewodność cieplna λ, która także jest częścią parametru ZT i jest około sto razy większa niż dla BiTe (porównanie właściwości termoelektrycznych zostało przedstawione w tabeli). Przewodność cieplna jest sumą dwóch przewodności składowych λ = λ l + λ e, sieciowej oraz elektronowej. Pierwsza z nich związana jest z budową krystalograficzną, w której ciepło przewodzą fonony, w drugiej natomiast odpowiedzialne są za to elektrony. Porównanie właściwości termoelektryczny... więcej»

Komplementarne zastosowanie metod dyfrakcji i spektroskopii absorpcyjnej promieniowania X do charakteryzacji cienkich warstw Ti-Si-C (Krystyna Ławniczak -Jabłońska, Marcin T. Klepka, Anna Wolska, Elżbieta Dynowska, Michał A. Borysiewicz, ANNA PIOTROWSKA)
Zaawansowane przyrządy elektroniczne oparte na azotku galu (GaN), w szczególności działające w reżimie wysokich mocy i wysokich częstości, czy też w atmosferze korozyjnej, wymagają opracowania stabilnych termicznie i chemicznie metalizacji kontaktowych. Obiecującymi materiałami dla takich zastosowań są materiały z grupy tzw. faz MAX, łączące w sobie metaliczne przewodnictwo elektryczne i cieplne z ceramiczną stabilnością temperaturową i odpornością na korozję [1, 2]. Przedmiotem szczególnego zainteresowania są fazy MAX oparte na związkach Ti lub Al z C lub N, m.in. będąca przedmiotem niniejszej pracy faza Ti3SiC2. Zainteresowanie to wynika z faktu, że dopiero niedawno zademonstrowano możliwość wytwarzania tego typu faz w formie cienkowarstwowej na drodze magnetronowego rozpylania katodowego w wysokiej (900oC), ale akceptowalnej w technologii przyrządów na bazie GaN temperaturze [3]. Niniejsza praca jest częścią projektu badawczego, którego celem jest opracowanie procesu wytwarzania cienkich warstw Ti- 3SiC2 przydatnych do technologii stabilnych termicznie metalizacji kontaktowych do GaN/AlGaN. Z uwagi na złożoność procesu wysokotemperaturowego rozpylania katodowego, w badaniach relacji parametrów procesu i struktury fazowej materiału zastosowane zostały dwie komplementarne techniki charakteryzacji: dyfrakcja promieniowania X (XRD) oraz spektroskopia absorpcyjna promieniowania X (XAS, ang. X-Ray Absorption Spectroscopy) w zakresie EXAFS (ang. Extended X-Ray Absorption Fine Structure). Omówione zostaną wyniki obydwu metod wraz z podkreśleniem ich komplementarności. Eksperyment Cienkie warstwy Ti-Si-C osadzono na podłożach Al2O3 (00.1) przy pomocy reaktora Surrey NanoSystems γ1000C, z targetów pierwiastkowych Ti, Si i C o czystościach 5N w atmosferze Ar o czystości 6N przy ciśnieniu 5 mtorr. Rozpylanie było prowadzone przy stałej mocy targetu Ti (70W) oraz zmiennych mocach targetów Si i C. Na podłoża podgrzane do temperatu... więcej»

Zastosowanie funkcji Lamberta do wyznaczania parametrów złącza p-n (Wojciech Jung)
W przypadku idealnego złącza p-n równanie na całkowite natężenie prądu podane przez Shockley'a ma następującą postać [1]: gdzie:Ip - natężenie prądu dziurowego, In - natężenie prądu elektronowego, Is - natężenie prądu nasycenia, A - powierzchnia złącza p-n, q - ładunek elementarny, U - napięcie polaryzacji złącza p-n, k - stała Boltzmanna, Dp - stała dyfuzji dziur, Dn - stała dyfuzji elektronów, pno - koncentracja równowagowa dziur w obszarze typu n, npo - koncentracja równowagowa elektronów w obszarze typu p, Lp - droga dyfuzji dziur, Ln - droga dyfuzji elektronów. Jak łatwo zauważyć, nachylenie charakterystyki prądowo-napięciowej w skali liniowo-logarytmicznej dla dodatnich napięć polaryzacji, czyli w kierunku przewodzenia, dla idealnego złącza p-n jest równe q/kT. W rzeczywistych złączach p-n nachylenie charakterystyki prądowo-napięciowej w kierunku przewodzenia nie jest równe q/kT, lecz przyjmuje postać q/nkT, gdzie n jest współczynnikiem idealności o wartości większej od jedności. Odchylenie od idealnej wartości równej jeden może wynikać z kilku powodów, jak     -     = + =  1 kT I I I I exp qU s n p         = + n n po p p no s L qD n L qD p I A np. powierzchniowy prąd upływu, centra generacyjno-rekombinacyjne w obszarze ładunku przestrzennego, efekt tunelowania nośników, duża rezystancja szeregowa. W równaniu (1) nie jest również uwzględniony spadek napięcia na rezystancji szeregowej oraz prąd płynący przez przewodność równoległą. Wyznaczanie czterech podstawowych parametrów złącza p-n, to jest współczynnika idealności, prądu nasycenia, rezystancji szeregowej oraz przewodności równoległej jest ważne z punktu widzenia informacji o mechaniz... więcej»

Ocena dokładności algorytmu lokalizacji węzłów bezprzewodowej sieci sensorowej wspomagającej poruszanie się osób niewidomych (Piotr Wasilewski, Łukasz Januszkiewicz)
Zarówno w kraju jak i na świecie opracowywanych jest wiele systemów i urządzeń wspomagających samodzielne poruszanie się osób niewidomych [1, 3, 6-9]. Wiele z nich nie zostało w pełni zaakceptowanych przez niewidomych, ponieważ ich obsługa nie jest intuicyjna, a niejednokrotnie wymaga długotrwałego treningu. W dalszym ciągu aktualna jest potrzeba opracowania systemu ułatwiającego osobie niewidomej poruszanie się w mieście w sposób zbliżony do tego, w jaki mogą przemieszczać się ludzie widzący. Aby było to możliwe potrzebny jest między innymi dostęp do informacji o ruchu pojazdów transportu miejskiego, położeniu obiektów w bezpośrednim otoczeniu (np. roboty drogowe), a także dostęp do osoby widzącej, która pomogłaby w sytuacji niespodziewanej, ale nie musiałaby być zaangażowana w sytuacjach rutynowych. Od kilku lat w Instytucie Elektroniki Politechniki Łódzkiej trwają prace nad systemami ułatwiającymi poruszanie się osobom niewidomym i słabowidzącym [1-4]. Zadaniem obecnie realizowanego projektu jest ułatwienie takim osobom samodzielnego podróżowania i poruszania się na terenie miasta oraz korzystania z infrastruktury miejskiej. Opracowywany system ma architekturę typu rozproszonego. Składa się z modułów mobilnych, w które zostaną wyposażeni użytkownicy systemu oraz modułów stacjonarnych wykorzystujących technologie serwerów sieciowych nadzorujących pracę systemu. Elementy systemu wykorzystują technologię bezprzewodowych sieci doraźnych i sieciowych baz danych umożliwiając dostęp do informacji o infrastrukturze miasta [5]. System wykorzystuje dedykowany serwer połączony z serwerem komunikacyjnym systemu zarządzania transportem publicznym MPK (Miejskie Przedsiębiorstwo Komunikacyjne w Łodzi) oraz system znaczników radiowych umieszczonych w pojazdach przewoźnika, na przystankach oraz punktach zainteresowań (POI). Schemat systemu pokazano na rys. 1. Serwer IE PŁ pobiera w czasie rzeczywistym z systemu MPK informacje o położeni... więcej»

Transport fononów przez nadstruktury GaAs/AlAs (Dariusz Żak, Włodzimierz Nakwaski)
W nowoczesnych przyrządach półprzewodnikowych nadstruktury składają się zwykle z wielu cienkich warstw dwóch różnych materiałów o wyraźnie różniących się współczynnikach załamania. Cieplna przewodność nadstruktur jest anizotropowa, o innych wartościach w kierunku prostopadłym do granic warstw i w kierunku do nich równoległym. W dodatku obie te przewodności są zazwyczaj znacznie mniejsze od przewodności objętościowych (bulk resistances) obu tych materiałów, co jest związane z odbijaniem i rozpraszaniem fononów na granicach warstw. Niekiedy, jako uzupełniający mechanizm transportu fononów, należy również uwzględnić możliwość ich tunelowania przez bardzo cienkie warstwy. Wpływ pozostałych, poza fononowymi, procesów odprowadzenia ciepła w standardowych przyrządach półprzewodnikowych w temperaturach bliskich temperaturze pokojowej, tj. procesów promieniowania cieplnego oraz przekazywania energii cieplnej cząstkom powietrza, jest nieznaczny, czego efektem jest zdominowanie transportu ciepła w takich półprzewodnikowych przyrządach przez przewodnictwo fononów do obudów tych przyrządów. Cieplna oporność przejścia Wielokrotne odbicia fononów w nadstrukturach nowoczesnych przyrządów półprzewodnikowych w znacznym stopniu redukują skuteczność ich transportu [1, 2]. W szczególności transport fononów w kierunku równoległym do granic warstw (i będąca jego wynikiem przewodność cieplna λIP w tym kierunku) są odmienne od tychże zjawisk dotyczących kierunku prostopadłego do granic (czemu odpowiada przewodność λCP) [3]: (1) (2) gdzie L1 i L2 są grubościami, a λ1 i λ2 przewodnościami cieplnymi obu naprzemiennych warstw nadstruktury. 1 2 1 1 2 2 L L λ λ L λ L IP + + ... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Eksperymentalna walidacja elektromechanicznych modeli ultradźwiękowych przetworników piezoceramicznych (Andrzej Milewski, Paweł Kogut, Witold Kardyś, Piotr Kluk)
Piezoceramika od wielu lat jest materiałem wykorzystywanym do budowy przetworników ultradźwiękowych dużej mocy ze względu na ich bardzo dobre parametry, jak chociażby dużą sprawność i zdolność energetyczną oraz wytrzymałość mechaniczną. Naj- Rys. 1. Piezoceramiczne przetworniki ultradźwiękowe Fig. 1. Piezoceramic ultrasonic transducers częściej stosowana jest ceramika o geometrii walcowej wstępnie spolaryzowana w kierunku osiowym. Przykłady opisanych przetworników piezocermicznych zaprezentowano na rys. 1. Przetworniki ultradźwiękowe projektowane są na zadane parametry, takie jak częstotliwość pracy czy moc wyjściowa. Do projektowania technicznego przetwornika ultradźwiękowego potrzebny jest model matematyczny, który pozwoli na wstępną estymację wymaganych parametrów, w tym parametrów elementów składowych takich jak przetwornik piezoceramiczny. Model przetwornika piezoceramicznego jest również niezbędny do walidacji parametrów piezoceramiki dostarczonej od producenta, co jest szczególnie ważne ze względu na rozrzut technologiczny, który jak podają niektórzy producenci standardowo wynosi ~20%. W niniejszym artykule skupiono się na opisie elektromechanicznego modelu dla przypadku drgań osiowych oraz na metodach estymacji parametrów statycznych przetworników piezoceramicznych w oparciu o pomiary charakterystyk impedancyjnych. 16 Elektronika 8/2012 Model drgań osiowych Przypadek drgań osiowych obejmuje problem, w którym przetwornik w kształcie cienkiego dysku lub krążka zostaje poddany harmonicznemu pobudzeniu elektrycznemu oraz obustronnemu obciążeniu akustycznemu w kierunku osiowym. Problem ten wraz z warunkami wymuszenia oraz zadanymi warunkami brzegowymi ilustruje rys. 2. (3) gdzie k t jest efektywnym współczynnikiem sprzężenia elektromechanicznego drgań osiowych: (4) Estymacja parametrów statycznych przetwornika Technologia wytwarzania przetworników piezoceramicznych charakteryzuje się dużym rozrzutem technologicznym,... więcej»

Technologia jednoczesnego zgrzewania i cięcia włóknin wielowarstwowych w sposób ciągły na przykładzie urządzenia AZW-10 (Maciej Brylski, Piotr Gawryś, Łukasz Krzemiński, Bohdan Młynarski)
Technologia zgrzewania ultradźwiękowego jest jedną z metod łączenia ze sobą termoplastycznych materiałów polimerowych. Metoda ta posiada wiele zalet, które sprawiają, że jest ona coraz powszechniej stosowana - szczególnie w przemyśle. Zgrzewanie ultradźwiękowe polega na lokalnym uplastycznianiu i przetapianiu materiału zgrzewanego pod wpływem oddziaływania fali akustycznej o wysokiej częstotliwości - ultradźwięków. Proces łączenia realizowany jest na zgrzewarkach, których konstrukcja i parametry dostosowane są indywidualnie do realizacji procesu. Na konstrukcję zgrzewarki wpływ mają typy materiałów zgrzewanych, ich kształty oraz wymagania jakości połączenia. Ze względu na zjawiska wykorzystane w zgrzewaniu ultradźwiękowym łączenie odbywa się bez użycia dodatkowych elementów łączących ani substancji chemicznych, co sprawia, że proces ten jest ekologiczny i ekonomiczny. Selektywne oddziaływanie ultradźwięków zmienia strukturę materiału tylko w punktach styku, co pozytywnie wpływa na estetykę produktu oraz przyczynia się do niskiej energochłonności procesu, ponadto pozwala uzyskać odpowiednią szczelność i wytrzymałość mechaniczną spoiny. Proces zgrzewania ultradźwiękowego jest łatwy w automatyzacji, a jego wydajność pozwala na zastosowanie go w produkcji masowej. Odpowiednio dużą wydajność w przypadku produkcji wykrojów z wielowarstwowych włóknin z materiałów termoplastycznych można uzyskać jedynie w procesie ciągłym. Technologia zgrzewania ultradźwiękowego z jednoczesnym odcinaniem realizowana w procesie ciągłym kilkakrotnie zwiększa wydajność procesu w porównaniu z procesem zgrzewania sekwencyjnego. Dodatkowo wyeliminowana jest jedna operacja odcinania materiału zgrzanego, często realizowana poprzez wykrojnik. Analiza procesu Opracowanie nowatorskiego urządzenia, poprawnie realizującego określony proces zgrzewania i odcinania z zastosowaniem kowadła obrotowego, wymagało wcześniejszego przeprowadzenia szczegółowej analizy teg... więcej»

System zabezpieczeń w urządzeniu do automatycznej kontroli filtrów przeciwzakłóceniowych (Tadeusz KOZŁOWSKI, Kazimierz STROJNY)
System kontroli filtrów typ SKF-11 (rys. 1) przeznaczony jest do automatycznego sprawdzania parametrów elektrycznych, segregacji i znakowania filtrów przeciwzakłóceniowych. Urządzenie obsługiwane jest (w trybie pracy automatycznym) przez 1. operatora, którego rola sprowadza się do układania na transporterze wejściowym filtrów do badania oraz zdejmowania filtrów spełniających kryteria jakości, z transportera wyjściowego po badaniu i znakowaniu. Filtry nie spełniające wymagań (braki) są segregowane i automatycznie wrzucane do odpowiednich pojemników. System sterowania urządzenia składa się z 3 sterowników PLC lokalnych oraz komputera sterującego pełniącego rolę "mastera". Komputer sterujący również wykonuje i zarządza pomiarami parametrów elektrycznych filtrów. Sterowniki lokalne sterują poszczególnymi zespołami urządzenia: ● zespołem karuzeli pomiarowej, ● zespołem podawania filtrów, ● zespołem segregacji i znakowania. Komunikacja w systemie sterowania odbywa się poprzez sieć Ethernet z protokołem Modbus TCP/IP. W przypadku awarii podsystemu podawania filtrów do badania, możliwa jest praca z ręcznym wkładaniem filtrów w głowice pomiarowe, pozostała część ... więcej»

Aparatura do oznaczania reakcyjności koksu wobec CO2 metodą analizy gazów poreakcyjnych – badania eksploatacyjne w warunkach przemysłowych (Artur WITOWSKI, Krzysztof JASEK, Władysław LATOCHA)
Jednym z powszechnie stosowanych kryteriów przydatności koksu do zastosowań w procesach wielkopiecowych jest jego reakcyjność wobec CO2. Kryterium to zostało opracowane przez Nippon Steel Corporation (NSC) w latach 80. XX w., a następnie wykorzystano je przy redagowaniu norm ISO 18894 i ASTM D 5341a [1, 2] dotyczących określania właściwości użytkowych koksu. Normatywne oznaczenie reakcyjności koksu wobec ditlenku węgla polega na określeniu względnego procentowego ubytku masy koksu po zakończeniu dwugodzinnej reakcji z ditlenkiem węgla prowadzonej w temperaturze 1100oC (współczynnika reakcyjności CRI). Mimo upływu 30 lat od opracowania wymienionych norm, obowiązują one do chwili obecnej, chociaż zawarte w nich kryterium w sposób bardzo uproszczony opisuje rzeczywiste wzajemne oddziaływanie reagentów w procesach produkcyjnych. Powszechne stosowanie pomiarów współczynnika reakcyjności CRI koksu wobec CO2 jako wskaźnika przydatności danej partii koksu do zastosowań w procesach wielkopiecowych związane jest z prostotą wykonania oznaczeń w warunkach przemysłowych. Jednocześnie w wielu ośrodkach naukowych podejmowane są prace badawcze i konstrukcyjne poświęcone doskonaleniu metod i urządzeń umożliwiających bardziej precyzyjny opis zjawisk fizykochemicznych zachodzących pomiędzy koksem a ditlenkiem węgla w procesach produkcyjnych. Tematyka tych prac dotyczy przede wszystkim zagadnień związanych z monitorowaniem dynamiki zmian reakcyjności koksu wobec CO2 w trakcie ich wzajemnego oddziaływania [3-7]. Prace poświęcone tym zagadnieniom prowadzone są również Instytucie Tele- i Radiotechnicznym. Efektem tych prac jest opracowanie dwóch metod oznaczania chwilowych wartości reakcyjności koksu wobec ditlenku węgla: metody opartej o analizę gazów poreakcyjnych [8] oraz metody opartej o pomiar dodatkowej energii cieplnej dostarczanej od grzejnika pieca do retorty z próbką koksu w trakcie trwania reakcji izotermicznej [9]. Wyniki, prowadzonych... więcej»

Wykorzystanie technologii organicznych diod elektroluminescencyjnych do budowy źródeł światła (Grażyna Kozioł, Kamil Janeczek, Aneta Araźna, Konrad Futera, Wojciech Stęplewski)
Diody OLED (Organic Light Emitting Diode) są nowatorskimi przyrządami elektronicznymi, formowanymi na bazie cienkich warstw organicznych o grubości około 100 nm. Ten stosunek wymiarów powoduje, że uważa się je praktycznie za przyrządy dwuwymiarowe. Diody OLED będą pracować przy bardzo niskich napięciach rzędu 3…5 V. Dlatego wprowadzenie diod OLED jako źródeł światła w zastosowaniach dotyczących powszechnego oświetlenia ma znaczenie rewolucyjne i spowoduje zasadnicze przesunięcie nadrzędnych priorytetów w przemyśle oświetleniowym. Budowa OLED Intensywne prace badawcze dotyczące materiałów, procesów i konstrukcji diod emitujących światło, zbudowanych z organicznych warstw półprzewodnikowych rozpoczęto kilka lat temu. Jeszcze stosunkowo niedawno wydawało się, że białe półprzewodnikowe diody elektroluminescencyjne LED były najwyższym osiągnięciem w tym obszarze. Przeszkodą w ich upowszechnianiu stają się nie tylko wysoki koszt produkcji, ale także ograniczenia technologiczne związane z materiałami nieorganicznymi (m.in. problemy z dalszą miniaturyzacją). Obecnie naukowcy kierują swoją uwagę w stronę materiałów organicznych. W odróżnieniu od elektroniki tradycyjnej, w której ze względu na kolektywny charakter zjawisk elementy aktywne nie mogą mieć rozmiarów atomowych, w elektronice organicznej można operować nawet na pojedynczych cząsteczkach. Chemia organiczna pozwala na realizację zamówień na materiały funkcjonalne, które są złożone z cząsteczek zaprojektowanych i przeznaczonych do wykonywania określonych funkcji. W rezultacie będzie można wykonywać, dzięki organicznym diodom luminescencyjnym OLED, nowatorskie źródła światła bardziej energetycznie efektywne niż istniejące obecnie źródła światła. Dioda OLED jest przyrządem bazującym na konwersji energii (przemiana prądu elektrycznego na światło). Jest bardzo cienka, o dużej powierzchni i praktycznie można ją uważać za przyrząd dwuwymiarowy. Zbudowana jest z materiałów pod... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
SAR/InSAR Raw Data Simulator using 3D terrain model (Damian Gromek, Artur Gromek, Krzysztof S. Kulpa, Mateusz Malanowski, Piotr Samczyński)
The research on new SAR algorithms are based on the theoretical background, algorithms verification using simulations and real-life data tests. The real experiments are expensive and time consuming. Due to that many researchers and software developers put many efforts to design and develop efficient tools for SAR simulations. Last years it has been design and developed many SAR simulators using different solvers [1], [3], [4], [5], [6], [7]. One of the simulator has been proposed and design by Warsaw University of Technology in 2003 [1], [3]. Due to the available that time computational power, the simulator was used to test a SAR algorithms based on the simple scene definitions, which include few dominant scattering in the scene [1], [3]. Such solution allowed for testing most of SAR algorithms, where have been tested such phenomena as non-linear flight path, geometrical distortion of the SAR image, etc [8], [9], [11], [12]. The computational power and required computer memory in the solver used for simulation depends linearly with the number of scattering points in the scene. That time it was not possible to simulate a complex and realistic scene including ground (consist of many scatterers) and shadowing, double and multi-bounds effect. The available in the market computational power and participation in the projects, where new SAR algorithms have to be developed [10], [11], [12], [13], [14], led authors to developed a new extended version of the SAR/ InSAR simulator. This paper presents new results of simulation, where the real DTM models of the Earth has been used. Simulator description Simulation are basing on given radiolocation scene and the parameters of the transmitted radar signal, then simulator solver generates a radar echo. The simulator knowing the location of the radar and of the object in the radiolocation scene. Based on this knowledge, the distance fr... więcej»

An energy-aware topology control in wireless sensor network (Marcin Wawryszczuk )
Wireless sensor networks have become an emerging technology that has an incredibly wide range of prospective. Typically, a network consists of a large number of nodes, distributed over some specific area and organized into multi hop system. The node of wireless sensor network is simple device equipped with control unit, communication unit, sensing unit and power supply. The power supply is usually a small, low capacity battery which is very hard to replace. It makes the energy factor of the sensor node a crucial one. This fact imply that the power supply of a node should be managed very carefully, to achieve longer life of the node. In the opposite to the energy conservation are often the objectives, which the network has to fulfill. Energy efficient topology control means to allow the network conserves the energy and keep the network performance on acceptable level. The topology control can be broadly categorized into any of the two approaches. First is called the nodes activity control. The basic idea of this group of methods is to maintain a small subgroup of nodes operative, while the rest of nodes go into sleep mode. The other methods are called sleep/wakeup algorithms. The nodes with implemented sleep/wake-up algorithm stay active for a small period of time and then turn into sleep mode, where the communication, sensing and control units are deactivated. Related work Much of the related research are addressed to WSN that are dense, battery powered and self configured. Because of these requirements, most of the author are concentrated on finding solution at various levels of the communication protocol, including extremely energy efficient aspects [1]. Some of the most popular solutions in energy effective topology control are GAF, SPAN, ASCENT, STEAM, SWP. Comparing the methods described above, GAF and SPAN can reduce the energy consumption 3 times [2], ASCENT more than 5 times [2]. In group of sleep/wakeup methods, the... więcej»

Analiza właściwości cienkich warstw TiO2:Tb jako powłok fotokatalitycznych (Damian Wojcieszak, Danuta Kaczmarek, Jarosław Domaradzki, Eugeniusz Prociów, Michał Mazur, Piotr Domanowski )
Rozwój nowoczesnych technologii związany jest obecnie w dużym stopniu z właściwościami oraz z możliwościami zastosowania materiałów na bazie tlenków metali. Jednym z takich materiałów jest dwutlenek tytanu (TiO2), który ma szereg takich zalet jak np. duża przezroczystość, duża stabilność termiczna, chemiczna i mechaniczna oraz duża aktywność fotokatalityczna [1-3]. Właściwości dwutlenku tytanu mogą być modyfikowane m.in. przez zmianę parametrów procesu nanoszenia [4], domieszkowanie [4, 5] lub też przez obróbkę poprocesową (np. wygrzewanie) [6]. TiO2 jest uznanym materiałem fotokatalitycznym, powszechnie stosowanym przy wytwarzaniu powłok samoczyszczących. Jego aktywność fotokatalityczną można dodatkowo zwiększyć wytwarzając materiały o większej powierzchni aktywnej lub stosując domieszki np. w postaci takich pierwiastków ziem rzadkich jak terb, europ, czy też neodym [2, 3, 5]. Część eksperymentalna Cienkie warstwy TiO2 i TiO2:Tb naniesiono metodą wysokoenergetycznego rozpylania magnetronowego, rozpylając metaliczne targety Ti oraz Ti... więcej»

Koncepcja modułowego elektronicznego systemu przekształcania energii paneli fotowoltaicznych dla stacji wymiany akumulatorów trakcyjnych (Paweł Staniak, Grzegorz Iwański, Wojciech Moćko)
Perspektywy rozwoju pojazdów elektrycznych prowadzą do jednoczesnego rozwoju infrastruktury odpowiadającej za ich ładowanie. W przeważającej części są to stacje ładowania bazujące na zasilaniu z sieci elektroenergetycznej. Niniejszy artykuł dotyczy koncepcji automatycznej stacji ładowania akumulatorów trakcyjnych dla pojazdów elektrycznych zasilanej w znacznym stopniu ze źródeł odnawialnych i przedstawia zaprojektowany system przekształtnikowy współpracujący ze źródłem odnawialnym, jakim są panele fotowoltaiczne. System energoelektroniczny w stacji ładowania akumulatorów Schemat blokowy systemu wykorzystanego w stacji ładowania akumulatorów trakcyjnych przedstawiono na rys. 1. Poszczególne grupy przekształtników cechują się różnymi topologiami, co wynika z odmienności zadań i funkcji w systemie. Przekształtniki DC/DC współpracujące z ogniwami fotowoltaicznymi Jedną z podstawowych cech źródła fotowoltaicznego jest zależność mocy wytwarzanej od warunków atmosferycznych. Priorytetem jest uzyskiwanie maksymalnej energii przy danym poziomie nasłonecznienia oraz temperatury. Osiągane jest to przez stosowanie układu przekształtnikowego wraz z zaimplementowanym układem sterowania śledzącym punkt maksymalnej mocy ogniwa (ang. Maximum Power Point Tracking). Założono, że napięcie źródeł PV (ang. PhotoVoltaic) jest niższe od napięcia wspólnej szyny napięcia stałego DC, stąd przekształtniki impulsowe napięcia stałego DC/DC współpracujące z modułami PV będą miały strukturę układów podwyższających. Przekształtniki DC/DC współpr... więcej»

Charakterystyka optoelektroniczna wysokosprawnych ogniw słonecznych na bazie krzemu krystalicznego otrzymywanych w procesie kwasowej teksturyzacji powierzchni (Grażyna Kulesza, Piotr Panek, Paweł Zięba)
Teksturyzacja powierzchni krzemu jest jednym z kluczowych elementów produkcji ogniw słonecznych. Przeprowadzana jest w celu usunięcia warstwy zdefektowanej i wytworzenia mikrostruktury powierzchni zatrzymującej promieniowanie słoneczne wewnątrz materiału poprzez wielokrotne odbicie. Teksturyzacja chemiczna jest szeroko stosowana w sektorze PV ze względu na jej niski koszt [1]. Również ze względu na redukcję kosztów stosowany jest tańszy krzem multikrystaliczny (mc-Si). Płytki mc-Si trawione są tylko w roztworach kwasowych, ponieważ wówczas teksturyzacja przebiega izotropowo, przez co nie generują się niekorzystne uskoki na granicach ziaren. Dodatkowo usuwanie warstwy zdefektowanej i teksturyzacja odbywają się w jednym etapie [3, 4]. Teksturyzacja powierzchni odbywa się w roztworach kwasowych na bazie HF i HNO3 z zastosowaniem odpowiednio dobranego rozpuszczalnika. Skład roztworu dobierany jest na podstawie trójkąta stężeń w układzie HF-HNO3- rozpuszczalnik (rys. 1). Celem pracy było zbadanie zależności stosunku objętościowego HF/HNO3, jak i wpływu stosowanego rozpuszczalnika na zmianę morfologii powierzchni krzemu multikrystalicznego, która skutkować będzie w optymalnych parametrach optoelektronicznych wytworzonych ogniw słonecznych. CH3COOH i wodę dejonizowaną. W celu umożliwienia porównania wpływu stężenia kwasów zawartych w roztworze stężenie rozpuszczalnika pozostało niezmienne i wynosiło 20% objętości całego roztworu. Czas procesu wynosił 60 sekund. Jako próbkę ... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Rozproszony system czujnikowy dla jachtów treningowych (Izabela AUGUSTYNIAK, Paweł KNAPKIEWICZ, Mariusz PROROK, Stanisław GUZ, Jan DZIUBAN)
Żeglarstwo od lat jest wspomagane urządzeniami elektronicznymi w celu ułatwienia żeglugi, zwiększenia jej bezpieczeństwa oraz poprawy parametrów nautycznych jednostek pływających. W literaturze przedmiotu coraz częściej spotyka się opisy wykorzystania techniki mikrosystemów połączonej z nowoczesną informatyką w celu parametryzacji żeglarstwa [1, 2]. Wieloczujnikowe systemy nadzoru znajdują zastosowanie przede wszystkim na bardzo dużych, luksusowych jednostkach, ze względu na wysoki koszt tego rodzaju systemów [3]. W ramach niniejszej pracy zaprojektowano i wykonano wieloczujnikowy system wspomagający naukę żeglowania na jachtach typu Omega. Jest to pierwszy w Polsce wieloczujnikowy system nadzoru zachowań żeglarza i łodzi w czasie rzeczywistym. Dzięki możliwości prowadzenia pomiarów w trakcie żeglugi, system ten pozwala na pomiar parametrów, który nie był możliwy w nowoczesnych ... więcej»

Detekcja neutronów i detekcja radonu przy wykorzystaniu krzemowych detektorów naładowanych cząstek – nowa koncepcja osobistej dozymetrii (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Michał CIEŻ, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrze j PANAS, Werner RÜHM, SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Marek WIELUNSKI, Krzysztof WITEK, Michał ZABOROWSKI)
W Institut für Strahlenschutz, Helmholtz Zentrum München (HZM) opracowywane są przyrządy nowej generacji do monitorowania zagrożeń radiacyjnych, wykorzystujące detektory krzemowe. Są one jednymi z pierwszych na świecie miniaturowych, zasilanych bateryjnie przyrządów tego typu - o wymiarach porównywalnych z dozymetrami kliszowymi. Czas ich nieprzerwanej pracy bez wymiany baterii przekracza 6 miesięcy. Pomiar odbywa się w sposób ciągły (w czasie rzeczywistym), co umożliwia natychmiastowe sygnalizowanie zagrożeń. Wyniki pomiarów są gromadzone w pamięci, dzięki czemu możliwe jest kontrolowanie historii występowania zagrożeń. W Instytucie Technologii Elektronowej (ITE) opracowywane są we współpracy z HZM i wytwarzane detektory krzemowe do opracowywanych w HZM przyrządów. Detektory te, dla spełnienia wymagań stawianych przez przyrządy nowej generacji muszą charakteryzować się ekstremalnie dobrymi parametrami (bardzo mały prąd ciemny, bardzo małe szumy, duża czułość, duża powierzchnia aktywna, małe napięcie pracy). W niniejszej pracy opisano opracowane w ITE sensory neutronów dla dozymetru neutronów do monitorowania składowisk zużytego paliwa nuklear... więcej»

Modelowanie wpływu zmian temperatury ośrodka na wyniki pomiarów modyfikowaną metodą korelacyjną (Paweł KOMADA, Sławomir CIĘSZCZYK, Waldemar WÓJCIK)
Pomiary stężeń gazów dla małych ich wartości wymagają zwykle wydłużenia ścieżki optycznej. W dostępnych komercyjnie spektroskopach o zamkniętej ścieżce optycznej realizowane jest to poprzez wielokrotne odbicia sondującego promieniowania, a poddawana analizie próbka gazowa ma niewielką objętość, a przez to również stałą wartość stężenia, temperatury i ciśnienia. Inna sytuacja ma miejsce w przypadkach pomiarów dla otwartej ścieżki optycznej [1, 4]. Z taką sytuacją można spotkać się przy kontroli stanu gazów wewnątrz kotłów energetycznych, np. pomiarach składu warstwy przyściennej. W takich przypadkach na ścieżce pomiarowej mogą występować zmienne warunki, np. temperaturowe [2]. Na kształt linii pochłaniania danego gazu mają wpływ różne czynniki środowiskowe (ciśnienie, temperatura, obecność innych gazów w mieszaninie). Metody pomiarowe różnią się między sobą m.in. tym, jakie parametry linii absorpcyjnych (amplituda, pole pod krzywą, szerokość spektralna itp.) poddawane są analizie. Stąd istnienie niehomogeniczności wzdłuż ścieżki pomiarowej dla pomiarów tego typu ma wpływ na uzyskiwane wyniki w zależności od wykorzystywanej metody pomiarowej [1]. Jedną z metod, która jest dość atrakcyjna do zastosowania w pomiarach składu gazów w przemysłowych kotłach energetycznych, jest modyfikowana metoda korelacyjna [5]. Jej główną zaletą jest możliwość uniezależnienia wyni... więcej»

AP-MOVPE technology of AIIIBV-N heterostructures for photovoltaic applications (Wojciech Dawidowski, Beata Ściana, Damian Pucicki, Damian Radziewicz, Jarosław Serafińczuk, Magdalena Latkowska, Marek Tłaczała)
Properties of dilute nitrides material system like large discontinuity of a conduction band (due to high electronegativity of nitrogen) [1], large band gap bowing coefficient [2], increased electron effective mass [3], large scattering rate (connected with a small radius of nitrogen atom in comparison with the others V group atoms) [4] provide a way to novel applications: telecommunications lasers [1], heterojunction bipolar transistors [5] and very efficient solar cells [6]. InGaAsN is a very promising, lattice matched to GaAs and In0.5Ga0.5P material with band gap about 1 eV. The control of indium and nitrogen amounts in the InGaAsN quaternary alloy offers the ability to tailor the value of band gap and positions of valence and conduction band edges. Main advantage of dilute nitrides is a large reduction of band gap caused by nitrogen introduction (about ~150 meV/% of N). The technology of GaAs is better developed and still much cheaper than indium phosphide and allow to fabricate much better Bragg reflectors (based on the high refractive index contrast GaAs/AlAs heterostructure) for laser applications. Moreover, this material system guarantees a good temperature performance of light emitters and a high internal quantum efficiency of solar cells. On the other hand, growth of InGaAsN quaternary alloy causes some technological problems. The ... więcej»

Recycling of silicon solar cells (Piotr Ostrowski)
W odpowiednio długiej perspektywie czasowej, wynoszącej średnio 25 lat, krzemowe moduły PV podobnie jak inne przedmioty użytkowe stają się odpadem. Globalna tendencja zmierzająca do wykorzystania materiałów odpadowych, skłania do zagospodarowania materiałów odpadowych komercyjnych modułów PV. Efektywną metodą gospodarowania odpadami jest odzysk. Dotychczasowa praktyka polegająca na składowaniu zużytych modułów PV na składowiskach odpadów, w odniesieniu do modułów PV, na dłuższą metę nie jest do zaakceptowania. Eksperyment Strumień odpadów w sektorze fotowoltaicznym można podzielić na dwie grupy: odpady generowane na etapie produkcji oraz wynikające z procesów starzeniowych (odpad poeksploatacyjny). Na 1000 wytworzonych krzemowych ogniw PV, średnio 50 sztuk nie spełnia stawianych im wymagań, zatem do produkcji modułów PV można wykorzystać 950 szt. pojedynczych ogniw, których parametry są zgodne z oczekiwanymi. Natomiast na 1000 wytworzonych modułów PV, średnio 10 sztuk nie spełni wymagań. Do eksploatacji trafi zatem 990 modułów PV. Dodatkowo ilość zużytych modułów PV zwiększa się w wyniku ich naturalnego starzenia podczas, którego zmianie ulęgają właściwości fizyko-chemiczne poszczególnych materiałów składowych. Na rys. 1 przedstawiono widok zużytych komercyjnych modułów PV. masowym poszczególnych elementów podatnych na recykling w odniesieniu do jego całkowitej masy (1). (1) gdzie: Mws - masowy wskaźnik podatności ogniwa/modułu PV na recykling, mri - masa części podatnych na recykling, m - ogólna masa modułu PV. Rozdział wycofanego z dalszej eksploat... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
World Telecommunication and Information Society Day 2012 (WTISD): "Women and Girls in ICT" (Hamadoun I. Touré)
Dear Sir/Madam, World Telecommunication and Information Society Day, celebrated each year on 17 May, marks the anniversary of the signature of the first International Telegraph Convention in 1865 which led to the creation of the International Telecommunication Union. I am... więcej»

Naziemna telewizja cyfrowa - wybrane zagadnienia (JAN BOGUCKI)
Telewizja analogowa jest znana na świecie od ponad pięćdziesięciu lat. Można bez cienia wątpliwości stwierdzić, że ten system nadawania programów sprawdził się. Mimo to, w Polsce 31 lipca 2013 roku [4] zostanie wyłączony ostatni telewizyjny nadajnik analogowy. Nadawanie telewizji od tego momentu będzie się odbywało tylko w formie cyfrowej. Jakie czynniki zadecydowały o tak radykalnym zmianie sytemu? Otóż na zmianę tę wpłynął szereg czynników. Najważniejszy z nich jest związany z tzw. dywidendą cyfrową, polegającym na tym, że cały kraj może być pokryty nawet 8 programami telewizyjnymi przy wykorzystaniu teoretycznie tylko jednego dotychczasowego kanału analogowego o szerokości 8 MHz. A więc oszczędności widma elektromagnetycznego, które jest dobrem ograniczonym, a tym samym, które należy eksploatować oszczędnie, nie da się przecenić. Innym czynnikiem jest rozwój nowych technologii, wymagający dostępnego pasma elektromagnetycznego np. dla transmisji danych w technologii LTE (Long Term Evolution). W artykule przedstawiono pewne charakterystyczne aspekty dotyczące naziemnej telewizji cyfrowej. Nadawanie tradycyjne i cyfrowe W telewizji analogowej dla każdego programu konieczne jest zbudowanie własnej, odrębnej sieci dystrybucyjnej (rys. 1), tzn. sieci nadajników dostarczających abonentom określony program. (W praktyce sprowadza się to do tego, że różni nadawcy wykorzystują tą samą antenę czy maszt w danej miejscowości.) Wiąże się to z faktem, że każdy z tych programów musi być transmitowany w dedykowanym tylko jemu kanale częstotliwościowym 8 MHz. Z reguły są wykorzystywane nadajniki dużej mocy i w tych kanałach występuje zjawisko zakłóceń interferencyjnych. Z tego powodu ogranicza się poziom zakłóceń wspólnokanałowych m.in. w ten sposób, że przy transmisji analogowej nadajniki sąsiednich ośrodków zawsze pracują na innych częstotliwościach kanałów. Wzrasta wtedy szerokość wykorzystywanego pasma częstotliwości, a tym samym taka... więcej»

Proste metody tworzenia map głębokości i wypełniania luk informacyjnych przy konwersji obrazów 2D do 3D (Julian Balcerek, Adam Konieczka, Adam Dąbrowski, Tomasz Marciniak)
Istniejące proste metody konwersji obrazów 2-wymiarowych 2D (ang. two-dimensional) na 3-wymiarowe 3D (ang. three-dimensional) wykorzystują binarne mapy głębokości określające, które obiekty przedstawione na obrazie widz ma postrzegać jako bliższe, a które jako dalsze. Mapy głębokości oraz metody ich tworzenia opisano w [1-7]. Obecnie jednym z największych problemów jest opracowanie skutecznych metod automatycznego generowania map dla obrazów nieruchomych oraz dla sekwencji wizyjnych. Kolejnym problemem jest opracowanie metod wypełniania tzw. luk informacyjnych. Człowiek, patrząc na dowolny obiekt, widzi go każdym okiem pod nieco innym kątem i na nieco przesuniętym tle. Na tej podstawie mózg określa odległości i tworzy wrażenie trójwymiarowości postrzeganej sceny. W przypadku zdjęcia zarejestrowanego jednym obiektywem brakuje więc części informacji, którą, w celu konwersji do formatu 3D, należy uzupełnić. Ten brak określa się mianem luk informacyjnych. Nowe metody ich wypełniania autorzy opisali w pracy [8]. Opracowanie aplikacji programowej do skutecznej konwersji obrazów 2-wymiarowych na 3-wymiarowe może mieć zastosowanie np. w systemach monitoringu CCTV (ang. Closed-Circuit Television), aby zwrócić uwagę operatora monitoringu oglądającego obraz z wielu kamer na sytuacje potencjalnie niebezpieczne [9]. Ogólna idea proponowanego dodatkowego narzędzia dla operatora monitoringu jest przedstawiona na rys. 1. W dalszej części opisano metody detekcji i śledzenia obiektów w celu generacji map głębokości, natomiast w rozdziale trzecim zaproponowano metodę tworzenia obrazów 3-wymiarowych z 2-wymiarowych przy wykorzystaniu binarnych map głębokości wraz z proponowanym sposobem wypełniania luk informacyjnych. Wykrywanie i śledzenie obiektów w celu generacji binarnych map głębokości Algorytmy detekcji ruchu w sekwencjach wizyjnych bazują na różnicach zawartości kolejnych ramek. Systemy wizyjne wykonujące detekcję ruchu służą głównie ... więcej»

Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

FPGA implementation of parallel image processing system (Przemysław Brylski, Michał Strzelecki)
During the last decade field programmable gate array (FPGA) devices achieved technology grade competitive to traditional digital processor systems (DPS). Nowadays FPGA offer very high logical capacity, parallel processing possibilities, high speed and flexibility. These features of FPGA devices make them suitable for development of digital image processing systems. The strong demand of fast parallel processing of data results in designing and implementing of digital processor in a number of various architectures. One of the possible and promising approaches to parallel data processing is a network of synchronized oscillators [1]. It has been proven that such a network is a reliable tool for image analysis tasks, including segmentation or noise removal. Its operation is based on the "temporary correlation" theory [2], which attempts to explain scene recognition as performed by human brain. Based on this idea, the parallel digital image processor for image segmentation and analysis was proposed in [3]. Described processor was implemented in VHDL [6, 7] language and simulated in ModelSim software for 8×8 image size. Performed tests confirm that this processor can be successfully applied for segmentation of binary images. In order to reduce a utilization of FPGA logic by a single image processing unit (node), several modifications of the image processor structure were proposed in [4, 5]. As described in [5] a significant reduction of LUTs needed for node realization (more than 15 times) and general purpose registers (more than 6 times) was achieved. These changes also adopted an algorithm of the image processor for more effective operation in the FPGA structure. As a result, implementation of a processor capable to analyse an image of 16×16 pixels in the Xilinx XC3S500E Spartan-3E family device ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
The electrical activity of brain in upright posture provoked syncope (Kazimierz Pęczalski, Tadeusz Pałko, Dariusz Wojciechowski, Wojciech Jernajczyk, Zbigniew Dunajski)
The knowledge of symptoms and signs of patients with transient loss of consciousness (TLOC) is crucial for reliable clinical diagnosis of patients with syncope. The syncope is defined as a TLOC caused by cerebral hypoperfusion [1]. The three main types of syncope are distinguished: cardiac syncope, neurally mediated syncope and syncope due to autonomic failure (orthostatic hypotension). The cardiac syncope can be evaluated by invasive electrophysiological study. The head up tilt test (HUT) with beat to beat measurements of heart rate and blood pressure of patients provides the sufficient diagnose of neurally mediated syncope and syncope caused by autonomic failure. For diagnose the standard classification, consists of four types of vasovagal reaction (including cardiodepressive reaction i.e. heart rate decrease and vasodepressive reaction i.e. arterial pressure decrease): I. mixed, IIa. cardiodepressive, IIb. cardiodepressive, III. vasodepressive, is applied.The neurally mediated and cause by autonomic failure syncopes develop hypotension thus cerebral hypoperfusion. Therefore in presented study we extended the common use set of measurements to electrical activity of brain examination [2]. The statistically significant differences of blood flow and hemoglobin concentration in brain vessels during syncope induced by HUT observed in patients with induced lack of consciousness vs. patients with negative test results were reported in our further study [3]. The blood flow of brain was assessed by ultrasonic, transcranial doppler (TD) and hemoglobin concentration changes (oxygenated and deoxygenated fractions) by near infrared spectroscopy (NIRS). The similar results were reported by other researches. Our study [4, 5] of electrical activity of brain in course of HUT proved appearance of pathology of EEG within tyes (30-60) seconds prior to syncope attack. In our studies we didn’t determinate of the exact interval between obser... więcej»

Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures “more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration.  SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion.  SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for “More than Moore" approaches, where a heterogeneous syste... więcej»

Kwantowy efekt Hall'a w epitaksjalnym grafenie otrzymanym w ITME (Lech Dobrzański, Włodzimierz Strupiński, Rafał Stankiewicz, Marta Borysiewicz, Krzysztof Góra, Andrzej Kozłowski, Beata Stańczyk)
Warstwy grafenu otrzymano w ITME oryginalną opatentowaną metodą wzrostu epitaksjalnego [1] na podłożu z węglika krzemu firmy Cree. Wzrost warstw był prowadzony na wypolerowanej stronie krzemowej płytki 4H-SiC o orientacji krystalograficznej (0001). Struktura do pomiaru efektu Hall’a została wykonana metodą fotolitografii i trawienia warstwy grafenu w plazmie tlenowej. Metalizacja kontaktów składała się z dwóch warstw Ti/Au o grubościach odpowiednio 5/200 nm. Wzór metalizacji powstał w wyniku fotolitografii odwrotnej (lift off ). Konstrukcję struktury przedstawiono na rys. 1. Wartość rezystancji ρXX w tym zakresie pól spada, jednak nie do zera, a do wartości ok. 0,1RK. Zmiana nachylenia wykresu ρXY na rys. 2 dla wartości pola ok. ±2T ma miejsce dla wartości rezystancji równej 1/6 RK. Na rysunku 3 przedstawiono wynik pomiaru innej struktury wykonanej na tej samej płytce SiC. Przy wartości rezystancji 1/6 RK występuje wyraźna półka. Rys. 1. Struktura badawcza do pomiaru efektu Hall’a Fig. 1. Hall bar test structure Przepływ prądu wymuszano pomiędzy kontaktami 1-5. Szerokość rezystora wynosi 20 μm, a jego długość 240 μm. W przedstawionej strukturze jest możliwy pomiar napięcia Hall’a pomiędzy kontaktami 3-7, 2-8, ... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski )
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Synteza nanocząstek materiałów sensorowych (Helena Teterycz, Dominika Oleś, Marta Fiedot , Olga Rac, Patrycja Suchorska, Patryk Halek, Grzegorz Halek)
W ostatnich kilkunastu latach w literaturze pojawiają się doniesienia o możliwości syntezy nanomateriałów różnymi metodami. Syntezuje się je między innymi następującymi metodami: hydrotermalną [1], techniką "odwróconego opalu" [2], z roztworu ciekłego [3], za pomocą wzorca [4], elektrochemicznie [5], utleniania termicznego [6], itp. Metodami tymi otrzymuje się nanorurki, nanopręty, nanokwiatki, nanopastylki oraz inne interesujące nanostruktury. Materiały o takiej nanostrukturze mogą znaleźć zastosowanie nie tylko w technice sensorowej, jak warstwy gazoczułe i filtry aktywne [7], ale również jako różne materiały w nanoelektronice i optoelektronice do konstrukcji różnych elementów, np. ogniw słonecznych, czy kryształów fotonicznych, jako katalizatory heterogeniczne, nanomateriały magnetyczne, wypełniacze do kompozytów i wiele innych [8]. W niniejszym artykule przedstawiono wyniki otrzymywania różnych nanomateriałów nową metodą z roztworu wodnego zawierającego organiczne związki stabilizujące. Część eksperymentalna Nanocząstki dwutlenku tytanu otrzymano w reakcji strącania chlorku tytanu(III) wodorotlenkiem amonu z roztworu wodnego (1), a następnie utleniania powietrzem atmosferycznym (2). (1) (2) W początkowym etapie syntezy nanocząstek tlenku tytanu(IV) przygotowywano wodny roztwór prekursora jonów tytanu (TiCl3), syntetycznego polimeru (polietylenoimina, PEI) oraz surfaktantu niejonowego (Triton ® X-100). Otrzymany roztwór mieszano na mieszadle magnetycznym i stopniowo dodawano roztwór wodorotlenku amonu. Nanocząstki złota otrzymywano w wodnym roztworze prekursora jonów złota (HAuCl4) oraz niejonowego surfaktantu (Tween ® 80). Otrzymany roztwór reakcyjny mieszano mieszadłem magnetycznym ... więcej»

BDD z atrybutem negacji w syntezie ukierunkowanej na elementy XOR (Dariusz Kania, Adam Opara)
Struktury matrycowe CPLD (ang. Complex Programmable Logic Devices) stanowią jedną z grup układów programowalnych. Architektura tych układów obejmuje programowalną matrycę połączeń otoczoną na obrzeżach konfigurowalnymi komórkami logicznymi. Charakterystycznym elementem komórki, występującym w większości układów CPLD jest blok kombinacyjny podobny do struktury PAL. Zawiera on pewną, stałą, czasami zmienną liczbę iloczynów dołączonych do sumy. Tego typu blok zwykle nazywany jest blokiem logicznym typu PAL. Blok ten występuje w większości dostępnych obecnie na rynku układów CPLD. Struktury takie można precyzyjnie nazwać układami CPLD typu PAL, w odróżnieniu od drugiej, obecnie bardzo mało popularnej rodziny układów zwanych układami CPLD typu PLA. Charakterystycznym elementem bloków logicznych zawartych w strukturach CPLD jest bramka XOR. Obecność tego elementu może istotnie wpłynąć na efektywność syntezy, której nadrzędnym celem jest minimalizacja liczby iloczynów. Obecność bramki XOR pozwala na bezproblemową realizację funkcji z warunków działania, bądź niedziałania, umożliwia negację wyrażeń, co bezpośrednio wpływa na możliwość ograniczenia liczby iloczynów niezbędnych do realizacji funkcji. Uogólniona struktura bloku logicznego typu PAL z elementem XOR przedstawiona jest na rys. 1. Klasyczna metoda syntezy układów realizowanych w strukturach CPLD typu PAL, przedstawiona między innymi w pracach [1, 5] rozpoczyna się zwykle dwupoziomową minimalizacją wykonywaną dla każdej funkcji oddzielnie, po której następuje etap odwzorowania technologicznego zminimalizowanej postaci funkcji w k-iloczynowych blokach logicznych typu PAL. W przypadku funkcji, będących sumą p implikantów (p>k), zachodzi potrzeba wykorzystywania większej liczby bloków poprzez wprowadzanie sprzężeń zwrotnych zwiększających czas propagacji sygnału. Tego typu metodologia jest powszechnie wykorzystywana w komercyjnych systemach syntezy. Znane są oczywiście od daw... więcej»

Wybrane mikrosystemy opracowane w Zakładzie Mikroinżynierii i Fotowoltaiki Wydziału Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej – przegląd ostatnich osiągnięć (Jan A. Dziuban)
Na jednego Amerykanina w 2002 roku przypadały 3, a w roku 2012 około 27 mikrosystemów. W najbliższym otoczeniu Wydziału Elektroniki Mikrosystemów i Fotoniki na którym pracuję - w zwykłym dniu, kiedy studenci i pracownicy przybywają do swej Alma Mater, znajduje się co najmniej 2000 sztuk różnych mikrosystemów - w samochodach, systemach ogrzewania budynków, telefonach komórkowych, komputerach, itd. Wiadomo, że rynek globalny urządzeń mikrosystemowych wynosi ok. 74 mld USD i rośnie średnio o 20% rocznie, nieprzerwanie od początku lat dziewięćdziesiątych. Tendencja ta utrzyma się przez co najmniej następne 20 lat. Technologia mikrosystemów może wykorzystywać pełną gamę materiałów i technik wytwarzania, jakie charakteryzują mikroelektronikę, z której się wywodzi. Wiodący udział mają tu jednak mikrosystemy krzemowe, tak zwane MEMSy, czyli trójwymiarowe mechanoelektryczne systemy zintegrowane, w których wykorzystuje się elektryczne/elektroniczne, jak i mechaniczne właściwości krzemu monokrystalicznego. MEMSy są tak popularne ponieważ, jako wyroby mikroelektroniczne są tanie, małe, mają małe zapotrzebowanie energetyczne na etapie wytwarzania jak i pracy, są niezawodne, wielofunkcyjne, łatwe do integracji z elektroniką klasyczną i zintegrowaną. Ponadto, MEMSy nie podlegają ograniczeniom rozwoju wynikającym z prawa Moore’a, co powoduje, że kapitał międzynarodowy chętnie inwestuje w długofalowe plany ich rozwoju. Integracja czysto mikroelektronicznych struktur planarnych stała się bazą do rozwoju techniki mikrosystemów MEMS, a przy okazji technik mikroinżynieryjnych o znacznie szerszym wymiarze technicznym. Pozwoliło to na miniaturyzację podzespołów i urządzeń w optyce (tzw. MEOMSy), mechanice (mikromaszyny, mikromechatronika), chemii (tzw. mikrosystemy chemiczne), wreszcie w biochemii i medycynie (technika lab-on-chipów) i w wielu innych obszarach nowoczesnej techniki. W efekcie, nowe wyroby mikromechaniczno-elektryczno-elektron... więcej»

Spektroskopia pojemnościowa głębokich poziomów defektowych (DLTS) w diodach Schottky’ego z węglika krzemu (4H-SiC) implantowanych jonami (Łukasz Gelczuk, Maria Dąbrowska -Szata)
Węglik krzemu (SiC) jest półprzewodnikiem, który cieszy się niesłabnącym zainteresowaniem ze względu na bardzo korzystne właściwości fizyko-chemiczne, jak: szeroka przerwa energetyczna, duża wytrzymałość na przebicie elektryczne, bardzo dobra przewodność cieplna i wytrzymałość termiczna. Ze względu na te właściwości węglik krzemu jest atrakcyjnym materiałem do zastosowań w przyrządach półprzewodnikowych dużej mocy i częstotliwości, pracujących w warunkach wysokiej temperatury (powyżej 500°C) i wysokiego poziomu radiacji, gdzie klasyczne przyrządy półprzewodnikowe na bazie krzemu czy arsenku galu nie mogłyby funkcjonować. Najbardziej znanymi politypami SiC, obecnie rozwijanymi dla elektroniki, są 3C-SiC o kubicznej strukturze krystalicznej oraz 4H- i 6H-SiC o strukturze heksagonalnej. Wśród nich polityp 4H-SiC charakteryzuje się szeroką przerwą energetyczną (3,2 eV), największą ruchliwością elektronów wśród politypów heksagonalnych (800 cm2/Vs), dużą nasyceniową prędkością dryftu elektronów (2 × 107 cm/s), dużą wartością napięcia przebicia na jednostkę powierzchni (3 MV/cm) oraz dużą przewodnością cieplną (5 W/Kcm) [1]. Niestety, w tego typu materiałach obserwuje się obecność wielu głębokich poziomów defektowych, które mają znaczący wpływ na parametry i charakterystyki struktur przyrządowych wykonanych na bazie węglika krzemu. Głębokie poziomy energetyczne defektów wpływają na czas życia i długość drogi dyfuzji mniejszościowych nośników ładunku, wydajność diod LED i fotodetektorów, wzmocnienie tranzystorów oraz wielkość temperaturowego współczynnika napięcia przebicia złączy p-n. Jest zatem oczywiste, że dalszy rozwój technologii SiC oraz możliwość tworzenia nowych przyrządów półprzewodnikowych wymagają ciągłych badań właściwości elektrycznie aktywnych defektów w warstwach epitaksjalnych SiC, wytwarzanych za pomocą różnych technik epitaksjalnych [2]. Celem tej pracy jest przedstawienie wyników badań i analiza spektralna elek... więcej»

Magnetronowe rozpylanie – technika i technologia (Witold M. Posadowski, Artur Wiatrowski, Katarzyna Tadaszak, Józef Kudzia)
Cienkie warstwy materiałów jednoskładnikowych, stopów i związków chemicznych mogą być otrzymywane metodą rozpylania magnetronowego. Na podłożach o różnych kształtach i rozmiarach, możliwe jest osadzanie warstw przewodzących, półprzewodnikowych i dielektrycznych. Nanowymiarowe struktury cienkowarstwowe jedno- i wieloskładnikowe mogą być wykonywane w postaci wielowarstw, kompozytów, cermetów, mieszanin itp. Atrakcyjność metody magnetronowego rozpylania wynika z możliwości równomiernego, wysokowydajnego osadzania warstw na różnego kształtu powierzchniach, co pozwala spełniać wymagania procesów przemysłowych. W Zakładzie Technologii Próżniowych i Plazmowych, Wydziału Elektroniki Mikrosystemów i Fotoniki, Politechniki Wrocławskiej prowadzone są badania niekonwencjonalnych procesów magnetronowego rozpylania. Obejmują one opracowywanie i wykonywanie prototypów nowych źródeł magnetronowych oraz badania procesów technologicznych realizowanych za pomocą tych urządzeń. W badaniach są wykorzystywane wyrzutnie magnetronowe typu WM (WMK - kołowa, WMP - prostokątna, WMC - cylindryczna), których konstrukcja jest opracowywana pod kątem realizowania oryginalnych technologii nanoszenia cienkich warstw, ze szczególnym uwzględnieniem procesów autorozpylania i impulsowego reaktywnego osadzania cienkich warstw. Układy magnetronowe typu WM Koncepcja budowy magnetronów WM uwzględnia możliwość stosowania tych urządzeń w wysokowydajnych, powtarzalnych procesach technologicznych. Układ magnetyczny magnetronów zapewnia prawidłowe działanie przy stosunkowo niskich ciśnieniach pracy z jednoczesnym efektywnym wykorzystaniem materiału rozpylanego. Wybrane parametry rodziny magnetronów typu WM przedstawiono w tabeli oraz na rys. 1. Układy WM cechuje możliwość pracy przy mocach targetu (znacznie większych) oraz ciśnieniach roboczych (znacznie niższych) odbiegających od wartości stosowanych w standardowych układach magnetronowych. Jest to możliwe dzięki efek... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Oxide layers fabricated by spray pyrolysis on metallic surfaces (Katarzyna Kobierowska, Magdalena Karpińska, Sebastian Molin, Piotr Jasiński)
A rapid degradation of the implants is the main problem of the contemporary implantology. Due to the structural role of the bone, the titanium alloys and austenitic steel, type 316L are frequently used for the manufacturing of implants. This steel is not deformed, does not change color, and has hypoallergic properties. However susceptibility to pitting and crevice corrosion in chloride ions environment are objectionable features [1]. This is a significant issue to prepare a suitable implant’s outer layer to improve adhesion of osteogenic cells and anti-corrosion properties. The most commonly used methods of thin films layering are: CVD (Chemical Vapor Deposition), PVD (Physical Vapor Deposition) or PLD (Pulsed Laser Deposition). Unfortunately, most of them are relatively expensive and the process is complex. It would be useful to find the cheaper method with the less complexity. Spray pyrolysis deposition of thin ceramic films depends on the atomization of liquid precursor, droplet transport towards the heated substrate, droplet impact, spreading the liquid on the substrate and the evaporation of the solvent, then the distribution of deposited material [2]. Such layers can be obtained when the operating temperature is above the boiling point of the precursor. It is important to remember about the limit of the surface temperature above which it is not possible to obtain a continuous layers. In this paper it has been determined the optimal conditions preparation for the yttrium stabilized zirconium layers on the steel substrate. The spray pyrolysis method to produce corrosion protective ... więcej»

Design and realization of a microfluidic capillary sensor based on a silicon structure and disposable optrodes (Zbigniew Szczepański, Michał Borecki, Dariusz Szmigiel, Michael L. Korwin Pawlowski)
During the last years microfluidic sensors that use optical capillaries have gained an increasing importance due to their new applications as diagnostic tool in biotechnology, medicine and in environmental sciences. This was possible because the capillary enables multiparametric sensing [1-7] contrary to the classical optical fiber sensors [8], which find applications in physical measurements such as pressure and also magnetic field [9]. In this paper the improvements in the design of microfluidic sensors that use local heating in optical capillaries as a base of multiparametric diagnostics is presented [4]. The application of local heating opened interesting new possibilities for the sensors, that do not use any chemical sensitive layers or reagents, while raising specific issues relating to their construction, materials and technology [5]. The mentioned sensors can be used for in situ diagnostic in medicine and veterinary and as biofuel usability testers [10-12].The proposed microfluidic capillary sensor consists of a stabilized-intensity light source unit, a testing head with replaceable optical capillary, a heater and a detection unit. The optical capillary performs the functions of a liquid sample holder and at the same time of a multiparametric sensing element. The sensor operates in a multiparametric sensing mode, monitoring, registering and processing the indirect information such as the index of refraction, the boiling point, the vapour pressure, the heat capacity, the heat of fusion, the viscosity, the surface tension of the liquid and turbidity changes in a thermally forced measuring cycle. The measuring cycle is initiated by applying local heating to the sample [5]. The measuring cycle is controlled indirectly by changes in optical signals and temperatures [10]. The raw optical data are processed by an optoelectronic ci... więcej»

Numerical study of the interface heat transfer characteristics of micro-cooler with CNT structures (Yan Zhang, Shun Wang, Shiwei Ma, Zhili Hu, Johan Liu, Janusz Sitek, Kamil Janeczek)
With the continuously increasing packaging density in electronic products, the system ability to dissipate heat loads has become a concern in the overall performance. Some novel cooling techniques have emerged to meet the thermal management requirements of high power microelectronics components and devices. Micro cooling, including micro-pin-fin, micro-channel and so on, provides a promising solution for high-powered electronics. Meanwhile, carbon nanotubes (CNTs) have shown advantages in material properties such as the electrical conductivity [1], [2], the thermal conductivity [3], [4] and the mechanical properties [5], [6]. CNTs can be used as the micro-cooler construction due to the excellent thermal conductivity [7]. A micro-channel cooler with vertically aligned CNT arrays had been developed [8], [9], where the CNT structures were employed as channels inside to enhance the heat transfer. And experimental measurement had also been carried out to evaluate the overall heat removal capability of the CNT-based micro-cooler. Beside experimental works, the macroscopic heat transfer characteristics of the micro-channel heat sinks with carbon nanotubes were also studied numerically [10], [11], in which parameters such as the inlet velocity, the heating power, the CNT structure size as well as the flow field and the temperature distribution were analyzed. The most widely used fabrication method to obtain aligned CNTs is the thermal or plasma-enhanced chemical vapour deposition (CVD). During the process, the carrier substrate typically needs to be heated up to approximately 700°C or even higher. Such a high temperature is not compatible with most of the temperature- sensitive components or devices. A transfer method was proposed as a solution to this problem, in which the pre-prepared CNT forest could be transferred onto the target surface at a low temperature so that the integration of the CNTs into various device and material pro... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - część 1 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, w szczególności półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wtedy koncepcji rozwiązań tego typu urządzeń. Próbowano wówczas wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, w ogólności zarówno w płaszczyźnie elewacji jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można dynamicznie, w razie potrzeby, regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, wystrzeliwane rakiety oraz rakiety balistyczne. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Coraz większy nacisk kładzie sie na ich integrację i wielofunkcyjność. Wymaga się jednocześnie zachowania parametrów elektrycznych na poziomie porównywalnym do parametrów anten stosowanych w systemach jednofunkcyjnych. Szybki postęp technologiczny pozwala współczesnym radarom realizować jednocześnie wiele funkcji, takich... więcej»

Investigation of multiple degradation and rejuvenation cycles of electroluminescent thick film structures (MATEUSZ MROCZKOWSKI, MICHAŁ CIEŻ, JERZY KALENIK)
Copper doped zinc sulfide displays electroluminescent prosperities and it is used as a phosphor in thick film light emitting structures. Such electroluminescent structures, or alternating current electroluminescent devices (ACEL), are used as backlight for liquid crystal displays in portable electronic devices (cell phones, notebooks, PDAs, etc.) and as a source of light in the advertising industry. Unfortunately such structures are prone to degradation and have a limited life time [1, 2]. Degraded electroluminescent thick film structures can be rejuvenated by annealing [1]. An attempt to investigate the possibility of repeated rejuvenation of degraded EL lamps was undertaken. The goal of this investigation is to better understand the mechanism of degradation and rejuvenation of thick film EL lamps and prolong their life time. Alternating Current Electroluminescent Devices (ACEL) Typical EL lamps are fabricated as a multi-layer thick film structures. A layer of phosphor, for examp... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»