profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Zastosowanie energoelektronicznego modulatora prądu w układzie aktywnej kompensacji równoległej (Michał Krystkowiak)
Szczególnie istotnym problemem współczesnej elektroenergetyki i energoelektroniki jest polepszenie jakości przekształcania energii elektrycznej. Głównymi kryteriami oceny układów wykorzystujących przekształtniki energoelektroniczne są ich wskaźniki energetyczne, a zwłaszcza odkształcenie prądu pobieranego z sieci oraz współczynnik mocy. W przypadku niedostatecznie dużej mocy zwarciowej sieci konsekwencją pobierania odkształconego prądu jest odkształcenie napięcia sieciowego, które często przekracza dopuszczalny poziom. Może to doprowadzić do nieprawidłowej pracy urządzeń, a w skrajnym przypadku nawet do ich uszkodzenia. Ponadto obecność wyższych harmonicznych w widmie prądu sieci przyczynia się do wzrostu strat mocy czynnej. W konsekwencji poszukuje się rozmaitych metod polepszenia jakości przekształcania energii. Jednym z nich jest stosowanie aktywnych kompensatorów równoległych [1, 2]. W artykule zaprezentowano opracowaną strukturę aktywnego kompensatora równoległego z zaimplementowanym dodatkowym energoelektronicznym modulatorem prądu. Rozwiązanie to pozwala m.in. na znaczące polepszenie właściwości dynamicznych układu. W konsekwencji, w porównaniu z konwencjonalnymi rozwiązaniami kompensatorów aktywnych, możliwa jest poprawa efektywności działania układu w przypadku konieczności kompensacji prądu sieci o dużej szybkości zmian (dużej stromości narastania). Przedstawiono dwa opracowane tryby pracy opisywanego przekształtnika, a mianowicie: tryb pracy czasowej oraz tryb pracy równoległej. W pierwszym trybie pracy dodatkowy modulator prądu jest aktywowany tylko w chwili konieczności kompensacji prądu sieci o dużej szybkości zmian. Natomiast w drugim trybie pracy klucze głównego modułu kompensatora oraz współpracującego z nim modulatora prądu pracują jednocześnie w ciągu całego okresu napięcia sieci. Przy odpowiednim przesunięciu fazowym impulsów załączających pozwala to na zwiększenie dokładności odwzorowania w wyjściowym s... więcej»

Algorytmy nieliniowej filtracji stosowane w systemach pozycjonujących (Stanisław Konatowski, Piotr Kaniewski )
Celem każdego systemu pozycjonowania jest wyznaczanie aktualnego stanu pojazdu (pozycji, prędkości, kursu) na podstawie danych pomiarowych otrzymywanych z takich czujników, jak np.: żyroskop, przyspieszeniomierz, kompas, system INS, system GPS oraz na podstawie przewidywanych wyników uzyskanych z wiedzy o modelu jego ruchu [4]. Układy takie występujące w praktyce są najczęściej systemami nieliniowymi i stąd wynika konieczność wykorzystywania nieliniowych algorytmów estymacji. Dokładność estymacji w tego typu systemach jest niezwykle ważna, ale i trudna do osiągnięcia. Rozwiązanie bayesowskie takiego problemu wymaga uciążliwych przekształceń całej funkcji gęstości rozkładu prawdopodobieństwa. Dlatego w praktycznych zastosowaniach estymatory powinny być pewnym przybliżeniem. Opracowano wiele typów takiej aproksymacji, ale większość z nich jest obliczeniowo niewykonalna, bądź wymaga przyjęcia pewnych założeń upraszczających postaci sygnału, w związku z czym nie są one w praktyce realizowane. Z tych i innych powodów filtr Kalmana, który wykorzystuje jedynie dwie pierwsze zmienne wektora stanu (wartość średnią i kowariancję), pozostaje najczęściej stosowanym algorytmem estymacji. W artykule omówiono metodę nieliniowej, gaussowskiej estymacji opartej na filtrze cząstkowym. Dodatkowo, aby poprawić dokładność estymacji filtru cząstkowego zaproponowano wykorzystanie filtru Kalmana [6-8] w procesie aktualizacji świeżo otrzymywanych danych obserwacyjnych. Filtracja Kalmana Filtracja potrzebna jest wtedy, gdy należy estymować wektor stanu z zaszumianych informacji lub gdy należy estymować go na podstawie informacji z wielu czujników. Kiedy układ i model obserwacji są liniowe, wówczas minimalna kowariancja błędu estymatora stanu może być zapewniona przez kowariancyjny filtr Kalmana (KF). Jeżeli natomiast zachodzi potrzeba rozwiązania problemu filtracji nieliniowej, wówczas bardzo dobrym rozwiązaniem jest rozszerzony filtr Kalmana (Exten... więcej»

Overheat security system for high speed embedded systems (Układ ochrony przed przegrzaniem dla szybkich systemów wbudowanych) (Maciej Frankiewicz, Adam Gołda, Andrzej Kos)
Considering the aspiration to make modern digital circuits faster and scaling down the technology researchers must take into account thermal effects. The goal is to find the optimal balance state between keeping the throughput of the system on the possible maximum level and decreasing power consumption of the device. Assuming that circuit cannot exceed acceptable maximum temperature for proper work it should be controlled in the way that keeps its temperature as close to the permissible limit as possible with minimal fluctuations. To achieve that some dynamic control systems have been developed including: dynamic voltage scaling (DVS), dynamic clock throttling (DCT) and dynamic frequency scaling (DFS) [1]. Despite former achievements on the field some further investigations must be done to improve thermal behaviour of the circuit. The paper describes a structure of the wide-range oscillator which generates the frequency dependent on the present temperature of the silicon die. The structure of the circuit, designed and fabricated in CMOS LF 150 nm (1.8 V), technology will be presented in the next sections. The temperature-controlled oscillator (TCO) works with the OctaLynx 8-bit microcontroller which is a prototype implemented in the same silicon die and created for test purposes [2]. Motivation for Temperature-Controlled Oscillator The concept of temperature-controlled oscillator origins from the fact that circuit working with higher frequency consumes more power. That means that if the silicon die reaches high temperature range it is necessary to lower the clock rate and as a consequence cool the chip down. The problem is how to manage the frequency of the clock to minimize temperature fluctuations and let the circuit work possibly fast. Simpler dynamic systems sensed the temperature and when it crossed fixed reference level just divided the frequency of clock signal. This action can be not efficient enough because as it is... więcej»

Algorytm PWM dla 9-fazowego silnika indukcyjnego (Paweł STEC)
Przekształcanie energii elektrycznej przy wykorzystaniu elementów energoelektronicznych pozwala na swobodny dobór ilości faz przesyłających energię w postaci prądu przemiennego. Zastosowanie układu dziewięciofazowego zmniejsza wartość prądu w fazie 3-krotnie przy przesyle tej samej mocy co pozwala na zastosowanie łączników energoelektronicznych o mniejszym prądzie znamionowym. Jednocześnie wielofazowe układy napędowe charakteryzują się większą niezawodnością oraz możliwością szerszego kształtowania charakterystyk mechanicznych niż odpowiadające im układy trójfazowe[1, 2]. Tablica przekształcenia w układzie 9-fazowym W układzie 9-fazowym macierz przekształcenia Clarke-Parka należy rozwinąć do postaci macierzy A, gdzie pojawiają się cztery układy współrzędnych zespolonych. A przekształcenie parametrów w układzie współrzędnych naturalnych do układu współrzędnych zespolonych odbywa się za pomocą równania macierzowego: X = A9*Y, (1) Gdzie macierz A9 jest macierzą przekształcenia, X jest macierzą parametrów w układzie współrzędnych zespolonych, Y jest macierzą parametrów w układzie współrzędnych naturalnych. Macierz przekształcenia zachowująca inwariantność mocy A9 dla układu 9-fazowego przyjmuje postać: Ze względu na liczbę kluczy w przekształtniku, może on przyjąć 29 = 512 różnych stanów załączeń łączników energoelektronicznych. Reprezentacja stanów logicznych tranzystorów w układach współrzędnych zespolonych α1-β1, α2-β2, α3-β3 i α4-β4 uzyskuje się przez wykorzystanie przekształcenia stanów falownika za pomocą równania macierzowego: (2), gdzie vα1, vβ1, vα2, vβ2, vα3, vβ3, vα4, vβ4 są długościami odpowiednich wektorów w układach współrzędnych zespolonych, natomiast vA, vB, vC, vD, vE, vF3, vG4, vH, vI są wartościami wektorów napięcia w naturalnym układzie współrzędnych. Reprezentację wektorów w układach współrzędnych zespolonych przedstawiono na r... więcej»

Metody integracji systemów INS/GNSS (Piotr Kaniewski, Stanisław Konatowski)
Zadania nawigacji sprowadzają się do odpowiedzi na pytania, które powstają podczas ruchu osób i pojazdów. Przede wszystkim jest to pytanie o miejsce położenia obiektu nawigowanego. Może być nim np. osoba, pojazd lądowy, obiekt pływający nawodny lub podwodny, statek powietrzny lub statek kosmiczny. Odpowiedź na to pytanie jest równocześnie rozwiązaniem zadania pozycjonowania. W celu ułatwienia nawigacji w warunkach stale rosnącego zagęszczenia ruchu, wzrostu prędkości maksymalnej pojazdów oraz wymagań ich użytkowników, niezbędna staje się automatyzacja obliczeń realizowana w zintegrowanych systemach pozycjonujących i nawigacyjnych [1, 2, 5]. W pozycjonowaniu i nawigacji pojazdów powszechne zastosowanie znajdują systemy zintegrowane złożone z systemu nawigacji inercjalnej INS (Inertial Navigation System) [4] i odbiornika GNSS (Global Navigation Satellite Systems) [3], oznaczane skrótem INS/GNSS. Systemy takie mogą być zintegrowane metodą filtracji lub kompensacji z korekcją w przód lub wstecz. W zależności od stopnia centralizacji algorytmu przetwarzania danych, mogą być one luźno lub ściśle zintegrowane [1]. Wybór jednej z metod integracji zależy zwykle od rodzaju integrowanych przyrządów nawigacyjnych i od uwarunkowań aplikacji (wymaganej dokładności, dostępnej mocy obliczeniowej itd.). Integracja metodą filtracji Integracja INS i odbiornika GNSS metodą filtracji polega na przetwarzaniu danych z obu urządzeń nawigacyjnych i estymacji elementów nawigacyjnych opisujących ruch pojazdu, takich jak położenie, prędkość i orientacja przestrzenna. Schemat blokowy takiego systemu INS/GNSS przedstawiono na rys. 1. Stopień integracji obu przyrządów zależy od tego, czy INS i odbiornik GNSS są traktowane jako systemy, czy jako czujniki oraz od stopnia sprzężenia pomiędzy nimi. Jeśli INS i odbiornik GNSS są traktowane jako systemy dostarczające wstępnie przetworzonych danych w postaci obliczonych elementów nawigacyjnych (położenia, prędk... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Doc. dr inż. Tomasz Postupolski (1931 - 2012)
Wybitny naukowiec, organizator, wizjoner. Pracował w dziedzinie magnetyków, ale widział naukę holistycznie. Pożegnaliśmy Go w piękny wrześniowy dzień. Na Uroczystość Pożegnalną przybyli licznie wszyscy, którzy zdołali. Byłby zażenowany tak dużą uwagą poświęconą Jego osobie - był skromny. A nie powinien - był wybitny. Tu, na łamach specjalistycznego pisma, z którym był przez długie lata związany jako członek Rady Programowej, chcemy przypomnieć Jego dokonania zawodowe, a także Jego drogę życiową. Tomasz Włodzimierz Postupolski urodził się 7 czerwca 1931 r. w Warszawie w rodzinie Jana i Zofii z ... więcej»

Światłowodowy demodulator fazy - model i wyniki eksperymentalne (Zbigniew HOŁDYŃSKI, Idzi MERTA, Leszek R. JAROSZEWICZ, Rafał ŚWIŁŁO)
Różne metody analizy obrazów prążkowych a także modulacji i demodulacji sygnałów świetlnych w tym w światłowodach zaprezentowane są w pracach [1-5]. Optyczna demodulacja fazy jest trudna w realizacji i w dalszym ciągu jest przedmiotem zainteresowania szczególnie w dziedzinie czujników światłowodowych [5]. Idea i pierwsze symulacje numeryczne prezentowanego demodulatora zaprezentowano w pracy [6]. Wykorzystano w nim: klasyczne interferencyjne doświadczenie Younga, własności transformacyjne cienkiej soczewki sferycznej oraz dwuelementowy fotodetektor z przerwą q - rys. 1. Rolę punktowych źródeł światła stanowią dwa światłowody zakończone kolimatorami na wyjściu których znajdują się pinhole o średnicy d. Wiązki po złożeniu na pryzmacie są do siebie równoległe i znajdują się obok siebie w odległości 2b [7-9]. W płaszczyźnie ogniskowej przedmiotowej soczewki skupiającej położone są pinhole, a w płaszczyźnie ogniskowej obrazowej powstaje ich dyfrakcyjny obraz Airy’ego zmodulowany przestrzennie.... więcej»

Konstrukcja A-FORS-3 – autonomicznego światłowodowego sejsmometru rotacyjnego (Zbigniew Krajewski, Leszek R. Jaroszewicz, Henryk Kowalski )
Rejestracja efektów rotacyjnych [1, 2] występujących podczas zdarzeń sejsmicznych wymaga konstrukcji nowego rodzaju sejsmometrów, ponieważ klasyczne sejsmometry są bezwładnościowymi czujnikami przyśpieszenia liniowego (prędkości liniowej), dlatego nie mogą być bezpośrednio zastosowane do rejestracji ruchu obrotowego. Oczywistym rozwiązaniem tego problemu wydaje się zastosowanie jako sejsmometru rotacyjnego światłowodowego interferometru Sagnaca. Zasadniczym czynnikiem różniącym A-FORS-3 od klasycznych konstrukcji giroskopów światłowodowych jest fakt, iż mierzy on prędkość kątową a nie kąt [3, 4]. Dlatego też problem dryfu występujący w giroskopach optycznych jest tutaj praktycznie do pominięcia. Układ czujnika został zoptymalizowany pod kątem osiągnięcia jak największej czułość, z czym związana była maksymalizacji takich parametrów jako: promień pętli czujnika, moc optyczna źródła i długość użytego włókna. Zapewnienie mobilności takiego układu oraz bezawaryjnego przesyłania rejestrowanych dany... więcej»

Barierowe struktury detekcyjne - nowe możliwości (Piotr Martyniuk, Andrzej Kowaleski, Waldemar Gawron, Antoni Rogalski)
Konieczność chłodzenia kriogenicznego detektorów promieniowania podczerwonego IR (Infrared Radiation) jest główną przeszkodą ograniczającą ich szerokie zastosowania. Biorąc ten fakt pod uwagę, szczególne znaczenie mają prace dotyczące niechłodzonych HOT (Higher Operation Temperature) detektorów z zakresu średniej MWIR (Medium Wave Infrared Radiation) 3…8 μm i dalekiej podczerwieni LWIR (Long Wave Infrared Radiation) 8…16 μm. Kluczowym elementem w procesie projektowania wysokotemperaturowych struktur detekcyjnych pracujących w wymienionych zakresach IR jest maksymalizacja wydajności kwantowej i minimalizacja prądu ciemnego. Wśród mechanizmów generujących prąd ciemny w strukturze detekcyjnej należy wyróżnić mechanizmy tunelowe pasmo - pasmo BTB (Band - To - Band Tunneling), tunelowanie przez poziomy pułapkowe TAT (Trap Assisted Tunneling), procesy generacyjno - rekombinacyjne (GR) Augera, procesy GR przez centra pułapkowe Shockley-Read-Halla (SRH) i prądy upływności powierzchniowej. Prądy uwarunkowane procesami GR Augera i procesami tunelowymi BTB/TAT można teoretycznie ograniczyć poprzez konstrukcje elementów składowych detektora z supersieci (SLs) II rodzaju T2SLs (Type II Superlattices), szczególnie z zwiŕzków naleýŕcych do tzw. rodziny 6.1 Ĺ AIIIBV (InAs, GaSb i AlSb) [1]. Niekorzystne, z punktu widzenia konstrukcji wysokotemperaturowych detektorów, procesy GR SRH i prądy upływności powierzchniowej można zredukować poprzez implementację odpowiednio dopasowanych barier do struktury detekcyjnej. Dobór bariery odgrywa decydującą rolę ze względu na dopasowanie sieciowe, jak również wysokość bariery w paśmie przewodnictwa i paśmie walencyjnym. Często wysokość energetyczna barier jest przypadkowa i trudno ją kontrolować technologicznie. Pierwszymi strukturami barierowymi były detektory heterozłączowe HgCdTe stosowane w celu zwiększenia osiągów detektorów poprzez ograniczanie prądów dyfuzyjnych z obszaru a... więcej»

Wpływ dipu na właściwości propagacyjne solitonów jasnych w światłowodzie skokowym (Tomasz KACZMAREK)
Światłowody jednomodowe są szeroko stosowane w technice sensorowej [1, 2] zarówno jako czujniki jak i medium transmisyjne oraz w technice informatycznej [3, 4] jako szerokopasmowe medium transmisyjne o nie w pełni wykorzystanych możliwościach propagacyjnych. Niniejszy artykuł również dotyczy światłowody jednomodowych ale w kontekście ich wykorzystania w transmisji solitonowej dalekiego zasięgu. W 2011 roku pojawił się cykl artykułów [5, 6, 7] dotyczących światłowodu skokowego, którego parametr geometryczny (promień rdzenia a) oraz parametr optyczny (różnica współczynników załamania pomiędzy rdzeniem i płaszczem &#916;n = n1 - n2) były tak zoptymalizowane, aby umożliwić generację solitonu podstawowego, przy wykorzystaniu dostępnych komercyjnie laserów półprzewodnikowych w okolicach trzeciego okna transmisyjnego, przy zapewnieniu jednoczesnej maksymalizacji zakresu pracy jednomodowej oraz dyspersji anomalnej. Optymalizacja promienia rdzenia a pozwala uzyskać zrównanie się długości fali odcięcia modu drugiego (TE01) &#955;C z długością fali zerowania się dyspersji chromatycznej &#955;ZD1, czyli równość &#955;ZD1 = &#955;C i w ten sposób uzyskać maksymalizację zakresu długości fal, w którym można generować solitony jasne. W tym miejscu warto wspomnieć, że przy określonym składzie chemicznym rdzenia oraz płaszcza, czyli przy określonej wartości parametru &#916;n istnieje tylko jedna wartość a = aOPT gwarantująca spełnienie warunku &#955;ZD1 = &#955;C. W przypadku, gdy a > aOPT, wówczas &#955;ZD1 < &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem pracy jednomodowej. Natomiast, gdy a < aOPT, wówczas &#955;ZD1 > &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem dyspersji anomalnej. Optymalizacja różnicy współczynników załamania pomiędzy rdzeniem i płaszczem światłowodu &#916;n umożliwia uzyskanie na charakterystyce dyspersji chromatycznej dwóch miejsc zerowych w zakresie od 1 do 2 &#956;m oraz... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Długofalowe fotodiody z HgCdTe pracujące w temperaturach bliskich pokojowej (Paweł Madejczyk, Waldemar Gawron, Piotr Martyniuk, Andrzej Kowalewski, Jarosław Pawluczyk, Adam Piotrowski, Artur Kębłowski, Wioletta Pusz, Józef Piotrowski)
Badania nad zjawiskami nierównowagowymi w półprzewodnikach przeznaczonych do wykrywania promieniowania podczerwonego zostały zapoczątkowane przez badaczy brytyjskich [1]. W złączach spolaryzowanych w kierunku zaporowym n+/&#957; oraz p+/&#960; zaobserwowano zjawiska: ekskluzji, natomiast w złączach typu n+/&#960; or p+/&#957; ekstrakcji nośników ładunku. Konsekwencją tych badań było opracowanie struktur P+/&#957;/N+ oraz P+/&#960;/N+, w których można zaobserwować dławienie mechanizmów Augera, co powoduje zmniejszenie gęstości nośników ładunku w obszarze absorbera. Czas życia nośników mniejszościowych w warstwach HgCdTe typu p jest większy niż warstwach typu n co wynika z różnic między czasami życia ograniczonymi odpowiednio procesami Auger 7 i Auger 1 [2]. Z tego powodu znacznie częściej konstruowane są struktury P+/&#960;/N+ niż struktury P+/&#957;/N+. Kluczowym problemem przy wytwarzaniu fotodiod nierównowagowych jest kontrolowane domieszkowanie typu p na niskim poziomie z wysokimi czasami życia nośników. Do wytwarzania fotodiod z dławieniem generacji Augera obecnie wykorzystywane są dwie technologie: epitaksja z wiązek molekularnych MBE (Molecular Beam Epitaxy) i osadzanie warstw ze związków metaloorganicznych MOCVD (Metal Organic Chemical Vapor Deposition). MBE pozwala na precyzyjną kontrolę nad położeniem heterozłączy oraz domieszkowaniem donorowym in situ. Kontrolowane domieszkowanie akceptorowe struktur, które mają pracować w warunkach nierównowagowych wymaga jednak niewygodnej implantacji jonów arsenu przeprowadzanej ex situ [3]. Z tego powodu wzrost metodą MOCVD jest bardziej atrakcyjny - umożliwia kontrolowane domieszkowanie donorowe jak i akceptorowe in situ na wymaganych poziomach. Dla osiągnięcia domieszkowania typu p na niskim poziomie (<1016 cm-3) w obszarze absorbera w obydwu metodach wzrostu zarówno MBE [3], jak i MOCVD [4] wymagana jest anihilacja wakansów rtęci. Jest ona dokonywana poprzez wygrzewanie ex-s... więcej»

Gęstościowy algorytm mrówkowy w diagnostyce urządzeń elektronicznych (Józef Drabarek)
Algorytmami mrówkowymi nazywamy grupę algorytmów komputerowych, które naśladują występujące w naturze mechanizmy komunikacji między osobnikami, wykorzystywane przez kolonie mrówek, podczas poszukiwania pożywienia [1]. W algorytmach tych grupa pojedynczych agentów (mrówek) wspólnie poszukuje rozwiązania postawionego przed nimi problemu. Każda mrówka poszukuje samodzielnie rozwiązania i wynik jej pracy ma częściowy wpływ na końcowe rozwiązanie. Mrówki nie porozumiewają się ze sobą, lecz pozostawiają wskazówki (ślady feromonowe), które wpływają na wybory dokonywane przez inne osobniki. Działania podejmowane przez mrówki posiadają wyraźną cenną cechę optymalizacyjną - dążenie do odnalezienia najkrótszej drogi w jak najkrótszym czasie. Drogę pokonywaną przez każdą z mrówek można uprościć do grafu skierowanego (rysunek 1) z jednym wierzchołkiem (zakłada się, iż jest to mrowisko - punkt startowy (S) dla każdej mrówki) i odchodzącymi od wierzchołka krawędziami, które prowadzą do kolejnych węzłów (1 do 5 na rysunku) - punktów, w których mrówki dokonują kolejnych decyzji o wyborze drogi. Mrówki kończą swoją drogę po dotarciu do jednego z celów (A,B,C). Algorytm jest wykonywany iteracyjnie - w pierwszym kroku pojawia się na starcie mrówka nr 1 - dokonuje wyboru i przechodzi do kolejnego węzła pozostawiając ślad na gałęzi, którą odwiedziła (rys. 1).W kroku drugim następuje częściowe parowanie feromonu (w zależności od przyjętego parametru) z gałęzi grafu. Proces ten jest niezbędny aby zapobiec akumulacji śladu feromonowego i podążaniu p... więcej»

Możliwości zastosowania elementów rozszerzonej rzeczywistości w urządzeniu fotografii laserowej (Marek Piszczek, Mikołaj Zarzycki)
Żyjemy w społeczeństwie, w którym informacja a przede wszystkim dostęp do niej, stanowi bardzo cenne i pożądane dobro. Rozwój technologiczny oferuje nam dostęp do bardzo zróżnicowanych źródeł udostępniających dane dzięki różnym technologiom. To dzięki wynalezieniu druku mamy m.in. tak wszechstronny dostęp do materiałów tekstowych i graficznych, a dzięki rozwojowi kinematografii, a później telewizji dostęp do informacji wizualnych stał się jeszcze bardziej powszechny (rys. 1). Dzięki wynalezieniu telefonu i rozwoju radiotechniki audio-informacje przekazywane są szybko i na duże odległości (rys. 2). Zwróćmy jednak uwagę, że każda z tych technologii jest ściśle dostosowana do naszych możliwości percepcyjnych audio-wizualnych. Zdajemy sobie jednak sprawę z możliwości naszych modalności zmysłowych. Tworząc nowe rozwiązania budujemy swego rodzaju protezy pozwalające nam zdobywać informacje jakich nie dostarczają nam nasze zmysły. Każda z wymienionych technologii w istotny sposób przyczyniła się do rozwoju społeczeństwa informacyjnego. Ważniejsze jest jednak to, że w dalszym ciągu poszukujemy nowych, bardziej wydajnych rozwiązań. W Instytucie Optoelektroniki WAT już od kilku lat prowadzone są badania m.in. nad technologiami, które mogą mieć swój wkład w rozwój potencjału systemów informacyjnych. Jedno z tych rozwiązań dotyczy metody kadrowania przestrzenno- czasowego, a drugie tzw. Rozszerzonej Rzeczywistości. Pierwsze z rozwiązań dotyczy możliwości obrazowania ściśle zdefiniowanej trójwymiarowej przestrzeni za pomocą Urządzenia Fotografii Laserowej (UFL). Uzyskiwane dwuwymiarowe obrazy "fragmentu przestrzeni 3D" nie są efektem syntezy komputerowej lecz wynikiem bezpośredniego procesu akwizycji danych. Druga z technologii dotyczy sposobu syntezy informacji będącej połączeniem danych świata realnego oraz danych syntezowanych komputerowo. Wynikowa informacja zostaje udostępniona użytkownikowi w sposób dostosowany do jego możliwości p... więcej»

Tendencje rozwojowe w elektronice 2012
W trakcie czołowych światowych targów elektroniki konsumenckiej IFA (Internationale FunkAusstellung Berlin wrzesień 2012) zaprezentowano całą gamę produktów z branży rozwijającej się niezwykle dynamicznie. Coraz większe ekrany telewizyjne z ostrym obrazem o lśniących kolorach, wyświetlanie przestrzenne (3D) z okularami i i bez okularów. Przedstawiono także komputery cienkie, lekkie, o wielkiej wydajności, szybkie, wspólpracujące z sieciami telekomunikacyjnymi, urządzeniami do pracy w domu i w podróży. Na targach IFA 2012 prezentowano tendencje rozwojowe wszystkich części sektora. Telewizory o wielkiej rozdzielczości (HD) z jaskrawymi kolorami, z obrazem przestrzennym (3D) i bez konieczności używania okularów stały się już prawie codziennością. Tegorocznym gorącym tematem jest tajemniczy skrót 4k. Oznacza to format obrazu 4096 x 2160 pikseli, co odpowiada rozdzielczości ponad 8 megapikseli. Czterokrotne zwiększenie rozdzielczości w stosunku do, dotychczas maksymalnej osiągalnej (Full HD), powoduje, że takie rozwiązanie staje się idealne dla projektorów i dużych ekranów, a także do wyświetlania filmów stereoskopowych. W porównaniu z konwencjonalnymi ekranami HD, ekrany 4k mają dwa razy więcej linii. Sprawia to, że możliwe jest zbudowanie telewizorów 3D, które wytwarzają obrazy w pełnej rozdzielczości HD, nawet jeśli są oglądane p... więcej»

Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700&#8230;4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Wpływ wzajemnego oddziaływania cieplnego emiterów promieniowania na pracę matrycy zbudowanej na bazie GaN (Maciej Kuc, Robert Piotr Sarzała)
Optoelektroniczne emitery promieniowania krótkofalowego zbudowane na bazie azotku galu, do których należą diody elektroluminescencyjne (Light Emitting Diode - LED) oraz diody laserowe (Laser Diode - LD) są obiektem nieustannego zainteresowania od przeszło piętnastu lat. Aby sprostać rosnącym wymaganiom stawianym przez dynamicznie rozwijający się rynek komercyjny wykorzystujący te przyrządy, w wielu ośrodkach na całym świecie trwają bardzo intensywne prace nad poprawą ich parametrów eksploatacyjnych [1]. Emitery azotkowe znajdują zastosowanie przede wszystkim w zapisie i odczycie dysków optycznych, wyświetlaczach, a dodatkowo w spektroskopii, medycynie i biotechnologii. Obecnie obserwuje się wzrost zapotrzebowania na znaczące zwiększenie mocy emitowanej z tych urządzeń przy zachowaniu jak najdłuższego czasu ich stabilnej pracy z falą ciągłą (Continous Wave - CW) w temperaturze pokojowej (Room Temperature - RT) tj. w warunkach typowych dla ich zastosowań komercyjnych. Maksymalna moc, jaką można otrzymać z pojedynczego emitera jest ograniczona i w przypadku azotkowych laserów wąskopaskowych wynosi ok. 300 mW (dla paska o szerokości 2 &#956;m [2]). Aby otrzymać większą moc promieniowania, na bazie takich emiterów próbuje się obecnie konstruować jednowymiarowe matryce [3, 4], choć jak dotąd bez szczególnych sukcesów. Jednakże, warto zauważyć, że analogiczne matryce projektowane na bazie materiałów arsenkowych (dla długości fali z zakresu czerwieni i podczerwieni) pozwalają osiągnąć moc wielokrotnie większą od tej, jaką można osiągnąć w przypadku arsenkowych emiterów z pojedynczym paskiem laserowym [5]. Oznacza to, że podobnych parametrów można by oczekiwać od matryc azotkowych. Zastosowanie takich matryc wstępnie przewidywane jest m.in. w projektorach [1] i drukarkach laserowych [3, 4]. Moce wyjściowe rzędu 1 kW z matrycy laserów półprzewodnikowych (arsenkowych) osiągnięto przede wszystkim dzięki optymalizacji ich struktury pod wz... więcej»

Hybrydowy system autonomicznego bezprzerwowego zasilania rozproszonego (Wojciech Grzesiak, Michał Cież, Jacek Piekarski, Piotr Maćków)
Dynamika rozwoju cywilizacji jest w dużym stopniu uzależniona od licznych produktów, których prawidłowa i niezawodna praca wymaga ciągłości i jakości dostaw energii elektrycznej o wysokiej jakości. Często produkty te odpowiedzialne są za jakość, poziom i bezpieczeństwo naszego życia. W przypadku braku dostępu do sieci energetycznej lub zbyt wysokich kosztów jego uzyskania, celowym jest rozważenie zastosowania autonomicznego źródła zasilania. Ponieważ w Polsce w poszczególnych miesiącach występuje duże zróżnicowanie nasłonecznienia, celowym jest wspomaganie takiego systemu z dodatkowego źródła energii elektrycznej, którym może być generator spalinowy, turbina wiatrowa lub też nowoczesne i perspektywiczne rozwiązanie, jakim jest ogniwo paliwowe. Godnym uwagi jest zastosowanie ogniwa paliwowego typu DMFC (Direct Methanol Fuel Cell). Uzasadnieniem takiego rozwiązania są dane przedstawione na rys. 1, na którym obszary zaznaczone kolorem żółtym pokazują, ile w poszczególnych miesiącach można pozyskać energii elektrycznej z instalacji fotowoltaicznej o mocy 1 kWp w warunkach nasłonecznienia typowych dla terenu Polski południowej. Obszary zaznaczone kolorem czerwonym pokazują ile energii należy pozyskać z dodatkowego źródła energii elektrycznej, którym w tym przypadku jest ogniwo paliwowe typu DMFC tak, aby w każdym z miesięcy uzyskać ilość energii elektrycznej na stałym poziomie 100 kWh, czyli 1200 kWh rocznie. Z przeprowadzonej analizy wynika, że w skali roku udział energii pozyskanej ze słońc... więcej»

Mikro- i nanostruktury krzemowe jako materiał termoelektryczny (Marcin Turczyński, Zbigniew Lisik)
Pierwsze generatory o mocy rzędu kilku kilowatów zostały zaprezentowane przez rosyjskich i amerykańskich naukowców w latach 50. XX wieku i znalazły zastosowanie w misjach kosmicznych. Obecnie generacja termoelektryczna skupiona jest na odzyskiwaniu energii cieplnej traconej podczas wielu procesów technologicznych, a najczęściej stosowanym materiałem do budowy elementów termoelektrycznych jest BiTe oraz jego stopy (np. z antymonem czy selenem). Niestety sprawność generatorów budowanych z tych materiałów nie przekracza 5%, a jedną z ich największych wad jest niska maksymalna temperatura pracy wynosząca 300°C. Maksymalna moc dla elementów typu n oraz typu p jest osiągana przy 100°C. Materiał ten jest także zbyt drogi by budowa termogeneratorów na dużą skalę była opłacalna, dlatego ogólnodostępny krzem może stać się rozwiązaniem wyżej opisanego problemu. Krzem jest wykorzystywany od wielu lat do budowy praktycznie każdego urządzenia elektronicznego co powoduje, że technologia jego wytwarzania jest doskonale opanowana, a jego koszt produkcji jest relatywnie niski. Co więcej, krzem charakteryzuje się dobrymi właściwościami elektrycznymi takimi jak współczynnik Seebeck&#8217;a oraz przewodność elektryczna, które są składowymi współczynnika efektywności ZT = &#945;2&#948;T/&#955;, gdzie &#945; - współczynnik Seebeck&#8217;a, &#948; - przewodność elektryczna, &#955; - przewodność cieplna, T - temperatura bezwzględna. Niestety, dużą jego wadą jest wysoka przewodność cieplna &#955;, która także jest częścią parametru ZT i jest około sto razy większa niż dla BiTe (porównanie właściwości termoelektrycznych zostało przedstawione w tabeli). Przewodność cieplna jest sumą dwóch przewodności składowych &#955; = &#955; l + &#955; e, sieciowej oraz elektronowej. Pierwsza z nich związana jest z budową krystalograficzną, w której ciepło przewodzą fonony, w drugiej natomiast odpowiedzialne są za to elektrony. Porównanie właściwości termoelektryczny... więcej»

Wyniki pomiarów szumowym radarem do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Wśród licznych rodzajów radarów jednym z głównych nurtów współczesnej radiolokacji są radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar). Szeroki zakres ich możliwości sprawił, iż są wykorzystywane w przemyśle cywilnym, jak i wojskowym. Początki radaru GPR sięgają lat 20 XX wieku, które pozwalały określić grubość lodowca. Wynalazek ten został jednak zapomniany, aż do lat pięćdziesiątych, kiedy to katastrofa lotnicza doprowadziła do szybkiego rozwoju GPR. Wtedy to wówczas schodzący do lądowania na Grenlandii samolot korzystając z radaru pokładowego uzyskał zobrazowanie skał będących pod powierzchnią lodowca. Operator radaru błędnie przyjął poziom gruntu jako sygnał pochodzący od skał, zaniedbując przy tym sygnał echa od lodowca. Spowodowało to w konsekwencji rozbicie samolotu. Radary do sondowań podpowierzchniowych znajdują zastosowanie w wykopaliskach archeologicznych umożliwiając wykrycie ukrytych w ziemi ruin o dużym znaczeniu historycznym. GPR służy także przy wykrywaniu uszkodzeń wałów przeciwpowodziowych, umożliwiając wyeliminowanie zagrożenia powodzią. Georadar ma możliwość wykrywania defektów w mostach, czy też w drogach, niektóre z nich pozwalają odnaleźć faktyczny przebieg dawno zapomnianych rurociągów. Specjalizowane radary wykorzystywane przez służby wojskowe służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Umożliwiając przy tym wczesną zmianę trasy przejazdu konwoju wojska na terytorium wroga. Głównymi miejscami, gdzie GPR jest tak bardzo pożądany jest Irak czy Afganistan. Ziemia jest bardzo trudnym do analizy środowiskiem, ogólnie jest to ośrodek niejednorodny składający się z wielu warstw o różnej przenikalności elektrycznej. Poprawne odwzorowanie czasu powrotu sygnału nadawanego przez radar na głębokość, na której nastąpiło odbicie wymaga wiedzy o parametrach elektrycznych ziemi. Powyżej wymienione czynniki powodują, iż obróbka sygnałów w tego typu ra... więcej»

Nanostemplowanie w zastosowaniu do wytwarzania struktur fotonicznych w GaN (Marek Ekielski, Zuzanna Sidor, Marcin Juchniewicz, Mariusz Płuska, Marek Wzorek, Anna Piotrowska, Valery Kolkovsky, Zbigniew Żytkiewicz, Maciej Gruszka, Robert Kucharski)
Azotek galu jest atrakcyjnym materiałem do zastosowań w przyrządach elektronicznych wysokich mocy i dużych częstotliwości oraz zaawansowanych aplikacjach optoelektronicznych [1-3]. Duża odporność chemiczna tego materiału z jednej strony sprawia, że urządzenia mogą pracować w agresywnym środowisku, z drugiej strony utrudnia jego strukturyzację. W przypadku struktur fotonicznych, charakteryzujących się periodycznością, perspektywiczną techniką jest nanostemplowanie. Umożliwia ono wykonanie dużej ilości procesów w krótkim czasie przy uzyskaniu wzorów o wymiarach sięgających 20 nm. Ideą procesu nanostemplowania w trybie Th-NIL jest mechaniczne odciśnięcie wzoru stempla w warstwie rezystu ogrzewanego powyżej temperatury zeszklenia Tg (ang. Glass Transition Temperature), a następnie chłodzonego w celu utrwalenia powstałego odcisku. W przypadku trybu UV, etapem odpowiadającym za utrwalenie powstałego odcisku jest promieniowanie UV, dzięki któremu następuje usieciowanie użytego rezystu. Do transferu submikrometrowych wzorów w głąb azotku galu wykorzystuje się technikę trawienia w plazmie o wysokiej gęstości ICP (ang. Inductive Coupled Plasma). Najszerzej stosowana jest plazma chlorowa oraz jej warianty z domieszką trójchlorku boru [4-6], azotu [7] czy argonu [8, 9]. Celem prezentowanej pracy było opracowanie technologii strukturyzacji GaN technikami nanostemplowania oraz trawienia ICP. Planując badania określono następujące kryteria oceny procesów: - profil trawienia możliwie najbardziej anizotropowy; - szybkość trawienia powyżej 100 nm/min (niższe szybkości powodują wydłużenie czasów trawienia struktur o głębokościach powyżej 1000 nm); - chropowatość wytrawionej powierzchni (RMS) poniżej 20 nm. Eksperyment W eksperymencie wykorzystano trzy rodzaje azotku galu o orientacji (0001): warstwy epitaks... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Jakość połączeń kluczem do lepszej obsługi gości EURO 2012
Jak podało KRAJOWE CENTRUM MEDIALNE EURO 2012, Polska jest pierwszym organizatorem Mistrzostw Europy w Piłce Nożnej, który wprowadził jakościowe wskaźniki wyznaczające pożądany poziom usług w usługach, m.in. telekomunikacji, transporcie, opiece medycznej, bezpieczeństwie, informacji, zakwaterowaniu. Wskaźniki zostały wypracowane przez PL2012 we współpracy z partnerami w poszczególnych obszarach obsługi. Opis procedury badań podało do wiadomości prasy Parametry jakości zostały określone tak, aby w maksymalnym stopniu odzwierciedlały oczekiwania kibiców wobec oferowanych im usług - ... więcej»

Algorytm szybkiego obliczania wartości modułu liczby zespolonej (Marek Orzyłowski, Zbigniew Rudolf)
Systemy pomiarowe często są wyposażane w układy mikroprocesorowe, sterujące procesem pomiaru oraz wstępnie przetwarzające sygnały pomiarowe. W wyniku wstępnego przetwarzania sygnałów następuje redukcja informacji pomiarowej do niezbędnej liczby danych. Dzięki temu przy przesyłaniu wyników pomiarów na zewnątrz tych systemów pomiarowych nie trzeba stosować kanałów transmisyjnych o nadmiarowej przepustowości. Specjalizowane układy mikroprocesorowe, przeznaczone do pracy w systemach pomiarowych, mają stosunkowo ograniczoną moc obliczeniową, w związku z tym często istotne jest zastosowanie efektywnych algorytmów obliczeniowych o krótkim czasie wykonywania. W efekcie pomiarów uzyskuje się często wyniki w postaci liczb zespolonych. Przykładem może być analiza harmoniczna FFT, po przeprowadzeniu której, otrzymuje się wyniki jako liczby zespolone w postaci części rzeczywistej i urojonej. Gdy przy pomiarze istotne są tylko amplitudy harmonicznych, czyli moduły wspomnianych liczb zespolonych, można zredukować przesyłaną dalej informację do połowy. Pewnym problemem może być w takim przypadku jednak fakt, że dla obliczenia modułu liczby zespolonej niezbędne jest wykonanie operacji pierwiastkowania, która przy podejściu standardowym jest procedurą stosunkowo długo wykonywaną przez jednostkę centralną. Niniejszy artykuł przedstawia algorytm szybkiego obliczania modułów wartości liczb zespolonych z dokładnością niezbędną dla celów pomiarowych. Zastosowanie mikrokonwerterów W elektronicznych układach do celów pomiarowych i sterowania, szerokie zastosowanie znalazły mikrokonwertery, które stanowią zintegrowane układy klasycznych mikrokontrolerów z precyzyjnymi przetwornikami analogowo-cyfrowymi (A/C). Układy te, zawierające oprócz jednostki centralnej nieulotną pamięć programu, pamięć RAM oraz rozbudowane układy wejścia i wyjścia... więcej»

Wykorzystanie technologii organicznych diod elektroluminescencyjnych do budowy źródeł światła (Grażyna Kozioł, Kamil Janeczek, Aneta Araźna, Konrad Futera, Wojciech Stęplewski)
Diody OLED (Organic Light Emitting Diode) są nowatorskimi przyrządami elektronicznymi, formowanymi na bazie cienkich warstw organicznych o grubości około 100 nm. Ten stosunek wymiarów powoduje, że uważa się je praktycznie za przyrządy dwuwymiarowe. Diody OLED będą pracować przy bardzo niskich napięciach rzędu 3&#8230;5 V. Dlatego wprowadzenie diod OLED jako źródeł światła w zastosowaniach dotyczących powszechnego oświetlenia ma znaczenie rewolucyjne i spowoduje zasadnicze przesunięcie nadrzędnych priorytetów w przemyśle oświetleniowym. Budowa OLED Intensywne prace badawcze dotyczące materiałów, procesów i konstrukcji diod emitujących światło, zbudowanych z organicznych warstw półprzewodnikowych rozpoczęto kilka lat temu. Jeszcze stosunkowo niedawno wydawało się, że białe półprzewodnikowe diody elektroluminescencyjne LED były najwyższym osiągnięciem w tym obszarze. Przeszkodą w ich upowszechnianiu stają się nie tylko wysoki koszt produkcji, ale także ograniczenia technologiczne związane z materiałami nieorganicznymi (m.in. problemy z dalszą miniaturyzacją). Obecnie naukowcy kierują swoją uwagę w stronę materiałów organicznych. W odróżnieniu od elektroniki tradycyjnej, w której ze względu na kolektywny charakter zjawisk elementy aktywne nie mogą mieć rozmiarów atomowych, w elektronice organicznej można operować nawet na pojedynczych cząsteczkach. Chemia organiczna pozwala na realizację zamówień na materiały funkcjonalne, które są złożone z cząsteczek zaprojektowanych i przeznaczonych do wykonywania określonych funkcji. W rezultacie będzie można wykonywać, dzięki organicznym diodom luminescencyjnym OLED, nowatorskie źródła światła bardziej energetycznie efektywne niż istniejące obecnie źródła światła. Dioda OLED jest przyrządem bazującym na konwersji energii (przemiana prądu elektrycznego na światło). Jest bardzo cienka, o dużej powierzchni i praktycznie można ją uważać za przyrząd dwuwymiarowy. Zbudowana jest z materiałów pod... więcej»

Integracja elementów pojemnościowych z płytką obwodu drukowanego (Wojciech Stęplewski, Grażyna Kozioł, Tomasz Serzysko, Kamil Janeczek, Aneta Araźna)
Od wielu lat w różnych światowych ośrodkach badawczych prowadzone są prace mające na celu opracowanie technologii wbudowywania elementów biernych wewnątrz płytki obwodu drukowanego w procesie jej produkcji. Elementy bierne są niezbędne w każdym układzie elektronicznym, a w wielu wypadkach stanowią znaczną jego cześć. Ich udział w wyrobach elektronicznych stale rośnie i chociaż wymiary tych podzespołów ulegają ciągłemu zmniejszaniu, to otaczająca je powierzchnia nie może być dalej zmniejszana z powodów ograniczeń narzuconych przez urządzenia montażowe oraz wymagania procesu lutowania. Idea upakowania większej liczby podzespołów na płytce obwodu drukowanego przez wprowadzenie nowych technologii wbudowywania elementów biernych wewnątrz płytki staje się obecnie dla producentów nowoczesnego sprzętu koniecznością. Koncepcja wbudowywania elementów pasywnych, w tym kondensatorów, do wnętrza płytki obwodu drukowanego powstała już wiele lat temu. Pierwsze próby z wbudowywaniem kondensatorów rozpoczęto jeszcze pod koniec lat sześćdziesiątych ubiegłego wieku [1]. Do tej pory powstało wiele materiałów, które mogą być wykorzystywane na kondensatory, jednak technologia ta wykorzystywana jest w niewielkim stopniu najczęściej w zastosowaniach wojskowych i elektronice lotniczej, w tym również elektronice używanej w przestrzeni kosmicznej. W ostatnich latach wielki wzrost zapotrzebowania na wysoko zaawansowane, a jednocześnie tanie urządzenia elektroniczne, takie jak telefony komórkowe, laptopy, urządzenia sieciowe itp. spowodował szerokie zainteresowanie nowymi technologiami, w tym technologiami elementów biernych wbudowanych. Można zauważyć trend w rozwoju płytek obwodów drukowanych, który zmierza do jak największej integracji z nią elementów elektronicznych. Materiały i konstrukcje wbudowanych kondensatorów planarnych Obecnie na rynku dostępnych jest wiele materiałów przeznaczonych do wytwarzania kondensatorów wbudowanych. Coraz więcej fi... więcej»

Z wizytą u górali
Wojskowy Instytut Wydawniczy organizuje cyklicznie "Spotkania z Armią". W kolejnej edycji 44-osobowa grupa dziennikarzy gościła w 22 Karpackim Batalionie Piechoty Górskiej w Kłodzku oraz w Sudeckim Oddziale Straży Granicznej. Dowódca batalionu, podpułkownik Adam Bera przedstawił jednostkę działaj... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
SAR/InSAR Raw Data Simulator using 3D terrain model (Damian Gromek, Artur Gromek, Krzysztof S. Kulpa, Mateusz Malanowski, Piotr Samczyński)
The research on new SAR algorithms are based on the theoretical background, algorithms verification using simulations and real-life data tests. The real experiments are expensive and time consuming. Due to that many researchers and software developers put many efforts to design and develop efficient tools for SAR simulations. Last years it has been design and developed many SAR simulators using different solvers [1], [3], [4], [5], [6], [7]. One of the simulator has been proposed and design by Warsaw University of Technology in 2003 [1], [3]. Due to the available that time computational power, the simulator was used to test a SAR algorithms based on the simple scene definitions, which include few dominant scattering in the scene [1], [3]. Such solution allowed for testing most of SAR algorithms, where have been tested such phenomena as non-linear flight path, geometrical distortion of the SAR image, etc [8], [9], [11], [12]. The computational power and required computer memory in the solver used for simulation depends linearly with the number of scattering points in the scene. That time it was not possible to simulate a complex and realistic scene including ground (consist of many scatterers) and shadowing, double and multi-bounds effect. The available in the market computational power and participation in the projects, where new SAR algorithms have to be developed [10], [11], [12], [13], [14], led authors to developed a new extended version of the SAR/ InSAR simulator. This paper presents new results of simulation, where the real DTM models of the Earth has been used. Simulator description Simulation are basing on given radiolocation scene and the parameters of the transmitted radar signal, then simulator solver generates a radar echo. The simulator knowing the location of the radar and of the object in the radiolocation scene. Based on this knowledge, the distance fr... więcej»

Impact of subsurface unhomogeneity on proper interpretation of GPR data based on A-scan measurements (PAWEŁ KACZMAREK, JANUSZ KARCZEWSKI, MARIAN ŁAPIŃSKI)
Possible features of GPR signature of template object depend on radar&#8217;s parameters like range resolution or received polarizations. Patterns can be saved in a database as amplitude vs. time or any other as long as they will be viable during discrimination/interpretation phase. In the paper analyzed A-scan were interpreted using template matching method - measurements were compared with prerecorded data and percentage based comparison was given as a result [2]. Output of an algorithm used in the process suggests which of database&#8217;s entries is the most similar to analyzed Ascan. Theoretically in ideal conditions (no disturbance from noise or clutter, exactly the same soil, humidity, etc.) one can expect results close to 100% similarities. In real GPR conditions soil parameters can change few times a day. In the paper one of such numeric estimators of distance between template and measured data was discussed - Euclidean distance calculated from (1): (1) x(t) - original range profile, y(t) - measured range profile. Template matching requires range profile to be synchronized in distance (time) and normalized in amplitude, i... więcej»

Detection of targets in two band radar (Tadeusz Brenner, Jan Hardejewicz, Marek Rupniewski, Marek Nałęcz)
The idea of fusion of signals from different bands described in the presented solution is based on the concept of fusion of orthogonal signals (summation of non-coherent signals - square amplitudes) in common signal processing unit. This method, called MIMO (Multiple Input Multiple Output) [1], uses, in general, many transmitters and receivers and exploits space and/or frequency diversity of received signals. In our case we use two inputs and two outputs i.e. two active radars working in the same place, but in two different bands (S and C). Hence we get a typical frequency diversity. The same idea can be used in any multiband case as well. The paper deals with the potential capability of such fusion when the two transmit-receive antennas are placed back to back. This means that the signals received from the same target are shifted half of the antenna&#8217;s rotation period apart. In consequence the signals from the same range-azimuth-elevation cells cannot be directly summed because of unknown target velocities. The summation (fusion) is possible only after track initiation of a target, i.e., when the target position in a half of antenna rotation period can be predicted. It is self-evident that the profit of such fusion algorithm results from the frequency diversity of independently fluctuating signals. In our case there is an additional benefit due to the cueing. Namely, it allows to lower the threshold of detection within the predicted region of the tracking gate. The profit obtained in this way depends on the number of cued targets and the dimensions of the predicted targets gates. Another advantage is that the refreshment rate of tracked objects is doubled. Diagram of data and signal fusion The proposed block diagram of the signal processing subsystem, including fusion of signals and data from different bands, for the case of two-band radar is shown in Fig. 1. In the both ... więcej»

Method of temperature fluctuations compensation in the silicon photomultiplier measurement system (Mateusz Baszczyk, Piotr Dorosz, Sebastian Głąb, Wojciech Kucewicz, Łukasz Mik, Maria Sapor )
Independently of the direction the p-n junction is polarized in, the currents in it are strongly dependent on temperature. In the state of the avalanche breakdown, the increase of the temperature contributes to the more vivid vibrations of the particles of the crystal lattice. The vibrating atom occupies more space and the probability of the collision with an accelerated carrier increases. The collisions occur earlier so the free path is shorter. It means that the carriers are accelerated on shorter path and have smaller kinetic energies. Insufficient energy results in a reduction of the probability of knocking out carriers pairs. Avalanche multiplication becomes weaker and the avalanche current decreases. Silicon Photomultiplier operates in Geiger mode which mean that it is polarized beyond the breakdown voltage. Variation of breakdown voltage especially influence the parameters of SiPM. This voltage depends on temperature. When temperature increase value of the breakdown voltage increase also [1]. This variation leads to fluctuation of the current of SiPM because polarization voltage is constant during measurement. Distance between polarization voltage and the breakdown voltage is changed. To set operating parameters of SiPM on the stable level there is need to control temperature. This article introduce new method for compensating temperature fluctuations. This method is based on controlling distance between breakdown voltage and polarization voltage to set current of the p-n junction on the stable level. If the temperature of the Silicon Photomultiplier is higher than 0K, inside the detector, due to vibrations of the lattice, pairs of the electron-hole carriers are created. It is called the thermal generation of the carriers. The probability of detecting the photon (detecting the absorption of the photon resulting in the generation of avalanche current) is directly proportional to the value of bias voltage of the detector.... więcej»

Kamera termowizyjna w diagnostyce urządzeń elektronicznych (Arkadiusz HULEWICZ)
W dobie intensywnego rozwoju technologicznego oraz wzrastającej liczby urządzeń elektronicznych ważną rolę odgrywa ich cykliczne monitorowanie oraz ocena prawidłowego działania. Wczesne zdiagnozowanie nieprawidłowości w pracy poszczególnych elementów elektronicznych pozwala uniknąć uszkodzenia całego urządzenia oraz zminimalizować koszty naprawy. Ponieważ uszkodzenia tych elementów są często poprzedzone wzrostem temperatury, skutecznym sposobem jest monitorowanie rozkładu temperatury wewnątrz kontrolowanego urządzenia. Spośród wielu metod pomiaru temperatury autor artykułu zaproponował rozwiązanie wykorzystujące kamerę termowizyjną. Termowizja jest metodą badawczą pozwalającą w sposób zdalny i bezdotykowy określić rozkład temperatury na określonej powierzchni. Wartość zmierzonej temperatury określana jest na podstawie zarejestrowanego promieniowania podczerwonego, emitowanego przez każde ciało, którego temperatura jest wyższa od zera bezwzględnego [6, 10]. Zarejestrowane przez kamerę termowizyjną promieniowane podczerwone charakteryzuje się różną mocą, zależną od temperatury badanego ciała oraz innych parametrów. W obrazie poddanym odpowiedniej obróbce miejsca o danej temperaturze przyjmują określoną barwę, tworząc w ten sposób mapę rozkładu temperatury na powierzchni badanego ciała. Postęp, jaki miał miejsce w technologii półprzewodnikowej oraz technice optyki podczerwieni, umożliwił rozwój termowizji, który pozwala na wykorzystanie jej w wielu dziedzinach nauki. Współcześnie termowizja znajduje liczne zastosowania, m.in. w przemyśle, budownictwie, energetyce, elektronice, medycynie oraz ratownictwie morskim [1, 3]. W porównaniu z innymi metodami pomiaru temperatury termowizja umożliwia diagnostykę urządzeń podczas pracy. Pomiary termowizyjne urządzeń elektronicznych umożliwiają przeprowadzenie oceny rozkładu temperatury oraz zmian jej wartości w czasie, pozwalając w ten sposób wykryć ewentualne zagrożenia, które mogą wyst... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Wyznaczanie zawartości CO metodą NDIR z algorytmiczną kompensacją temperatury gazów (Sławomir Cięszczyk, Paweł Komada, Waldemar Wójcik)
Metody monitorowania i pomiarów in-situ są preferowane w wielu procesach przemysłowych. W przypadku monitorowania gazów we wnętrzu obiektów stosowane są często różnego rodzaju metody spektroskopowe. Główną ich zaletą jest ich nieinwazyjność oraz brak wpływu na przebieg procesu. W odróżnieniu od metod laboratoryjnych największym problemem w metodach in-situ jest zmienność warunków fizykochemicznych. Powoduje ona problem z kalibracją i odtwarzaniem wartości pomiarowych. W pomiarach laboratoryjnych zapewniamy stałość warunków takich jak temperatura, ciśnienie oraz wilgotność. W pomiarach środowiskowych oraz procesowych ze względu na brak powtarzalności warunków trudno jest przeprowadzić klasycznie rozumianą kalibrację, czyli powiązanie wielkości wyjściowej z wielkością wejściową systemu pomiarowego. Metoda NDIR Metody NDIR polegają na zastosowaniu odpowiednich filtrów spektralnych. Ich główną zaletą jest brak konieczności stosowania spektrom... więcej»

Elektrochemiczny czujnik na bazie cieczy jonowej do oznaczania par benzaldehydu (Jacek GĘBICKI, Adam KLOSKOWSKI, Irmina KWIATKOWSKA, Wojciech CHRZANOWSKI )
Czujniki elektrochemiczne, ze względu na swoje zalety jak i ograniczenia, mogą być cennym źródłem uzyskanych informacji na temat emisji poziomu i jakości zanieczyszczeń z grupy lotnych związków organicznych (LZO). Naturalnymi źródłami pierwotnej emisji LZO są rośliny i spalanie biomasy. Najprostszym aromatycznym związkiem karbonylowym należącym do grupy LZO najczęściej wykrywanym w pomiarach emisyjnych jest benzaldehyd [3]. Elektrochemiczny czujnik do oznaczania par benzaldehydu mógłby znaleźć zastosowanie do określania wskaźników emisji LZO podczas spalania biomasy. Wartości stężeń LZO w tych warunkach są na poziomie 1&#8230;500 mg/m3 w zależności od rodzaju związku, co w zupełności predysponuje taki czujnik do detekcji par benzaldehydu [6]. W ostatnich dwudziestu latach z powodzeniem zaczęto stosować w elektrochemii, a także w czujnikach ciecze jonowe [1, 4]. Ciecze jonowe stanowią atrakcyjną alternatywę dla rozpuszczalników tradycyjnie stosowanych w elektrochemii ze względu na posiadane właściwości: niewielką prężność par, szeroki zakres stabilności elektrochemicznej, wysoką trwałość termiczną i względnie wysokie przewodnictwo właściwe. Stosowanie cieczy jonowych w czujnikach gazowych wyklucza często stosowanie membrany oddzielającej środowisko gazowe od elektrolitu wewnętrzneg... więcej»

Rare earth activated YAM materials as solar spectrum converters for photovoltaics (BARTOSZ Fetliński, ZUZANNA Boruc, MICHAŁ Malinowski)
One of the most important factors limiting efficiency and energy yield of solar cells is mismatch between incident solar spectrum and their spectral response curve. It was calculated that under a standard AM1.5G spectrum crystalline silicon PV cell with Eg =1.12 eV losses ~55% [1] of incoming energy of solar radiation due to this effect. There are numerous concepts of limiting the losses caused by this effect, notably the multi-junction solar cells, hot carriers collecting contacts, impurity photovoltaics, thermophotovoltaics, multi-exciton generation and photon conversion. These concepts vary substantially in maturity and perspectives for widespread application in foreseeable future. The most mature of the above mentioned concepts are multijunction solar cells widely used in space and terrestrial concentrators application. However, current mismatch between junctions in case of spectrum different than one cell was designed for, complicated manufacturing resulting in very high unit price, need for sun tracking mechanism for concentrator&#8217;s optics and usage limited to regions with high insolation with dominant direct beam significantly limit more widespread use of this technology. Other concepts, require serious modification of cells structure, are hampered by numerous problems and trade-offs (for example impurity PV cells while enabling absorption of IR light also provide new paths of parasitic non-radiative recombination). The photon conversion concept, especially downshifting and down-conversion, has distinct advantage of possibility of enhancing photovoltaic system&#8217;s efficiency without interference with... więcej»

Technological issues and optimization processes of junctions in a multijunction pv cell based on ingap/ingaas/ge materials (Piotr Knyps )
At present, photovoltaics is the most dynamically developing method for obtaining sources of renewable energy in the world. It is confirmed by the figures about the new installed power in 2011, which shows 27,7 GWp growth only in one year. In comparison to the year before, it is a 70% increase [1]. Such fast growth in photovoltaic industry is connected with intensive research on increasing the efficiency of photovoltaic conversion in solar cells. The higher efficiency will help to produce energy cheaper, and create new applications for photovoltaics. The most popular single-junction solar cell achieves efficiencies up to 25,0% [2], although in comparison to traditional coal-fired power plants, which have efficiency of over 40%, it is still far lower. That is the reason why research activities focus on developing multijunction solar cells technologies, which utilize different spectrum wavelengths of solar energy in a better way. Among many applications of multijunction solar cells, terrestrial concentrators, which focus light even 500 times on the surface of a PV cell, systems to power space satellites and rovers belong to the most important ones. Work objectives and established results The main objective of the project "Adv... więcej»

Research achievements of the DSOD Lodz in the field of photovoltaics (Katarzyna Znajdek, Maciej Sibiński)
The Department of Semiconductor and Optoelectronics Devices was established in 2008 as a part of the Faculty of Electrical, Electronic, Computer and Control Engineering at the Technical University of Lodz in Poland. The team of the DSOD Lodz consists of two professors, two associate professors, nine doctors, five PhD students and seven technical and administration employees. The Department&#8217;s research activities cover optoelectronic, micro- and nanoelectronic technologies, modeling and analysis of electrical and thermal phenomena in semiconductor devices, as well as designing and manufacturing of semiconductor devices, including solar cells. The main fields of the research interest are power semiconductor devices, high temperature electronics with emphasis on SiC technology, integrated intelligent systems, photonic systems and photovoltaic cells [1]. Resources and technological base Both teaching and research activities are conducted in the Department&#8217;s laboratories which enable investigation and experiments covering designing, manufacturing and testing of photovoltaic devices. Laboratories&#8217; equipment base of the DSOD at TUL covers among others: &#61607; Technological Centre of Microtechnology comprising Clean- Room laboratory, equipped with the facilities for fabrication and characterization of semiconductor or metal thin films, as well as for mapping of designed semiconductor structures. &#61607; Optoelectronics under the patronage of Corning Cable Systems Poland &#61607; Hybrid Systems Laboratory, equipped, inter alia, with the pneumatic screen printer, the ball mill and the station for screen printing pastes preparation. &#61607; Photovoltaic Laboratory, fully equipped with an integrated measurement system that simulates standard test conditions STC, in accordance to the requirements of IEC 60904-1 and IEC 60904-3. The system includes C class solar simulator (in accordance to IEC 60904-9) with a silicon... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Brain-computer interaction analysis based on EEG signal and gaze-tracking information (Katarzyna Kaszuba, Bożena Kostek)
Recently many studies are carried out in the area of brain-computer interface (BCI) technology. The electroencephalographic signal (EEG) analysis is one of the most common ways of communication between human brain and the computer due to its non-invasive nature and relative user&#8217;s comfort. Still using only EEG data does not provide objective reference information about actions performed by the subject examined. Creating a fully functional and effective BCI to control the computer still remains a distant target. The main disadvantage of the most BCI systems is the lack of the feedback information that could be used as a reference. It is impossible to determine, which of the processes currently dominates brain activity. Even if the subject is asked to perform a task, there is no certainty the user paid attention during its realization. On the other hand, the eye-tracking system provides information about the gaze fixation point allowing for evaluating visual activity of the subject. Thus, we assumed that by combining EEG signal measured by a wireless BCI interface with the eye-tracking system registering the subject&#8217;s gaze activity we could expect to obtain an integrated brain-computer interface that measures the user&#8217;s brain signal in a more effective, and at the same time, a more objective way. At the same time EOG recording system was used to obtain reference data. EOG-based information transfers this knowledge to the EEG signal analysis. In the paper several approaches for signal pre-processing and parameterization were described and then their usability was checked by means of machine-learning algorithms. The main goal expected to be achieved within this study was to evaluate the possibility to develop a functional and user-friendly solution that utilizes abilities of presented systems. System Setup Gaze-Tracking System The Cyber-Eye, a gaze tracking system developed in the Multimedia Systems Department... więcej»

Application of scale-invariant feature transform to fingerprint classification (Jakub Sobek, Damian Cetnarowicz, Adam Dąbrowski)
Recognition of fingerprints is one of the main biometric methods for people identification. In general, the biometric methods aim to determine identity using anatomical or behavioural characteristics. Classical identification methods utilize tokens (keys) or knowledge (passwords). Such methods identify not a person but, in fact, some information, which is held by the person and can be lost or stolen. In the first case this is a kind of trouble but in the latter case this is a kind of danger. Because of these reasons efforts in biometry research are aimed to recognize people by their body or behaviour. Common biometrics are: face, iris, ear, voice, hand geometry, vein geometry, fingerprint, gait, palm print, rhythm of typing, DNA, etc. Each biometric has its advantages and its weakness. Among these, fingerprint is the oldest method of biometric identification [1]. In the late nineteenth century Sir Francis Galton systematized characteristic elements of fingerprint image. These elements are called minutiae and are parameterised by their position, type, and orientation. The best assessment of fingerprint importance is the fact that this is accepted by the law. Currently, since the technological development has arisen, fingerprint is also the biometric with the easiest technique of acquisition [2]. Because of that it is used in locks and even in mobile devices. At the beginning of fingerprint application, the two impressions of a fingerprint were compared manually. It is still the most accurate way for comparison. As computer technology was developed, algorithms for automatic fingerprint matching have been invented. The automatic recognition is much faster but its accuracy is lower. In manual matching a set of minutiae has to be found for each fingerprint. Given these sets, an expert compares minutiae, their positions and other parameters (attributes). A difficulty of this comparison is that the minutiae positions are distorted b... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient&#8217;s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor&#8217;s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient&#8217;s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article &#8220;Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Zastosowanie przekształceń grafiki trójwymiarowej w obrazowej diagnostyce medycznej (Adam Skurski, Piotr Mazur, Jakub Chłapiński, Marek Kamiński, Andrzej Napieralski, Jarosław Kasprzak, Piotr Lipiec)
Graficzna reprezentacja wyników analiz medycznych może dostarczyć dużo większą ilość informacji przy zwiększonej czytelności prezentowanych danych, niż analiza wyłącznie tabelarycznych danych tekstowych. Dzięki rozwojowi technik cyfrowych raporty medyczne zmieniły swoją postać z wykazu wartości liczbowych na bardziej wyrafinowane i łatwiejsze w interpretacji formy prezentacji wyników. W okresie ostatnich 30 lat można zauważyć istnienie silnej tendencji w kierunku uproszczenia sposobu wyświetlania danych wynikowych poprzez przedstawianie ich w postaci wykresów, czy prezentacji kolorowych modeli. Współczesne techniki diagnostyki medycznej wymagają, aby dane prezentowane w formie graficznej były dokładne i intuicyjnie interpretowalne, co często wymaga długotrwałego przetwarzania danych zebranych podczas badania. Tego rodzaju analizy wymagają więc od personelu medycznego wydłużonego czasu oczekiwania na wynik w celu podjęcia dalszych kroków diagnostyki i przyjęcia odpowiedniej ścieżki leczenia. Ciągły postęp technologiczny umożliwia obecnie znaczące skrócenia tego czasu przyczyniając się do gwałtownego rozwoju diagnostyki obrazowej. Wykorzystanie techniki CT (ang. Computed Tomography - tomografia komputerowa) dało możliwości reprezentacji wnętrza ludzkiego ciała za pomocą obrazów dwu- i trójwymiarowych (2D/3D). Zastosowanie algorytmów segmentacji obrazu umożliwiło osiągnięcie wysokiej precyzji odwzorowania przy obserwacji pojedynczych organów wewnętrznych. Inne algorytmy, takie jak algorytm Marching Cubes [7], pozwalają na opracowanie z otrzymanych obrazów modeli analizowanych struktur w postaci cyfrowej siatki geometrycznej reprezentującej ich powierzchnię boczną. Implementacja wybranych algorytmów i zastosowanie nowoczesnych technik komputerowych umożliwiło skrócenie czasu wykonywania tego rodzaju przekształceń graficznych do kilku sekund. To natomiast sprawiło iż kolejne metody przekształceń obrazów medycznych pozwalają na uz... więcej»

Układ zasilania i sterowania impulsowej diody laserowej z rozłożonym sprzężeniem zwrotnym pracującej w paśmie widmowym bezpiecznym dla wzroku (Wiesław Pichola, Maria Maciejewska, Marcin Mamajek, Jacek Kwiatkowski, Jacek Świderski)
We wczesnych latach 70. lasery pompowane były głównie lampami błyskowymi lub innymi laserami [1, 2]. Koniec lat 80. i lata 90. to okres, w którym zaczęto wykorzystywać diody laserowe jako źródła pompujące lasery ciała stałego i fakt ten zadecydował w ogromnej mierze o ich gwałtownym rozwoju, jaki obserwujemy do dnia dzisiejszego [3-5]. Postęp technologii, opracowanie nowych metod wytwarzania (epitaksja, podwójna epitaksja) nowych materiałów i struktur spowodowały dynamiczny rozwój rozpartywanych źródeł światła. Zastosowanie nowych rozwiązań technologicznych pozwala m.in. na zmniejszenie rezystancji termicznej między złączem a obudową, co skutkuje zwiększeniem mocy z jednostki objętości diody laserowej, podwyższeniem częstotliwości przy pracy impulsowej z dziesiątek kHz do powyżej 100 MHz i skróceniem czasu trwania impulsu poniżej 1 ns. Są to kluczowe parametry dla wielu aplikacji wykorzystujących bezpośrednio lub pośrednio diody laserowe - np. w dalmierzach laserowych, wskaźnikach celów lub układach LADAR [6,7]. Artykuł przedstawia propozycję rozwiązania układowego generatora impulsów prądowych dla diod laserowych z rozłożonym sprzężeniem zwrotnym na przykładzie diody LC25T firmy OCLARO [8], generującej promieniowanie o długości fali 1550 nm. Opracowanie założeń i projekt koncepcyjny zasilacza impulsowej diody laserowej Projektowany zasilacz miał być źródłem energii elektrycznej dla impulsowej diody laserowej typu LC25T firmy OCLARO z możliwością zapewnienia odpowiedniego chłodzenia diody. W tabeli przedstawiono parametry rozpatrywanej diody laserowej, na podstawie których ustalono wymagania w stosunku do jej układ zasilania. Z danych przedstawionych w tab. można wyodrębnić zasadnicze podzespoły projektowanego układu zasilania i określić... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Fabrication and properties of multilayer capacitors with multicomponent ferroelectric dielectric (Jan Kulawik, Dorota Szwagierczak)
Multilayer ceramic capacitors can offer small size, high capacitance, stable temperature characteristics, high reliability and low cost [1-8]. The successful attainment of these features is strongly dependent on applied dielectric materials. The MLCC structure manufactured in LTCC process consists of alternate dielectric layers and metallic electrodes in parallel configuration. High dielectric constant, small thickness and large number of dielectric layers are factors determining high volumetric efficiency of a multilayer capacitor. The progress in tape casting and LTCC technology has made it possible to produce hundreds of very thin dielectric layers with a thickness diminished down to 3 &#956;m. The early dielectric formulations are based on BaTiO3 which resulted in necessity of the use of expensive platinum or gold platinum internal electrodes. Application of sintering aids lowering BaTiO3 firing temperature down to 1150°C allowed utilization of cheaper palladium-silver electrodes. A further decrease in this temperature making possible the use of Ag electrodes requires excessive amounts of fluxes and causes detrimental diminishing of dielectric constant of BaTiO3 ceramic. One of the best solutions overcoming these problems is the introduction of relaxor compounds with perovskite structure and a general formula of Pb(B&#8217;B")O3 (B&#8217;=Mg, Zn, Fe; B"=Nb, Ta, W). High and broad maxima of dielectric permittivity along with low sintering temperature and ability to form thin layers are advantages of capacitor dielectrics containing these materials. In this work the multicomponent composition of dielectric was tailored to attain a few purposes determining processing conditions and desired properties of multilayer capacito... więcej»

HTML5 versus Flash - możliwości tworzenia interaktywnych multimediów dla m-learningu (Jolanta Brzostek-Pawłowska)
Poziom rozwoju standardu HTML5 [4] oraz technologii tworzących środowisko rozwoju i udostępniania aplikacji i treści w tym standardzie jest na tyle zaawansowany, że warto bliżej rozpoznać tę technologię i zacząć stosować w nowych projektach. Większość przeglądarek WWW, tzw. Internetu stacjonarnego (komputery stacjonarne, laptopy) w znacznym stopniu wspiera już HTML5, słabiej radzą sobie z pełnym wykorzystaniem HTML5 przeglądarki mobilne ze względu na ograniczenia sprzętu mobilnego. HTML5 uznawany jest jako idealny dla urządzeń mobilnych, ponieważ może zapewniać dostępność ze wszystkich platform mobilnych. A brak tej dostępności jest zmorą wszystkich deweloperów tworzących rozwiązania na sprzęt mobilny. Konieczność tworzenia kolejnych wersji produktu dla różnych środowisk mobilnych jest czynnikiem pogarszającym wskaźniki efektywności produkcji. HTML5 wykonuje samodzielnie funkcje, dotychczas wspomagane różnymi wtyczkami do przeglądarek ("playery", "viewery"). Dokładniej mówiąc - samodzielnie wraz z przyjaciółmi, jakimi są kaskadowe arkusze stylów CSS level 3 (CSS 3) i Javascript (JS). W HTML5 nie istnieje problem konieczności instalowania wtyczek lub ich niedostępności, czego przykładem może być technologia Flash, niedopuszczona przez Steve Jobsa (Thoughts on Flash, [2]) na urządzenia iPhone i iPad firmy Apple, jako nie otwarty standard. Apple, Google, nawet Microsoft ze swoją technologią Silverlight (konkurencyjną do Flash), idą wyraźnie w kierunku HTML5, CSS3 i JavaScript. Apple i Google stworzyły nawet strony dedykowane promocji HTML5 http://www. apple.com/html5/i http://www.html5rocks.com/. Na tej ostatniej stronie o nazwie "HTML5 Rocks" Google prezentuje rozwiązania, które mogą być wykonane przy pomocy HTML5 (oraz CSS3 i JS) takie, jak: interaktywne prezentacje, przewodniki, "sandboxy" (generowanie gradientów i innych wizualnych obiektów i efektów) i inne nowości HTML5. Wydaje się, że HTML5 może stać się alternatywą dla ... więcej»

Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB&#8217;s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures &#8220;more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration. &#61607; SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion. &#61607; SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for &#8220;More than Moore" approaches, where a heterogeneous syste... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski&#8201;)
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Challenges of thermo-mechanical numerical prototyping in the contemporary electronic packaging (Artur Wymysłowski)
Electronic packaging refers to the packaging of integrated circuits (IC), chips (dies), their mounting and interconnecting on PCB&#8217;s for signal and power transmission and heat dissipation. In electronic systems, packaging materials may also serve as electrical conductors or insulators, provide structure, thermal paths and protect the circuits from environmental factors such as moisture, contamination, hostile chemicals, radiation, etc. Electronic packaging can be divided into four levels of which level first and second seem to be the most important. Out of that four levels two: first and second seem to be the key problem in case of thermo-mechanical prototyping. First level refers to chip and system packaging while second level refers to mounting and interconnecting packaged and/or bare chips on PCB surface. A general scheme at first and second packaging level is given in Fig. 1 [1, 2]. The current industry and market driven development trend is towards enhanced product functionality and improved reliability with balanced market parameter defined as cost vs quality. In case of electronic packaging the above can be achieved through rapid and precisely defined development stages (optimization, sensitivity analysis, tolerance design, etc.) of which numerical thermo-mechanical prototyping seems to be the key factor. The same contemporary engineers, especially due to generational change, face problems that require on one hand interdisciplinary knowledge on materials, interfaces, physical phenomena, failure mechanisms, etc. and on the other hand the advanced knowledge on thermo-mechanical prototyping methods, tools, algorithms, etc. Especially in case of electronic packaging the future trend defined by slow technology change from micro to nano scale is not feasible without profound understanding of underlying fields coupling, as thermo-mechanical or thermo-electric, etc. or availability of appropriate numerical software tools b... więcej»

Dwuwymiarowe kryształy fotoniczne jako materiał nowoczesnej fotoniki &#8211; metody wytwarzania i zastosowania (Szymon Lis, Konrad Ptasiński, Przemysław Ryba, Marcin Wielichowski, Adrian Zakrzewski, Sergiusz Patel )
Kryształ fotoniczny to sztucznie wytworzona nanostruktura, w której występuje okresowa zmienność współczynnika załamania. Zmienność ta może mieć charakter jedno-, dwu- lub trójwymiarowy. Jeżeli okres zmian jest porównywalny z długością fali światła w strukturze, może wystąpić optyczna przerwa zabroniona. Kryształy fotoniczne z optyczną przerwą zabronioną, to nowa klasa "materiałów" na bazie których można wytwarzać nowe, bardziej efektywne i mniejsze przyrządy fotoniki, w tym układy optoelektroniki zintegrowanej o dużej skali integracji, nanolasery, światłowody o niespotykanych dotąd właściwościach oraz nowe typy czujników optycznych. Obszary zastosowań kryształów fotonicznych to: optyka, optoelektronika, technika mikrofalowa, biofotonika, akustyka, sensoryka [1]. Przykłady jedno- i dwuwymiarowych struktur fotonicznych to zwierciadło Bragga, włóknisty światłowód fotoniczny bądź też periodyczna matryca otworów wytrawiona w światłowodzie warstwowym. Najwięcej możliwości oferują struktury trójwymiarowe, ich technologia jest jednak kłopotliwa i wykracza poza obszar klasycznych technologii mikroelektroniki. W porównaniu do struktur trójwymiarowych dwuwymiarowe (planarne) kryształy fotoniczne charakteryzuje prostota wytwarzania i małe koszty wytwarzania. Rys. 1. Przykłady kryształów fotonicznych. Jasne i ciemne bloki reprezentują materiały o wyższym i niższym współczynniku załamania: a) - jednowymiarowy KF; b) - dwuwymiarowy KF o modulacji współczynnika załamania w płaszczyźnie XY; c) - trójwymiarowy KF Fig. 1. Examples of photonic crystals. Bright and dark fields represent materials of high and low refractive index: a) one-dimensional PhC, b) two-dimensional PhC with refractive index modulated inXY plane, c) three-dimensional PhC a) b) c) 30 Elektronika 2/2012 Metody wytwarzania dwuwymiarowych kryształów fotonicznych Dwuwymiarowe kryształy fotoniczne można wytwarzać metodami dobrze znanymi i opracowanymi na użytek mikroelektroni... więcej»

Wybrane projekty koła naukowego MikroCpp - zastosowania systemu Android w elektronice (Krzysztof Urbański)
Koło naukowe MikroCpp powstało w 2008 roku na Wydziale Elektroniki Mikrosystemów i Fotoniki i od początku swojej działalności zajmuje się zagadnieniami związanymi z elektroniką (głównie cyfrową), programowaniem (aplikacyjnym i niskopoziomowym) oraz wymianą i przetwarzaniem danych. Spośród projektów, które były realizowane do tej pory, warto wymienić zwłaszcza te związane z rozwiązaniami programowymi i sprzętowymi na potrzeby sieci bezprzewodowych czujników oraz mikrokontrolerów wyposażonych w interfejs Ethernet. Artykuł "A battery-free wireless sensor platform powered with multiple energy sources" i wystąpienie mgra inż. Kamila Allafa na Konferencji Naukowej Studentów w 2011 r. zostało wyróżnione pierwszą nagrodą w sekcji "Computerization of modern way of life - transmission and analysis of information". Działalność koła to jednak przede wszystkim popularyzacja wiedzy o projektowaniu i programowaniu urządzeń wyposażonych w mikrokontrolery - wśród studentów i nie tylko. Nie byłoby możliwe zaprojektowanie i uruchomienie większości układów którymi się zajmujemy, bez praktycznej znajomości mikrokontrolerów i ich umiejętności ich programowania. Działalność na pograniczu dwóch dziedzin - elektroniki i informatyki - doskonale wpisuje się w trendy obserwowane na rynku urządzeń mikroprocesorowych. Mikrokontrolery jednoukładowe są wyposażane w coraz większe zasoby pamięci oraz coraz wydajniejsze rdzenie CPU (ang. Central Processing Unit). Pozwala to na uruchamianie coraz bardziej zaawansowanych aplikacji, a dzięki malejącej cenie tych układów są one instalowane praktycznie wszędzie. Równocześnie zaobserwować można ciągły spadek cen energooszczędnych, wydajnych mikrokontrolerów aplikacyjnych, co zachęca do ich zastosowania w prostszych układach elektronicznych, a... więcej»

Wybrane mikrosystemy opracowane w Zakładzie Mikroinżynierii i Fotowoltaiki Wydziału Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej &#8211; przegląd ostatnich osiągnięć (Jan A. Dziuban)
Na jednego Amerykanina w 2002 roku przypadały 3, a w roku 2012 około 27 mikrosystemów. W najbliższym otoczeniu Wydziału Elektroniki Mikrosystemów i Fotoniki na którym pracuję - w zwykłym dniu, kiedy studenci i pracownicy przybywają do swej Alma Mater, znajduje się co najmniej 2000 sztuk różnych mikrosystemów - w samochodach, systemach ogrzewania budynków, telefonach komórkowych, komputerach, itd. Wiadomo, że rynek globalny urządzeń mikrosystemowych wynosi ok. 74 mld USD i rośnie średnio o 20% rocznie, nieprzerwanie od początku lat dziewięćdziesiątych. Tendencja ta utrzyma się przez co najmniej następne 20 lat. Technologia mikrosystemów może wykorzystywać pełną gamę materiałów i technik wytwarzania, jakie charakteryzują mikroelektronikę, z której się wywodzi. Wiodący udział mają tu jednak mikrosystemy krzemowe, tak zwane MEMSy, czyli trójwymiarowe mechanoelektryczne systemy zintegrowane, w których wykorzystuje się elektryczne/elektroniczne, jak i mechaniczne właściwości krzemu monokrystalicznego. MEMSy są tak popularne ponieważ, jako wyroby mikroelektroniczne są tanie, małe, mają małe zapotrzebowanie energetyczne na etapie wytwarzania jak i pracy, są niezawodne, wielofunkcyjne, łatwe do integracji z elektroniką klasyczną i zintegrowaną. Ponadto, MEMSy nie podlegają ograniczeniom rozwoju wynikającym z prawa Moore&#8217;a, co powoduje, że kapitał międzynarodowy chętnie inwestuje w długofalowe plany ich rozwoju. Integracja czysto mikroelektronicznych struktur planarnych stała się bazą do rozwoju techniki mikrosystemów MEMS, a przy okazji technik mikroinżynieryjnych o znacznie szerszym wymiarze technicznym. Pozwoliło to na miniaturyzację podzespołów i urządzeń w optyce (tzw. MEOMSy), mechanice (mikromaszyny, mikromechatronika), chemii (tzw. mikrosystemy chemiczne), wreszcie w biochemii i medycynie (technika lab-on-chipów) i w wielu innych obszarach nowoczesnej techniki. W efekcie, nowe wyroby mikromechaniczno-elektryczno-elektron... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufr&#234;ne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
A compact thermoelectric harvester for waste heat conversion (Piotr Dziurdzia, Karol Lichota)
Ambient energy harvesters have been playing more and more important role in the electronic industry in recent years. Not so long ago, energy scavenging was treated in R & D laboratories with some timidity and used only in some niche applications. Nowadays, development of autonomous power sources for supplying microelectronic systems is strongly driven by market demands following recent advances in smart mobile equipment, wireless sensor networks (WSN), monitoring of industrial processes, etc. Since transmission lines have been replaced with wireless channels a long time ago, now the energy harvesters are removing the last obstacle on the way to developing quite autonomous electronic systems. By providing electrical voltage to the sensor nodes from harvested pieces of ambient energy (for instance: heat, light and vibrations) they do not need external sources of energy, for instance power mains or batteries, any more [1-3]. For the last few years our team has been focused on developing of thermoelectric energy harvesters for supplying wireless sensor nodes. At the beginning, basing on the phenomena of Seebeck, Peltier, Joule and Thomson, an original model of thermoelectric generator was elaborated [4]. It was next subjected to simulations in order to investigate the maximum ratings of TEG against available heat power sources and different ambient conditions. In the next steps first prototypes of TEGs were designed and fabricated. Thermoelectric harvester As a rule, thermoelectric generators suffer from relatively low conversion efficiency (not exceeding 10%), so they are practically not applicable to large-scale systems, not to mention power stations. On the other hand they seem to be promising solu... więcej»

Investigations of passive components embedded in printed circuit boards (Wojciech Stęplewski, Tomasz Serzysko, Grażyna Kozioł, Kamil Janeczek, Andrzej Dziedzic)
The concept of passive components embedded between inner layers of printed circuit board (PCB) was introduced many years ago. The first trials of embedded capacitors started at the end of sixties of the last century [1]. In the beginning of seventies started the applying of NiP layers for manufacturing of thin layer resistors [2]. Up to present day many materials which can be used for embedded passives were elaborated. But this technology is used in small range, especially in military and air electronics as well as in space electronics. Due to the increasing number of components which are now required to support a single active device, the passives are quickly becoming the major bottleneck in the general miniaturization trend which has become so important in today&#8217;s electronics world. The miniaturization of conventional passives reaches its limits and the next obvious choice is to embed the passive components into the PCB. This allows further miniaturization, has the potential to reduce cost and moreover exhibits superior electrical behavior with respect to the minimization of parasitic effects [3, 4]. Despite unquestionable advantages which characterize the embedded elements, they are not generally used in the production of PCBs. As well the designing of electronic devices such as filters, generators, RFID systems and many others, which are composed of passive components, was not to this time used on larger scale and knowledge in this matter is still very poor. Embedding passives will permit to integrate these elements and whole structures into the PCB. The idea of packing more and more elements in PCBs by application and development of embedding passives technologies becomes a necessity for electronic equipment producers. Materials and structures Thin-film resistors In the investigations two types of materials with sheet resistance of 25 &#937;/&#9633; (thickness 0.4 &#956;m) and 100 &#937;/&#9633; (thickness 0.1 &#9... więcej»

Electronic measurement system for monitoring of geometrical parameters of rolling shaped metal profiles (Snezhinka Zaharieva, Valentin Mutkov, Ivan Georgiev)
The measurement of the complex and the differential geometric parameters in the production process of cylindrical, square and rectangular rolling shaped metal profiles will undoubtedly lead to a rise in the production quality. The dynamics of the technological process and the influence of great number of outside factors on geometrical parameters of revolving, enforce development of an electronic measurement system, which may reliably reads and preserves measured data immediately in the production process of rolling shaped metal [1, 5]. Adopting a microprocessor technique in measuring systems gives an opportunity for &#1072; program processing of information and retroaction towards the technological process. Thus measuring systems will come up &#1086;n a new high quality level, their measurement capacities will be expanded, the measurement regime will be chosen automatically, the immediate measurement results will be stored and the necessary calculations will be made. This will allow the removal of subjective and objective factors affecting measurement accuracy. The accomplished electronic measurement system for monitoring of geometric parameters of rolling shaped metal performs an active firsthand control in the production process, for the purpose of management of the quality of the finished production. The paper is organized as follows. First, the block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal is presented. Second, the principle electrical scheme of the system is described. Finally, the results of the work of the experimental setting are presented as well as the main results obtained by the authors are summarized. Block diagram of electronic measurement system for monitoring of geometrical parameters of rolling shaped metal A block diagram, shown in Figure 1, contains nine information channels, eight of which are identical and carry the information from eigh... więcej»

Electrocatalytic sensor based on Nasicon with auxiliary layer (Anna Strzelczyk, Grzegorz Jasiński, Piotr Jasiński, Bogdan Chachulski&#8201;)
In recent years electrochemical gas sensors based on solid state electrolytes have been intensively investigated. They are relatively easy to fabricate, simple in use and quite durable. Nasicon (Na Super Ionic Conductor) is one of the most promising materials, which have been used in construction of gas sensors. Sensors based on Nasicon are used for detecting of different gases including carbon oxides [1, 2], nitrogen oxides [3-6] and sulfur dioxide [7]. Most of these devices operate in potentiometric or amperometric mode. In case of some sensor constructions, besides electrolyte and metal electrodes, additional layers are applied. In some cases such phase is required to obtain sensitivity to specific gas or to shift operating temperature to more preferred one [7]. In other cases sensor properties such as selectivity or stability are improved. Auxiliary phase usually forms extra interface between measured gaseous compound and electrolyte or electrodes. For example, in case of amperometric sensors, it was noticed, that presence of auxiliary layer on surface of sensing electrode can increase the number of reaction sites thus improving sensor sensitivity [5]. Auxiliary layer may also be used to create a diffusion barrier. In case of the potentiometric or amperometric nitrogen oxides sensors based... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»