profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Problemy występujące podczas pomiarów przepięć w sieciach SN (Ryszard Beniak, Arkadiusz Gardecki )
Jednym z kryteriów oceny jakości energii elektrycznej są przepięcia napięciowe. Wyróżniamy trzy zasadnicze rodzaje przepięć: krótkotrwałe wzrosty napięcia, przepięcia oscylacyjne oraz przepięcia impulsowe. Natura ich powstawania może być różnorodna. Przyczyną ich mogą być np. wyładowania atmosferyczne ale także manewry łączeniowe na liniach zasilających oraz w rozdzielniach a także krótkotrwałe jednofazowe zwarcia [1]. Może to być powodem poważnych trudności związanych z działaniem nowoczesnych systemów kontroli i sterowania procesami technologicznymi [2]. W referacie przedstawione zostaną techniczne uwarunkowania pomiarów jednego z rodzajów zakłóceń tego typu pochodzących od wyłączników próżniowych w sieci SN o napięciu 20 kV. Przyrząd pomiarowy wykorzystywany do pomiaru przepięć Krótkotrwałe wzrosty napięcia charakteryzują się wzrostem amplitudy napięcia powyżej 110% napięcia znamionowego i czasie trwania od 0,6 s do 60 s. Przepięcia oscylacyjne natomiast wyróżnia czas trwania od 5 μs do 50 ms oraz zmiana amplitudy nawet do 8 krotnej wartości napięcia znamionowego. Przepięcia impulsowe można scharakteryzować przy pomocy czasu narastania zbocza który zawiera się w przedziale 5 ns…0,1 ms oraz czasu trwania 50 ns…1 ms. Z informacji podanej w poprzednim akapicie wynikają specyficzne wymagania dotyczące parametrów sprzętu pomiarowego umożliwiającego pomiar dla większości podanych zakresów w sieciach elektroenergetycznych SN (20 kV). Wymagania te możemy scharakteryzować następująco: - częstotliwość pomiarowa powinna być jak największa, - możliwie dokładny pomiar prądów - jak najdokładniejszy pomiar napięć, - odporność sprzętu pomiarowego na zakłócenia, - zabezpieczenie układu pomiarowego przed zwarciami międzyfazowymi oraz zwarciami faza-masa. Do wykonania pomiarów stanów dynamicznych podczas zadziałania wyłącznika próżniowego w warunkach przemysłowych użyto modułowego systemu pomiarowego wykorzystującego el... więcej»

Symulacyjne badanie niezawodności jednorodnych systemów technicznych (Zbigniew Wesołowski)
System to wyodrębniony fragment świata rzeczywistego, którego własności i zachodzące w nim zjawiska są przedmiotem badań. Z uwagi na fakt, iż współczesne systemy techniczne znajdują coraz szersze zastosowania w wielu, niejednokrotnie kluczowych, aspektach działalności człowieka, to zagadnieniem o niezwykle istotnym znaczeniu staje się opracowanie wiarygodnej metody oceny ich niezawodności. Stosowanie metod klasycznych [1, 8, 12] należy uznać za niewłaściwe, gdyż wymagają one przeprowadzenia badań statystycznych obejmujących całe systemy. Celem tych badań jest zgromadzenia materiału statystycznego umożliwiającego ocenę miar niezawodności systemów. Ponieważ przeprowadzenie takich badań na współczesnych systemach technicznych jest trudne, a czasami wręcz niemożliwe, to należy opracować nowe metody analizy niezawodnościowej, które nie wymagałyby wykonywania takich badań. Jednym z obiecujących podejść jest metoda symulacyjna [3, 4, 5, 6]. Symulacja komputerowa jest metodą badawczą zapewniającą możliwość efektywnego generowania różnorodnych danych o teoretycznie nieograniczonej objętości. Oprócz tego jest metodą bardzo elastyczną. Eksperymenty symulacyjne mogą być w stosunkowo prosty sposób modyfikowane i wielokrotnie powtarzane, co umożliwia prowadzenie różnorodnych badań analitycznych. Walorów tych nie zapewnia właściwie żadna inna metoda badawcza. Stosowanie tej metody wymaga opracowania modelu niezawodnościowego i modelu symulacyjnego systemu. Wprowadźmy oznaczenia: - zbiór liczb rzeczywistych, - zbiór liczb naturalnych, + = (0,∞) ⊂ , (0,∞) = + U{0}, = - zbiór parametrów czasowych, N(μ,σ2) - rozkład normalny o wartości oczekiwanej μ i wariancji σ2, WN(0, σ2) - szum biały o zerowej wartości oczekiwanej i wariancji σ2, W(α,β) - rozkład Weibulla z parametrem kształtu α i parametrem skali β [9]. Model niezawodnościowy systemu Model niezawodnościowy to przybliżony... więcej»

Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła (JANUSZ JAGLARZ, WOJCIECH KAPŁONEK, WŁODZIMIERZ LIPIŃSKI, MARCIN PAWEŁCZAK, ROMUALD SYNAK)
Praktyczne wykorzystanie zjawiska rozpraszania światła do pomiaru wysokości nierówności powierzchni charakteryzujących się dużą gładkością zostało zapoczątkowane przez Bennetta i Porteusa, którzy zbudowali pierwszy układ działający na zasadzie pomiaru całkowitej mocy promieniowania rozproszonego przez powierzchnię TIS (ang. Total Integrated Scatter) [1]. Później pojawiły się inne sposoby zastosowania tego zjawiska, polegające m.in. na pomiarze kątowego rozkładu natężenia promieniowania rozproszonego ARS (ang. Angle-Resolved Scatter) [3]. Rozkład taki można wyznaczyć w wybranej płaszczyźnie i przedstawić go za pomocą indykatrys rozpraszania. Istnieje również możliwość jego przedstawienia przestrzennego. W tym przypadku stosowana jest dwukierunkowa funkcja rozkładu reflektancji oznaczana akronimem BRDF (ang. Bidirectional Reflectance Distribution Function) lub BSDF (Bidirectional Scatter Distribution Function). Metody te i technika pomiarów została szeroko opisana w literaturze światowej (np. w pracach Stovera [16], Benett i Mattssona [2]), a także w monografiach krajowych [8, 12]. Zwięzły opis metod i przegląd aparatury pomiarowej podano też w pracy [18]. Pomimo powstania wielu innych technik bezstykowej oceny powierzchni gładkich, np., interferometrii i mikroskopii sił atomowych, umożliwiających uzyskanie topografii powierzchni i jej charakterystykę za pomocą bardzo wielu parametrów, metody rozpraszania światła są w dalszym ciągu intensywnie rozwijane. W wielu przypadkach, np. przy kontroli wyrobów istotny jest krótki czas pomiaru, niski koszt urządzenia i możliwość jego instalacji nawet w warunkach produkcyjnych. W takich warunkach często wystarczające jest zmierzenie kilku parametrów, a nawet jednego, którym jest najczęściej średnie kwadratowe odchylenie wysokości nierówności. Dlatego oprócz dawniej już opisywanych urządzeń przeznaczonych do takich celów [17, 22, 23] ostatnio pojawiło się wiele nowych aparatów przenośnych [... więcej»

Procesy łączeniowe tranzystorów MOSFET w mostkach wysokonapięciowych (Piotr Grzejszczak, Mieczysław Nowak, Roman Barlik)
Dążenie do zwiększenia współczynnika gęstości mocy przekształtników energoelektronicznych, przy zachowaniu wysokiej sprawności energetycznej, skłania do ciągłego podwyższania częstotliwości przełączeń łączników mocy. Ograniczanie strat energii w takich układach uzyskuje się głównie przez skracanie czasów załączania ton i wyłączania toff tranzystorów, co powoduje zwiększanie stromości napięć i prądów w obwodach głównych przekształtników. Obecnie dostępne przyrządy półprzewodnikowe, takie jak wysokonapięciowe krzemowe tranzystory MOSFET, tranzystory JFET i MOSFET oraz diody Schottky’ego z węglika krzemu, pozwalają na pracę z bardzo szybkimi procesami łączeniowymi (poniżej 50 ns) przy napięciach znacznie powyżej 300 V. Duże stromości napięć i prądów są przyczyną występowania niekorzystnych zjawisk, wynikających z istnienia indukcyjności i pojemności pasożytniczych w rzeczywistych obwodach głównych przekształtników [1-3]. Do tych zjawisk należy zaliczyć przede wszystkim sprzężenia elektromagnetyczne (EMI) oraz zaburzenia procesów łączeniowych, które mogą być przyczyną zwiększonych strat a nawet zniszczenia tych elementów [4]. Mechanizmy poszczególnych niepożądanych zjawisk występujących w przekształtnikach z szybkimi łącznikami zostały opisane w szeregu publikacji [5-9]. Celem pracy jest lepsze rozpoznanie istotnych problemów dotyczących wpływu konfiguracji geometrycznej obwodu głównego i sterującego na pracę tranzystorów MOSFET w gałęzi mostka. Głównie zwrócono przy tym uwagę na wysokonapięciowe tranzystory krzemowe [10]. W pierwszej części pracy opisano ograniczenia związane z elementami pasożytniczymi, występującymi w obwodzie głównym gałęzi i w obwodach sterowników bramkowych oraz w samych tranzystorach MOSFET (indukcyjności i pojemności pasożytnicze, dioda strukturalna (podłożowa) tranzystora). Drugą część pracy poświęcono metodom poprawy konfiguracji przestrzennej obwodu mającym na celu zmniejszenie łączeniowych stra... więcej»

Overheat security system for high speed embedded systems (Układ ochrony przed przegrzaniem dla szybkich systemów wbudowanych) (Maciej Frankiewicz, Adam Gołda, Andrzej Kos)
Considering the aspiration to make modern digital circuits faster and scaling down the technology researchers must take into account thermal effects. The goal is to find the optimal balance state between keeping the throughput of the system on the possible maximum level and decreasing power consumption of the device. Assuming that circuit cannot exceed acceptable maximum temperature for proper work it should be controlled in the way that keeps its temperature as close to the permissible limit as possible with minimal fluctuations. To achieve that some dynamic control systems have been developed including: dynamic voltage scaling (DVS), dynamic clock throttling (DCT) and dynamic frequency scaling (DFS) [1]. Despite former achievements on the field some further investigations must be done to improve thermal behaviour of the circuit. The paper describes a structure of the wide-range oscillator which generates the frequency dependent on the present temperature of the silicon die. The structure of the circuit, designed and fabricated in CMOS LF 150 nm (1.8 V), technology will be presented in the next sections. The temperature-controlled oscillator (TCO) works with the OctaLynx 8-bit microcontroller which is a prototype implemented in the same silicon die and created for test purposes [2]. Motivation for Temperature-Controlled Oscillator The concept of temperature-controlled oscillator origins from the fact that circuit working with higher frequency consumes more power. That means that if the silicon die reaches high temperature range it is necessary to lower the clock rate and as a consequence cool the chip down. The problem is how to manage the frequency of the clock to minimize temperature fluctuations and let the circuit work possibly fast. Simpler dynamic systems sensed the temperature and when it crossed fixed reference level just divided the frequency of clock signal. This action can be not efficient enough because as it is... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Światłowodowy czujnik siły bazujący na interferometrze Sagnaca z dwójłomnym światłowodem fotonicznym (Cezary Kaczmarek)
Interferometr Sagnaca zawierający odcinek światłowodu dwójłomnego ma wiele właściwości, które czynią go podzespołem o szerokim zastosowaniu zarówno w telekomunikacji jak i w sensoryce światłowodowej. Jedną z tych właściwości jest niezależność od polaryzacji wejściowej wiązki światła. Inną jest periodyczność widma wiązki wyjściowej i odbitej interferometru, którego okres zależy od długości odcinka światłowodu dwójłomnego, a nie od długości pętli. Interferometr Sagnaca ze światłowodem dwójłomnym jest wykorzystywany w telekomunikacji optycznej jako filtr WDM [1]. W sensoryce podzespół ten ma zastosowanie jako czujnik wielu wielkości fizycznych i chemicznych [2, 3] oraz jako dyskryminator długości fali dla czujników z siatkami Bragga [4]. Zastosowanie w interferometrze Sagnaca dwójłomnego światłowodu fotonicznego zamiast konwencjonalnego światłowodu dwójłomnego, radykalnie poprawia parametry metrologiczne i użytkowe tego podzespołu. Ta poprawa wynika z właściwości dwójłomnych światłowodów fotonicznich, głównie bardzo małego wpływu zmian temperatury i znacząco większej dwójłomności modowej w porównaniu z konwencjonalnymi światłowodami dwójłomnymi. Dla interferometru ze światłowodem dwójłomnym produkowanego przez Blaze-Photonics zmiany okresu widma pod wpływem zmian temperatury wynoszą 0,05 pm/K, natomiast przesunięcie widma pod wpływem zmian temperatury wynosi 0,25...0,3 pm/K [5, 6]. Duża wartość dwójłomności światłowodów fotonicznych pozwala znacząco zredukować ich wymaganą długość w czujnikach z interferometrem Sagnaca. W artykule przedstawiono czujnik siły o zakresie 0...50 N, w układzie interferometru Sagnaca z dwójłomnym światłowodem fotonicznym typu PM-1550-01 wyprodukowanym przez Blaze... więcej»

Technologia wytwarzania i pomiary absorpcji szkieł chalkogenidkowych domieszkowanych jonami ziem rzadkich (Łukasz Sójka, Elżbieta Bereś-Pawlik, Zhuogi Tang, David Furniss, Angela Beth Seddon, Trevor Mark Benson, Sławomir Sujecki)
Jednym z podstawowych problemów współczesnej fotoniki jest opracowanie efektywnych źródeł światła pracujących w zakresie średniej podczerwieni. Potencjalne źródła światła pracujące w tym zakresie mogą znaleźć wiele zastosowanie w branży medycznej oraz czujnikowej. Źródła pracujące w tym zakresie powinny się charakteryzować prostą konstrukcją, wysoką efektywnością, niezawodnością, przystępną ceną, dobrą jakością wiązki wyjściowej. Jednym z urządzeń, które spełniają te wymagania są lasery światłowodowe [1-3]. Sygnały generowane przez obecnie lasery światłowodowe oparte na szkle krzemionkowym oraz fluorkowym mogą pokryć zakres długości fali do około 3 μm. Barierą technologiczną która blokuje konstrukcje laserów światłowodowych powyżej 3 μm jest wysoka energia fononów szkła krzemionkowego (1100 cm-1) oraz szkła fluorkowego (560 cm-1) [4, 5]. W celu osiągnięcia emisji powyżej 3 μm potrzebne jest szkło charakteryzujące się niską energią fononów. Jednym z materiałów który może spełnić to wymaganie jest szkło chalkogenidkowe. Szkła te charakteryzują się niską energią fononów poniżej 400 cm-1 co predysponuje je do osiągnięcia emisji powyżej 3 μm [6-9]. Szkła chalkogenidkowe są to szkła oparte na materiałach z 16 grupy układu okresowego pierwiastków tj. S (siarka), Se (Selen) oraz Te (Tellur), elementy te wraz z elementami z 14 oraz 15 grupy układu okresowego tj Ge (German), As (Arsen), Sb (Antymon), Ga (Gal) two... więcej»

Sprzętowy generator kluczy kryptograficznych dedykowany dla systemów pomiarowo-sterujących o asymetrycznych zasobach (Paweł CZERNIK)
Termin Rozproszone, Bezprzewodowe Systemy Pomiarowo-Sterujące o asymetrycznych zasobach odnosi się do sieci tworzonych w trybie ad hoc przez nieduże, autonomiczne urządzenia nazywane węzłami pomiarowo-sterującymi, które oprócz funkcji komunikacyjnych realizują funkcje pomiarowe, przetwarzania, a często także funkcje wykonawcze. Komunikacja w sieci odbywa się za pomocą fal radiowych (lub innej bezprzewodowej techniki transmisyjnej). Węzły poza elementami pomiarowymi, są wyposażone w niewielki mikrokontroler, pamięć, moduł radiowy oraz źródło zasilania. Ponieważ najczęściej są one zasilane bateryjnie, ich zasoby bywają znacznie ograniczone. Zastosowanie tych systemów nieustannie się poszerza. Urządzenia takie mogą być instalowane nie tylko na ziemi, ale też w wodzie i powietrzu. Bezpieczeństwo w większym lub mniejszym stopniu jest w zasadzie istotne we wszystkich rodzajach sieci. Ale biorąc pod uwagę, jak dużym ograniczeniom podlegają analizowane systemy pomiarowe, staje się oczywiste, że zapewnienie go w tego typu sieciach stanowi szczególnie trudne wyzwanie. Ograniczenia węzłów są konsekwencją wymagań co do ich rozmiarów, kosztów produkcji, lokalizacji, a przede wszystkim tego, aby stanowiły one autonomiczne terminale. Sygnały chaotyczne posiadają cechy w sposób znaczący odróżniające je od sygnałów używanych powszechnie do komunikacji w bezprzewodowych systemach pomiarowo-sterujących. Najistotniejszą cechą sygnału chaotycznego jest wrażliwość na warunki początkowe. Wrażliwość tą można utożsamić z tzw. "efektem motyla", czyli zjawiskiem zachodzącym w tych układach, w których nawet niewielka zmiana warunków początkowych prowadzi do diametralnie różnych zachowań układu. Przy skończonej dokładności pomiaru bardzo trudno przewidzieć wartości sygnału w chwili odległej (zarówno w przyszłości, jak i w przeszłości) o pewien horyzont czasowy od momentu wykonania pomiaru. Odmienne właściwości tego typu przebiegu elektrycznego przekładaj... więcej»

System do pomiaru Apertury Numerycznej w światłowodach specjalnych (ŁUKASZ Ostrowsk, MICHAŁ Murawski, MICHAŁ Szymański, Zbigniew Hołdyński, TADEUSZ Tenderenda, PAWEŁ Mergo, PAWEŁ Marć, Leszek R. Jaroszewicz, TOMASZ Nasiłowski)
W światłowodach klasycznych, światło jest prowadzone w materiale na podstawie różnicy we współczynniku załamania pomiędzy rdzeniem a płaszczem. Apertura Numeryczna (NA) w tym typie światłowodów wykazuje niewielkie właściwości dyspersyjne w całym spektrum, zatem pomiar dla pojedynczej długości fali jest zupełnie wystarczający do scharakteryzowania NA. Inną sytuację mamy w przypadku światłowodów mikrostrukturalnych (MSF) gdzie światło jest prowadzone na podstawie geometrii wewnętrznych otworów. W tym typie światłowodów NA zmienia się wraz ze wzrostem długości fali. Właściwości NA w zależności od rodzaju prowadzenia przedstawione są na rysunku 1. Odmienny charakter NA dla różnych włókien był motywacją do stworzenia układu precyzyjnego wyznaczania NA w światłowodach specjalnych. Dzięki tak zdobytej wiedzy o aperturze numerycznej mierzonych światłowodów możliwe jest optymalizowanie efektywnego łączenia, sprzęgania oraz wprowadzania światła do różnorodnych typów światłowodów[1]. Ponadto w światłowodach nie posiadających symetrii kołowej NA może się zmieniać nie tylko z długością fali ale, również z obrotem włókna wokół własnej osi. Dlatego system do ... więcej»

Charakteryzacja światłowodowych siatek Bragga metodą reflektometrii optycznej w dziedzinie częstotliwości (Tomasz OSUCH, Kazimierz JĘDRZEJEWSKI, Lech LEWANDOWSKI, Krzysztof Anders, Paweł GDULA, Ryszard PIRAMIDOWICZ)
Jedną z najbardziej popularnych technik pomiaru charakterystyk spektralnych komponentów światłowodowych jest metoda z użyciem przestrajalnego bądź szerokopasmowego źródła oraz optycznego analizatora widma. Jednakże nie jest to jedyny sposób pomiaru parametrów widmowych podzespołów światłowodowych, np. światrłowodowych siatek Bragga. Istnieją bowiem techniki reflektometryczne takie jak OLCR (ang. Optical Low-Coherent Reflectometry) lub wykorzystywana w reflektometrach optycznych wysokiej rozdzielczości metoda OFDR (ang. Optical Frequency Domain Reflectometry) [1, 2]. W artykule przedstawiono wyniki badań nad zastosowaniem i ograniczeniami metody OFDR w pomiarach siatek Bragga. Eksperyment Wszystkie badane siatki wykonano na włóknach światłowodowych poddawanych wcześniej procesowi wodorowania w temperaturze pokojowej pod ciśnieniem rzędu 120 bar. Do nanoszenia siatek wykorzystano metodę skanowania maski fazowej [3]. Siatki wykonano na następujących światłowodach: a) cztery 3…4,5 dB siatki o zbliżonej długości fali Bragga ok. 1535 nm (wynikającej z użytej maski fazowej o okresie 1061 nm), naniesione na jednym odcinku standardowego światłowodu jednomodowego, b) siatka Bragga na światłowodzie utrzymującym polaryzację typu PANDA, c) siatka skośna o kącie skosu ok. 40 wykonana na standardowym jednomodowym światłowodzie telekomunikacyjnym, d) siatka Bragga na stożku przewężenia wykonanego ze standardowego światłowodu jednomodowego. Siatki mierzone były na układach pomiarowych przedstawionych na rys. 1. W stanowiskach z rys. 1a i 1b wykorzystano jako szerok... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Jubileuszowa, 25. - edycja targów energetycznych ENERGETAB 2012 znów rekordowa
W piątek zakończyły się 25. Międzynarodowe Energetyczne Targi Bielskie ENERGETAB. Jubileuszowa edycja targów zgromadziła rekordową liczbę 713 wystawców. Bardzo duże było też zainteresowanie targami ze strony zwiedzających, którzy tłumnie odwiedzali stoiska zajmujące ponad 30 tys. m2 powierzchni ekspozycyjnej. ENERGETAB 2012 to największe w Polsce targi w branży elektroenergetycznej, na których wystawcy z kilkunastu krajów Europy, Azji i Ameryki Północnej zaprezentowali najnowocześniejsze maszyny, urządzenia, aparaty i materiały służące zwiększeniu niezawodności przesyłania energii elektrycznej oraz podniesieniu efektywności jej wytwarzania i użytkowania. Większość międzynarodowych koncernów dostarczających swoje produkty do krajowej energetyki była obecna w Bielsku. Gama prezentowanych urządzeń i aparatów była bardzo szeroka: od stacji transformatorowych, rozdzielnic, wyłączników po aparaty i systemy nadzoru, pomiarów i zabezpieczeń, maszty oświetleniowe i oprawy, kable i przewody, agregaty prądotwórcze i urządzenia UPS czy pojazdy specjalistyczne dla energetyki oraz wiele innych wyrobów i usług. Natomiast spośród prawie 80 innowacyjnych produktów zgłoszonych do konkursu targowego na wyróżniający się produkt, komisja konkursowa pucharem Ministra Gospodarki wyróżniła osprzęt do przewodów HTLS firmy BELOS-PLP. Obok wielu specjalistycznych urządzeń i ... więcej»

Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700…4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

System komunikacji radiowej w układzie punkt - wielopunkt o bardzo krótkim czasie odpowiedzi (KRZYSZTOF RÓŻANOWSKI, MAREK SAWICKI, TADEUSZ SONDEJ )
Pomimo różnorodności gotowych systemów komunikacji radiowej, niewiele z nich oferuje możliwość przesyłania danych w czasie rzeczywistym. Spowodowane jest to względnie długim czasem zestawiania połączenia pomiędzy urządzeniami oraz niezdeterminowanym czasem transmisji pojedynczej porcji informacji. Systemy te nie mogą być stosowane w układach, w których wymagane jest synchroniczne próbkowanie sygnałów z wielu urządzeń bezprzewodowych. Aby sprostać wymaganiom transmisji danych, która musi być realizowana w czasie rzeczywistym, zaprojektowano dedykowany system komunikacji radiowej. Został on wykonany na bazie układów radiowych pracujących w paśmie 2,4 GHz. Docelowym przeznaczeniem zaprojektowanego systemu jest układ pomiarowy złożony z rozproszonych sensorów bezprzewodowych, który zapewni synchroniczne próbkowanie wszystkich sygnałów. W artykule przedstawiono opis zaproponowanego systemu oraz środowiska pomiarowego, w którym dokonano badań eksperymentalnych. Uzyskano czas nawiązywania połączenia oraz odpowiedzi na pojedyncze zapytanie na poziomie 1 ms. Prezentowany system zapewnia łączność dwukierunkową i oferuje użytkownikowi przepływność równą 323 kb/s (w każdym kierunku). Otrzymane wyniki badań zestawiono z wynikami uzyskanymi dla modułów Bluetooth, pracujących w konfiguracji punkt-punkt. Systemy lokalnej bezprzewodowej transmisji danych Wśród istniejących systemów radiowych pracujących w paśmie ISM (ang. Industrial, Scientific, Medical) możemy wyróżnić urządzenia pracujące w standardach Bluetooth, ZigBee oraz WiFi. Posiadają one zintegrowany stos protokołów, dostarczając programiście wirtualne kanały transmisyjne pomiędzy urządzeniami. Wszystkie wymienione systemy wspierają konfigurację sieci punkt - wielopunkt, najczęściej stosowaną przy komunikacji z sensorami pomiarowymi. Oprócz wymienionych systemów występują gotowe moduły radiowe pracujące na częstotliwościach 433 MHz, 868 MHz oraz 2,4 GHz. Nie wspierają one żadnego ... więcej»

Progowy układ pomiarowy zakłóconych sygnałów diagnostycznych (Marcin BEDNAREK, Michał WIŚNIOS, Tadeusz DĄBROWSKI, Krzysztof FOKOW)
Decydent dowolnego systemu eksploatacji może skutecznie realizować swoje zadania tylko wówczas, gdy ma dostęp do wiarygodnej informacji o sytuacji panującej w tym systemie. Pod pojęciem "informacja o sytuacji" należy rozumieć m.in. informacje o stanie technicznym elementów systemu, o stanie procesów zachodzących między elementami systemu, o oddziaływaniach otoczenia na nadzorowany system. Informacji tych dostarczają wielorakie procesy i podsystemy diagnostyczne. Proces diagnozowania w większości przypadków przebiega w warunkach znacznych zakłóceń. Okoliczność ta wymaga stosowania specyficznych metod syntezy funkcji symptomowej XS(t ) na podstawie zakłóconego sygnału diagnostycznego XD(t ), (funkcja symptomowa oznacza tu wielkość na wyjściu progowego układu pomiarowego; wielkość ta traktowana jest jako przybliżony obraz niedostępnej wielkości opisującej stan obiektu XO(t )). Metoda pomiarów progowych sygnału diagnostycznego, zakłóconego składową losową, charakteryzuje się wysoką tolerowalnością na wariancję tego sygnału. Cecha ta zwiększa wiarygodność funkcji symptomowej XS(t ), a w konsekwencji także wiarygodność diagnozy, mimo istniejących zakłóceń. Ogólna zasada metody pomiarów progowych została omówiona w [1]. W artykule zawarto wyniki praktycznej weryfikacji właściwości progowego układu pomiarowego jako elementu systemu diagnostycznego. W tym celu zaimplementowano metodę pomiarów progowych w środowisku laboratoryjnym oraz przemysłowym. Układ laboratoryjny Implementację metody pomiarów progowych przeprowadzono w laboratoryjnym układzie progowym (w tzw. demonstratorze metody - rys. 1), składającym się z części sprzętowej i programowej. W skład części sprzętowej wchodzi karta pomiarowo-sterująca typu PCI‑6230 produkcji firmy National Instruments, generator sygnału diagnostycznego Ag33220A (wykorzystywany w charakterze programowalnego źródła symulowanego sygnału diagnostycznego), elektroniczny układ komparatorów napię... więcej»

Granice widma promieniowania laserów półprzewodnikowych − résumé po 50 latach rozwoju ich technologii (Bohdan Mroziewicz)
Uroczyste wspomnienia na temat pięćdziesiątej rocznicy skonstruowania w roku 1960 przez T.H. Maiman’a pierwszego lasera (rubinowego), a następnie lawiny kolejnych doniesień na temat powstania laserów innych rodzajów, przyćmiły nieco fakt, że w tym roku przypada 50. rocznica uzyskania emisji laserowej z diod półprzewodnikowych. Początki tej nowej karty elektroniki ogłoszone niemal jednocześnie przez kilka amerykańskich ośrodków badawczych [1-4] były zapewne mniej spektakularne niż w przypadku skonstruowania pierwszego lasera, ale obecnie po 50. latach nieustannego rozwoju technologii laserów półprzewodnikowych nie sposób nie docenić ich znaczenia dla szeroko rozumianej techniki, w tym łączności, układów pamięci, sensorów i robotyki oraz urządzeń wojskowych. W ostatnich latach zastosowania laserów półprzewodnikowych wkraczają również coraz szerzej do medycyny i systemów ochrony środowiska, a miarą ich powodzenia może być fakt, że mimo relatywnie niskiej ceny ich rynek stanowi pod względem finansowym połowę całego rynku na lasery wszystkich rodzajów, a przychody przemysłu w sektorze półprzewodnikowym wyrażają się kwotą przekraczającą 3,73 mld USD [5]. Zastosowania laserów półprzewodnikowych stawiają przed nimi różnorodne wymagania, które podsumowując sprowadzić można do wymogu niezbędnej gęstości mocy optycznej w emitowanej wiązce oraz odpowiedniej długości fali i szerokości linii emisyjnej. W wielu zastosowaniach istotny jest również profil emitowanej wiązki wyrażany liczbą M2 oraz szybkość z jaką może być modulowane natężenie promieniowania w wiązce. Każda z wymienionych właściwości decyduje o możliwości aplikacji danego lasera, ale szczególnie istotna jest długość emitowanej przez laser fali. Patrząc na lasery z tego punktu widzenia można stwierdzić, że lasery półprzewodnikowe są bezkonkurencyjne w porównaniu z laserami innych typów, gdyż zakres spektralny emitowanego przez nie promieniowania rozciąga się od ultrafiolet... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Dobór parametrów procesu wytwarzania sprzęgaczy siatkowych struktur fotonicznych przy zastosowaniu techniki trawienia skupioną wiązką jonową (Natalia Salamon, Zbigniew Lisik)
W niniejszym artykule zaprezentowany został sposób wytwarzania specjalnych struktur fotonicznych, umożliwiających wprowadzanie światła do ścieżek optycznych układów scalonych, przy zastosowaniu techniki trawienia skupioną wiązką jonową (FIB). Atrakcyjność tej metody wynika z faktu, że średnica wiązki jonowej jest mniejsza niż 10 nm, co umożliwia wytwarzanie struktur o rozmiarach rzędu kilkuset nanometrów, bez konieczności stosowania wieloetapowego procesu fotolitografii z użyciem kosztownych masek [1]. Wykorzystywane w obszarze fotoniki zintegrowanej planarne struktury falowodowe, ze względu na niewielki przekrój poprzeczny, cechują się bardzo dużym stopniem integracji. Pojawia się jednak problem połączenia nanofotonicznych obwodów krzemowych (o wymiarach ok. 200 × 500 nm) z wielokrotnie większym światłowodem, którego standardowe wymiary to 10 × 10 μm. Aby zminimalizować straty światła przy takim połączeniu, należy znaleźć sposób rozwiązania tego problemu [2, 3]. Jednym z obiecujących pomysłów jest wykorzystanie w tym celu struktur fotonicznych ze sprzęgaczami siatkowymi. Sprzęgacze siatkowe Sprzęgacze siatkowe, to struktury dyfrakcyjne służące do wprowadzania światła ze światłowodu do ścieżek optycznych obwodów nanofotonicznych. Wykonane są one w postaci periodycznych zaburzeń współczynnika załamania na powierzchni warstwy falowodowej [1]. Pionowe sprzęgacze siatkowe Typowe sprzęgacze siatkowe (rys. 1a) składają się z płytkich szczelin wytrawionych w krzemowej warstwie falowodowej, prostopadle do jej powierzchni. Choć wykorzystanie tego typu struktur jest niezwykle obiecującym sposobem łączenia światłowodów z nanofotonicznymi obwodami krzemowymi, to zarówno wyniki symulacji, jak i przeprowadzonych do tej pory eksperymentów świadczą o konieczności udoskonalenia tej metody. Maksymalna efektywność połączenia, jaką uzyskano przy wykorzystaniu pakietu MEEP (Mit Electromagnetic Equation Propagation) przeznaczonego do symu... więcej»

Wpływ wzajemnego oddziaływania cieplnego emiterów promieniowania na pracę matrycy zbudowanej na bazie GaN (Maciej Kuc, Robert Piotr Sarzała)
Optoelektroniczne emitery promieniowania krótkofalowego zbudowane na bazie azotku galu, do których należą diody elektroluminescencyjne (Light Emitting Diode - LED) oraz diody laserowe (Laser Diode - LD) są obiektem nieustannego zainteresowania od przeszło piętnastu lat. Aby sprostać rosnącym wymaganiom stawianym przez dynamicznie rozwijający się rynek komercyjny wykorzystujący te przyrządy, w wielu ośrodkach na całym świecie trwają bardzo intensywne prace nad poprawą ich parametrów eksploatacyjnych [1]. Emitery azotkowe znajdują zastosowanie przede wszystkim w zapisie i odczycie dysków optycznych, wyświetlaczach, a dodatkowo w spektroskopii, medycynie i biotechnologii. Obecnie obserwuje się wzrost zapotrzebowania na znaczące zwiększenie mocy emitowanej z tych urządzeń przy zachowaniu jak najdłuższego czasu ich stabilnej pracy z falą ciągłą (Continous Wave - CW) w temperaturze pokojowej (Room Temperature - RT) tj. w warunkach typowych dla ich zastosowań komercyjnych. Maksymalna moc, jaką można otrzymać z pojedynczego emitera jest ograniczona i w przypadku azotkowych laserów wąskopaskowych wynosi ok. 300 mW (dla paska o szerokości 2 μm [2]). Aby otrzymać większą moc promieniowania, na bazie takich emiterów próbuje się obecnie konstruować jednowymiarowe matryce [3, 4], choć jak dotąd bez szczególnych sukcesów. Jednakże, warto zauważyć, że analogiczne matryce projektowane na bazie materiałów arsenkowych (dla długości fali z zakresu czerwieni i podczerwieni) pozwalają osiągnąć moc wielokrotnie większą od tej, jaką można osiągnąć w przypadku arsenkowych emiterów z pojedynczym paskiem laserowym [5]. Oznacza to, że podobnych parametrów można by oczekiwać od matryc azotkowych. Zastosowanie takich matryc wstępnie przewidywane jest m.in. w projektorach [1] i drukarkach laserowych [3, 4]. Moce wyjściowe rzędu 1 kW z matrycy laserów półprzewodnikowych (arsenkowych) osiągnięto przede wszystkim dzięki optymalizacji ich struktury pod wz... więcej»

Ocena dokładności algorytmu lokalizacji węzłów bezprzewodowej sieci sensorowej wspomagającej poruszanie się osób niewidomych (Piotr Wasilewski, Łukasz Januszkiewicz)
Zarówno w kraju jak i na świecie opracowywanych jest wiele systemów i urządzeń wspomagających samodzielne poruszanie się osób niewidomych [1, 3, 6-9]. Wiele z nich nie zostało w pełni zaakceptowanych przez niewidomych, ponieważ ich obsługa nie jest intuicyjna, a niejednokrotnie wymaga długotrwałego treningu. W dalszym ciągu aktualna jest potrzeba opracowania systemu ułatwiającego osobie niewidomej poruszanie się w mieście w sposób zbliżony do tego, w jaki mogą przemieszczać się ludzie widzący. Aby było to możliwe potrzebny jest między innymi dostęp do informacji o ruchu pojazdów transportu miejskiego, położeniu obiektów w bezpośrednim otoczeniu (np. roboty drogowe), a także dostęp do osoby widzącej, która pomogłaby w sytuacji niespodziewanej, ale nie musiałaby być zaangażowana w sytuacjach rutynowych. Od kilku lat w Instytucie Elektroniki Politechniki Łódzkiej trwają prace nad systemami ułatwiającymi poruszanie się osobom niewidomym i słabowidzącym [1-4]. Zadaniem obecnie realizowanego projektu jest ułatwienie takim osobom samodzielnego podróżowania i poruszania się na terenie miasta oraz korzystania z infrastruktury miejskiej. Opracowywany system ma architekturę typu rozproszonego. Składa się z modułów mobilnych, w które zostaną wyposażeni użytkownicy systemu oraz modułów stacjonarnych wykorzystujących technologie serwerów sieciowych nadzorujących pracę systemu. Elementy systemu wykorzystują technologię bezprzewodowych sieci doraźnych i sieciowych baz danych umożliwiając dostęp do informacji o infrastrukturze miasta [5]. System wykorzystuje dedykowany serwer połączony z serwerem komunikacyjnym systemu zarządzania transportem publicznym MPK (Miejskie Przedsiębiorstwo Komunikacyjne w Łodzi) oraz system znaczników radiowych umieszczonych w pojazdach przewoźnika, na przystankach oraz punktach zainteresowań (POI). Schemat systemu pokazano na rys. 1. Serwer IE PŁ pobiera w czasie rzeczywistym z systemu MPK informacje o położeni... więcej»

Badania rezystywności dielektromagnetyków w atmosferze ciekłego azotu (Dariusz Kapelski, Marcin Karbowiak, Barbara Ślusarek, Bartosz Jankowski, Marek Przybylski)
Obszar zastosowań maszyn elektrycznych ciągle się rozszerza. Nowym obszarem, którym zainteresowany jest rynek elektrotechniczny, są maszyny elektryczne pracujące w temperaturach ujemnych, a nawet w temperaturach ciekłego azotu lub ciekłego helu. Właściwości fizyczne materiałów, w tym materiałów magnetycznych, zmieniają się wraz ze zmianą temperatury otoczenia. W związku z tym zmieniają się też parametry eksploatacyjne maszyn elektrycznych. Zainteresowanie rynku wytwarzaniem maszyn elektrycznych do pracy w temperaturze ciekłego azotu spowodowało konieczność prowadzenia takich badań. Badania właściwości fizycznych materiałów magnetycznych w temperaturach ciekłego azotu, stworzą bazę wiedzy dla projektantów maszyn elektrycznych przeznaczonych do pracy w niskich temperaturach [1, 4]. Jednym z podstawowych parametrów materiałów konstrukcyjnych jest ich rezystywność. Rezystywność jest wielkością zależną od temperatury. Opór właściwy metali przy spadku temperatury maleje, w różnym stopniu dla różnych metali. Wartość oporu właściwego metali w bardzo niskich temperaturach zależy w dużym stopniu od jego czystości [2]. Rezystywność dielektromagnetyków ma wpływ na wielkość strat wiroprądowych, czyli pośrednio na sumę strat w obwodzie magnetycznym. Straty wiroprądowe wydzielające się w postaci ciepła w ferromagnetykach, określa zależność: (1) gdzie: kw - współczynnik geometryczny; f - częstotliwość [Hz]; Bmax - maksymalna indukcji magnetyczna [T], ρ - rezystywność [Ωm] [4]. Materiałami magnetycznie miękkimi, stosowanymi jako obwody magnetyczne maszyn elektrycznych, są coraz częściej kompozyty proszkowe. Wytwarza się je metodą spajania proszków żelaza tworzywem. Materiały kompozytowe na bazie żelaza składają się z ziaren żelaza i cienkiej warstwy izolacyjnej na ich powierzchni. Stosuje się dwie podstawowe grupy środków izolująco- w... więcej»

Badanie możliwości zastosowań elastycznych ogniw fotowoltaicznych w tekstronice (Sylwia Walczak, Katarzyna Znajdek, Maciej Sibiński)
W dzisiejszych czasach nauka staje się coraz bardziej interdyscyplinarna, czego przykładem jest zwiększone zainteresowanie nowatorskimi możliwościami wykorzystania systemów elektronicznych w różnorodnych, niekonwencjonalnych aplikacjach [1]. Jedną z nich jest tekstronika, której głównym celem jest integracja przyrządów i układów elektronicznych z odzieżą, w celu podniesienia jej funkcjonalności, poprzez rozbudowę funkcji ochronnej, monitorującej, sygnalizacyjnej i rozrywkowej [2]. W momencie projektowania produktów tekstronicznych należy rozpatrzeć dość istotny problem tekstroniki, a mianowicie sposób zasilania dołączonych układów, który powinien być na tyle efektywny, aby zaspokoić potrzeby użytkownika w trakcie korzystania z wyrobu tekstronicznego [3]. W niniejszym artykule omówiono jedną z potencjalnych opcji zasilania, a mianowicie możliwość wykorzystania elastycznych ogniw słonecznych, jako zintegrowanych elementów tekstronicznych. Energia wytworzona przez takie układy może być bezpośrednio przekazywana do wybranych urządzeń elektronicznych, bądź też magazynowana w zintegrowanych z odzieżą akumulatorach. W celu oceny możliwości zastosowań elastycznych ogniw PV w tekstronice dokonano analizy wybranych parametrów ogniw słonecznych, zarówno pod względem elektrycznym, jak i mechanicznym. Przegląd dostępnych elastycznych ogniw PV W literaturze dotyczącej fotowoltaiki dostępnych jest wiele publikacji na temat możliwości wytwarzania i zastosowania elastycznych ogniw słonecznych na bazie różnych materiałów półprzewodnikowych lub związków organicznych. W praktyce jednak istnieje bardzo niewielu producentów oferujących tego typu przyrządy. Należą do nich głównie amerykańskie firmy, takie jak Uni- Solar oraz Power Film, produkujące ogniwa i moduły elastyczne na bazie krzemu amorficznego, Global Solar zajmująca się wytwarzaniem elastycznych przyrządów fotowoltaicznych opartych na związkach półprzewodnikowych CIGS, czy Konarka specj... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Zastosowanie enkodera absolutnego do sterowania silnikiem synchronicznym z magnesami trwałymi (Tomasz Rudnicki, Robert Czerwiński)
Pojawienie się silników z magnesami trwałymi o sinusoidalnym rozkładzie SEM wprowadziło nową jakość w układach napędowych. Silnik ten pozwala uzyskać duży moment obrotowy, dużą sprawność. Posiada liniową charakterystykę mechaniczną, największy współczynnik mocy z masy silnika, małe elektromechaniczne stałe czasowe, dużą przeciążalność oraz posiada możliwość wytwarzania momentu w czasie postoju [1,6]. Celem artykułu jest przedstawienie wykorzystania enkodera absolutnego do sterowania bezszczotkowego silnika synchronicznego z magnesami trwałymi o sinusoidalnym rozkładzie SEM (PMSM). Zastosowanie enkodera umożliwia także pomiar prędkości obrotowej silnika. Układ napędowy z silnikiem synchronicznym wzbudzanym magnesami trwałymi Silnik synchroniczny z magnesami trwałymi o sinusoidalnym rozkładzie SEM (PMSM) umożiwia pracę układu napędowego w dwóch strefach regulacji prędkości obrotowej [1]: - w strefie pierwszej, to jest w zakresie prędkości obrotowej 0 < n &#8804; nn (regulacja przy stałym momencie), regulacja odbywa się poprzez zmianę wartości napięcia silnika, - w drugiej strefie, to jest w zakresie prędkości obrotowej nn < n&#8804; nmax (regulacja przy stałej mocy) odbywa się przez odwzbudzanie silnika prądem twornika. W pierwszej strefie regulacji wektory strumienia wzbudzenia &#968;f i siły magnetomotorycznej twornika &#920; są do siebie prostopadłe i nie oddziaływują na siebie. W drugiej strefie regulacji kąt &#948; między wektorami strumienia wzbudzenia &#968;f i siły magnetomotorycznej twornika &#920; zmienia się w przedziale 90°<&#948;<180°, co powoduje odwzbudzanie silnika. Regulacja prędkości obrotowej w dwóch strefach wymaga rozbudowanego układu sterowania. Praca w dwóch strefach regulacji została przedstawiona na rys. 1 [3, 4]. Poprawnie działający układ napędowy powinien realizować możliwie szybko zadawane mu polecenia. Wymaga to ciągłego i dokładnego pomiaru kąta położenia wirnika względem osi pasm uzwojenia two... więcej»

Metody cyfrowego przetwarzania w impulsowym radarze do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar) cieszą się coraz to większym zainteresowaniem, zarówno w rozwiązaniach cywilnych jak i wojskowych. Służą między innymi w geologii do poszukiwania wartościowych, z historycznego punktu widzenia, przedmiotów. Radary podziemne wykorzystuje się także do wykrywania uszkodzeń wałów przeciwpowodziowych, czy też lokalizacji rur wodociągowych w przypadku braku informacji o ich faktycznym położeniu. Specjalizowane radary GPR służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Z uwagi na niejednorodność środowiska, w jakim pracuje GPR, obróbka sygnałów w tego typu radarach jest dużo trudniejsza niż w tradycyjnych jednostkach do wykrywania obiektów w przestrzeni powietrznej. Niejednorodność analizowanej gleby wpływa niekorzystnie na zasięg radaru [4]. Nieciągłość powstała na granicy dwóch warstw ziemi powoduje odbicie fali, ponadto każda warstwa charakteryzuje się niezerowym współczynnikiem tłumienia, przez co zakres odległości obserwacji GPR wynosi kilka metrów. Maksymalny zasięg wynikający z wielu czynników tłumiących osiągany jest dla suchej ziemi. Najbardziej tłumiącym ośrodkiem jest woda, dla której moc sygnału sondującego maleje o 100 dB/m [1]. Z tego względu pomiary dla wilgotnej ziemi nie przynoszą pożądanych rezultatów. W niniejszym artykule opisane zostały impulsowe radary transmitujące sygnał z liniową modulacją częstotliwości LFM (ang. Linear Frequency Modulation). W pracy przedstawione zostały wyniki rzeczywistych pomiarów radaru GPR o fali impulsowej, radar ten został wyprodukowany przez włoską firmę IDS - Ingegneria dei S. p. A. Kompresja danych symulacyjnych w kierunku azymutalnym została wykonana przy wykorzystaniu koherentnej obróbki SAR (ang. Synthetic Aperture Radar). Radary z syntetyczną aperturą (SAR) wykorzystują antenę umieszczoną na ruchomym nośniku, która przyjmuje kolejne położenia wzdłuż trajektorii ruch... więcej»

System zabezpieczeń w urządzeniu do automatycznej kontroli filtrów przeciwzakłóceniowych (Tadeusz KOZŁOWSKI, Kazimierz STROJNY)
System kontroli filtrów typ SKF-11 (rys. 1) przeznaczony jest do automatycznego sprawdzania parametrów elektrycznych, segregacji i znakowania filtrów przeciwzakłóceniowych. Urządzenie obsługiwane jest (w trybie pracy automatycznym) przez 1. operatora, którego rola sprowadza się do układania na transporterze wejściowym filtrów do badania oraz zdejmowania filtrów spełniających kryteria jakości, z transportera wyjściowego po badaniu i znakowaniu. Filtry nie spełniające wymagań (braki) są segregowane i automatycznie wrzucane do odpowiednich pojemników. System sterowania urządzenia składa się z 3 sterowników PLC lokalnych oraz komputera sterującego pełniącego rolę "mastera". Komputer sterujący również wykonuje i zarządza pomiarami parametrów elektrycznych filtrów. Sterowniki lokalne sterują poszczególnymi zespołami urządzenia: &#9679; zespołem karuzeli pomiarowej, &#9679; zespołem podawania filtrów, &#9679; zespołem segregacji i znakowania. Komunikacja w systemie sterowania odbywa się poprzez sieć Ethernet z protokołem Modbus TCP/IP. W przypadku awarii podsystemu podawania filtrów do badania, możliwa jest praca z ręcznym wkładaniem filtrów w głowice pomiarowe, pozostała część ... więcej»

Nowe nanostruktury palladu (Elżbieta Czerwosz, Ewa Kowalska, Mirosław Kozłowski, Piotr Dłużewski)
Pallad odrywa ważną rolę w wielu dziedzinach przemysłu, medycyny, ochrony środowiska i energetyki. W zależności od stanu, w jakim występuje, może być stosowany w postaci ciała stałego (proszek lub warstwa), roztworu, czy w jako nanoobiekty o różnej formie strukturalnej. W ostatnich latach, w szczególności ta ostatnia forma palladu budzi największe zainteresowanie. W niektórych zastosowaniach kontrola kształtu nanoziaren palladu prowadzi do uzyskania materiału, który pozwala na spełnienie wielu bardzo wysublimowanych wymagań. Na przykład można zaprojektować materiał, który będzie zawierał katalizator w postaci tak uformowanej, że konkretne płaszczyzny krystalograficzne będą tworzyły ściany kryształu, a więc będzie można ustalić, ile atomów znajdzie się na powierzchni takiego materiału. Takie zaprojektowanie materiału pozwoli na wzmocnienie jego właściwości odnośnie reaktywności i selektywności wytworzonego nanokatalizatora [1-3]. Inną ważną cechą nanostruktur Pd występujących na powierzchni jest zachodzenie zjawiska powierzchniowego rezonansu plazmonowego, który prowadzi do zastosowań związanych z powierzchniowo wzmocnionym rozproszeniem ramanowskim SERS (Surface-Enhanced Raman Scattering), optyczną detekcją wodoru i fotomedycyną zwalczającą np. nowotwory [4]. Obliczenia teoretyczne wskazują, że pasmo związane z powierzchniowymi plazmonami może się przesuwać od 330 nm (dla nanoziaren o kształcie sześciennym) do 530 nm (dla ziaren o kształcie ikozaedrycznym) w zależności od kształtu i wielkości nanocząstek [5-7]. Pallad jako metal o strukturze typu fcc może przyjmować ogromną ilość postaci geometrycznych [8, 9]. W początkowej fazie wzrostu cząstek palladu z fazy gazowej tworzą się klastry [10]. Krytyczna wielkość tych klastrów nie jest dobrze określona w literaturze, często natomiast mówi się o liczbach magicznych, odpowiadających najczęściej spotykanym w tych klastrach liczbom atomów je tworzących. Ten etap jest etapem nukleac... więcej»

Badania metod PVD/CVD wzrostu nanorurek węglowych (Izabela Stępińska, Mirosław Kozłowski, Kamil Sobczak )
Aby zoptymalizować produkcję nanorurek węglowych (CNTs - Carbon Nanotubes) oraz mieć możliwość kontrolowania ich rozmiarów, należy zrozumieć mechanizmy wzrostu zaangażowane w ich tworzenie, które w istocie nie zostały jeszcze w pełni poznane i nadal stanowią wyzwanie dla badaczy zajmujących się CNTs. Nanorurki węglowe można otrzymywać za pomocą metody pirolitycznej z udziałem różnych katalitycznych prekursorów ich wzrostu. Zgodnie z niektórymi teoriami [1], w początkowej fazie wzrostu cząstka katalizatora pozostaje na końcu tworzącej się nanorurki. Oddziaływanie ścian nanorurki z cząstką katalizatora może ją zatrzymać w pewnym miejscu rurki. Wzrost może wtedy być wolno kontynuowany na otwartym końcu nanorurki do momentu, gdy inna cząstka katalizatora wznowi proces wzrostu. Jako katalizatory można stosować nanocząstki metali takie jak nikiel, żelazo, kobalt, platyna, pallad [2-6]. Metale te mogą być osadzane na powierzchni podłoża w różny sposób w celu uzyskania nanocząstek katalizatora metalicznego o odpowiednich rozmiarach na powierzchni podłoża. Jedną z metod osadzania katalizatora na substracie jest metoda PVD (Physical Vapor Deposition) opisana w [7]. Wzrost nanorurek węglowych może zachodzić w standardowym procesie CVD (Chemical Vapor Deposition). Proces ten jest przeprowadzany w kwarcowej rurze, w której umieszczone są podłoża, z cząstkami katalizatora rozłożonymi na ich powierzchni. Podłoża reagują z przepływającym przez rurę gazowym węglowodorem (etan, metan lub ksylen) w wysokiej temperaturze (450&#8230;900°C). Mechanizm wzrostu nanorurek węglowych związany jest z dyfuzją atomów węgla przez cząstki katalizatora o nanometrycznych rozmiarach, tworzących nanorurkę poprzez włączanie się do struktury tej nanorurki, powodując jej wzrost [8-11]. Istnieje kilka teorii opisujących mechanizm wzrostu nanorurek węglowych [12-14]. Mechanizm wzrostu - końcówkowy (tip growth), korzeniowy (rooth growth), czy otwartokońcówkowy (ope... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Wtyczka do Eclipse dla kodów źródłowych VHDL: funkcjonalności (Bartłomiej Niton, Krzysztof T. Poźniak, Ryszard S. Romaniuk)
Głównym celem aplikacji omówionej w niniejszym artykule jest wspomaganie projektów realizowanych przy pomocy języka VHDL. Aplikacja jest implementowana w środowisku Eclipse [1]. Obecnie na rynku najbardziej zaawansowanymi wtyczkami do środowiska Eclipse dla języka VHDL są Simplifide HDL, Sigasi HDT oraz Zamia CAD [2-4]. Bardzo zaawansowanym projektem (choć niepracującym w oparciu o środowisko Eclipse) jest Emacs z modułem do języka VHDL, który przez wielu deweloperów wciąż jest uważany za jedno z najlepszych dostępnych narzędzi [5-6]. Kolejnym narzędziem wspierającym edycję kodu w języku VHDL jest oparty na wolnej licencji VEditor [7]. Wszystkie narzędzia (szczególnie te wymienione) wspierające projektowanie w języku VHDL posiadają wiele charakterystycznych dla tego typu aplikacji funkcjonalności, można do nich zaliczyć: - podświetlanie składni, - możliwość podglądu hierarchii projektowanego modułu, - możliwość przejścia do definicji elementu języka VHDL poprzez jego identyfikator (Emacs wykorzystuje mechanizm tzw. tagów - etags/ctags), - pokazywanie linii deklaracji elementu lub/i komentarza znajdującego się przy tej deklaracji po najechaniu na identyfikator go reprezentujący myszką (funkcjonalność ta nie jest dostępna dla narzędzi Zamia CAD i Emacs), - możliwość definiowania własnych kompilatorów i parserów do sprawdzania poprawności pisanego kodu. W wypadku narzędzia VEditor może to być dowolny kompilator, którego wyjście dostępne jest z linii komend, a informacje o błędach i ostrzeżeniach możliwe do jednoznacznego określenia przez wyrażenia regularne, - autonaprawianie błędów tzw. quickfixes. Dla języka VHDL jest ono rzadko spotykane, w wymienionych narzędziach jest ono zapewnione jedynie przez Sigasi HDL. - proponowanie zakończeń dla pisanego fragmentu kodu lub identyfikatora (tzw. code completion). Funkcjonalność wspierana jest w większości edytorów dla języka VHDL obecnych na rynku. Może ona przyjmować różny stopień... więcej»

AMMONO-GaN substrates for microwave and RF electronics applications (ROBERT Dwiliński, ROMAN Doradziński, LESZEK Sierzputowski, ROBERT Kucharski, MARCIN Zając)
At present, next generation of high-efficiency lighting and highpower electronics are one of the focus areas for energy saving innovation technologies in world industry. Gallium Nitride semiconductor crystallizes in wurtzite-type structure and has wide, direct band-gap (about 3.44 eV at room temperature) [1]. Besides, it has high electron mobility, high breakdown voltage, good thermal conductivity and mechanical properties. Therefore, Gallium Nitride (GaN) has attracted a great attention for these material properties that are useful for applications in short-wavelength optoelectronic and high power electronic devices, such as white or colour light emitting diodes (LEDs), blue laser diodes (LDs), UV detectors and high-power -high-frequency transistors. For example, GaN-based High Electron Mobility Transistors (HEMTs) are characterized by at least one order of magnitude higher power density and efficiency than Si- and GaAs-based conventional devices [2], enabling 10-fold reduction of electronic chip size under the same output power. However, the currently available devices use GaN deposited by heteroepitaxy on sapphire or SiC substrates. The resulting thin films suffer from large defect concentrations (dislocation density 106 - 109 cm-2), mainly due to a difference in lattice parameters and thermal expansion coefficients between such non-native substrates and GaN. High dislocation density also increases the level of energy dissipation in HEMTs used for high power electronics. Therefore, the development of low-cost optoelectronic and HEMT devices of sufficiently high efficiency is limited due to a lack of suitable substrates for growing homoepitaxial structures. Under such circumstances, the use of truly bulk GaN substrates would be an ideal solution of this problem. At the moment, satisfactory results were obtained by growth of thick layer by Hydride Vapor Phase Epitaxy (HVPE) [3], used commercially for fabrication of lasers in ... więcej»

Microwave filter tuning using coarse set of reflection characteristics and corresponding tuning elements deviations (TOMASZ KACMAJOR, JERZY JULIAN MICHALSKI)
Filter tuning is the last process in filter production line. After assembling a device, due to its imperfections, there is a need to properly adjust tuning elements to meet all technical specifications. It is a well-known problem and results in serious bottleneck during production. Tuning is performed manually by observing scattering characteristics and trying to obtain required shape by changing positions of tuning screws. Depending on filter complexity and operator&#8217;s experience, this process may vary from 15 minutes to a few hours. That is why many works have investigated this issue, trying to make the tuning faster, easier or to automate the whole process. Recently, we have proposed tuning methods based on mapping of filter characteristic to the deviation of tuning elements responsible for detuning. This mapping is performed with the use of artificial neural network (ANN) multidimensional approximator [1], neuro-fuzzy system [2] or linear matrix operator [3]. Tuned filter is treated as a &#8220;black-box" as we are not involved in, e.g., coupling matrix extraction as proposed in [5]. The approximators prepared in our methods work as follows: when the detuned characteristic is supplied at the input, the approximator generates, at its output, these values of tuning elements which are responsible for filter detuning. Therefore, operator or robot knows which screw must be adjusted in which direction and value. This general concept is depicted in Fig.1. Above-mentioned methods have been proved to tune most of modern microwave filters. But there is a room to enhance the concept. To build these approximators a set of elements {&#916;z, s} containing tuning deviations and corresponding characteristics is collected in the process of controlled random filter detuning. This process takes a long time and requires a lot of {&#916;z, s} pairs. In practice it is done by robots and could be successfully performed for filters equippe... więcej»

Compressed Sensing Applied to Image reconstruction in a noise SAR (Jacek Misiurewicz, Łukasz Maślikowski)
SAR imaging is performed with a radar platform moving perpendicularly to the imaging direction. Thus, the wave reflected by objects in the field of view travel a distance that first diminishes, then starts to increase. This results in a phase modulation which is present in the received baseband signal as a complex chirp along the cross-range dimension. The chirps from reflecting objects are processed with a matched filter. In the filter output signal sharp peaks are observed at locations corresponding to object positions. The peaks are much narrower than the original chirp length - their width corresponds approximately to beamwidth of synthesized antenna, i.e. an antenna whose length is determined by the travel distance of the real antenna during the signal acquisition. When we consider also the distance measurement by calculating the echo delay, we can view the whole signal as a two-dimensional one. A SAR (Synthetic Aperture Radar) processor uses this signal, sampled in temporal and spatial dimensions to create an image of the observed scene. The temporal dimension corresponds to the delay measurement, and the spatial dimension relates to repeating the measurements from different positions along the radar movement track. As a typical radar scene contains a limited number of bright (strongly reflecting) points, it may be modelled as sparse in the space-delay domain. Compressed Sensing is a novel approach to sensing and sampling, which is based on the assumption of signal sparsity instead of traditional (Nyquist) low-pass assumption. With the sparse model of the signal, a proper sampling scheme may give enough information to reconstruct the signal from much lower number of samples than it is required by Nyquist theory [1]. In the SAR application of a noise radar [2], long integration time may be used due to good sounding signal properties. This in turn permits to use low transmitted power, which is one of advantages fo noise... więcej»

Zastosowanie InGaAsN w konstrukcji ogniwa słonecznego p-i-n (Wojciech Dawidowski, Beata Ściana, Iwona Zborowska -Lindert, Damian Pucicki, Damian Radziewicz, Katarzyna Bielak&#8201;)
Krzemowe ogniwa słoneczne charakteryzują się sprawnością konwersji sięgajacą 25% [1], jednakże nie są one w stanie zaabsorbować promieniowania z zakresu bliskiej podczerwieni. Zastosowanie ogniw wielozłączowych, na bazie związków półprzewodnikowych AIIIBV pozwala na lepsze dopasowanie odpowiedzi ogniwa do spektrum promieniowania słonecznego. Ich potencjalne zastosowanie to systemy koncentratorowe oraz układy zasilania satelitów w przestrzeni kosmicznej [2]. Szeregowe połączenie kilku podogniw absorbujących fotony o różnych energiach, pozwala na uzyskanie prądu oraz napięcia określonych zależnościami (1-2): (1) (2) Wykorzystując półprzewodniki o precyzyjnie dobranych wartościach przerwy zabronionej można wytworzyć ogniwo wielozłączowe (np. GaInP/GaAs) o wyższej efektywności, jednak w dalszym ciągu fotony o energii zbliżonej do 1 eV nie są pochłaniane. Wprowadzenie kolejnego podogniwa na bazie poczwórnego stopu półprzewodnikowego InGaAsN, pozwala na wykorzystywanie promieniowania z w/w zakresu spektralnego, co powoduje dalszy wzrost konwersji fotowoltaicznej, sięgający nawet 43,5%, przy koncentracji światła 418 x [1]. Technologia i pomiary struktur testowych W trakcie prowadzonych prac badawczych zoptymalizowany został proces krystalizacji struktury MQW (ang. Multi Quantum Well), zawierający układ potrójnych studni kwantowych InGaAsN/ GaAs, metodą AP-MOVPE (ang. Atmospheric Pressure Metal Oganic Vapour Phase Epitaxy). Najlepsze parametry strukturalne i optyczne uzyskano dla próbki NI 46 osadzanej w tem... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Surface morphology and optical properties of polymer thin films (JAN Weszka, Magdalena Szindler, Maria Bruma )
Industrial development has always been associated with the development of energy technologies, mainly consisted of the introduction of changes to the existing and implementing new types of energy sources. In the twentieth century, these changes consisted mainly in the transition from coal as the primary energy fuel for petroleum and then from oil to gas. Today, the economic and ecological reasons, looking for alternative sources of energy. Seems to be the most valuable comes from renewable sources and can be converted to any form of energy. The rapid development of electronics and materials science, and especially for semiconductor and chemistry of polymeric materials is related to the introduction of modern engineering materials. Gained important conductive polymers [1, 2]. The most famous of conductive polymer materials include polyacetylene, polythiophene, and polyphenylene. An important group of polymers whose main chains are composed of carbon atoms connected by alternating single and double bonds, called conjugat... więcej»

Model and design of integrated LTCC piezoelectric accelerometer and package (Arkadiusz DĄBROWSKI, Dominik JURKÓW, Tomasz ZAWADA, Leszek GOLONKA)
Low Temperature Co-fired Ceramics (LTCC) and thick-film technology can be applied not only in fabrication of multilayer electronic circuits, but also in microsystem technology [1, 2]. The LTCC technology is based on flexible ceramic tape processing. 3-dimensional devices with cavities, channels, beams and diaphragms are made of properly machined stacked layers of the ceramic tape. It is possible to build various type of sensors e.g. pressure sensor [5] and force sensor [3] utilizing the LTCC technology. There is also possible to use ceramic materials to fabricate packages for electronic circuits or devices made of e.g. Si [4]. In this paper the model and preliminary project of the LTCC package for piezoelectric accelerometer are presented. The sensor has been successfully designed and manufactured previously. Unpackaged sensor is presented in Fig. 1a. The sensor is made of the LTCC with TF2100 PZT thick film (Meggitt Sensing Systems, Kvistgaard,... więcej»

Experimental Validation of New Classes of Dyes for Dye-Sensitised Solar Cells (Michal G. Zubel, Jacqueline M. Cole, Paul G. Waddell)
Solar power is numbered, along with wind, water (waves, tides, dams, run-on-the-river systems), biomass growth (traditional and advanced) and geothermal heat among renewable energy sources. Although the accuracy of any long-term forecast can be considered questionable, especially in the times when the spectacular failure of the predictions of the Club of Rome, expressed in their 1972 book &#8220;Limits to Growth", has become evident, it is recognised that the photovoltaic energy harvesting seems to be the only branch able to provide cheap and clean energy in the future [1]. This is because the other above-mentioned &#8220;green" technologies have not enough growth potential and area of availability to be regarded major sources of cheap energy for the future. Energy production from renewable sources encompass still emerging technologies. They constitute only 6% of the global final energy consumption (2009), excluding traditional biomass [2]. Their share of the global electricity consumption (2010) is higher but it is still smaller than 20%, whereas about 16% is attributed to hydroelectricity [2], the most established renewable energy source. All the other sources contribute around 3.3% of the global share. Obviously, fossil fuels dominate both rankings. The main parameter to characterise energy sources is the average cost of production per kilowatt&#8209;hour or megawatt-hour. Looking at the comparison of the cost [2] it is no wonder that photovoltaics are not in widespread use. The cost of electric energy from this source is 5-10 times higher than from the cheapest renewable one, i.e. hydroelectricity. It is also estimated to be around 3 times more expensive than electric energy from coal [3]. Various reports give different figures on the average costs of energy, but in each of them the tendency for photovoltaic energy to be much more expensive is clear. Solar cells will not be competitive with other energy sources as long as... więcej»

Opracowane w ITE krzemowe detektory cząstek do międzynarodowych badań nad transaktynowcami (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Rugard DRESSLER, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrzej PANAS, Jerzy SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Alexander YAKUSHEV, Michał ZABOROWSKI)
Transaktynowce - najcięższe pierwiastki chemiczne (liczba atomowa większa od 103), nie występujące w przyrodzie, otrzymywane w wyniku reakcji jądrowych, są przedmiotem badań w wielu ośrodkach światowych, z których najważniejszymi są: &#9679; Lawrence Berkeley National Laboratory w Berkeley, w USA (BNL), &#9679; Zjednoczony Instytut Badań Jądrowych w Dubnej w Rosji (ZIBJ), &#9679; GSI Helmholtzzentrum für Schwerionenforschung GmbH w Darmstadt w RFN (GSI). W 2004 roku Instytut Technologii Elektronowej nawiązał współpracę z Institut für Radiochemie - Technische Universität München (IR TUM) w dziedzinie detektorów do badań nad transaktynowcami. Na zamówienie i we współpracy z IR TUM opracowano i wykonano w ITE 4 typy 64-elementowych matryc chromatograficznych (64 x 100 mm2) nazwanych TUM1/Al i TUM1/Au, oraz TUM2/SiO2, TUM2/Au do opracowanego tam systemu detekcyjnego COMPACT (Cryo On-line Multidetector for Physics And Chemistry of Transactinides) przeznaczonego do międzynarodowych badań, prowadzonych głównie w GSI. Matryce TUM1 i TUM2 stosowano w badaniach nad otrzymywaniem i właściwościami hasu (symbol Hs, liczba atomowa 108). Kolejne 2, zmodyfikowane typy (TUM4/SiO2, TUM4/Au) opracowano i wykonano dla GSI. Matryce TUM4 stosowano w badaniach nad pierwiastkiem 114, a obecnie stosowane są do pierwszych na świecie badań nad pierwiastkiem 119 i 120. Bardzo dobre rezultaty, uzyskane w badaniach hasu, przy zastosowaniu matryc TUM1, spowodowały zainteresowanie Paul Scherrer Institut - Villigen - Szwajcaria (PSI) detektorami ITE. Na zamówienie i we współpracy z PSI opracowano i wykonano w ITE... więcej»

Analiza czułości w rezystancyjnych czujnikach wielowarstwowych w obecności amoniaku (Grzegorz HALEK, Helena TETERYCZ, Kamil WIŚNIEWSKI, Patryk HALEK, Patrycja SUCHORSKA)
Od kilku dekad obserwuje się dynamiczny rozwój techniki sensorowej, w szczególności rezystancyjnych czujników gazu. Jednak mimo licznych badań poczynionych w tym zakresie, do tej pory nie udało się w sposób zadowalający rozwiązać problemu dobrej selektywności sensorów przy zachowaniu odpowiedniego poziomu czułości. Duże trudności sprawia również analiza bardzo złożonych procesów fizykochemicznych zachodzących w tego typu sensorach. Jedną z technik poprawy parametrów użytkowych sensorów jest budowanie struktur z warstw różniących się właściwościami elektrycznymi i katalitycznymi [1]. Warstwa mająca bezpośredni kontakt z elektrodami pełni funkcję właściwej warstwy aktywnej, zaś inne materiały nakładane na nią działają jako warstwa (filtr aktywny) modyfikująca parametry czujnika. Bezpośredni kontakt z analizowaną atmosferą ma tylko warstwa filtru aktywnego. Na powierzchni tej warstwy ulegają adsorpcji i dezaktywacji cząsteczki interferującego gazu. W wyniku t... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Proste metody tworzenia map głębokości i wypełniania luk informacyjnych przy konwersji obrazów 2D do 3D (Julian Balcerek, Adam Konieczka, Adam Dąbrowski, Tomasz Marciniak)
Istniejące proste metody konwersji obrazów 2-wymiarowych 2D (ang. two-dimensional) na 3-wymiarowe 3D (ang. three-dimensional) wykorzystują binarne mapy głębokości określające, które obiekty przedstawione na obrazie widz ma postrzegać jako bliższe, a które jako dalsze. Mapy głębokości oraz metody ich tworzenia opisano w [1-7]. Obecnie jednym z największych problemów jest opracowanie skutecznych metod automatycznego generowania map dla obrazów nieruchomych oraz dla sekwencji wizyjnych. Kolejnym problemem jest opracowanie metod wypełniania tzw. luk informacyjnych. Człowiek, patrząc na dowolny obiekt, widzi go każdym okiem pod nieco innym kątem i na nieco przesuniętym tle. Na tej podstawie mózg określa odległości i tworzy wrażenie trójwymiarowości postrzeganej sceny. W przypadku zdjęcia zarejestrowanego jednym obiektywem brakuje więc części informacji, którą, w celu konwersji do formatu 3D, należy uzupełnić. Ten brak określa się mianem luk informacyjnych. Nowe metody ich wypełniania autorzy opisali w pracy [8]. Opracowanie aplikacji programowej do skutecznej konwersji obrazów 2-wymiarowych na 3-wymiarowe może mieć zastosowanie np. w systemach monitoringu CCTV (ang. Closed-Circuit Television), aby zwrócić uwagę operatora monitoringu oglądającego obraz z wielu kamer na sytuacje potencjalnie niebezpieczne [9]. Ogólna idea proponowanego dodatkowego narzędzia dla operatora monitoringu jest przedstawiona na rys. 1. W dalszej części opisano metody detekcji i śledzenia obiektów w celu generacji map głębokości, natomiast w rozdziale trzecim zaproponowano metodę tworzenia obrazów 3-wymiarowych z 2-wymiarowych przy wykorzystaniu binarnych map głębokości wraz z proponowanym sposobem wypełniania luk informacyjnych. Wykrywanie i śledzenie obiektów w celu generacji binarnych map głębokości Algorytmy detekcji ruchu w sekwencjach wizyjnych bazują na różnicach zawartości kolejnych ramek. Systemy wizyjne wykonujące detekcję ruchu służą głównie ... więcej»

Narodowy test interoperacyjności podpisu elektronicznego (Marek Hołyński)
Duży zbiór rodzajów dokumentów elektronicznych oraz różnorodne ich przeznaczenie wymusza wielość formatów i rodzajów e-podpisu. Na rynku pojawiają się rozmaite, nie zawsze zgodne z sobą produkty oraz aplikacje. Istnieje zatem pilna potrzeba uporządkowania tej sytuacji i praktycznej weryfikacji oferowanych przez producentów rozwiązań na otwartym publicznym forum. Dla oceny rzeczywistej sytuacji w dniach 26-27 października 2011 r. został zorganizowany w Warszawie Narodowy Test Interoperacyjności Podpisu Elektronicznego. Koordynacji tego wydarzenia podjął się Instytut Maszyn Matematycznych, w którym od dwóch lat działa Laboratorium Podpisu Elektronicznego. Impreza organizowana była przy współpracy Ministerstwa Gospodarki i pod osobistym ... więcej»

Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding &#8217;noisy&#8217; directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient&#8217;s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor&#8217;s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient&#8217;s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article &#8220;Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - Część 3 (Edward Sędek)
Opracowanie radarów wielofunkcyjnych z aktywnymi antenami ścianowymi stało się możliwe dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC). Wyniki prac aplikacyjnych zostały opublikowane na początku lat 90. Za fundamentalną publikację w tym zakresie można uznać materiały z konferencji MONOLITHIC CIRCUITS SYMPOSIUM 1995, gdzie opublikowano praktycznie większość wyników prac aplikacyjnych wykonanych w najpoważniejszych ośrodkach naukowych i badawczo-rozwojowych [1]. Potem nastąpił dalszy dynamiczny rozwój tej dziedziny wiedzy, co zostało udokumentowane w pracach [2-8]. Oczywiście przytoczone publikacje są wybrane jako reprezentatywne, a ich dzisiejsza liczba jest większa o kilka rzędów wielkości. Jak wspomniano w poprzednich artykułach [9, 10], postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych [11] i ferroelektrycznych [12], umożliwił opracowanie anten aktywnych zarówno w technologii hybrydowej, jak i monolitycznej, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Przedstawione pozycje literatury [11] i [12] są jedynie przykładowe, gdyż co roku w czasie trwania konferencji IMS w USA są prezentowane nowe osiągnięcia w tym zakresie. Poprzednio próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i znaczne gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej i ciężkiej aparatury w samolotach bojowych było praktycznie niemożliwe. Możliwości takie dotyczyły jedynie systemów wczesnego wykrywania typu E-3 AWACS, gdzie antena radaru AN/APY-2 umieszczona jest nad kadłubem [13, 14], zaś aparatura radaru w kadłubie samolotu typu Boeing 707-320, jak również ostatnio w samolocie Boeing 767, czy w Europie na samolocie szwedzkim Saab 340, lub Saab 2000 [15]. Ta grupa radarów z antenami o rozpiętości nawet do 9 m (szwedzki sys... więcej»

Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB&#8217;s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: &#9679; how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; &#9679; how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; &#9679; how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Kwantowy efekt Hall'a w epitaksjalnym grafenie otrzymanym w ITME (Lech Dobrzański, Włodzimierz Strupiński, Rafał Stankiewicz, Marta Borysiewicz, Krzysztof Góra, Andrzej Kozłowski, Beata Stańczyk)
Warstwy grafenu otrzymano w ITME oryginalną opatentowaną metodą wzrostu epitaksjalnego [1] na podłożu z węglika krzemu firmy Cree. Wzrost warstw był prowadzony na wypolerowanej stronie krzemowej płytki 4H-SiC o orientacji krystalograficznej (0001). Struktura do pomiaru efektu Hall&#8217;a została wykonana metodą fotolitografii i trawienia warstwy grafenu w plazmie tlenowej. Metalizacja kontaktów składała się z dwóch warstw Ti/Au o grubościach odpowiednio 5/200 nm. Wzór metalizacji powstał w wyniku fotolitografii odwrotnej (lift off ). Konstrukcję struktury przedstawiono na rys. 1. Wartość rezystancji &#961;XX w tym zakresie pól spada, jednak nie do zera, a do wartości ok. 0,1RK. Zmiana nachylenia wykresu &#961;XY na rys. 2 dla wartości pola ok. &#177;2T ma miejsce dla wartości rezystancji równej 1/6 RK. Na rysunku 3 przedstawiono wynik pomiaru innej struktury wykonanej na tej samej płytce SiC. Przy wartości rezystancji 1/6 RK występuje wyraźna półka. Rys. 1. Struktura badawcza do pomiaru efektu Hall&#8217;a Fig. 1. Hall bar test structure Przepływ prądu wymuszano pomiędzy kontaktami 1-5. Szerokość rezystora wynosi 20 &#956;m, a jego długość 240 &#956;m. W przedstawionej strukturze jest możliwy pomiar napięcia Hall&#8217;a pomiędzy kontaktami 3-7, 2-8, ... więcej»

Metody analizy parametrów roboczych detektora punktu rosy typu MEMS (Roman Iwaszko, Ryszard Jachowicz)
Półprzewodnikowy detektor punktu rosy typu MEMS jest zintegrowanym czujnikiem umożliwiającym pomiar wilgotności bezwzględnej gazu w sposób zgodny z definicją tego parametru. W odróżnieniu od klasycznych higrometrów z detektorem optycznym, w higrometrze z detektorem półprzewodnikowym wykorzystywana jest zależność parametrów elektrycznych detektora od ilości molekuł wody kondensującej na jego powierzchni. Parametry wypadkowe detektora, jakie ulegają zmianie wraz z pojawianiem się nowych warstw wody to wypadkowe wartości rezystancji równoległej Rp i pojemności równoległej Cp oraz moduł impedancji |Z|, będący wypadkową poprzednich dwóch wielkości. W rzeczywistości każda z wymienionych wielkości jest elementem zastępczym systemu linii transmisyjnych RiCi o stałych rozłożonych, których parametry zależą od ilości molekuł wody i rodzaju ich rozłożenia na powierzchni detektora [1], [2]. Znajomość zależności wymienionych wielkości od ilości wody na powierzchni lustra pozwala na określenie progu detekcji, a tym samym na określenie istotnego czynnika mającego wpływ na dokładność pomiaru wilgotności gazu. Problem jaki pojawia się w trakcie pomiaru wilgotności z wykorzystaniem opisywanego detektora, to wybór odpowiedniego progu detekcji, to jest wartości Cp, Rp lub |Z| dla których zmierzona temperatura powierzchni detektora jest temperaturą punktu rosy. Konstrukcja detektora typu MEMS i jego zasada pracy Detektory punktu rosy typu MEMS [3] zaprojektowano w Zespole Mikrosystemów i Czujników Pomiarowych Politechniki Warszawskiej, a wykonano w Instytucie Technologii Elektronowej na podłożu krzemowym z dwiema warstwami metalizacji (rys. 1). Rys.1. Przekrój przez strukturę detektora MEMS Fig 1. MEMS detector cross-section Rys. 2. Widok poszczególnych warstw metalizacji detektora punktu rosy: a) geometria grzejnika (linie grube) i termorezystora (linie cienkie), b) geometria detektora molekuł wody (system elektrod grzebieniowych) Fig. 2. Separ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Program strategiczny "TARCZA POLSKI" (Andrzej Kątcki, Ryszard Szpakowicz, Tomasz Zawada)
Podejmując się realizacji Programu "TARCZA POLSKI" Grupa BUMAR przyjęła poniższe założenia: - Opracowany system powinien spełniać oczekiwania Polskich Sił Zbrojnych dotyczące modernizacji polskiego systemu OPL. W szczególności należy zapewnić: &#61656; integrację z obecnym i perspektywicznym systemem Obrony Powietrznej, &#61656; możliwość wykorzystania wszystkich lub wybranych komponentów w strukturach OP NATO, &#61656; modułowość struktury systemu, która zapewni skalowalność architektury i elastyczność wykorzystania komponentów systemu, &#61656; możliwość etapowej modernizacji systemu OPL rozumianej jako jednoczesne korzystanie z posiadanych i pozyskiwanych, w ramach programu, środków przeciwlotniczych celem zachowania ciągłości funkcjonowania systemu OP w tym czasie. - Należy znaleźć partnera zagranicznego, producenta rakiet (zestawów rakietowych) średniego i krótkiego zasięgu, który będzie gotowy przekazać polskiemu przemysłowi technologie produkcji przeciwlotniczych zestawów rakietowych i wesprzeć polski przemysł w procesie realizacji programu. - Zapewnić maksymalną polonizację systemu. W tym celu należy wykorzystać dorobek polskiego przemysłu, w szczególności opracowane w ramach realizacji programów na rzecz MON sensory radiolokacyjne i elektrooptyczne, środki rakietowe i artyleryjskie bardzo krótkiego zasięgu oraz systemy C2. Proces polonizacji nie powinien ograniczać możliwości taktycznych pozyskiwanych rakiet, które będą osiągane w środowisku oryginalnym systemu. - Zapewnić aby polski przemysł pozyskał i wdrożył technologie (np. dzięki transferowi w ramach offsetu, w tym przede wszystkim offsetu związanego z zakupem rakiet MR i SR), niezbędne do: &#61656; produkcji rakiet krótkiego i średniego zasięgu, &#61656; realizacji wsparcia eksploatacji systemu ILS (ang. Integrated Logistic Support), &#61656; przygotowania i realizacji przyszłych modernizacji systemu (ang. future system up-grading). Celem polonizacji jest ... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Rekonstrukcja cyfrowa starych nagrań audiowizualnych
Narodowy Instytut Audiowizualny (NinA) jest instytucją powołaną w celu digitalizacji, udostępniania i promocji polskiej twórczości audiowizualnej. W ciągu kilku lat swojej działalności zrealizował wiele przedsięwzięć na polu wydawniczym, w dziedzinie produkcji i rejestracji dzieł i wydarzeń artystycznych. Wśród opracowanych materiałów znajdują się spektakle operowe, teatralne, koncerty, debaty, relacje z festiwali i konferencji. Współpracuje z Polskim Radiem (PR 2), TVP Kultura oraz instytucjami realizującymi zadania o szczególnym znaczeniu dla kultury polskiej i europejskiej. NInA w ramach Wieloletniego Programu Rządowego "Kultura+" koordynuje programy wspierające cyfryzację zasobów kultury oraz archiwizację i upowszechnianie zbiorów audiowizualnych. Istnieją dwie drogi postępowania - analogowa lub cyfrowa. Ze względu na ograniczenia, jakie niesie ze sobą tradycyjne kopiowanie (analogowe), wydaje się słuszne inwestowanie coraz większych środków w digitalizację. Zwłaszcza, gdy coraz częściej mówi się o końcu taśmy filmowej i kin opartych na projekcji analogowej. Telewizja Polsk... więcej»

Właściwości cienkowarstwowych, przezroczystych półprzewodników o zadanym typie przewodnictwa elektrycznego do zastosowań w transparentnej elektronice (Karolina Sieradzka, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Eugeniusz L. Prociów, Tadeusz Berlicki)
W ostatnich latach nastąpił wyraźny wzrost zainteresowania tlenkami o ściśle określonych właściwościach optycznych i elektrycznych. Na takie materiały istnieje obecnie silne zapotrzebowanie m.in. w takich gałęziach przemysłu, jak optoelektronika, fotowoltaika czy też mikroelektronika. Materiały tlenkowe o bardzo dobrej przezroczystości dla światła, zazwyczaj są równocześnie słabymi przewodnikami prądu elektrycznego. Wyjątek stanowią materiały typu TOS (Transparent Oxide Semiconductor) oraz TCO (Transparent Conducting Oxide), w których możliwe jest połączenie tych dwóch przeciwstawnych właściwości [1, 2]. Dobre przewodnictwo elektryczne w przezroczystych materiałach tlenkowych można uzyskać, między innymi, przez wytwarzanie tlenków niestechiometrycznych lub przez ich domieszkowanie. Tlenki niestechiometryczne, jak np. TiO2-x ze względu na występowanie w ich sieci krystalicznej licznych wakansji tlenowych wykazują dobre właściwości przewodzące. Jednakże, charakteryzują się również gorszą przezroczystością dla światła oraz są niestabilne. Wygrzewanie w powietrzu powoduje zazwyczaj ich utlenienie, a to przekłada się z kolei na pogorszenie ich przewodnictwa elektrycznego. Metodą, która powszechnie stosowana jest w przemyśle mikroelektronicznym w celu zmiany właściwości elektrycznych różnych materiałów jest domieszkowanie. W wypadku tlenków na bazie TiO2 metoda ta jednak nie jest prosta i wymaga niekonwencjonalnego podejścia. W przeciwieństwie do konwencjonalnych półprzewodników, w których występują wiązania kowalencyjne, tlenki są to materiały o wiązaniach jonowych. Mechanizm przewodnictwa elektrycznego w tlenkach półprzewodnikowych jest podobny do tego, który występuje w półprzewodnikowych materiałach amorficznych. Wraz z wprowadzeniem domieszek w przerwie energetycznej takich materiałów pojawiają się dodatkowe, poziomy energetyczne. Płytkie poziomy donorowe lub akceptorowe, zlokalizowane są w pobliżu środka przerwy energetyczne... więcej»

Wielofunkcyjny system komputerowy do współpracy ze spektrometrem EPR (Ireneusz Stefaniuk, Bogumił Cieniek)
Do modernizacji użyto standardowego spektrometru na pasmo X produkcji Politechniki Wrocławskiej, oznaczony jako typu SE/ X [1]. Jest to spektrometr odbiciowy z podwójną modulacją pola magnetycznego. Badana próbka paramagnetyczna umieszczona jest w prostokątnej mikrofalowej wnęce odbiciowej i poddawana równoczesnemu działaniu dwóch wzajemnie prostopadłych pól magnetycznych. Stałego - wytworzonego przez elektromagnes niskoomowy z hallotronową stabilizacją pola oraz mikrofalowego - wytworzonego przez generator klistronowy i doprowadzonego do wnęki rezonansowej torem falowodowym. W wyniku rezonansowej absorpcji paramagnetycznej, w takt zmian pola wytwarzanego przez elektromagnes, zmienia się poziom energii mikrofalowej odbijanej od wnęki zawierającej próbkę. Zmiany te po detekcji mikrofalowej, wzmocnieniu rezonansowym i detekcji fazowej są rejestrowane za pomocą rejestratora XY [1]. W tabeli zastawiono parametry użytkowe spektrometru, zaś na rys. 1 przedstawiono jego widok. Do akwizycji danych i sterowania użyto komputera PC posiadającego pusty port PCI potrzebny do zamontowania karty analogowo-cyfrowej oraz szeregowy port RS-232 do rejestracji sygnału z magnetometru. Wykorzystano kartę produkcji firmy National Instruments model NI PCI-6221 (16 wejść analogowych 16-bitowych, szybkość próbkowania 250 kS/s, 24-cyfrowe linie I/ O, 2 wyjścia analogowe 16-bitowe, 2 liczniki 32-bitowe) [2]. Karta została połączona z terminalem przyłączeniowym (SCB-68 Noise Rejecting, Shielded I/O Connector Block) wyposażonym w gniazda do których można włączyć przewody z sygnałem. Terminal posiada ekranowaną obudowę dzięki której eliminuje się zakłócenia zewnętrzne. Przy wyborze karty i terminala uwzględniono częstotliwość próbkowania, która musiała być na tyle duża żeby prawidłowo został odtworzony rejestrowany sygnał (uniknięcia aliasingu). Wybrany zestaw umożliwia pomiar temperatury za pomocą termopary w której jedno złącze z temperaturą odniesieni... więcej»

Zastosowanie związków powierzchniowo-czynnych do teksturyzacji podłoży krzemowych (Irena Zubel, Filip Granek, Krzysztof Rola, Katarzyna Banaszczyk)
Teksturowanie monokrystalicznych podłoży krzemowych (100), wykorzystywanych do wytwarzania ogniw słonecznych jest zagadnieniem niezwykle aktualnym ze względu na coraz szersze wykorzystanie energii słonecznej jako źródła energii odnawialnej. Ma ono na celu minimalizację strat energii związanych z odbiciem padającego promieniowania. Prowadzi do zmniejszenia współczynnika odbicia światła, a w konsekwencji do poprawy sprawności ogniw. Teksturyzacja zachodzi w wyniku anizotropowego trawienia krzemu w roztworach alkalicznych NaOH, KOH, przy niskich koncentracjach wodorotlenków [1-3]. Ostatnio w technologiach MEMS wodorotlenki te są często zastępowane przez wodorotlenek organiczny TMAH (wodorotlenek tetrametyloamoniowy), aby uniknąć szkodliwego wpływu jonów metali alkalicznych. TMAH jest też stosowany do teksturowania powierzchni [4]. Wielu autorów podkreśla jednak, że teksturowanie w czystych wodorotlenkach nie daje jednorodnie steksturowanej powierzchni z powodu złego odprowadzania pęcherzyków wodoru z trawionych podłoży. Aby temu zapobiec, do roztworów dodawane są związki powierzchniowo czynne, zwiększające zwilżalność powierzchni. Najczęściej stosuje się alkohole, takie jak alkohol izopropylowy (IPA) czy alkohol tert-butylowy (TBA), które poprawiają jednorodność teksturowanej powierzchni [5-9]. Stosowanie alkoholi wiąże się jednak z pewnymi niedogodnościami, wynikającymi z ich niskiej temperatury wrzenia (temperatura wrzenia IPA wynosi ok. 82&#186;C). Proces teksturowania krzemu prowadzony jest w wysokiej temperaturze (70...90&#186;C). Lotne alkohole nie pozwalają na zwiększenie temperatury procesu powyżej 80&#186;C, a tym samym skrócenie czasu trawienia, a dodatkowo sprawiają, że skład roztworu jest niestabilny, a szkodliwe pary alkoholi przedostają się do środowiska. W celu utrzymania stałej zawartości alkoholu (np. IPA) w roztworze, alkohol musi być dodawany w trakcie pro- Skute... więcej»

Spektroskopia pojemnościowa głębokich poziomów defektowych (DLTS) w diodach Schottky&#8217;ego z węglika krzemu (4H-SiC) implantowanych jonami (Łukasz Gelczuk, Maria Dąbrowska -Szata)
Węglik krzemu (SiC) jest półprzewodnikiem, który cieszy się niesłabnącym zainteresowaniem ze względu na bardzo korzystne właściwości fizyko-chemiczne, jak: szeroka przerwa energetyczna, duża wytrzymałość na przebicie elektryczne, bardzo dobra przewodność cieplna i wytrzymałość termiczna. Ze względu na te właściwości węglik krzemu jest atrakcyjnym materiałem do zastosowań w przyrządach półprzewodnikowych dużej mocy i częstotliwości, pracujących w warunkach wysokiej temperatury (powyżej 500°C) i wysokiego poziomu radiacji, gdzie klasyczne przyrządy półprzewodnikowe na bazie krzemu czy arsenku galu nie mogłyby funkcjonować. Najbardziej znanymi politypami SiC, obecnie rozwijanymi dla elektroniki, są 3C-SiC o kubicznej strukturze krystalicznej oraz 4H- i 6H-SiC o strukturze heksagonalnej. Wśród nich polityp 4H-SiC charakteryzuje się szeroką przerwą energetyczną (3,2 eV), największą ruchliwością elektronów wśród politypów heksagonalnych (800 cm2/Vs), dużą nasyceniową prędkością dryftu elektronów (2 × 107 cm/s), dużą wartością napięcia przebicia na jednostkę powierzchni (3 MV/cm) oraz dużą przewodnością cieplną (5 W/Kcm) [1]. Niestety, w tego typu materiałach obserwuje się obecność wielu głębokich poziomów defektowych, które mają znaczący wpływ na parametry i charakterystyki struktur przyrządowych wykonanych na bazie węglika krzemu. Głębokie poziomy energetyczne defektów wpływają na czas życia i długość drogi dyfuzji mniejszościowych nośników ładunku, wydajność diod LED i fotodetektorów, wzmocnienie tranzystorów oraz wielkość temperaturowego współczynnika napięcia przebicia złączy p-n. Jest zatem oczywiste, że dalszy rozwój technologii SiC oraz możliwość tworzenia nowych przyrządów półprzewodnikowych wymagają ciągłych badań właściwości elektrycznie aktywnych defektów w warstwach epitaksjalnych SiC, wytwarzanych za pomocą różnych technik epitaksjalnych [2]. Celem tej pracy jest przedstawienie wyników badań i analiza spektralna elek... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Impedance spectroscopy as a diagnostic tool of degradation of Solid Oxide Fuel Cells (Konrad Dunst, Sebastian Molin, Piotr Jasiński)
Solid oxide fuel cell (SOFC) is an electrochemical device that converts chemical potential energy directly into electrical power. In comparison with a traditional combustion process, the SOFCs offer greater efficiency, reliability and environmental friendliness [1]. The SOFCs have a great potential to generate power from a wide range of fuels: hydrogen, carbon monoxide, hydrocarbons and alcohols. However, when operated, the fuel cells usually degrade. The nature of this process depends on the type of the applied fuel and materials used to fabricate the SOFC. In particular, when hydrocarbons are used as a fuel, a carbon can deposit inside the anode structure [2]. The deposited carbon may cause a complete degradation of the fuel cell. Further development of the SOFCs requires investigation of degradation process during fuel cells operation. Among the fuel cell diagnostic tools, AC impedance spectroscopy is a powerful technique [3]. This method allows obtaining information about different electrode processes, namely, oxygen reduction reaction kinetics, mass transfer and electrolyte resistance losses [4]. Selection of the appropriate experimental conditions (temperature, pressure and flow rate) may provide information extracted from the impedance spectra about the performance losses from the each fuel cell element separately [3,5]. Different electrode processes reveal unique characteristic frequencies, which depend on cell structure, materials used for SOFC fabrication and testing conditions. For example, in case of the anode supported cells with LSM ((La0.75Sr0.25)0.95 MnO3) cathode operated at 750°C it was found [6], that the characteristic freque... więcej»

Investigation of multiple degradation and rejuvenation cycles of electroluminescent thick film structures (MATEUSZ MROCZKOWSKI, MICHAŁ CIEŻ, JERZY KALENIK)
Copper doped zinc sulfide displays electroluminescent prosperities and it is used as a phosphor in thick film light emitting structures. Such electroluminescent structures, or alternating current electroluminescent devices (ACEL), are used as backlight for liquid crystal displays in portable electronic devices (cell phones, notebooks, PDAs, etc.) and as a source of light in the advertising industry. Unfortunately such structures are prone to degradation and have a limited life time [1, 2]. Degraded electroluminescent thick film structures can be rejuvenated by annealing [1]. An attempt to investigate the possibility of repeated rejuvenation of degraded EL lamps was undertaken. The goal of this investigation is to better understand the mechanism of degradation and rejuvenation of thick film EL lamps and prolong their life time. Alternating Current Electroluminescent Devices (ACEL) Typical EL lamps are fabricated as a multi-layer thick film structures. A layer of phosphor, for examp... więcej»

Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several &#956;m. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

Inteligentny handel
Jedna z firm wysyłkowych w Polsce, należąca również do grupy największych sklepów internetowych, rozpoczęła korzystanie z rozwiązań "Inteligentnego handlu" opracowanych przez IBM. Wdrożenie to umożliwiło firmir zwiększenie efektywności i wzrost sprzedaży. Okres świąteczny to dla firmy wysyłkowej czas wzmożonej aktywności. Firma specjalizuje się w sprzedaży książek, filmów i muzyki, dekoracji, upominków a także zabawek, dlatego zwykle w grudniu przyjmuje najwięcej zamówień. Z myślą o pozyskaniu jeszcze większej liczby klientów, firma zdecydowała się na wdrożenie w swoim sklepie internetowym rozwiązań IBM Cor... więcej»

Study of IDE as a sensor head for interfacing with handheld electrochemical analyzer system (Vijayalakshmi Velusamy, Khalil Arshak, Olga Korostynska, Catherine Adley)
Electrochemical biosensors have been receiving more attention in recent years since they are simple to use, cost-effective, offer high sensitivity and suitable for in situ analysis [7-10]. Applications are mainly focused on food quality monitoring for the detection of foodborne pathogens [11], environmental quality monitoring for the detection of contamination of potable water resources due to pathogenic micro organisms and industrial by-products [12, 13] and in biosecurity for the detection of biowarfare agents [14]. An electrochemical sensor is an electrical device in which the biological and/or the chemical information are converted to an electrical signal, which is then processed and recorded for further analysis. Towards the development of an electrochemical analyzer system, a sensor was initially designed that may be interfaced with the handheld system comprising both the potentiostat and the impedance analyzer. In biosensors the lower limit of detection is a big challenge and numerous electrode geometries have been developed during the past decade to address this problem. Among various electrode geometries IDE have advantage in bioanalytical applications. A thick-film gold IDE was employed in this research and it was prepared by screen printing technique. Thick-film sensors are advantageous since it is compact, robust and relatively cost-effective. It is possible to mass produce from macro- to microscale, with greater reproducibility. However, the applicability of the technology is limited to a possible minimum line width (100 &#956;m) [15]. The planar IDE sensors based on thick films are very wellsuited to integrate with electronic circuits. The IDE sensors can be combined with other planar technologies like plasma/chemical vapor deposition for surface modification. The device produced by the thick-film technique has the ability to facilitate as a supporting structure upon which other sensing materials can be deposited... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»