profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Metody integracji systemów INS/GNSS (Piotr Kaniewski, Stanisław Konatowski)
Zadania nawigacji sprowadzają się do odpowiedzi na pytania, które powstają podczas ruchu osób i pojazdów. Przede wszystkim jest to pytanie o miejsce położenia obiektu nawigowanego. Może być nim np. osoba, pojazd lądowy, obiekt pływający nawodny lub podwodny, statek powietrzny lub statek kosmiczny. Odpowiedź na to pytanie jest równocześnie rozwiązaniem zadania pozycjonowania. W celu ułatwienia nawigacji w warunkach stale rosnącego zagęszczenia ruchu, wzrostu prędkości maksymalnej pojazdów oraz wymagań ich użytkowników, niezbędna staje się automatyzacja obliczeń realizowana w zintegrowanych systemach pozycjonujących i nawigacyjnych [1, 2, 5]. W pozycjonowaniu i nawigacji pojazdów powszechne zastosowanie znajdują systemy zintegrowane złożone z systemu nawigacji inercjalnej INS (Inertial Navigation System) [4] i odbiornika GNSS (Global Navigation Satellite Systems) [3], oznaczane skrótem INS/GNSS. Systemy takie mogą być zintegrowane metodą filtracji lub kompensacji z korekcją w przód lub wstecz. W zależności od stopnia centralizacji algorytmu przetwarzania danych, mogą być one luźno lub ściśle zintegrowane [1]. Wybór jednej z metod integracji zależy zwykle od rodzaju integrowanych przyrządów nawigacyjnych i od uwarunkowań aplikacji (wymaganej dokładności, dostępnej mocy obliczeniowej itd.). Integracja metodą filtracji Integracja INS i odbiornika GNSS metodą filtracji polega na przetwarzaniu danych z obu urządzeń nawigacyjnych i estymacji elementów nawigacyjnych opisujących ruch pojazdu, takich jak położenie, prędkość i orientacja przestrzenna. Schemat blokowy takiego systemu INS/GNSS przedstawiono na rys. 1. Stopień integracji obu przyrządów zależy od tego, czy INS i odbiornik GNSS są traktowane jako systemy, czy jako czujniki oraz od stopnia sprzężenia pomiędzy nimi. Jeśli INS i odbiornik GNSS są traktowane jako systemy dostarczające wstępnie przetworzonych danych w postaci obliczonych elementów nawigacyjnych (położenia, prędk... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Zastosowanie energoelektronicznego modulatora prądu w układzie aktywnej kompensacji równoległej (Michał Krystkowiak)
Szczególnie istotnym problemem współczesnej elektroenergetyki i energoelektroniki jest polepszenie jakości przekształcania energii elektrycznej. Głównymi kryteriami oceny układów wykorzystujących przekształtniki energoelektroniczne są ich wskaźniki energetyczne, a zwłaszcza odkształcenie prądu pobieranego z sieci oraz współczynnik mocy. W przypadku niedostatecznie dużej mocy zwarciowej sieci konsekwencją pobierania odkształconego prądu jest odkształcenie napięcia sieciowego, które często przekracza dopuszczalny poziom. Może to doprowadzić do nieprawidłowej pracy urządzeń, a w skrajnym przypadku nawet do ich uszkodzenia. Ponadto obecność wyższych harmonicznych w widmie prądu sieci przyczynia się do wzrostu strat mocy czynnej. W konsekwencji poszukuje się rozmaitych metod polepszenia jakości przekształcania energii. Jednym z nich jest stosowanie aktywnych kompensatorów równoległych [1, 2]. W artykule zaprezentowano opracowaną strukturę aktywnego kompensatora równoległego z zaimplementowanym dodatkowym energoelektronicznym modulatorem prądu. Rozwiązanie to pozwala m.in. na znaczące polepszenie właściwości dynamicznych układu. W konsekwencji, w porównaniu z konwencjonalnymi rozwiązaniami kompensatorów aktywnych, możliwa jest poprawa efektywności działania układu w przypadku konieczności kompensacji prądu sieci o dużej szybkości zmian (dużej stromości narastania). Przedstawiono dwa opracowane tryby pracy opisywanego przekształtnika, a mianowicie: tryb pracy czasowej oraz tryb pracy równoległej. W pierwszym trybie pracy dodatkowy modulator prądu jest aktywowany tylko w chwili konieczności kompensacji prądu sieci o dużej szybkości zmian. Natomiast w drugim trybie pracy klucze głównego modułu kompensatora oraz współpracującego z nim modulatora prądu pracują jednocześnie w ciągu całego okresu napięcia sieci. Przy odpowiednim przesunięciu fazowym impulsów załączających pozwala to na zwiększenie dokładności odwzorowania w wyjściowym s... więcej»

Zastosowanie zjawiska modulacji absorpcji na nośnikach swobodnych do nieniszczących badań materiałów półprzewodnikowych (Łukasz CHROBAK, Mirosław MALIŃSKI)
Parametry rekombinacyjne materiałów krzemowych są jednymi z ważniejszych, których znajomość jest niezbędna przy projektowaniu urządzeń optoelektronicznych (np. ogniw słonecznych, fotodetektorów, itp.). W ostatnich latach można zaobserwować wzrost zainteresowania nieniszczącymi metodami do wyznaczania parametrów rekombinacyjnych materiałów krzemowych [1-4]. Jedną z nich jest metoda MFCA (ang. Modulated Free Carrier Absorption), która umożliwia wyznaczenie czasu życia nośników, współczynnika dyfuzji nośników, a także prędkości ich rekombinacji powierzchniowej. Jej podstawy teoretyczne, a także przykładowe charakterystyki częstotliwościowe amplitudowe i fazowe uzyskane na płytkach krzemowych przedstawiono w pracy [5]. Modyfikację metody MFCA opartą na przestrzennej separacji wiązki wzbudzającej nośniki i wiązki sondującej przedstawiono w pracach [6, 7]. Wpływ szerokości wiązki sondującej na sygnał MFCA przedstawiono w pracy [8]. Porównanie czułości dwóch odmian metody MFCA opartych na pomiarze sygnału MFCA w funkcji częstotliwości modulacji oraz w funkcji odległości wiązki wzbudzającej i wiązki sondującej przedstawiono w pracy [9]. Rozkład przestrzenny nośników w modelu 3D niezbędny do obliczeń wielkości sygnału MFCA przedstawiono w pracy [10]. Wyniki badań, porównujących metodę MFCA z metodą pomiarową bazującą na wykorzystaniu mikrofal, zweryfikowane pomiarami fotoprzewodnictwa przedstawiono w pracy [11]. Przedstawione w niniejszej pracy zagadnienia dotyczące metody MFCA są ciągle aktualne i znajdują się w spektrum zainteresowań naukowców z międzynarodowych jednostek naukowych [12-14]. Znajomość parametrów rekombinacyjnych materiałów krzemowych jest wysoce pożądana, zwłaszcza przy projektowaniu i wytwarzaniu ogniw słonecznych. Idea metody MFCA polega na wzbudzaniu nośników z pasma walencyjnego do pasma przewodnictwa w wyniku absorpcji światła lasera wzbudzającego oświetlającego próbkę. W wyniku tego uzyskuje się dyfuzyjne fale... więcej»

Porównanie intensywności kawitacji w temperaturach 50 i 60°C roztworów wybranych soli przy częstotliwościach ultradźwięków 26 i 38 kHz (Bogdan Niemczewski )
Oczyszczanie ultradźwiękowe w roztworach wodnych prowadzi się najczęściej stosując, ze względu na reakcje chemiczne roztworów z zanieczyszczeniami, substancje alkaliczne lub kwasy. Czasami jednak rodzaj usuwanych zanieczyszczeń powoduje, że bardziej efektywne są inne środki oczyszczające, na przykład utleniacze, reduktory lub same tylko środki powierzchniowo czynne a nawet, z powodu wysokiej intensywności kawitacji, woda bez żadnych dodatków. Woda bowiem, jak to uznawano dotychczas, jest cieczą zdolną kawitować najintensywniej, przy czym temperatura jej maksymalnej kawitacji wynosi 35ºC [1, 2]. Publikacje autora z ostatnich lat dowodzą jednak, że przy zastosowaniu ultradźwięków o częstotliwości 34…39 kHz i wysokiej mocy, roztwory niektórych substancji alkalicznych kawitują, zwłaszcza w podwyższonych temperaturach, intensywniej niż woda. Fakt ten stwierdzono dla roztworów 1…2-procentowych Na3PO4 przy częstotliwości 34 kHz, a przy częstotliwości 38 kHz również dla licznych innych roztworów substancji alkalicznych [3-5]. Powstaje pytanie, czy jest to cechą wyłącznie substancji o odczynie alkalicznym, czy też odczyn nie ma tu istotnego znaczenia. Jeżeli również niektóre inne sole zdolne byłyby w pewnych warunkach podwyższać intensywność kawitacji, to można byłoby je wykorzystywać do maksymalizacji intensywności kawitacji, a tym samym maksymalizacji efektywności oczyszczania ultradźwiękowego. Przedmiotem pracy zreferowanej w niniejszym artykule jest próba porównania wpływu na intensywność kawitacji dodatku do wody różnych soli nieorganicznych. Przyjęto 3-procentowe stężenia nadźwiękawianych roztworów, ponieważ jak wykazały wcześniejsze badania, przy tej zawartości soli w roztworze wpływ stężenia na spadek intensywności kawitacji jest jeszcze stosunkowo niewielki [4]. 35 użytych do prób soli przy częstotliwości 26 kHz i 23 przy częstotliwości 38 kHz oczywiście daleko nie wyczerpuje palety rozpuszczalnych w wodzie... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
System do pomiaru Apertury Numerycznej w światłowodach specjalnych (ŁUKASZ Ostrowsk, MICHAŁ Murawski, MICHAŁ Szymański, Zbigniew Hołdyński, TADEUSZ Tenderenda, PAWEŁ Mergo, PAWEŁ Marć, Leszek R. Jaroszewicz, TOMASZ Nasiłowski)
W światłowodach klasycznych, światło jest prowadzone w materiale na podstawie różnicy we współczynniku załamania pomiędzy rdzeniem a płaszczem. Apertura Numeryczna (NA) w tym typie światłowodów wykazuje niewielkie właściwości dyspersyjne w całym spektrum, zatem pomiar dla pojedynczej długości fali jest zupełnie wystarczający do scharakteryzowania NA. Inną sytuację mamy w przypadku światłowodów mikrostrukturalnych (MSF) gdzie światło jest prowadzone na podstawie geometrii wewnętrznych otworów. W tym typie światłowodów NA zmienia się wraz ze wzrostem długości fali. Właściwości NA w zależności od rodzaju prowadzenia przedstawione są na rysunku 1. Odmienny charakter NA dla różnych włókien był motywacją do stworzenia układu precyzyjnego wyznaczania NA w światłowodach specjalnych. Dzięki tak zdobytej wiedzy o aperturze numerycznej mierzonych światłowodów możliwe jest optymalizowanie efektywnego łączenia, sprzęgania oraz wprowadzania światła do różnorodnych typów światłowodów[1]. Ponadto w światłowodach nie posiadających symetrii kołowej NA może się zmieniać nie tylko z długością fali ale, również z obrotem włókna wokół własnej osi. Dlatego system do ... więcej»

Stan aktualny i rozwój systemu INMARSAT (Jerzy Czajkowski)
Satelitarny system INMARSAT jest nierozerwalnie związany ze Światowym Morskim Systemem Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global Maritime Distress and Safety System) i od momentu jego powstania jego głównym zadaniem było polepszenie, tj. zwiększenie efektywności i niezawodności morskiej radiokomunikacji. W szczególności chodziło o podniesienie bezpieczeństwa i zapewnienie radiokomunikacji umożliwiającej szybkie i skuteczne alarmowanie. Dlatego też tworząc system GMDSS, jeden z obszarów morskich A3 [4] zdefiniowano jako akwen żeglugi w zasięgu satelitarnego systemu z wykorzystaniem satelitów geostacjonarnych nazwanego INMARSAT. System ten został w późniejszym czasie także wykorzystany w ruchomej służbie lądowej oraz aeronautycznej.Po ponad dwudziestu latach działania jako międzynarodowa organizacja, system INMARSAT w 2001 roku w wyniku prywatyzacji został przekształcony w organizację IMSO (International Mobile Satellite Organization) spełniając funkcje systemu GMDSS, jednak nazwa systemu jako całości pozostała niezmieniona. System INMARSAT składa się z trzech zasadniczych komponentów: - segmentu kosmicznego nadzorowanego przez INMARSAT, - naziemnych stacji lądowych LES (Land Earth Station), zwanych także CES (Coast Earth Stadion) nadzorowanych przez Administracje Morskie Państw będących sygnatariuszami INMARSAT- u, - oraz stacje statkowe SES (Ship Earth Station). Strukturę segmentu kosmicznego przedstawiono na rys. 1, gdzie na orbicie geostacjonarnej w odległości ok. 36000 km od równika usytuowane są satelity umożliwiające pokrycie radiokomunikacyjne czterech obszarów oceanicznych nazwanych: Obszar Wschodni Oceanu Atlantyckiego - (AOR-E - Atlantic Ocean Region East), Obszar Zachodni Oceanu Atlantyckiego - (AOR-W - Atlantic Ocean Region West), Obszar Oceanu Indyjskiego (IOR - Indian Ocean Region), Obs... więcej»

Wpływ dipu na właściwości propagacyjne solitonów jasnych w światłowodzie skokowym (Tomasz KACZMAREK)
Światłowody jednomodowe są szeroko stosowane w technice sensorowej [1, 2] zarówno jako czujniki jak i medium transmisyjne oraz w technice informatycznej [3, 4] jako szerokopasmowe medium transmisyjne o nie w pełni wykorzystanych możliwościach propagacyjnych. Niniejszy artykuł również dotyczy światłowody jednomodowych ale w kontekście ich wykorzystania w transmisji solitonowej dalekiego zasięgu. W 2011 roku pojawił się cykl artykułów [5, 6, 7] dotyczących światłowodu skokowego, którego parametr geometryczny (promień rdzenia a) oraz parametr optyczny (różnica współczynników załamania pomiędzy rdzeniem i płaszczem &#916;n = n1 - n2) były tak zoptymalizowane, aby umożliwić generację solitonu podstawowego, przy wykorzystaniu dostępnych komercyjnie laserów półprzewodnikowych w okolicach trzeciego okna transmisyjnego, przy zapewnieniu jednoczesnej maksymalizacji zakresu pracy jednomodowej oraz dyspersji anomalnej. Optymalizacja promienia rdzenia a pozwala uzyskać zrównanie się długości fali odcięcia modu drugiego (TE01) &#955;C z długością fali zerowania się dyspersji chromatycznej &#955;ZD1, czyli równość &#955;ZD1 = &#955;C i w ten sposób uzyskać maksymalizację zakresu długości fal, w którym można generować solitony jasne. W tym miejscu warto wspomnieć, że przy określonym składzie chemicznym rdzenia oraz płaszcza, czyli przy określonej wartości parametru &#916;n istnieje tylko jedna wartość a = aOPT gwarantująca spełnienie warunku &#955;ZD1 = &#955;C. W przypadku, gdy a > aOPT, wówczas &#955;ZD1 < &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem pracy jednomodowej. Natomiast, gdy a < aOPT, wówczas &#955;ZD1 > &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem dyspersji anomalnej. Optymalizacja różnicy współczynników załamania pomiędzy rdzeniem i płaszczem światłowodu &#916;n umożliwia uzyskanie na charakterystyce dyspersji chromatycznej dwóch miejsc zerowych w zakresie od 1 do 2 &#956;m oraz... więcej»

Dobór mikrokontrolera do sterowania inwerterem napięcia w systemach UPS (Zbigniew Rymarski)
Publikowane dotąd artykuły na ogół przedstawiały konkretne rozwiązania układów mikroprocesorowych sterujących inwerterami (autor stosuje określenie "inwerter", rezerwując określenie "falownik" dla napędów silników indukcyjnych, gdzie należy uzyskiwać zmienną częstotliwość generowanego napięcia), nie starając się jednak uzasadnić wyboru danego układu. Trzeba zresztą przyznać, że przy obecnej doskonałości mikrokontrolerów i układów FPGA w większości przypadków uzyskuje się pożądany efekt. Jednak świadomy dobór, ogólnie mówiąc, układu sterującego (bez uwzględniania wpływu sprzężenia zwrotnego, które i tak nie zlikwiduje błędów spowodowanych sposobem generacji PWM) może pomóc w niewielkiej poprawie jakości przebiegu napięcia wyjściowego (poniżej 0,5% współczynnika zniekształceń harmonicznych THD). Współczynnik THD filtrowanego napięcia wyjściowego inwertera napięcia jest definiowany przez normy IEEE-519 i PN-EN 62040-3. Określona przez PN-EN 62040-3 graniczna wartość THD dla obciążenia liniowego i nieliniowego (prostownikowego z filtrem RC o PF = 0,7) dla najlepszej tzw. opcji klasyfikacyjnej S systemu UPS licząc do 40. harmonicznej wynosi 8%. Norma IEEE-519 mówi o zalecanym nie przekraczaniu 5% THD i wymaga, aby amplituda żadnej z harmonicznych napięcia nie przekroczyła 3% amplitudy podstawowej harmonicznej (fm). Omówione parametry dotyczyły filtrowanego napięcia wyjściowego i mogły służyć jako podstawa do doboru parametrów filtra wyjściowego [1-6]. Dobór rozwiązań konstrukcyjnych modulatora wymaga jednak analizy niefiltrowanego sygnału napięciowego PWM. Przy wysokim stosunku częstotliwości przebiegu modulowanego do modulującego fs /fm (w praktyce dla UPS powyżej kilkuset) niezbędny jest podział widma harmonicznych niefiltrowanego napięcia na dwa pasma - "niskich" harmonicznych w zakresie do połowy częstotliwości przełączania i "wysokich" harmonicznych - powyżej tej częstotliwości. Właściwy i rozsądny (o ograniczonych wymiarach... więcej»

Światłowodowe skośne siatki Bragga (Kazimierz JĘDRZEJEWSKI, Tomasz OSUCH, Lech LEWANDOWSK, Wiesław JASIEWICZ )
W metodzie maski fazowej modyfikację charakterystyk spektralnych siatek Bragga uzyskuje się wieloma sposobami. Może być to zmiana długości siatki, czasu naświetlania (głębokości zmian współczynnika załamania), wprowadzenia chirpu lub apodyzacji. W pracy przedstawiono realizację siatek skośnych, które obok siatek apodyzowanych i zmienno-okresowych, stanowią jeden ze standardowych rodzajów siatek opisywanych w dostępnych monografiach [3, 7]. Skośne ustawienie prążków interferencyjnych względem osi włókna powoduje znaczącą zmianę charakterystyki spektralnej siatek Bragga. Siatki skośne maja bardzo rozbudowana charakterystykę transmisyjną po stronie niższych od braggowskiej długości fal. Jest to rezultat pojawienia się, w wyniku zmian w propagacji sygnału pobudzającego, modów radiacyjnych i płaszczowych w kierunkach zgodnym lub przeciwnym do kierunku propagacji, które mogą zostać odbite, zaabsorbowane lub wypromieniowane. Wraz ze wzrostem kąta skosu zjawisko to jest coraz bardziej widoczne, a podstawowe minimum braggowskie zanika i jest widoczne tylko w pomiarach sygnału odbitego. Zjawisko takie występuje, gdy współczynnik załamania otoczenia jest niższy niż szkła np. przy pomiarach w powietrzu. Jednym z powszechniejszych zastosowań siatek skośnych jest spłaszczanie charakterystyki wzmocnienia w funkcji długości fali poprzez umieszczenie s... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Wysokorozdzielczy pomiar ugięcia mikroi nanomechanicznych czujników sił o zakresie pikonewtonów (Daniel Kopiec, Konrad Nieradka, Grzegorz Małozięć, Teodor Gotszalk)
Obserwowany obecnie postęp technologiczny umożliwia wytwarzanie i użytkowanie układów i zespołów o wymiarach sięgających w wielu przypadkach dziesiątków nanometrów. Tak małe przyrządy pozwalają na obserwację zjawisk zachodzących w skali molekularnej i nawet atomowej. Postępowi miniaturyzacji towarzyszyć musi również postęp w metrologii, w tym w ilościowej ocenie obserwowanych zjawisk. Ilustracją tego procesu są między innymi precyzyjne pomiary sił, w których opracowane metody i techniki eksperymentalne powinny zapewniać rozdzielczość rzędu pojedynczych pikonewtonów [1]. Opracowanie opisywanych metod i technik pomiarowych sił jest szczególnie potrzebne z punktu widzenia praktycznego zastosowania wysokorozdzielczych metod diagnostyki biochemicznej bazujących na rozpoznawaniu oddziaływań molekularnych między zdefiniowanymi receptorami a konkretnymi biomolekułami. Układy tego typu wykonywane są głównie jako systemy typu MEMS (ang. Micro Electro-Mechanical Systems) i NEMS (ang. Nano Electro-Mechanical Systems). Wymagają one bardzo precyzyjnego opisu właściwości sprężystych ustroju mechanicznego, opracowania układów obserwacji wychyleń i budowy odpowiedniego elektronicznego otoczenia sterującego. Mikrodźwignie sprężyste są obecnie jednym z najbardziej rozpowszechnionych produktów technologii mikrosystemów, znajdujących zastosowanie w pomiarach zmian masy, siły i przyspieszeń, a mówiąc szerzej - w obszarze mikro- i nanomanipulatorów [2]. Mikrometrowe wymiary tych dźwigni i związany z tym efekt skalowania pozwala na obserwację wielu zjawisk zachodzących w skali molekularnej, które nie są mierzalne za pomocą układów makroskopowych. Optyczna detekcja sygnału ugięcia przetwornika siły Pomiar siły z wykorzystaniem przetworników mikromechanicznych jest związany z dokładnym pomiarem ugięcia mikrodźwigni. Jedną z lepszych metod, zapewniającą wysoką rozdzielczość takich pomiarów, jest metoda optycznej detekcji ugięcia wiązki odbitej. Meto... więcej»

Inkrementacyjne sekwencje adresowe o niskim narzucie sprzętowym w dwuprzebiegowych testach krokowych (Ireneusz Mrozek, Svetlana V. Yarmolik )
Pamięci półprzewodnikowe RAM stanowią jeden z głównych elementów współczesnych modułów i urządzeń elektronicznych. Zwiększająca się w szybkim tempie złożoność i pojemność układów pamięci stawia wciąż nowe wyzwania związane z efektywnym jej testowaniem. Jednym z najbardziej skomplikowanych uszkodzeń pamięci RAM, analizowanym w wielu kluczowych publikacjach odnoszących się do dziedziny, jest uszkodzenie uwarunkowane zawartością opisane modelem PSF (ang. Pattern Sensitive Faults) [3-4]. Ten typ uszkodzenia oraz korespondujące z nim testy zdefiniował w 1980 roku J.P. Hayes [5]. Dalsze badania prowadzili m.in. Suk i Reddy [6]. Testy CM-79N i March-100N pozwalające zwiększyć dotychczasową efektywność wykrywania uszkodzeń PSF zaproponował Cheng [7]. W literaturze przedmiotu (np. Cascaval et. al. [8]) można znaleźć również wiele modyfikacji testów dedykowanych uszkodzeniom PSF, pozwalających wykrywać różne klasy tych uszkodzeń. Dotychczasowe badania wykazały, iż przy obecnych rozmiarach pamięci jedynymi testami możliwymi do realnego zastosowania w procesie testowania pamięci są testy z grupy testów maszerujących określanych również mianem testów krokowych (ang. march tests). Charakteryzują się one liniową złożonością, wysokim pokryciem uszkodzeń i niskim narzutem sprzętowym przy ich implementacji jako testy wbudowane BIST (ang. Built- In Self-Test). Ponadto klasyczne testy krokowe są łatwo konwertowalne do testów transparentnych (ang. transparent march tests). Z uwagi na narzut czasowy jaki powstaje przy tradycyjnej konwersji i implementacji testu krokowego jako testu transparentnego, zaproponowane zostały różne techniki zwiększające efektywność testowania transparentnego [14-16]. Jednak tradycyjne testy krokowe nie generują wszystkich możliwych wzorców niezbędnych do detekcji uszkodzeń PSF. Dlatego zaproponowane zostały techniki, wykorzystujące w swej podstawie testy krokowe, umożliwiające zwiększenie pokrycia uszkodzeń PSF. Jedn... więcej»

Implementacja uniwersalnych interfejsów komputerowych wykorzystujących klasę Mass-Storage systemu USB (Krzysztof Pucher, Dariusz Polok )
Konstrukcja urządzeń elektronicznych bardzo często pociąga za sobą konieczność wykorzystywania jakiegoś interfejsu użytkownika, najczęściej realizowanego w postaci szeregowej. W wyniku intensywnej unifikacji konstrukcji komputerów osobistych zrezygnowano, w ostatnich latach, z wyposażania ich w różnego rodzaju interfejsy na korzyść łącza szeregowego USB [4, 5, 8] oraz sieciowego łącza Ethernet. Zjawisku temu towarzyszy implementacja sterowników sprzętowych do tego typu urządzeń w mikrokontrolerach i to nawet tych o stosunkowo niewielkich mocach obliczeniowych. Sytuacja taka skłania zatem projektantów do bardziej innowacyjnego wykorzystywania tego typu, już istniejących, łącz. Jednak ze względu na stosunkowo duży stopień ich złożoności, opracowywanie tego typu interfejsów, czyli rozwiązań będących "na styku" informatyki i elektroniki, napotyka jednak na bardzo wiele trudności. Przykładowo, system USB jest łatwy jedynie z użytkowego punktu widzenia. Faktycznie, jest on niezwykle skomplikowany i pełen niespodzianek dla projektantów chcących bardziej wniknąć w jego wewnętrzną strukturę. Z uwagi na powyższe, tworzenie sterowników urządzeń USB dla konkretnych systemów operacyjnych jest niestety niezwykle żmudne. Ponadto, duża zmienność tych systemów w czasie, wynikająca głównie z ich naturalnego rozwoju, powoduje praktycznie ciągłą potrzebę tworzenia tych sterowników praktycznie od nowa. Proponuje się zatem inne spojrzenie na już istniejące sterowniki do klasycznych urządzeń (np. dyskowych), które z dużym prawdopodobieństwem będą funkcjonować w przyszłości i co najważniejsze będą już opracowane i działające! Spojrzenie to polega na posłużeniu się ideą wykorzystania klasy Mass-Storage systemu USB [6, 10] do realizacji uniwersalnego interfejsu komunikacyjnego służącego do komunikacji praktycznie z dowolnym urządzeniem elektronicznym bez potrzeby tworzenia dodatkowego specjalizowanego sterownika. Podejście takie ma na celu zaoszczęd... więcej»

Gęstościowy algorytm mrówkowy w diagnostyce urządzeń elektronicznych (Józef Drabarek)
Algorytmami mrówkowymi nazywamy grupę algorytmów komputerowych, które naśladują występujące w naturze mechanizmy komunikacji między osobnikami, wykorzystywane przez kolonie mrówek, podczas poszukiwania pożywienia [1]. W algorytmach tych grupa pojedynczych agentów (mrówek) wspólnie poszukuje rozwiązania postawionego przed nimi problemu. Każda mrówka poszukuje samodzielnie rozwiązania i wynik jej pracy ma częściowy wpływ na końcowe rozwiązanie. Mrówki nie porozumiewają się ze sobą, lecz pozostawiają wskazówki (ślady feromonowe), które wpływają na wybory dokonywane przez inne osobniki. Działania podejmowane przez mrówki posiadają wyraźną cenną cechę optymalizacyjną - dążenie do odnalezienia najkrótszej drogi w jak najkrótszym czasie. Drogę pokonywaną przez każdą z mrówek można uprościć do grafu skierowanego (rysunek 1) z jednym wierzchołkiem (zakłada się, iż jest to mrowisko - punkt startowy (S) dla każdej mrówki) i odchodzącymi od wierzchołka krawędziami, które prowadzą do kolejnych węzłów (1 do 5 na rysunku) - punktów, w których mrówki dokonują kolejnych decyzji o wyborze drogi. Mrówki kończą swoją drogę po dotarciu do jednego z celów (A,B,C). Algorytm jest wykonywany iteracyjnie - w pierwszym kroku pojawia się na starcie mrówka nr 1 - dokonuje wyboru i przechodzi do kolejnego węzła pozostawiając ślad na gałęzi, którą odwiedziła (rys. 1).W kroku drugim następuje częściowe parowanie feromonu (w zależności od przyjętego parametru) z gałęzi grafu. Proces ten jest niezbędny aby zapobiec akumulacji śladu feromonowego i podążaniu p... więcej»

Analiza parametrów anteny typu F umieszczonej w pobliżu ciała człowieka (Łukasz Januszkiewicz, Piotr Wasilewski)
która znalazła zastosowanie zarówno w paśmie fal ultra krótkich jak i mikrofal. Duża popularność tej anteny wynika z jej niewielkich rozmiarów w porównaniu z innymi antenami zasilanymi niesymetrycznie, takimi jak unipol ćwierćfalowy lub antena typu T. Antena zasilana jest niesymetrycznie, a jej impedancja wejściowa może być równa 50 &#937;, dzięki czemu nie jest konieczne stosowanie układów dopasowujących w przypadku podłączenia anteny do bardzo wielu stosowanych obecnie nadajników. Anteny tego typu znalazły liczne zastosowania w systemach łączności ruchomej instalowanych w pojazdach [1-2] oraz po wprowadzeniu pewnych modyfikacji (tzw. planarna antena typu F - PIFA) również w terminalach przenośnych systemów komórkowych [3-4]. Anteny typu F mogą być wykonane w technice obwodów drukowanych. Kształt odpowiednio zmodyfikowanej litery F przyjmuje wtedy warstwa metalizacji ułożona na podłożu dielektrycznym. W takim wykonaniu anteny typu F znalazły bardzo szerokie zastosowanie np. w miniaturowych nadajnikach bezprzewodowych sieci sensorowych [5] lub nadajnikach bezprzewodowych sieci komputerowych [3, 6]. Kolejnym popularnym zastosowaniem są miniaturowe transceiwery pracujące w paśmie 2,4 GHz w protokole ZigBee. Producenci miniaturowych nadajników bardzo często przedstawiają w dokumentacji układów kształt obszaru metalizacji obwodu drukowanego tworzącego antenę, bądź też wykonują ją na płytkach testowych, na których umieszczone są miniaturowe nadajniki [7, 8]. Na rysunku 1 przedstawiono wymiary oraz widok anteny typu F zrealizowanej w technice obwodów drukowanych, która została umieszczona na płytce testowej nadajnika ZigBee firmy Chipcon [7]. Ze względu na bardzo małe rozmiary płytek testowych z modułami ZigBee i ich niewielki pobór energii możliwe byłoby wykorzystanie ich do realizacji bezprzewodowych sieci sensorowych działających w pobliżu ciała człowieka. Sieci tego typu mogą realizować różnorodne funkcje związane np. z monito... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Drgania w układach wyposażonych w przetworniki piezoelektryczne (Wojciech Kołton, Tomasz Trawiński)
Pierwszą wzmiankę na temat zjawiska piezoelektrycznego możemy znaleźć w artykule Piotra i Jakuba Curie z 1880 roku. Opisano w nim zjawisko powstawania ładunku elektrycznego, którego wartość jest wprost proporcjonalna do przyłożonego naprężenia. Rok po odkryciu zjawiska piezoelektrycznego Gabriel Jonas Lippmann wykazał możliwość występowania zjawiska odwrotnego, polegającego na powstaniu deformacji kryształu pod wpływem zewnętrznego pola elektrycznego [1]. Najczęściej do produkcji piezoelektryków jest stosowana ceramika np. tytanian ołowiano-cyrkonowy (PZT), niobian ołowianomagnezowy (PMN), których charakterystyki deformacji w funkcji natężenia pola elektrycznego są przedstawione na rysunku 1. Piezoelektryki ceramiczne wytwarza się z użyciem tego samego procesu technologicznego co w przypadku np. porcelany. Umożliwia to tanią produkcję elementów na skalę masową, bez żadnych ograniczeń wymiarowych oraz łatwy wpływ na parametry elementów poprzez odpowiednie domieszkowanie i cięcie. Główną wadą Rys. 1. Deformacja S w funkcji natężenia pola elektrycznego E piezoelektryków PZT i PMN [4] Fig. 1. Deformation S versus electric field E piezoelectrics PZT and PMN [4] 118 Elektronika 9/2012 ceramiki jest: duży rozrzut parametrów (sięgający kilkunastu procent), silny efekt starzenia, wysoki dryft temperaturowy parametrów. Pozostałymi materiałami, z których wytwarza się piezoelektryki są kryształy pozbawione środków symetrii np. tlenku krzemu SiO2, soli Seignette&#8217;a (winian sodu i potasu), turmalin [2]. Piezoelektryki ze względu na swoje właściwości, takie jak: niska masa, brak ruchomych części, szybka odpowiedź, możliwość działania w skrajnych temperaturach, znalazły szereg zastoso... więcej»

Rozwój techniki akceleratorowej w Europie - EuCARD 2012 (Ryszard S. Romaniuk)
Coroczna konferencja EuCARD 2012 dotycząca rozwoju infrastruktury akceleratorowej w Europie odbyła się w Warszawie w dniach 24-27 kwietnia 2012. Miejscem spotkania był Wydział Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Udział wzięło ok. 100 przedstawicieli Europejskiej techniki akceleratorowej. Wygłoszono 60 referatów zaproszonych. Konferencja obejmuje następującą tematykę: inżynieria materiałowa - nowe materiały do budowy podzespołów akceleratora, budowa nowej infrastruktury badawczej o znacznej skali, rekonstrukcja infrastruktury istniejącej, projekty HL-KHC, HE-LHC, CLIC, FAIR, FLASH, eksperymenty nowej fizyki, akceleratory laserowo-plazmowe. Celem konferencji było podsumowanie rocznych osiągnięć projektu UE FP7 EuCARD. Europejska sieć akceleratorowa ACCNET jest Europejską, Naukową Siecią Infrastruktury Akceleratorowej, formalnie związaną z projektem EuCARD. Jej zadaniem jest koordynacja działań środowiska. Uczestnikami są następujące instytucje posiadające infrastrukturę akceleratorową: IN2P3 oraz CNRS z Paryża, GSI z Darmstadtu, CERN - Genewa oraz DESY - Hamburg. Accnet składa się z trzech działań/subsieci pokrywających następującą tematykę: EUROLUMI - akceleratory i zderzacie, RFTECH - technologie RF nadprzewodzące i ciepłe, EuroNNAC - nowe rodzaje akceleratorów i współpracujących laserów. EUROLUMI gromadzi ekspertów w zakresie dynamiki wiązki cząsteczkowej i fotonowej, magnesów, kolimacji oraz eksperymentów RF. Eurolumi jest zaangażowana w następujące eksperymenty: FAIR - centrum badawcze antyprotonów i jonów, LHC-IR - rejon interakcji w wielkim zderzaczu hydronowym oraz poprawę parametrów z zastosowaniem technik Es - wczesnej separacji, FCC - pełnego przecięcia wiązek typu krab, LE - niskiej emitancji, LPA - duża wartość kąta Piwińskiego, modernizacja kompleksu akceleratorowego w CERNie, modernizacja iniektora LHC, podejmowanie początkowych inicjatyw w zakresie akceleracji plazmowej. RFTECH gr... więcej»

Krystalizacja techniką PAMBE nanostruktur GaN na podłożach Si (Zbigniew R. Żytkiewicz, Marta Sobańska, Kamil Kłosek, Jolanta Borysiuk, Aleksandra Wierzbicka, Anna Reszka, Giorgi Tchutchulashvili)
W pracy przedstawiono procedurę krystalizacji warstw GaN na podłożach Si(111) przy użyciu techniki epitaksji z wiązek molekularnych (MBE) z wykorzystaniem plazmowego źródła azotu (plasma-assisted MBE - PAMBE) oraz standardowych komórek efuzyjnych Ga i Al. W trakcie prowadzonych prac stwierdzono, że morfologia otrzymywanych struktur silnie zależy od stosunku strumieni galu i azotu wykorzystywanych w trakcie wzrostu. W warunkach nadmiaru galu otrzymuje się warstwy planarne, zaś przy tej samej temperaturze krystalizacji w warunkach bogatych w azot na powierzchni podłoża Si wzrastają gęsto ułożone nanodruty GaN (rys. 1). Wzrost techniką PAMBE i właściwości planarnych warstw GaN Ze względu na dużą różnicę współczynników rozszerzalności termicznej azotku galu i krzemu (111) (~116%), prowadzącą do silnych naprężeń termicznych i pękania warstw grubszych niż ~1 &#956;m, zastosowano różne konfiguracje międzywarstw AlN o grubościach 40&#8230;120 nm kompensujące naprężenia powstające podczas chłodzenia warstw do temperatury pokojowej [1]. Po zakończeniu wzrostu bufora AlN krystalizowano właściwą warstwę GaN. Jej wzrost odbywał się w warunkach bogatych w gal (Garich, rys. 1),... więcej»

Nowe źródła pojedynczych fotonów dla kryptografii kwantowej (Wojciech Nowakowski )
Kryptografia kwantowa teoretycznie jest bezpieczna, co wynika z samych praw mechaniki kwantowej [1, 2], ponieważ każda próba podsłuchania sygnału wprowadza zmiany tego sygnału, co informuje komunikujące się strony o ingerencji. W praktyce jednak współczesne, nawet komercyjne systemy kryptografii kwantowej są niedoskonałe, gdyż występuje wiele problemów implementacyjnych i technicznych [3]. Praktyczne wykorzystanie tej, teoretycznie doskonałej metody szyfrowania transmisji danych jest więc bardzo ograniczone, właściwie do urządzeń demonstracyjnych lub krótkich łączy specjalnie chronionych, np. na terenie jednej instytucji. Złośliwi twierdzą nawet, że kryptografia kwantowa do doskonały "temat wieczny", bo bardzo nośny i nowoczesny, ale od lat nie przynoszący żadnych realnych korzyści. Główne problemy to tanie i efektywne źródło strumienia pojedynczych fotonów o dostatecznej energii oraz ich poprawna technicznie, skuteczna detekcja. Wykazano np. [3], że po stronie detekcji sygnału łatwo jest oślepić fotopowielacz i stworzyć tym samym warunki niedostrzegalnego podsłuchu. Z problemem generacji fotonów jest jeszcze gorzej. Nie mamy dobrych źródeł pojedynczych fotonów, a jest to zagadnienie dla kwantowej kryptografii zupełnie fundamentalne: gdy wygenerujemy zamiast pojedynczego choćby dwa fotony, przejęcie jednego z nich (a zatem zmiana jego parametrów) może zostać niezauważona, gdyż tę samą informację niosą obydwa; drugi jest poprawny. Stosowane są różne metody zapobiegania wysyłaniu zwielokrotnionych fotonów. Jednym ze sposobów jest użycie bardzo... więcej»

Modulatory &#916; z adaptacją interwału próbkowania - rozwiązania predyktorów w technologii CMOS (RYSZARD GOLAŃSKI, JULIUSZ GODEK, JACEK KOŁODZIEJ)
Obszary zastosowań modulatorów z asynchronicznym próbkowaniem, to np.: medyczne techniki obrazowania (tomografia komputerowa i rezonans magnetyczny, rejestracja sygnałów EKG i ogólnie zdalne nadzorowanie), rejestracja zakłóceń impulsowych w liniach energetycznych, czujniki i rejestratory stężenia gazów np. w kopalniach [1]. Istotną cechą metod kodowania różnicowego jest to, że uwalniając całkowitą informację źródła od redundancji i kodując jej pozostałą część, mogą silnie zmniejszać wymaganą liczbę bitów, czyli zwiększać kompresję. Algorytmy modulacji różnicowych w swym opisie funkcjonalnym są bardzo proste, co skłania ku ich bezpośredniej realizacji sprzętowej. Modulatory ANS-DM (ang. Adaptive Nonuniform Sampling - Delta Modulation [2]), to przetworniki różnicowe 1-bitowe z adaptacją zarówno kroku kwantyzacji jak i częstotliwości próbkowania (NS-DM - to przetworniki różnicowe 1-bitowe z adaptacją jedynie częstotliwości próbkowania). Dzięki jednoczesnemu zmniejszaniu odstępu próbkowania &#964;pi (i - kolejny moment próbkowania) i zwiększaniu kroku kwantyzacji qi koder ANS-DM charakteryzuje się dużą szybkością zmian sygnału aproksymującego, przy stosunkowo niewielkim zakresie zmian każdego z adaptowanych parametrów. Zmniejsza to szumy przeciążenia stromości przez ograniczenie przeregulowań [3], zapewniając, wypadkowo wzrost SNR co jest szczególnie istotne przy konwersji analogowych sygnałów niestacjonarnych. Pojawiające się w przetwarzanym sygnale składowe wolnozmienne prowadzą do zmniejszenia odstępów między kolejnymi momentami próbkowania i kroku kwantyzacji, a to z kolei redukuje szum granulacji i średnią przepływność bitową [2, 3]. Zgodnie ze schematem blokowym modulacji ANS-DM, (rys. 1) analogowy sygnał wejściowy x(t) porównywany jest z sygnałem aproksymującym y(t), którego wielkość na wyjściu predyktora w chwilach próbkowania ti wynosi: (1) Operacja kwantowania, podobnie jak w przypadku NS-DM przebiega zgodnie z: (2... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Eksperymentalna walidacja elektromechanicznych modeli ultradźwiękowych przetworników piezoceramicznych (Andrzej Milewski, Paweł Kogut, Witold Kardyś, Piotr Kluk)
Piezoceramika od wielu lat jest materiałem wykorzystywanym do budowy przetworników ultradźwiękowych dużej mocy ze względu na ich bardzo dobre parametry, jak chociażby dużą sprawność i zdolność energetyczną oraz wytrzymałość mechaniczną. Naj- Rys. 1. Piezoceramiczne przetworniki ultradźwiękowe Fig. 1. Piezoceramic ultrasonic transducers częściej stosowana jest ceramika o geometrii walcowej wstępnie spolaryzowana w kierunku osiowym. Przykłady opisanych przetworników piezocermicznych zaprezentowano na rys. 1. Przetworniki ultradźwiękowe projektowane są na zadane parametry, takie jak częstotliwość pracy czy moc wyjściowa. Do projektowania technicznego przetwornika ultradźwiękowego potrzebny jest model matematyczny, który pozwoli na wstępną estymację wymaganych parametrów, w tym parametrów elementów składowych takich jak przetwornik piezoceramiczny. Model przetwornika piezoceramicznego jest również niezbędny do walidacji parametrów piezoceramiki dostarczonej od producenta, co jest szczególnie ważne ze względu na rozrzut technologiczny, który jak podają niektórzy producenci standardowo wynosi ~20%. W niniejszym artykule skupiono się na opisie elektromechanicznego modelu dla przypadku drgań osiowych oraz na metodach estymacji parametrów statycznych przetworników piezoceramicznych w oparciu o pomiary charakterystyk impedancyjnych. 16 Elektronika 8/2012 Model drgań osiowych Przypadek drgań osiowych obejmuje problem, w którym przetwornik w kształcie cienkiego dysku lub krążka zostaje poddany harmonicznemu pobudzeniu elektrycznemu oraz obustronnemu obciążeniu akustycznemu w kierunku osiowym. Problem ten wraz z warunkami wymuszenia oraz zadanymi warunkami brzegowymi ilustruje rys. 2. (3) gdzie k t jest efektywnym współczynnikiem sprzężenia elektromechanicznego drgań osiowych: (4) Estymacja parametrów statycznych przetwornika Technologia wytwarzania przetworników piezoceramicznych charakteryzuje się dużym rozrzutem technologicznym,... więcej»

Algorytm szybkiego obliczania wartości modułu liczby zespolonej (Marek Orzyłowski, Zbigniew Rudolf)
Systemy pomiarowe często są wyposażane w układy mikroprocesorowe, sterujące procesem pomiaru oraz wstępnie przetwarzające sygnały pomiarowe. W wyniku wstępnego przetwarzania sygnałów następuje redukcja informacji pomiarowej do niezbędnej liczby danych. Dzięki temu przy przesyłaniu wyników pomiarów na zewnątrz tych systemów pomiarowych nie trzeba stosować kanałów transmisyjnych o nadmiarowej przepustowości. Specjalizowane układy mikroprocesorowe, przeznaczone do pracy w systemach pomiarowych, mają stosunkowo ograniczoną moc obliczeniową, w związku z tym często istotne jest zastosowanie efektywnych algorytmów obliczeniowych o krótkim czasie wykonywania. W efekcie pomiarów uzyskuje się często wyniki w postaci liczb zespolonych. Przykładem może być analiza harmoniczna FFT, po przeprowadzeniu której, otrzymuje się wyniki jako liczby zespolone w postaci części rzeczywistej i urojonej. Gdy przy pomiarze istotne są tylko amplitudy harmonicznych, czyli moduły wspomnianych liczb zespolonych, można zredukować przesyłaną dalej informację do połowy. Pewnym problemem może być w takim przypadku jednak fakt, że dla obliczenia modułu liczby zespolonej niezbędne jest wykonanie operacji pierwiastkowania, która przy podejściu standardowym jest procedurą stosunkowo długo wykonywaną przez jednostkę centralną. Niniejszy artykuł przedstawia algorytm szybkiego obliczania modułów wartości liczb zespolonych z dokładnością niezbędną dla celów pomiarowych. Zastosowanie mikrokonwerterów W elektronicznych układach do celów pomiarowych i sterowania, szerokie zastosowanie znalazły mikrokonwertery, które stanowią zintegrowane układy klasycznych mikrokontrolerów z precyzyjnymi przetwornikami analogowo-cyfrowymi (A/C). Układy te, zawierające oprócz jednostki centralnej nieulotną pamięć programu, pamięć RAM oraz rozbudowane układy wejścia i wyjścia... więcej»

Wykorzystanie układów programowalnych w generatorach ultradźwiękowych dla technologii zgrzewania (Witold Kardyś, Paweł Kogut, Andrzej Milewski)
Ultradźwiękowe systemy zgrzewające zyskują obecnie popularność jako wygodne narzędzie technologiczne do łączenia ze sobą elementów z tworzyw sztucznych. Systemy zgrzewające pracują typowo z częstotliwościami 20&#8230;40 kHz i mocami od kilkuset watów do kilku kilowatów. Jednym z elementów takiego systemu jest generator ultradźwiękowy wytwarzający przebieg elektryczny, zasilający ultradźwiękowy układ drgający. Generator taki steruje całym procesem zgrzewania i decyduje o jego parametrach. Cechą charakterystyczną ultradźwiękowego układu drgającego jest znaczna wartość dobroci tworzonego przezeń rezonatora mechanicznego. Dobroć ta wynosi zwykle od kilku do kilkunastu tysięcy. Narzuca to specyficzne wymagania na generator sygnałowy. Musi on dysponować rozdzielczością generowanej częstotliwości rzędu 0,1 Hz przy częstotliwości pracy do 40 kHz. W starszych rozwiązaniach analogowych wykorzystywano fakt, że konkretny układ drgający pracuje wąskopasmowo w zakresie &#177; kilkaset Hz. Możliwe jest więc zastosowanie układu oscylato... więcej»

Wykorzystanie technologii organicznych diod elektroluminescencyjnych do budowy źródeł światła (Grażyna Kozioł, Kamil Janeczek, Aneta Araźna, Konrad Futera, Wojciech Stęplewski)
Diody OLED (Organic Light Emitting Diode) są nowatorskimi przyrządami elektronicznymi, formowanymi na bazie cienkich warstw organicznych o grubości około 100 nm. Ten stosunek wymiarów powoduje, że uważa się je praktycznie za przyrządy dwuwymiarowe. Diody OLED będą pracować przy bardzo niskich napięciach rzędu 3&#8230;5 V. Dlatego wprowadzenie diod OLED jako źródeł światła w zastosowaniach dotyczących powszechnego oświetlenia ma znaczenie rewolucyjne i spowoduje zasadnicze przesunięcie nadrzędnych priorytetów w przemyśle oświetleniowym. Budowa OLED Intensywne prace badawcze dotyczące materiałów, procesów i konstrukcji diod emitujących światło, zbudowanych z organicznych warstw półprzewodnikowych rozpoczęto kilka lat temu. Jeszcze stosunkowo niedawno wydawało się, że białe półprzewodnikowe diody elektroluminescencyjne LED były najwyższym osiągnięciem w tym obszarze. Przeszkodą w ich upowszechnianiu stają się nie tylko wysoki koszt produkcji, ale także ograniczenia technologiczne związane z materiałami nieorganicznymi (m.in. problemy z dalszą miniaturyzacją). Obecnie naukowcy kierują swoją uwagę w stronę materiałów organicznych. W odróżnieniu od elektroniki tradycyjnej, w której ze względu na kolektywny charakter zjawisk elementy aktywne nie mogą mieć rozmiarów atomowych, w elektronice organicznej można operować nawet na pojedynczych cząsteczkach. Chemia organiczna pozwala na realizację zamówień na materiały funkcjonalne, które są złożone z cząsteczek zaprojektowanych i przeznaczonych do wykonywania określonych funkcji. W rezultacie będzie można wykonywać, dzięki organicznym diodom luminescencyjnym OLED, nowatorskie źródła światła bardziej energetycznie efektywne niż istniejące obecnie źródła światła. Dioda OLED jest przyrządem bazującym na konwersji energii (przemiana prądu elektrycznego na światło). Jest bardzo cienka, o dużej powierzchni i praktycznie można ją uważać za przyrząd dwuwymiarowy. Zbudowana jest z materiałów pod... więcej»

Sol-gel and ALD antireflection coatings for silicon solar cells (Leszek Adam Dobrzański, Marek Szindler)
The application of one or more antireflection coatings on the front surface of the solar cells reduces the reflection of the incident light, which increases the device efficiency. For solar cells it is important to have a minimum reflection over all the visible spectrum range [1]. The studies of solar cells can be divided into two approaches. One is to reduce production costs, the second is to increasing efficiency of solar cells. The design of low-cost antireflection coatings is possible by using the sol gel method. It is a process for preparing materials at low temperatures from solutions. We can produce different forms of materials include gels, gel-derived glasses, ceramics in form of nano- and micro-powders, bulk, fibres, thin films and coatings as well as more recent materials such as hybrid organicinorganic materials and composites. Controlling of the physical and chemical parameters of production process gives materials with precisely adjusted parameters such as mechanical strength, transparency, size and distribution of the pores. Generally the sol gel method consists in a few steps as shown in Fig. 1 [2-4]. There are many kinds methods of deposition antireflection coatings from solutions. For example, by spinning, dipping or spraying. Spin coating is a fast and easy method to prepare thin and homogeneous organic and inorganic films. Spin coating is a procedure used to deposit uniform thin films onto fla... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Stability analysis of emissivity levels of the mobile computers (Marek Bugaj, Leszek Nowosielski, Marian Wnuk, Rafał Przesmycki, Kazimierz Piwowarczyk)
In order to evaluate the stability of the radiated emission levels of computer internal components on different in the frequency band from 10 kHz to 1 GHz a series of measurements of the radiated emissivity of the selected laptop. As a test object was selected computer HP Elite Book 8540 w. Radiated emission stability levels A. Relative and the maximum value stability of signal level In order to assess the stability of the radiated emission levels of the laptop components at different frequencies based on a series of measurements can be used the following measure of the stability levels for each individual frequencies: - the relative value of the stability signal level, - maximum values of the relative stability of the signal level. These values should be calculated based on a series of measurements of radiated emission levels of the components for different frequencies. Before this the procedure of elimination of anomalous measurement results should be done. Before the stability evaluation of the radiated emission levels of the laptop internal components at different frequencies calculations, the value of the radiated emissivity level in relation to which we will be define the deviation of the measured radiated emission levels has to be determined. As a reference value of radiated emission level of the laptopinternal components the average value of measured radiated emission levels for each frequency can be used. anomalous results. The average value can be calculated using the following formula: (1) where: i - number of the successive measurements, n - number of all measurements (n = max), j - number of the successive frequency. Procedure for assessment of stability with reference to average value of the radiated emission field strength levels for each frequency requires the elimination of anomalous resul... więcej»

A wearable microstrip rectangular patch antenna (Mariusz Woźniak, Adrian Durka, Marek Bugaj, Rafał Przesmycki, Leszek Nowosielski, Marian Wnuk)
Designing wearable antennas for wireless communication systems is a very important field of knowledge nowadays. These antennas can be applied in body-centric communication systems, such as paramedics, fire fighting and military. Besides, wearable antennas also can be used for youngsters, the aged and athletes for the purpose of monitoring. Commonly, wearable antenna requirements are small size, light weight, low cost, no need of installation and, which is one of the most important properties, ideally low radiation level in the direction of the human body. Moreover, wearable antennas should be almost maintenance-free and failure-free [1]. There are two major types of wearable antennas: conventional wearable designs (which include planar dipoles [2], monopoles [3], PIFAs (planar-inverted Fs) [4], microstrip patches [5], button antennas [6]) and textile antenna designs [7] (made of conductive fabrics called electro-textiles). The major disadvantage of antennas presented in these referenced articles is that they don&#8217;t limit backward radiation. In this paper a microstrip rectangular patch antenna is proposed. Patch antennas are feasible for both on-body and off-body communication due to the low profile they utilize. The ground plane of such antenna effectively shields both the antenna (from the influence of the human body) and the user (from negative effects of electromagnetic field). Antenna design Figures 1 shows the presented antenna geometry. The substrate selected for the antenna was ULTRALAM 2000 with effective dielectric constant &#949;r = 2.6 and loss tangent &#948; = 0.0022 made by Rodgers ... więcej»

Obliczenia cieplne urządzeń elektronicznych (Grzegorz Maj)
Do prawidłowej pracy każdego urządzenia elektronicznego niezbędne jest zapewnienie mu odpowiednich warunków cieplnych tak, aby temperatura nie przekraczała maksymalnej wartości dopuszczalnej przez producenta. Ponieważ, wraz ze wzrostem temperatury niezawodność elementów elektronicznych szybko maleje, często pożądane jest zapewnienie korzystniejszych warunków termicznych niż wymaga producent. Trwałość i jakość urządzeń elektronicznych zależy więc od skuteczności odprowadzania ciepła, co jest jednym z zadań osoby konstruującej urządzenie - dobór odpowiedniego chłodzenia. Obecnie konstruktorzy mają do wyboru wiele rozwiązań umożliwiających skuteczne odprowadzania ciepła z układów. Są to chłodzenie cieczowe, ogniwa Peltiera, chłodzenie dwustanowe (rurki cieplne) itp. Jednak z wielu względów nadal najbardziej rozpowszechnioną i najczęściej wykorzystywaną w elektronice metodą chłodzenia, jest metoda odprowadzania ciepła przy wykorzystaniu różnego rodzaju radiatorów, zarówno bez jak i z wymuszonym obiegiem powietrza. Metoda ta jest najtańsza, najprostsza i najbardziej niezawodna, dlatego w dalszej części artykułu zostaną dokładniej omówione metody obliczeń i doboru radiatorów. Ciepło wydziela się na elementach elektronicznych w postaci mocy strat. Radiator musi umożliwiać wypromieniowanie, co najmniej mocy równej tejże mocy strat. W przypadku, gdy istnieje możliwość doboru radiatora kupnego zazwyczaj wystarczy przeprowadzić uproszczone szacunki na podstawie następującego wzoru: (1) gdzie: P [W] - moc wydzielająca się podczas pracy elementu w postaci ciepła; t [K] - temperatura złącza elementu; t 0 [K] - temperatura otoczenia rozpatrywanego elementu; Rthja [K/W] - rezystancja cieplna "połączenia" złącze - otoczenie (junctionambient). Wielkość rezystancji cieplnej Rthja charakteryzuje konkretną obudowę elementu pod względem przewodzenia ciepła. Podawana jest ona zazwyczaj w kartach katalogowych producentów podzespołów elektroniczn... więcej»

Zastosowanie InGaAsN w konstrukcji ogniwa słonecznego p-i-n (Wojciech Dawidowski, Beata Ściana, Iwona Zborowska -Lindert, Damian Pucicki, Damian Radziewicz, Katarzyna Bielak&#8201;)
Krzemowe ogniwa słoneczne charakteryzują się sprawnością konwersji sięgajacą 25% [1], jednakże nie są one w stanie zaabsorbować promieniowania z zakresu bliskiej podczerwieni. Zastosowanie ogniw wielozłączowych, na bazie związków półprzewodnikowych AIIIBV pozwala na lepsze dopasowanie odpowiedzi ogniwa do spektrum promieniowania słonecznego. Ich potencjalne zastosowanie to systemy koncentratorowe oraz układy zasilania satelitów w przestrzeni kosmicznej [2]. Szeregowe połączenie kilku podogniw absorbujących fotony o różnych energiach, pozwala na uzyskanie prądu oraz napięcia określonych zależnościami (1-2): (1) (2) Wykorzystując półprzewodniki o precyzyjnie dobranych wartościach przerwy zabronionej można wytworzyć ogniwo wielozłączowe (np. GaInP/GaAs) o wyższej efektywności, jednak w dalszym ciągu fotony o energii zbliżonej do 1 eV nie są pochłaniane. Wprowadzenie kolejnego podogniwa na bazie poczwórnego stopu półprzewodnikowego InGaAsN, pozwala na wykorzystywanie promieniowania z w/w zakresu spektralnego, co powoduje dalszy wzrost konwersji fotowoltaicznej, sięgający nawet 43,5%, przy koncentracji światła 418 x [1]. Technologia i pomiary struktur testowych W trakcie prowadzonych prac badawczych zoptymalizowany został proces krystalizacji struktury MQW (ang. Multi Quantum Well), zawierający układ potrójnych studni kwantowych InGaAsN/ GaAs, metodą AP-MOVPE (ang. Atmospheric Pressure Metal Oganic Vapour Phase Epitaxy). Najlepsze parametry strukturalne i optyczne uzyskano dla próbki NI 46 osadzanej w tem... więcej»

Method of temperature fluctuations compensation in the silicon photomultiplier measurement system (Mateusz Baszczyk, Piotr Dorosz, Sebastian Głąb, Wojciech Kucewicz, Łukasz Mik, Maria Sapor )
Independently of the direction the p-n junction is polarized in, the currents in it are strongly dependent on temperature. In the state of the avalanche breakdown, the increase of the temperature contributes to the more vivid vibrations of the particles of the crystal lattice. The vibrating atom occupies more space and the probability of the collision with an accelerated carrier increases. The collisions occur earlier so the free path is shorter. It means that the carriers are accelerated on shorter path and have smaller kinetic energies. Insufficient energy results in a reduction of the probability of knocking out carriers pairs. Avalanche multiplication becomes weaker and the avalanche current decreases. Silicon Photomultiplier operates in Geiger mode which mean that it is polarized beyond the breakdown voltage. Variation of breakdown voltage especially influence the parameters of SiPM. This voltage depends on temperature. When temperature increase value of the breakdown voltage increase also [1]. This variation leads to fluctuation of the current of SiPM because polarization voltage is constant during measurement. Distance between polarization voltage and the breakdown voltage is changed. To set operating parameters of SiPM on the stable level there is need to control temperature. This article introduce new method for compensating temperature fluctuations. This method is based on controlling distance between breakdown voltage and polarization voltage to set current of the p-n junction on the stable level. If the temperature of the Silicon Photomultiplier is higher than 0K, inside the detector, due to vibrations of the lattice, pairs of the electron-hole carriers are created. It is called the thermal generation of the carriers. The probability of detecting the photon (detecting the absorption of the photon resulting in the generation of avalanche current) is directly proportional to the value of bias voltage of the detector.... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Zasady wyznaczania wyników pomiarów pośrednich wieloparametrowych &#8211; w zarysie (ZYGMUNT LECH WARSZA)
We wszystkich dyscyplinach naukowych opartych na eksperymencie, w przemyśle i w innych dziedzinach gospodarki coraz więcej pozyskuje się, przetwarza i wykorzystuje wyniki pomiarów wieloparametrowych (multivariate), czyli wykonuje się pomiary pośrednie multimenzurandu. W szczególności mierzy się równocześnie sygnały wyjściowe wielu jedno- lub wieloparametrowych czujników. Sygnały te podlegają rozrzutom losowym i mogą być ze sobą w różny sposób skojarzone deterministycznie i statystycznie poprzez obiekt badany, system pomiarowy i oddziaływania zewnętrzne. Z próbek pomiarowych wyznacza się estymatory wartości, niepewności i współczynników korelacji wielkości mierzonych pośrednio. Zaokrąglanie i przetwarzanie wyników pomiarów wieloparametrowych i prezentacja ich danych cyfrowych dokonywana jest obecnie dość dowolnie, gdyż przepisy metrologiczne nie są w stanie nadążyć za zróżnicowanymi w różnych dziedzinach potrzebami techniki pomiarowej. Międzynarodowy przewodnik o wyrażaniu niepewności pomiarów GUM [1] oraz poradnik NASA [2] zawierają zalecenia głównie dla szacowania wyników pomiarów pojedynczych wielkości. Niezbędna jest więc standaryzacja procedur wyznaczania, przetwarzania, oceny dokładności i sposobu publikowania wyników pomiarów wieloparametrowych, aby otrzymywane dane miały wysoką jakość i odpowiednią wiarygodność metrologiczną. Zagadnieniom tym jest poświęcony, Suplement 2 do GUM, dopiero ostatnio ukończony i dostępny już w Internecie [1a]. Suplement ten liczy ponad 70 stron. Poza wstępem i odniesieniami do innych związanych z nim tematycznie przepisów obejmuje: pojęcia i definicje, notację i podstawy wektorowego opisu pomiarów wieloparametrowych, wyznaczania ich niepewności z uwzględnieniem dotychczasowych zasad GUM, zastosowanie Metody Monte Carlo, 5 przykładów oraz 4 aneksy i bogatą bibliografię. Pomimo tak bogatej treści nie zawiera on jeszcze omówienia wiele zagadnień niezbędnych we wdrożeniu w praktyce pomiarowej ... więcej»

Alternative solutions for texturization of silicon solar cells (Karolina Drzymała)
Teksturyzacja ogniw krzemowych jest istotnym czynnikiem zwiększającym ich sprawność w wyniku zmniejszenia strat odbiciowych. Tekstura wprowadzona w latach 70. wytwarzana była poprzez trawienie chemiczne podłoży krzemowych o orientacji krystalograficznej (100). W patencie zgłoszonym w 1975 roku [1] zaprezentowano jako roztwór trawiący mieszaninę wodorotlenku potasu, glikolu etylenowego i wody. Parametry procesu to: temperatura 80°C, czas trawienia 1 godzina. W rezultacie na powierzchni krzemu wytworzone zostały charakterystyczne struktury w kształcie piramid, będące efektem anizotropowego trawienia i ujawniania się płaszczyzn {111} (rys. 1 i 2). Do dzisiaj z powodzeniem w przemyśle fotowoltaicznym wykorzystywane są roztwory teksturyzujące na bazie KOH. Jed- Rys. 1. Płaszczyzny {111} w krysztale krzemu Rys. 2. Piramida powstająca na powierzchni (100) w trakcie trawienia anizotropowego [2] Rys. 3. Powierzchnia (100) Si trawiona w KO H o różnym stężeniu: a) 70°C, b) 90°C [3] nakże prowadzi się prace dążące do usprawnienia tego procesu przez np. skrócenie czasu trawienia, co prowadzi do oszczędności energii. Szuka się także nowych dodatków (surfaktantów) do podstawowego roztworu w celu uzyskiwania tekstury o niższym współczynniku odbicia niż osiągane do tej pory. Przegląd roztworów teksturujących Wodorotlenek potasu Wodorotlenek potasu jest podstawowym roztworem do teksturyzacji. Wyniki przedstawione w pracy [3] w... więcej»

Analiza zjawisk w czujnikach chemicznych z warstwą przyelektrodową (Helena TETERYCZ, Patryk HALEK, Patrycja SUCHORSKA, Olga RAC, Marta FIEDOT, Dominika OLEŚ, Grzegorz HALEK, Kamil WIŚNIEWSKI)
Chemiczne rezystancyjne czujniki gazu charakteryzują się przede wszystkim niską ceną i relatywnie dobrymi parametrami użytkowymi [1]. Duże znaczenie ma również ich prosta konstrukcja. Typowo składają się one z podłoża, grzejnika, elektrod oraz warstwy gazoczułej. Materiałami sensorowymi są najczęściej proste tlenki metali o właściwościach półprzewodnikowych, natomiast do budowy elektrod wykorzystuje się materiały stabilne chemicznie i termicznie. Najczęściej warstwy elektrod wykonuje się ze złota lub platyny [2]. Rezystancyjne czujniki gazów to najczęściej ceramiczne, grubo- lub cienkowarstwowe rezystory półprzewodnikowe, które zmieniają swoją konduktancję (rezystancję) w wyniku reakcji chemicznej zachodzącej na powierzchni warstwy gazoczułej z udziałem cząsteczek oznaczanych gazów [2]. Mimo, iż najważniejszym elementem czujnika jest warstwa gazoczuła, to jednak o jego parametrach użytkowych decydują zarówno parametry warstwy gazoczułej, jak i materiał elektrod oraz właściwości kontaktu warstwa gazoczuła - elektroda. Właściwości tego kontaktu są bardzo ... więcej»

Photovoltaic bulk heterojunctions with interpenetrating network based on semiconducting polymers (Michał Modzelewski, Ewa Klugmann -Radziemska)
Bulk heterojunctions with interpenetrating network architecture (BHS) is nowadays the most prospective one exploited for organic electronic devices manufacturing as it enables fabricating large and flexible areas of light-emitting diodes, transistors and solar cells. Bulk heterojunction with internal network of percolation paths is intermixed spatial blend of two physically stable phases (Fig. 1). One of the phases is composed of electron-donor compound which is characterized by low ionization potential and second with high electron affinity acts as an electron-acceptor. Exceptional position of BHS amongst all architectures of organic PV devices can be explained primarily by possibility of low-cost deposition of soluble organic photoactive compounds by means of novel techniques such as spin-coating, screen printing or doctor blading on the one side and by achieving internal network within an exciton diffusion length on the other side. Until that day the most effective bulk heterojunction based on semiconducting (conjugated) polymers is structure of Poly(3-hexyltiophene) (P3HT) acting as electron donor an Phenyl-C60-butyric acid methyl ester as electron acceptor [1] (Fig. 2). There are different BHJ technologies referred to type of applied materials. The common part for all of them is solubility of constituent compounds. As far as BHJs are charge transfer systems one may divide them into polymer/fullerene derivatives, polymer/polymer, low-band gap polymers/fullerene derivatives, polymer/inorganic compound and polymer/oxide. All mentioned may be doped or not. To find our own place amongst organic photovoltaic we decided to apply low-band gap polymer for organic solar cell. The main goal of following paper was to construct an organic photovoltaic cell in BHJ ... więcej»

Kamerton piezoelektryczny - uniwersalna platforma czujników fizycznych, chemicznych oraz biologicznych (Karol WASZCZUK, Michał ŚWIĄTKOWSKI, Tomasz PIASECKI, Karol NITSCH, Teodor GOTSZALK, Jacek RYBKA, Grzegorz SCHROEDER, Grzegor z GUŁA, Zuzanna DRULIS-KAWA)
Kamertony piezoelektryczne, powszechnie stosowane jako kwarcowe wzorce częstotliwości w elektronicznych układach RTC (ang. Real Time Clock) mogą być również używane w różnych zastosowaniach czujnikowych. Kluczowe w takich aplikacjach jest precyzyjne określenie zmian własności mechanicznych rezonatora, które w określonych warunkach można powiązać ze zmianą mierzonej wielkości fizycznej. Technologia elektrycznych pomiarów parametrów drgań rezonansowych kamertonów kwarcowych (QTF) rozwijana w Zakładzie Metrologii Mikro- i Nanostruktur WEMIF PWR była stosowana do pomiarów różnych wielkości fizycznych. Autorzy prezentują przegląd zastosowań kamertonów piezoelektrycznych w pomiarach topografii powierzchni, detekcji niewielkich mas oraz określaniu... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient&#8217;s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor&#8217;s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient&#8217;s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article &#8220;Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

Metodyki pomiarów parametrów materiałów absorpcyjnych (Rafał Przesmycki, Leszek Nowosielski, Marian Wnuk, Marek Bugaj, Kazimierz Piwowarczyk)
Wraz ze wzrastającą ilością urządzeń wytwarzających promieniowanie elektromagnetyczne zachodzi potrzeba ochrony urządzeń i ludzi przed niepożądanym promieniowaniem elektromagnetycznym. Problem zabezpieczania przed niepożądanym promieniowaniem jest szczególnie istotny w zagadnieniach kompatybilności elektromagnetycznej. Jednym ze sposobów zabezpieczania przed oddziaływaniem niepożądanego promieniowania są ekrany elektromagnetyczne. Generalnie można wyróżnić dwa sposoby funkcjonowania ekranów elektromagnetycznych - poprzez odbicie padającej fali elektromagnetycznej bądź poprzez absorpcję energii elektromagnetycznej. Biorąc pod uwagę skuteczność ekranowania idealny ekran elektromagnetyczny powinien charakteryzować się niskim współczynnikiem odbicia oraz wysoką wartością absorpcji padającego promieniowania. Współczynniki odbicia oraz absorpcji (transmisji) zależą od właściwości elektrycznych i magnetycznych materiału i zmieniają się w funkcji częstotliwości. W celu osiągnięcia pożądanych parametrów odbicia i transmisji często stosuje się kompozyty złożone z materiałów o różnych właściwościach. Jednakże w takim przypadku wartości współczynników odbicia i transmisji mogą zależeć również od polaryzacji i kąta padającego promieniowania. Obecnie stosowane są odmienne sposoby ekranowania w zakresie mikrofalowym i odmienne w zakresie niskich częstotliwości. Do ekranowania elektromagnetycznego w zakresie mikrofalowym stosuje się materiały grafitowe, które dodatkowo kształtowane są w postaci piramidalnych ostrosłupów. Z kolei, duże skuteczności ekranowania w zakresie niskich częstotliwości uzyskuje się stosując materiały ferrytowe posiadające dodatkowe właściwości magnetyczne. W większości przypadków ściany komór bezodbiciowych wyłożone są dwoma warstwami, z których jedna warstwa zbudowana jest z płytek ferrytowych, a druga z ostrosłupów grafitowych. Takie sposoby ekranowania są jednak dogodne jedynie do stosowania w komorach bezodbiciowy... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding &#8217;noisy&#8217; directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski&#8201;)
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą &#8216;VBS & new-cost&#8217; (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

Bonding technologies for 3D-packaging (Klaus -Jurgen Wolter, Karsten Meier, Peter Saettler, Iuliana Panchenko , Max Froemmig)
Market drivers and requirements for performance pushed semiconductor devices to scaled geometries, less power, smaller sizes and lower cost. The scaling of CMOS structures &#8220;more Moore" will not be able to meet the current and future demands of the drivers due to the functional diversification of electronics, physical limits of CMOS technology and growth of costs.System on Chip (SoC) and System in Package (SiP) both are technologies which have the potential to continue the improvement in performance, size, power, and cost of electronic systems (see Fig. 1). Both technologies feature advantages and disadvantages with respect to system integration. &#61607; SoC is a way to increase functional integration by including sub-systems on a single chip which means large scaling but increased design effort. For this, more than just digital functions have to be incorporated into an integrated circuit design, e.g. analogue-to-digital and digital-to-analogue conversion. &#61607; SiP combines multiple active electronic components of different functionality, assembled in a single unit. This enables multiple functions inserted into a system or sub-system with low design effort but higher package size. A SiP may also integrate passives, MEMS, optical components and other packages. [2] The following approaches can be regarded as state of the art of SiP technologies: - Horizontal structures (Multi Chip Module as QFP, BGA or FCpackages) - Stacked structures (PoP, 3D-integration with TSVs) - Embedded structures (embedded wafer level packages (eWLP)) Three-dimensional integration is an attractive way for bringing together various functional blocks in a vertical fashion. Hence, the reduction of package sizes leads to shorter signal and power interconnects and results into lower signal propagation delay and power consumption [3]. The advances of 3D-integration can also be used for &#8220;More than Moore" approaches, where a heterogeneous syste... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Strategiczne kierunki rozwoju technologii i produktów militarnych w Bumar Elektronika (Zenon Szczepaniak, Jerzy Miłosz, Andrzej Kątcki, Zenon Obrycki, HENRYK KANTECKI)
W perspektywie 2012-2020 Dywizja Bumar Elektronika powinna osiągnąć następujące cele strategiczne: - Utrzymać wiodącą pozycję dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, - Wejść ze swoimi produktami i usługami na rynek uzbrojenia zagraniczny, szczególnie europejski, - Zdobyć wybrany segment rynku cywilnego (krajowego i zagranicznego). W celu utrzymania wiodącej pozycji dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, w wyżej opisanych warunkach rosnącej konkurencji, a więc możliwości dostaw (obiektów) systemów wspomagania dowodzenia i sensorów przez konkurencyjne firmy (krajowe i zagraniczne), należy zdobyć pozycję integratora systemu C4ISR SZ RP. Wtedy Bumar Elektronika będzie miała wpływ na kształtowanie architektury systemu oraz zasad integracji, wzrośnie też szansa, że podsystemy, obiekty i produkowane sensory będą bardziej konkurencyjne w stosunku do wyrobów innych producentów. Realnym jest wejście na rynki zagraniczne (w tym europejski) z podzespołami, podsystemami, czy specyficznymi usługami (szczególnie w zakresie oprogramowania), ale jako podwykonawca czy dostawca wybranej firmy lub firm europejskich. Natomiast, w celu uzyskania konkurencyjności wybranych produktów i usług Bumar Elektronika na rynku cywilnym należy wydzielić "linię produkcji cywilnej" lub powołać "firmę -córkę", która nie byłaby obciążona kosztami związanymi z wymaganiami dotyczącymi produkcji wojskowej. Proces osiągania celów strategicznych powinien składać się z następujących faz: - Faza I - konsolidacja spółek - cel bliższy (ok. 2 lata) - utrzymanie ciągłości realizacji umów i zobowiązań, - Faza II - utrzymanie rynku i budowanie bazy do osiągania celów strategicznych - cel średnioterminowy (do ok. 5 lat). Osiąganie celu bliższego (Faza I) polega na wdrożeniu takich struktur organizacyjnych oraz zachowaniu zasobów ludzkich pozwalających na realizację podpisanych (obe... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wybrane zagadnienia metrologii mikro- i nanostruktur (Teodor Gotszalk, Grzegorz Jóźwia, Zbigniew Kowalski, Karol Nitsch, Tomasz Piasecki, Jacek Radojewski, Anna Sankowska, Jarosław Serafińczuk, Przemysław Szecówka)
Postęp w dziedzinie mikro- i nanotechnologii jest związany nie tylko z rozwojem technologii wytwarzania mikro- i nanostruktur, ale również wymaga opracowania i wdrożenia nowych metod i technik badania stosowanych materiałów, konstruowanych przyrządów i podzespołów. Od technik i metod badawczych oczekuje się w tym przypadku przede wszystkim możliwości metrologicznej - innymi słowy - ilościowej oceny obserwowanych zjawisk. Dodatkowo powinny one się charakteryzować dużą czułością pozwalającą często na rejestrację zjawisk kwantowych oraz - w wielu przypadkach - nadzwyczajną lokalną zdolnością rozdzielczą umożliwiającą przeprowadzenie eksperymentu w obszarze kilkudziesięciu nanometrów kwadratowych. Należy zwrócić uwagę, że metrologia obejmuje nie tylko praktykę prowadzenia pomiaru, ale obejmuje również jego aspekty teoretyczne. W przypadku mikro- i nanostruktur oznacza to również interpretację rejestrowanych wyników, wykraczającą poza stosowane w makroskali rozumowanie bazujące często na statystycznym uśrednianiu. Konieczne jest również opracowanie i wdrożenie wiarygodnych i powszechnych metod skalowania stosowanych układów i przyrządów, co umożliwiałoby porównywanie wyników między poszczególnymi laboratoriami. Zakład Metrologii Mikro- i Nanostruktur (ZMMiN) Wydziału Elektroniki Mikrosystemów i Fotoniki (WEMIF) Politechniki Wrocławskiej (PWr) zajmuje się opisanymi zagadnieniami od 2006 roku. Ideą prowadzonych badań jest, aby integrując różne metody i techniki badawcze, dokonywać ilościowej oceny zachowań struktur spotykanych w nanotechnologii, biotechnologii i technice mikrosystemów. Integracja ta obejmuje techniki pomiaru właściwości elektrycznych (m. in. spektroskopia impedancyjna, ang. Impedance Spectroscopy, IS), skaningową mikroskopię elektronową (ang. Scanning Electron Microscopy, SEM), mikroskopię bliskich oddziaływań (ang. Scanning Probe Microscopy, SPM), dyfraktometrię rentgenowską (ang. X-ray diffraction, XRD), optoele... więcej»

Zastosowanie związków powierzchniowo-czynnych do teksturyzacji podłoży krzemowych (Irena Zubel, Filip Granek, Krzysztof Rola, Katarzyna Banaszczyk)
Teksturowanie monokrystalicznych podłoży krzemowych (100), wykorzystywanych do wytwarzania ogniw słonecznych jest zagadnieniem niezwykle aktualnym ze względu na coraz szersze wykorzystanie energii słonecznej jako źródła energii odnawialnej. Ma ono na celu minimalizację strat energii związanych z odbiciem padającego promieniowania. Prowadzi do zmniejszenia współczynnika odbicia światła, a w konsekwencji do poprawy sprawności ogniw. Teksturyzacja zachodzi w wyniku anizotropowego trawienia krzemu w roztworach alkalicznych NaOH, KOH, przy niskich koncentracjach wodorotlenków [1-3]. Ostatnio w technologiach MEMS wodorotlenki te są często zastępowane przez wodorotlenek organiczny TMAH (wodorotlenek tetrametyloamoniowy), aby uniknąć szkodliwego wpływu jonów metali alkalicznych. TMAH jest też stosowany do teksturowania powierzchni [4]. Wielu autorów podkreśla jednak, że teksturowanie w czystych wodorotlenkach nie daje jednorodnie steksturowanej powierzchni z powodu złego odprowadzania pęcherzyków wodoru z trawionych podłoży. Aby temu zapobiec, do roztworów dodawane są związki powierzchniowo czynne, zwiększające zwilżalność powierzchni. Najczęściej stosuje się alkohole, takie jak alkohol izopropylowy (IPA) czy alkohol tert-butylowy (TBA), które poprawiają jednorodność teksturowanej powierzchni [5-9]. Stosowanie alkoholi wiąże się jednak z pewnymi niedogodnościami, wynikającymi z ich niskiej temperatury wrzenia (temperatura wrzenia IPA wynosi ok. 82&#186;C). Proces teksturowania krzemu prowadzony jest w wysokiej temperaturze (70...90&#186;C). Lotne alkohole nie pozwalają na zwiększenie temperatury procesu powyżej 80&#186;C, a tym samym skrócenie czasu trawienia, a dodatkowo sprawiają, że skład roztworu jest niestabilny, a szkodliwe pary alkoholi przedostają się do środowiska. W celu utrzymania stałej zawartości alkoholu (np. IPA) w roztworze, alkohol musi być dodawany w trakcie pro- Skute... więcej»

System detekcyjny elektronów wtórnych i wstecznie rozproszonych do obrazowania 3D w niskopróżniowej SEM (Witold Słówko, Michał Krysztof)
Skaningowa Mikroskopia Elektronowa (SEM) jest szeroko rozpowszechnionym narzędziem badawczym i pomiarowym, historycznie rzecz biorąc uważanym za instrument próżniowy, umożliwiający obrazowanie dwuwymiarowe. Prace prowadzone w ostatnich latach zmieniają te cechy, pozwalając na obserwacje wymagających tego obiektów w atmosferze gazowej (VP SEM -Variable Pressure SEM), lub trójwymiarowe (3D) obrazowanie topografii ich powierzchni. Autorzy mieli już okazję przedstawić w Elektronice wyniki swoich prac w obu wymienionych technikach badawczych [1, 2], jednak zupełnie nowym przedsięwzięciem jest ich połączenie, zmierzające do trójwymiarowego obrazowania topografii obiektów badanych w atmosferze gazowej, np. preparatów nieprzewodzących, czy też zawierających wodę [3]. Autorzy stosują w swych pracach techniki wielodetektorowe wywodzące się z metody fotometrycznej [4]. W tym wypadku, synteza obrazu trójwymiarowego opiera się na informacjach wynikających z rozkładu kątowego elektronów wtórnych i wstecznie rozproszonych. Zakłada się, że jest to rozkład lambertowski, a kierunkowy przepływ elektronów z danego punktu emisji do czterech symetrycznie rozmieszczonych detektorów jest źródłem sygnałów, których wzajemna relacja jest miarą nachylenia powierzchni w tym punkcie. Sygnały te są zapamiętywane w formie czterech obrazów wejściowych. Całkowanie nachyleń zgodnie z siatką obrazową pozwala na wyznaczenie kształtu powierzchni, zapamiętywanego w formie bit-mapy wysokości. Powierzchnia może być wizualizowana w dowolnej formie, z wykorzystaniem znanych technik komputerowych. Nowym problemem wynikającym z zastosowania opisanej techniki w atmosferze gazowej jest rozpraszanie elektronów na skutek zderzeń z molekułami gazu... więcej»

Data acquisition system for sensor array (Patryk Gwi żdż, Andrzej Brudnik, Katarzyna Zakrzewska)
Resistive - type semiconducting gas sensors based on metal oxides have attracted attention of many research groups around the world for detection of reducing and oxidizing gases. First commercial metal oxide gas sensors were introduced in 1971 by Taguchi [1]. It is well known that among some important advantages like low cost and high sensitivity to a broad spectrum of gases, metal oxide resistive sensors have many disadvantages such as: lack of selectivity, high operating temperature, cross-sensitivity to humidity and response drift. All those drawbacks limit the number of real applications and therefore they are used mainly in simple low cost gas alarm systems. Currently, a profound research is carried out to eliminate these drawbacks although without any particular success. Resistive type gas sensors based on metal oxides are not specific because their sensing mechanism is based on electron transfer due to redox reactions. Their selectivity can be improved to a certain extent by a variety of techniques including: suitable doping, application of filters, adjusting the temperature of operation, material morphology, modulation of temperature, analysis of transience responses [2, 3]. Completely different approach to the selectivity problem is represented by the idea of an array of partially specific sensors that are capable to analyze and recognize the components of the gas mixture. When applied to odours, such system is called an electronic nose and was introduced by Dodd and Persaud as a device mimicking the olfactory system of smell [4]. Nowadays there is a specific interest in developing reliable small devices based on sensor arrays for gas detection purposes. A term &#8220;application - specific sensor system" has been proposed [2] for systems based on an array of gas sensors and pattern recognition. An array of metal oxide sensors can serve as a tool for gas detection, classification of odours [2] and reducing cross sensi... więcej»

Wykorzystanie zaawansowanych trybów mikroskopii sił atomowych w badaniach struktur i przyrządów półprzewodnikowych (Adam Szyszka, Wojciech Macherzyński, Joanna Pra żmowska, Mateusz Wośko, Andrzej Stafiniak, Jacek Gryglewicz, Maria Ramiączek -Krasowska, Bogdan Paszkiewicz, Bogdan Jankowski, Beata Ściana, Regina Paszkiewicz, Marek Tłaczała)
Zmniejszanie wymiarów charakterystycznych obszarów aktywnych przyrządów półprzewodnikowych oraz wykorzystywanie nowych materiałów są głównymi kierunkami rozwoju współczesnej elektroniki. Prowadzi to do zwiększenia częstotliwości pracy urządzeń oraz skali integracji, zmniejszenia wartości napięć zasilających oraz zużywanej energii, umożliwia powstawanie urządzeń których zasady działania są oparte na efektach kwantowych oraz pozwala zwiększyć czułość i czas reakcji elementów czujnikowych. W związku z tym opracowanie technologii wytwarzania nowoczesnych przyrządów półprzewodnikowych wymaga zastosowania w fazie badań metod charakteryzacji umożliwiających pomiar właściwości materiałów z rozdzielczością nanometrową. Jednymi z technik możliwych do zastosowania w tym celu są metody będące rozwinięciem klasycznej mikroskopi sił atomowych, w których badanie oddziaływań różnego typu między końcówką ostrza miktoskopu, a powierzchną próbki pozwala na określenie jej właściwości z rozdzielczością nanometrową. W niniejszym tekście zostaną przedstawione wyniki badań prowadzonych metodami SSPM, SSRM oraz obrazowania fazowego. Charakteryzacja właściwości struktur i przyrządów metodami mikroskopi AFM Skaningowa mikroskopia potencjału powierzchniowego Skaningowa mikroskopia potencjału powierzchniowego jest techniką mikroskopii sił atomowych, pozwalającą na zbadanie elektrostatycznego potencjału występującego na powierzchni materiału. W technice tej dokonuje się pomiaru potencjału powierzchni próbki, przez zmianę napięcia przyłożonego do przewodzącego ostrza tak, aby jego potencjał był taki sam jak potencjał materiału, co pozwala na minimalizacje siły elektrostatycznej oddziałującą między ostrze... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Electrocatalytic sensor based on Nasicon with auxiliary layer (Anna Strzelczyk, Grzegorz Jasiński, Piotr Jasiński, Bogdan Chachulski&#8201;)
In recent years electrochemical gas sensors based on solid state electrolytes have been intensively investigated. They are relatively easy to fabricate, simple in use and quite durable. Nasicon (Na Super Ionic Conductor) is one of the most promising materials, which have been used in construction of gas sensors. Sensors based on Nasicon are used for detecting of different gases including carbon oxides [1, 2], nitrogen oxides [3-6] and sulfur dioxide [7]. Most of these devices operate in potentiometric or amperometric mode. In case of some sensor constructions, besides electrolyte and metal electrodes, additional layers are applied. In some cases such phase is required to obtain sensitivity to specific gas or to shift operating temperature to more preferred one [7]. In other cases sensor properties such as selectivity or stability are improved. Auxiliary phase usually forms extra interface between measured gaseous compound and electrolyte or electrodes. For example, in case of amperometric sensors, it was noticed, that presence of auxiliary layer on surface of sensing electrode can increase the number of reaction sites thus improving sensor sensitivity [5]. Auxiliary layer may also be used to create a diffusion barrier. In case of the potentiometric or amperometric nitrogen oxides sensors based... więcej»

Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several &#956;m. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Inteligentny handel
Jedna z firm wysyłkowych w Polsce, należąca również do grupy największych sklepów internetowych, rozpoczęła korzystanie z rozwiązań "Inteligentnego handlu" opracowanych przez IBM. Wdrożenie to umożliwiło firmir zwiększenie efektywności i wzrost sprzedaży. Okres świąteczny to dla firmy wysyłkowej czas wzmożonej aktywności. Firma specjalizuje się w sprzedaży książek, filmów i muzyki, dekoracji, upominków a także zabawek, dlatego zwykle w grudniu przyjmuje najwięcej zamówień. Z myślą o pozyskaniu jeszcze większej liczby klientów, firma zdecydowała się na wdrożenie w swoim sklepie internetowym rozwiązań IBM Cor... więcej»

Device for road holes and obstacles detection (Wojciech Gelmuda, Andrzej Kos)
Today&#8217;s life as we know it is based on visual signs. Practically all the important information needed to go independently through an average person&#8217;s day is provided by their sight. Let us focus on some urban environment. A person is able to see objects, determine their approximate distance, distinguish between a hole and a bump on a road, detect and recognize an important element from its background or simply read some text information from books, posters, etc. Most of these actions, if not all, allow people to gather information and give them time to react before they approach some objects. Furthermore, there are many devices that help people gain more important for them information than they would be able to learn from a closest environment in their field of view, such as navigation systems. There are also many devices that help people keep safe and avoid some accidents, like for instance, street lights and road signs. But neither of them is well suited for visually impaired people. Of course, there are special audio signals for blind people near some pedestrian crossings and there are devices which help visual impaired people avoid obstacles [1], but they are still not sufficient to keep them safe and well informed about their surrounding environment [2]. This is mostly due to a change of sensors positions while a blind person is moving. That is why we develop a MOBIAN&#169; project - Mobile Safety System for the Blind [3]. This project is supported by The National Centre for Research and Development under: NR13-0065-10. A part of the MOBIAN&#169; project is to create a highly reliable device for detecting obstacles and holes of various length and depth, as it is presented in Fig. 1. There is no doubt that special algorithms have to be designed, tested and implemented for this purpose. Fig. 1. Holes and other obstacle detection Rys. 1. Wykrywanie dziur, usk... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»