profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-12

zeszyt-4245-elektronika-konstrukcje-technologie-zastosowania-2014-12.html


 
 
 
W numerze m.in.:
Implementacja multiplikatywnych gneratorów kongruencyjnych z modulnikiem w układzie FPGA DOI:10.15199/ELE-2014-212
(Michał Jaworski, Mieczysław Jessa )

Generatory pseudolosowe są powszechnie wykorzystywane w wielu dziedzinach życia. Przykłady to komputerowe symulacje układów fizycznych, biologicznych, chemicznych, kryptografia czy statystyka. Można je spotkać praktycznie w każdym języku programowania w postaci funkcji opisującej proces wytwarzania kolejnych elementów ciągu. Są to implementacje programowe bazujące zazwyczaj na generatorze Lehmera [1], znanym również jako kongruencyjny generator liniowy (ang. LCG - Linear Congruential Generator). Generator ten opisany jest przez następujące równanie: (1) gdzie a, c oraz M to liczby całkowite. Dla c = 0 równanie opisuje kongruencyjny generator multiplikatywny (ang. MCG - Multiplicative Congruential Generator). O własnościach ciągu wytwarzanego przez generator multiplikatywnych decydują mnożnik a oraz modulnik M. Aby uzyskać ciąg o maksymalnej długości (tzw. m-ciąg), modulnik M musi być liczbą pierwszą, natomiast mnożnik a musi być prymitywnym elementem modulo M [1]. [2]. Dla arytmetyki 32-bitowej, najbliższym modulnikiem, który jest liczbą pierwszą jest liczba pierwsza Mersenne'a o wartości 231 -1, wykorzystana, m.in., w dobrze znanym generatorze Minimal Standard (MINSTD) [3], [4]. Pierwsza implementacja generatora MINSTD została przedstawiona w 1996 roku, ale najnowsze prace pokazują, że ten typ generatora MCG jest nadal chętnie wykorzystywany w wielu aplikacjach [2], [5], [6]. Inne generatory MCG również pojawiają się w najnowszych pracach naukowych [7], [8]. Gdy parametr M jest określony, właściwości statystyczne generowanego ciągu zależą od tego, jaka jest wartość parametru a. Nawet, gdy dla danej wartości parametru a właściwości statystyczne wytworzonego ciągu nie są satysfakcjonujące, może on zostać wykorzystany jako składnik bazowy lepszego generatora. W roku 2010 zaproponowany został ulepszony multiplikatywny generator pseudolosowy (ang. IMCG - Improved Multiplicative Congruential Generator). Generator ten baz... więcej»

Zaawansowane metody przetwarzania danych georadarowych oraz automatyczne rozpoznawanie anomalii w strukturach geologicznych DOI:10.15199/ELE-2014-222
(Piotr Szymczyk, Henryk Marcak, Sylwia Tomecka -Suchoń, Magdalena Szymczyk, Mirosław Gajer, Tomisław Gołębiowski)

Artykuł przedstawia wykorzystanie nowoczesnych rozwiązań pomiarowych i naukowych z dziedziny sieci neuronowych do rozpoznawania pewnych struktur geologicznych, jakimi są pustki, dziury lub rozrzedzenia w wale przeciwpowodziowym. W wyniku przeprowadzonych badań udało się zaproponować metodę do klasyfikacji sygnałów georadarowych. W artykule przedstawiono zastosowane jednej z nieinwazyjnych geofizycznych technik elektromagnetycznych, tzn. metody georadarowej (GPR) do badania struktur geologicznych. W metodach georadarowych wykonywanych przy użyciu GPR wykorzystuje się fale elektromagnetyczne w zakresie częstotliwości od 10 MHz do kilku GHz do bezinwazyjnego badania budowy geologicznej, monitoringu procesów zachodzących w gruncie oraz do lokalizacji obiektów antropogenicznych. W skład aparatury wchodzi jednostka centralna, odbiornik, nadajnik, anteny nadawcza i odbiorcza. Antena nadawcza emituje w głąb ośrodka geologicznego impuls elektromagnetyczny. Impuls ten w postaci sygnału falowego może być odbity, rozproszony lub refragowany na niejednorodnościach w budowie geologicznej ośrodka i rejestrowany przez anteny odbiorcze. Antena odbiorcza rejestruje sygnały odbite, które zapisywane są w formacie cyfrowym w komputerze. Zapis taki nazywany echogramem, to rozkład amplitud fali odbitej na płaszczyźnie x t, gdzie x - długość profilu na osi poziomej w metrach, t - rejestrowany czas na osi pionowej w nanosekundach. Propagacja fali EM zależy od parametrów elektromagnetycznych ośrodka tzn. od względnej stałej dielektrycznej oraz od elektrycznej przewodności właściwej. Badania geologiczne prowadzi się w ośrodkach geologicznych, które są dielektrykami i są ośrodkami niemagnetycznymi więc do ich opisu stosuje się tzw. przenikalność względną dielektryczną. Opis danych pomiarowych GPR Jednym ze skutków płytkiej eksploatacji górniczej jest powstawanie pustek, czyli zmian własności mechanicznych niektórych obszarów górotworu w wyniku niejed... więcej»

Silent Circle - zaklęty krąg nowoczesnej kryptografii dla wszystkich DOI:10.15199/ELE-2014-218
(Wojciech Nowakowski)

W 2011 roku Phil Zimmermann, twórca powszechnie stosowanego w internecie protokołu PGP (ang. Pretty Good Privacy, całkiem niezła prywatność) zapewniającego poufność poczty elektronicznej oraz Mike Janke, były specjalista od zabezpieczeń US Navy SEAL a także Jon Callas, twórca oprogramowania szyfrującego zawartość dysków twardych (Whole Disk Encryption Apple), powołali firmę Silent Circle dla stworzenia pierwszej na świecie prywatnej bezpiecznej łączności cyfrowej, zarówno głosowej, tekstowej jak i wideo, a także transmisji plików. Silent Circle jest obecnie uznaną firmą zapewniającą rzeczywiście bezpieczną komunikację cyfrową dzięki wykorzystaniu technologii kryptograficznych oferując w ponad 130 krajach tani i jednocześnie zaawansowany system szyfrowanych usług komunikacyjnych na bazie protokół ZRTP [1]. Pierwszym na świecie operatorem telekomunikacyjnym oferującym usługi szyfrowanych połączeń mobilnych firmy Silent Circle jest holenderski KPN (Koninklijke KPN NV, wcześniej Koninklijke PTT Nederland). KPN informuje [2], że aplikacje Silent Circle są dostępne dla klientów biznesowych poprzez kpn.com/cloud. Aplikacje te dostępne są poprzez smartfony i tablety z systemem iOS lub Android. Silent Network Podstawą działania cyfrowej łączności szyfrowanej firmy Silent Circle jest Silent Network, czyli zamknięta, nie współdzielona sieć prywatna. Składa się ona z dedykowanych serwerów, kodeków, szeregu urządzeń specjalnych i oprogramowania, specjalnie zaprojektowanych dla zapewnienia bezpieczeństwa informacji (ang. security integrated through design), w czym twórcy firmy są uznanymi autorytetami. Warto podkreślić, że matematyczne instrumentarium stosowane we współczesnej kryptog... więcej»

Rozwój systemu COSPAS-SARSAT DOI:10.15199/ELE-2014-220
(Jerzy Czajkowski)

System COSPAS-SARSAT stanowi bardzo istotny podsystem składowy Światowego Morskiego Systemu Łączności Alarmowej i Bezpieczeństwa zapewniając realizację jego najistotniejszej funkcji jaką jest alarmowanie. W przypadku zaistnienia niebezpieczeństwa na wodzie, w powietrzu lub na lądzie umożliwia on organizacjom poszukiwania i ratowania - SAR - prowadzenie akcji ratowania. Od momentu jego powstania jest nieustannie rozbudowywany, stwarzając coraz bardziej dogodne możliwości realizowania powierzonych mu funkcji. Aktualnie system składa się z trzech części [2]: - segmentu kosmicznego, w skład którego wchodzą - satelity niskoorbitalne - LEO (Low Earth Orbit) krążące na orbitach biegunowych tworząc system LEOSAR - satelity geostacjonarne - GEO (Geostationary Earth Orbit) rozmieszczone w płaszczyźnie równika tworząc system GEOSAR - segmentu naziemnego składającego się z: - lokalnych stacji odbiorczych LUT (Local User Terminal) - centr sterowania systemem MCC (Mission Control Centres) - radiopław: - morskich - EPIRB (Emergency Position-Indicating Radio Beacon) pracujących na częstotliwości 406 MHz, - lotniczych ELT (Emergency Locator Transmi... więcej»

Analiza własności energetycznych wielopoziomowych dekoderów n-na-2n w technologii CMOS DOI:10.15199/ELE-2014-214
(Ireneusz Brzozowski, Piotr Dziurdzia, Andrzej Kos)

Dekodery, ogólnie n-na-m linii, są ważnymi elementami układów cyfrowych. Można je znaleźć w każdym układzie wyboru, np. multipleksery, dekodery adresowe, a także mogą być wykorzystane do realizacji funkcji logicznych. Dekodery adresowe są bardzo ważnym elementem układów pamięciowych. W szczególności ich optymalizacja jest bardzo istotna w przypadku układów pamięciowych o bardzo dużej pojemności. Dlatego, w literaturze, można znaleźć wiele prac poświęconych projektowaniu dekoderów adresowych w układach pamięciowych. Stosuje się np. różnego rodzaju techniki wstępnego ładowania dekoderów dynamicznych [1], [2] lub dekodery hierarchiczne z wstępnym dekodowaniem. W pracy [3] przedstawiono implementację drzewa binarnego Dekodery przedstawione w tej pracy mieszczą się pomiędzy dekoderami hierarchicznymi, a dekoderami z dekodowaniem wstępnym. Zastosowana metoda rozszerzania dekoderów została zaczerpnięta z pracy [4] i polega na powiększaniu dekoderów przez dodanie kolejnego poziomu dwu-wejściowych bramek AND. Budowa dekodera zaczyna się od dekodera 1‑na‑4 linie z bramkami AND i polega na dokładaniu kolejnych stopni zbudowanych z bramek AND i inwertera. Zasada rozbudowy dekoderów została przedstawiona na rysunku 1. Ta metoda została zaimplementowana w technologii CMOS i pierwotnie przedstawiona w pracy [5]. Następnie została udoskonalona [6]. Rozszerzono zaproponowaną metodę projektując dekodery wielopoziomowe z wykorzystaniem wcześniej opracowanych bloków składowych oraz przeprowadzono wstępną analizę parametrów tych dekoderów [7].Projekty dekoderów Schematy Dekodery n-na-m linii mogą być w ogólności opisane przez zbiór m funkcji o n‑wejściach zrealizowanych jako ich mintermy, ponieważ na swym wyjściu przyjmują "1" tylko w jednym określonym przypadku stanów wejściowych: (1) gdzie: 0 1 1 , , ... n- l l l to literały - zmienna lub jej negacja. Stosując prawo de Morgana, równanie (1), można przekształcić... więcej»

Zobacz wszystkie publikacje »

2014-11

zeszyt-4222-elektronika-konstrukcje-technologie-zastosowania-2014-11.html

 
W numerze m.in.:
Zaawansowane Systemy Elektroniczne i Fotoniczne - WILGA 2014. Część 1 - Fotonika DOI:10.15199/ELE-2014-208
(Ryszard S. Romaniuk)

WILGA 2014 - Sympozjum młodej nauki Sympozjum młodych uczonych Wilga 2014 odbyło się tradycyjnie w tygodniu na przełomie maja i czerwca br. w Wildze pod Warszawą [wilga.ise.pw.edu.pl]. Sympozjum WILGA obejmuje tematykę zaawansowanych układów i systemów fotonicznych i elektronicznych. Udział wzięło około 350 osób. Wygłoszono około 250 referatów. Główna część prac sympozjum, około 150 artykułów, jest opublikowana w tomie Proc. SPIE vol. 9290 [spie. org]. Tom SPIE 9290 zawiera także kilkanaście prac przedstawionych w czasie styczniowej edycji Sympozjum Wilga. Kilkanaście prac opublikowano w Elektronice [elektronika.orf.pl], Photonics Letters of Poland [photonics.pl/plp], IJET - International Journal of Electronics and Telecommunications [ijet.pl], itp. Współczynnik akceptacji prac wynosił ok. 50%. Materiały poprzedniego Sympozjum Wilga 2013 zostały opublikowane w tomie Proc. SPIE vol. 8903. Około połowy uczestników Sympozjum WILGA to doktoranci, a ok. 20% to magistranci. Pozostali uczestnicy to najczęściej opiekunowie młodzieży naukowej. W Wildze prezentują się także studenci i doktoranci zagraniczni przebywający w Polsce w ramach projektów międzynarodowych, konsorcjów dla eksperymentów HEP, programów wymiany akademickiej, jak np. Erasmus, itp. Sympozjum jest organizowane przez młodych uczonych z ISE PW - Grupa Naukowa ELHEP i organizacji IEEE, SPIE, OSA, PSP, SEP dla młodych uczonych. Patronat nad Sympozjum sprawuje: KEiT PAN, PKOpto SEP, PSP i WEiTI PW. W prawie dwudziestoletniej historii Sympozjum WILGA opublikowało kilkanaście tomów Proc.SPIE z ponad 1500 artykułami naukowo-technicznymi (głównie w autorstwie polskich młodych uczonych) dostępnych w bazach danych Web of Knowledge oraz Scopus, a także Google Scholar, i innych w tym krajowych jak BazTech, Baza Wiedzy Politechniki Warszawskiej, Polska Bibliografia Naukowa, Ce-ON w ramach systemu Pol- ON. Opublikowano także kilka wydań specjalnych czasopism naukowo-technicznych.... więcej»

Fotoluminescencyjne badania wpływu temperatury na własności emisyjne periodycznych nanostruktur fotonicznych DOI:10.15199/ELE-2014-196
(Dominika M. Urbańczyk, Anna Wójcik-Jedlińska, Kamil Kosiel, Maciej Bugajski)

Półprzewodniki są podstawowymi materiałami współczesnej fotoniki. Heterostruktury półprzewodnikowe, w szczególności struktury niskowymiarowe, takie jak studnie, druty, kropki kwantowe, a także supersieci są obecnie szeroko stosowane jako obszar aktywny źródeł promieniowania spójnego, detektorów czy modulatorów optycznych. Istotny postęp w tej dziedzinie nastąpił dzięki rozwojowi technik wzrostu epitaksjalnego: epitaksji z wiązek molekularnych - MBE, czy epitaksji z fazy gazowej związków metaloorganicznych - MOCVD. Techniki te umożliwiły wytwarzanie bardzo zaawansowanych, wielowarstwowych układów materiałowych, na bazie których można konstruować przyrządy o większej wydajności, a co za tym idzie szerszym zakresie zastosowań. Wysokowydajne i niezawodne przyrządy fotoniczne powinny być tak zaprojektowane i wykonane, by do minimum ograniczyć niekorzystny wpływ elementów konstrukcyjnych na parametry ich pracy. Jednym z najczęstszych problemów technologicznych jest wzrost temperatury struktury epitaksjalnej w trakcie pracy przyrządu [1, 2]. Ciepło wygenerowane w obszarze czynnym struktury może prowadzić do zmian parametrów optycznych i elektrycznych przyrządu, a także przyczyniać się do jego szybszej degradacji. Opracowanie poprawnego projektu wymaga zatem szerokiej wiedzy o zjawiskach cieplnych zachodzących w strukturze oraz uwzględnienia związanych z nimi parametrów temperaturowych materiału. Z tego względu w ostatnich latach kładzie się duży nacisk na rozwój technik badawczych oraz modeli teoretycznych opisujących zależności temperaturowe i transport ciepła w nanostrukturach [3-8]. Niniejsza praca przedstawia metodologię oraz wyniki badań eksperymentalnych wpływu temperatury na własności optyczne supersieci AlGaAs/GaAs przy wykorzystaniu wysokorozdzielczej spektroskopii fotoluminescencyjnej (PL). Metoda i układ pomiarowy Zjawisko foto... więcej»

Kwantowe lasery kaskadowe - 20 lat historii i stan obecny DOI:10.15199/ELE-2014-185
(Maciej Bugajski, Anna Wójcik-Jedlińska)

4 stycznia 2014 r. obchodziliśmy 20. rocznicę zademonstrowania nowego typu lasera półprzewodnikowego - kwantowego lasera kaskadowego. Osiągniecie to ogłoszono w pracy opublikowanej 22 kwietnia 1994 r. w Science [1]. Przyniosła ona natychmiastowy rozgłos swoim sześciu autorom, którymi byli: Jerome Faist, Federico Capasso, Deborah Sivco, Carlo Sirtori, Albert Hutchinson i Alfred Cho z Bell Labs w Holmdel NJ. Praca ta zapoczątkowała intensywne badania nad tymi przyrządami w wielu laboratoriach w Europie, Ameryce i Azji. W kolejnych latach lasery kaskadowe zrewolucjonizowały fotonikę podczerwieni, stając się niezastąpionym źródłem światła spójnego w metrologii i spektroskopii molekularnej. Kwantowe lasery kaskadowe stanowią nową klasę unipolarnych laserów półprzewodnikowych, których działanie oparte jest na przejściach wewnątrzpasmowych. W odróżnieniu od klasycznych laserów półprzewodnikowych wykorzystujących przejścia międzypasmowe, długość fali emitowanego przez nie promieniowania praktycznie nie zależy od materiału, z którego są wykonane a jedynie od geometrii jam kwantowych stanowiących ich obszar czynny. Zasada działania lasera kaskadowego przedstawiona jest na rys. 1. Pozwala to na pokrycie szerokiego spektrum, długości fal od średniej do dalekiej podczerwieni za pomocą struktur wytwarzanych na bazie GaAs i InP, materiałów których technologia jest doskonale opanowana. Kaskadowa natura generacji promieniowania pozwala na powielanie fotonów i potencjalnie umożliwia uzyskiwanie mocy przekraczających te, które generowane są w laserach bipolarnych. Z kolei obecność tylko jednego rodzaju nośników (elektronów) eliminuje większość niekorzystnych procesów rekombinacji niepromienistej. Listę zalet laserów kaskadowych zamyka ich subpikosekundowa szybkość działania wynikająca z ultraszybkiej dynamiki przejść wewnątrzpasmowych. Lasery kaskadowe są idealnym źródłem promieniowania w układach detekcji zanieczyszczeń gazowych i systemach t... więcej»

Obliczanie współczynnika absorbcji supersieci InAs/GaSb DOI:10.15199/ELE-2014-197
(Elżbieta Machowska-Podsiadło, Maciej Bugajski)

Supersieci II-rodzaju InAs/GaSb są strukturami półprzewodnikowymi o bardzo obiecujących właściwościach, znajdującymi zastosowanie w detektorach na zakres średniej oraz dalekiej podczerwieni (MWIR oraz LWIR) jak również w przyrządach emitujących promieniowanie podczerwone, takich jak diody laserowe i kwantowe lasery kaskadowe (ICL). W periodycznych strukturach InAs/ GaSb obserwowany jest charakterystyczny układ pasm przewodnictwa oraz walencyjnego (rys. 1), który z jednej strony powoduje przestrzenną separację elektronów oraz dziur odpowiednio w obszarze InAs oraz GaSb (co zmniejsza przekrywanie się ich funkcji falowych i w pewnym stopniu pogarsza właściwości optoelektroniczne struktury), z drugiej jednak strony daje możliwość projektowania struktur do detekcji (emisji) promieniowania z szerokiego zakresu długości fal. Właściwości optoelektroniczne supersieci InAs/GaSb zależą od (a) grubości warstw składowych (InAs i GaSb), (b) powierzchni międzyfazowych na ich styku (w szczególności od rodzaju, grubości tych powierzchni i wynikających z nich naprężeń, a także (c) od czynników zewnętrznych, wśród których do najważniejszych zalicza się temperatura. Warto podkreślić, że zaletą przyrządów wykonanych na bazie supersieci InAs/GaSb jest możliwość pracy w temperaturze pokojowej. Zdolność absorbcji promieniowania podczerwonego przez daną strukturę jest opisywana za pomocą współczynnika absorpcji α. Wyznaczenie jego wartości wymaga znajomości struktury pasmowej supersieci, jak również funkcji falowych elektronów oraz dziur w poszczególnych podpasmach energetycznych struktury. Metoda Współczynnik absorpcji (promieniowania) supersieci InAs/GaSb jest opisany zależnością [2]: (1) gdzie: ε0 jest przenikalnością elektryczną próżni, c prędkością światła, m0 masą spoczynkową elektronu. Pozostałe wielkości we wzorze opisują: współczynnik załamania n, częstość kołową promieniowania padającego na strukturę ω oraz objętość rozwa... więcej»

Charakterystyka strojenia mikrofalowego generatora plazmy do produkcji wodoru z paliw ciekłych DOI:10.15199/ELE-2014-209
(Robert Miotk, Michał Sobański, Mariusz Jasiński, Jerzy Mizeraczyk )

Uważa się, że w niedalekiej przyszłości wodór stanie się jednym z najważniejszych nośników energii. Dlatego poszukuje się ekonomicznie opłacalnych metod produkcji wodoru, zarówno w dużej (produkcja przemysłowa) jak i małej skali (produkcja rozproszona). Jedną z proponowanych metod przewidywanych do rozproszonej produkcji wodoru jest użycie plazmy mikrofalowej do konwersji paliw ciekłych w wodór. O przydatności tej metody zadecydują koszty produkcji wodoru. Sposobem obniżenia tych kosztów jest optymalizacja procesu konwersji paliw oraz optymalizacja mikrofalowego generatora plazmy (MGP). Jednym z kryteriów optymalizacji MGP jest maksymalizacja absorpcji dostarczanej energii mikrofal przez generowaną plazmę. Maksymalizacja ta realizowana jest przez odpowiednią konstrukcję generatora plazmy oraz stosowanie tzw. układów dopasowujących. Można tego dokonać na drodze eksperymentalnej, która jest kosztowna, lub na drodze modelowania, którego wyniki muszą jednak zostać zweryfikowane eksperymentalnie. Maksymalizacja absorpcji energii mikrofal przez plazmę jest równoważna zminimalizowaniu współczynnika odbicia energii w MGP określonego jako stosunek PR /PI, gdzie PI jest mocą fali padającej na wejściu generatora (płaszczyzna A-A... więcej»

Zobacz wszystkie publikacje »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Two types of atmospheric pressure plasma jet - construction and features DOI:10.15199/ELE-2014-165
(Michał Babij, Zbigniew W. Kowalski)

Low temperature atmospheric pressure plasmas (APPs) represent a rapidly developing technology of great application promise. The relative low cost (cheaper and more convenient alternative in comparison with low-pressure plasmas) and desirable properties including: (a) low gas temperature, (b) the reduced or no thermal damage to the substrate, (c) vacuumfree operation, (d) high reactive chemical species, and (e) easy plasma dynamics control caused that the study in applications of atmospheric plasma treatment has been gradually increased. Among other things APPs are routinely used in material processing [1] and, more recently, in industrial [2] and biomedical applications [3] (e.g. bacterium, yeast, fungus, and alga inactivation, cancer cell treatment, decontamination, wound healing, electrosurgery, tissue engineering, surface modification of biocompatible materials, sterilization of heat sensitive materials and instruments, blood coagulation promotion, and tooth root canal sterilization). One of the attractive features of the plasmas in question is the ability to achieve enhanced plasma chemistry without the need for elevated gas temperatures. This is because these plasmas exhibit electron energies much faster than the heavier ions and the neutral species and have the opportunity to heat up before their environment heats up. The gas remains at low temperature and the plasma does not cause any thermal damage to objects it comes in contact. Atmospheric pressure plasmas are generated by a diversity of electrical discharges such as corona discharges, dielectric barrier discharges (DBD), micro hollow cathode discharges and so on, all having their own properties and use [4-8]. Among atmospheric pressure plasmas the atmospheric pressure plasma jet (APPJ) should be mentioned. The phenomenon of APPJ can date back to 1960 s. It is more efficient than the others due to high charged particle and reactive species density in the plasma, lo... więcej»

The Institute of Electric al Electronics Engineers - Polska Sekcja
Najwyższe odznaczenie IEEE dla trzech polskich matematyków za złamanie po raz pierwszy kodów niemieckiej maszyny szyfrującej ENIGMA.IEEE Board of Directors przyznało na swoim posiedzeniu w dniu 29 maja 2014 r. najwyższe odznaczenie IEEE "Milestone" trzem polskim matematykom, którzy w latach 1932 - 39 złamali po raz pierwszy kody niemieckiej maszyny szyfrującej ENIGMA. Odsłonięcie obelisku/kamienia "milowego" z tablicami w jęz. angielski i w jęz. polskim, informującymi o nadanym odznaczeniu, odbyło się w dniu 5 sierpnia 2014 r. przed gmachem Instytutu Matematycznego PAN przy ul. Śniadeckich 8 w Warszawie. Odsłonięcia dokonał Prezydent IEEE prof. J. Roberto de Marca wspólnie z V-Prezydentem m.st. Warszawy Wiesławem Paszyńskim, córką jednego z matematyków - Henryka Zygalskiego p. Janiną Sylwestrzak i Przewodniczącym Polskiej Sekcji IEEE prof. Ryszardem Jachowiczem. W uroczystości ponadto uczestniczyło wielu najwyższych przedstawicieli IEEE a wśród nich Vice-Prezydent IEEE prof. Jacek Żurada, IEEE Dyrektor Div. IV prof. Józef Modelski, IEEE Dyrektor Regionu Europy, Afryki i Bliskiego Wschodu prof. Martin Bastiaans i jego następca prof. Costas Stasopoulos. W uroczystości wzięli również Chairs de Affairs Ambasady Republiki Francji - Philippe Cerf oraz Pierwszy Sekretarz Ambasady Wielkiej Brytanii - David Wallace. Ze strony polskiej obecni byli członkowie Zarządu Polskiej Sekcji IEEE, przedstawiciele najwyższych władz: Polskiej Akademii Nauk z Prezesem prof.Miachałem Kliberem i Dziekanem IV Wydz. Prof.Marianem Kaźmierkowskim, Naczelnej Organizacji Technicznej z Prezesem mgr. Ewą Mankiewicz-Cudny, Stowarzyszenia Elektryków Polskich z Prezesem dr.Piotrem Szymczakiem. Uroczystość odbyła się w oparciu o ceremonię wojskową z wartą honorową włącznie. Ocenia się, że w uroczystości tej uczestniczyło około 250 osób. Moment odsłonięcia obelis... więcej»

System modyfikacji nanoproszków diamentowych (DPP) w rotacyjnej komorze reaktora plazmo-chemicznego (MW PACVD) DOI:10.15199/ELE-2014-170
(Przemysław Ceynowa, Katarzyna Mitura, Wiesław Zinka, Stanisław Mitura)

Mikrokryształy diamentu są powszechnie stosowane w przemyśle już od półwiecza. Nano cząsteczkowy diament znajdowano zarówno w produktach reakcji plazmo-chemicznych jak i materii pochodzenia pozaziemskiego (meteorytach) już sześćdziesiąt lat temu. Pierwsze presolarne ziarna diamentu odkryte zostały i wyizolowane przez Lewisa i jego współpracowników w 1987 roku [1]. Na podstawie tego odkrycia rodziło się wiele teorii próbujących wyjaśnić proces tworzenia pozaziemskich diamentów. Po raz pierwszy S. Mitura w 1987 roku wykazały, że nanodiamenty mogą być formowane pod niskim ciśnieniem, przy pomocy elektronów w procesie CVD [2, 3] w podobnych warunkach, które występują w przestrzeni kosmicznej. Diament i metody otrzymywania Diament jest alotropową odmianą węgla metastabilną w warunkach normalnych. Wszystkie wiązania chemiczne w sieci diamentu są wiązaniami kowalencyjnymi i powstają ze zhybrydyzowanych tetraedrycznie orbitali sp3. Diament jako materiał ma ekstremalne właściwości. Jest to najtwardszy ze znanych materiałów, posiada najwyższą przewodność cieplną, jest obojętny chemicznie i odporny na ścieranie, jest doskonałym izolatorem elektrycznym i jest optycznie przejrzysty. Te właściwości, pojedynczo lub w połączeniu, czynią diament użyteczny w wielu ekstremalnych sytuacjach. Z tego powodu wiele osób w ciągu ostatnich kilku wieków marzyło o syntezie sztucznych diamentów na skalę przemysłową. W końcu tysiąclecia udało się tworzyć sztuczne diamenty za pomocą szeregu różnych metod. Synteza diamentu pod statycznym ciśnieniem została odkryta pod koniec lat pięćdziesiątych. W latach 1953-1958 z sukcesem zakończyły się badania prowadzone niezależnie przez koncerny: ASEA w Szwecji i General Electric w USA [4]. W 1955 GE ogłosił zdolność produkcji diamentów syntetycznych na skalę przemysłową [5, 6] i opatentował metodę syntezy [7]. Odkrycie to zainicjowało szereg badań z wykorzystaniem materiałów wybuchowych do syntezy diamentu. Diam... więcej»

Wyznaczanie składowych harmonicznych sygnału z wykorzystaniem metod optymalizacji DOI:10.15199/ELE-2014-173
(Robert Kazała)

Funkcjonowanie współczesnych urządzeń technicznych zależy w dużym stopniu od dostępu do energii elektrycznej. Zapewnienie wystarczającej ilości energii elektrycznej nie jest jedynym wymaganiem. Ważne jest także, żeby dostarczana energia charakteryzowała sie określonymi parametrami, pozwalającymi na niezakłóconą pracę zasilanych nią urządzeń [1]. Zbiór wymagań dotyczących parametrów energii elektrycznej zawarty jest w normach określających jakość energii elektrycznej. Zawierają one dopuszczalne przedziały, w jakich mogą znajdować się parametry określające jakość energii elektrycznej [2]. Jednym z podstawowych parametrów określających jakość energii elektrycznej jest stopień odkształcenia napięcia. Do jego określenia wyznacza się najczęściej współczynnik odkształcenia THD, lub analizuje zawartość wyższych harmonicznych. Parametry te wykorzystuje się także do oceny wpływu odbiornika na sieć zasilającą i wyznacza się je w takim przypadku dla przebiegów prądu [3]. W normach określone są dopuszczalne wartości poszczególnych harmonicznych napięcia zasilającego. W związku z tym w celu udowodnienia spełniania wymagań, należy dokonać pomiaru harmonicznych napięcia. Obecnie stosuje się do tego cyfrowe systemy pomiarowe, które na podstawie zarejestrowanych dyskretnych próbek wyliczają zawartości poszczególnych harmonicznych. Do obliczeń najczęściej wykorzystuje się dyskretną lub szybką transformatę Fouriera. W przypadku specjalizowanych analizatorów, dostosowujących częstotliwość próbkowania do częstotliwości mierzonego sygnału uzyskuje się zgodne z rzeczywistymi wartości współczynników opisujących poszczególne harmoniczne. Jednak w wielu systemach pomiarowych nie ma możliwości dostosowania częstotliwości próbkowania do okresu mierzonego sygnału. W systemach takich wykorzystanie transformaty Fouriera nie zawsze daje prawidłowe wyniki. W przypadku stałej częstotliwości mierzonego sygnału i prawidłowo dobranej częstotliwości próbkowani... więcej»

Polowe źródło jonów wodoru DOI:10.15199/ELE-2014-168
(ZDZISŁAW M. STĘPIEŃ)

W 1928 roku Oppenheimer [1] obliczył, na gruncie mechaniki kwantowej, że przy natężeniu pola elektrycznego 20 V/nm elektron w atomie wodoru może tunelować na zewnątrz do próżni. Pierwsze obserwacje polowej jonizacji gazu były obserwowane przez Müllera [2], w skonstruowanym przez niego polowym mikroskopie jonowym (Field Ion Microscope, FIM). Polowy mikroskop jonowy jest mikroskopem projekcyjnym i nie wymaga żadnych układów soczewek. Katoda, jako próbka i anoda, jako ekran stanowią aktywną część układu optycznego. Otrzymany na ekranie obraz jest projekcją, z rozdzielczością atomową, powierzchni emitera. W obecności gazu pod ciśnieniem rzędu 10-3Pa, którym może być He, Ar, Ne, Xe lub H2, oraz po przyłożeniu pola elektrycznego o natężeniu kilkudziesięciu V/nm (minus na ekranie), w pierwszej fazie, na najbardziej eksponowanych atomach powierzchni emitera, atomy gazu ulegają adsorpcji polowej. W drugiej fazie, nad tymi zaadsorbowanymi atomami ulegają jonizacji polowej zbliżające się atomy gazu. Po jonizacji zac... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Możliwości redukcji zaburzeń radioelektrycznych emitowanych przez instalacje oświetleniowe LED DOI:10.15199/ELE-2014-140
(Jacek Chęciński, Zdzisław Filus)

Oświetlenie diodowe to stosunkowo młoda dziedzina techniki. Firmy zakorzenione od wielu lat na rynku elektronicznym oferują bogatą gamę produktów dedykowanych do takich zastosowań. Produkty te mają zwykle specyficzne oznakowanie sugerujące, że zostały specjalnie opracowane, lub co najmniej zoptymalizowane pod kątem zastosowania w instalacjach oświetleniowych LED. Przede wszystkim będą to przetwornice AC(DC/DC) oraz dimmery (regulatory PWM natężenia oświetlenia). Często jednak okazuje się, że są to klasyczne układy, których działanie w żaden sposób nie było modyfikowane, a dodatkowe oznakowanie może mieć znaczenie tylko marketingowe. Niechlubnym przykładem takiego postępowania jest oferowanie regulatorów PWM use for LED pracujących jednak na zbyt niskiej częstotliwości komutacji (np. zaprojektowanych dla oświetlenia żarówkowego). Na rysunku 1 zamieszczono schemat testowej instalacji oświetleniowej LED. Instalacja zbudowana jest z zasilacza, tj. przetwornicy przepustowej AC/(DC/DC) pracującej na częstotliwości przetwarzania ok. 65 kHz bez układu PFC w obwodzie wejściowym, dimmera (regulatora PWM sterującego natężeniem światła) oraz modułów LED (płaszczyzny złożonej z powielonej linii listew LED). Pomiaru wielkości emitowanych zaburzeń radioelektrycznych dokonano za pomocą analizatora widma o zakresie do 1 GHz pełniącego rolę woltomierza selektywnego z RBW = 20 kHz. W roli anteny odbiorczej wykorzystano zestaw sond mierzących składową magnetyczną lub elektryczną pola elektromagnetycznego, oraz cewki powietrzne o średnicach 10 cm i 1 m (10 zwojów DNE 1 mm). Zestaw sond pomiarowych umożliwił wykonanie nie tylko samego pomiaru, ale również określenie źródła dominującej emisji (sondy typu near field probe set oraz cewka o średnicy 10 cm). Cewka powietrzna o średnicy 1 m używana była do zmierzenia wypadkowego poziomu zaburzeń emitowanych przez wszystkie komponenty instalacji. W zakresie mierzonych częstotliwości ten rodzaj anteny ok... więcej»

Obliczanie mocy traconej w tranzystorach wzmacniacza liniowego klasy AB DOI:10.15199/ELE-2014-132
(Juliusz Modzelewski)

Coraz powszechniejsza cyfryzacja systemów radiokomunikacji i radiodyfuzji wykorzystujących modulację OFDM powoduje konieczność stosowania liniowych wzmacniaczy mocy w nadajnikach tych systemów. Wzmacniacze liniowe są także wymagane w nadajnikach tradycyjnych analogowych systemów radiokomunikacyjnych z modulacją SSB i AM. Liniowe wzmacniacze mocy nadajników radiowych są najczęściej budowane jako szerokopasmowe niestrojone wzmacniacze klasy AB, głównie w układzie transformatorowym. Takie rozwiązanie pozwala bowiem w przypadku tranzystorowych nadajników większej mocy (z sumowaniem mocy z wielu elementarnych wzmacniaczy) ograniczyć liczbę bloków wymagających strojenia do jednego filtru wyjściowego. Zaletą wzmacniaczy klasy AB jest znacznie wyższa sprawność maksymalna i średnia w stosunku do klasy A. Wzmacniacze w układzie przeciwsobnym mają również niższe zniekształcenia nieliniowe (w sygnale wyjściowym teoretycznie nie występują bowiem parzyste harmoniczne). Projektowanie liniowych przeciwsobnych wzmacniaczy klasy AB jest od lat opisywane w większości podręczników dotyczących układów mocy małych i wielkich częstotliwości (por. [1-13]). Procedura projektowania powinna zapewnić uzyskanie wymaganej maksymalnej mocy wyjściowej Pwy max przy dostatecznie niskich zniekształceniach nieliniowych. Sprowadza się to do wyznaczenia odpowiednich dla użytych tranzystorów wartości napięcia zasilania EZ i rezystancji obciążenia Rd. Obliczenia projektowe w tym etapie prowadzi się przy założeniu pracy wzmacniacza w klasie B i ograniczonym wykorzystaniu napięcia zasilania (&#958;D < 1), zależnym od rezystancji tranzystora w stanie załączenia RDS (on) i wartości Rd : (1) gdzie Ud max jest maksymalną amplitudą napięcia dren źródło. Pomiędzy parametrami Pwy max, Rd i Ud max zachodzi związek (2) gdzie &#951;o jest sprawnością energetyczną obwodu wyjściowego wzmacniacza, a Pd max - jest jego maksymalną mocą dreno... więcej»

Stabilność spektralna monochromatycznych diod LED w zastosowaniach OSL DOI:10.15199/ELE-2014-142
(Ewa Mandowska, Arkadiusz Mandowski, Bartosz Nitsze)

Rosnące wymagania i zaostrzane normy bezpieczeństwa wymuszają poszukiwanie nowych, lepszych technik pomiarowych. Od kilku lat zdecydowanie najbardziej obiecującą metodą stała się optycznie stymulowana luminescencja (OSL). Technikę OSL zaczęto stosować w dozymetrii promieniowania jonizującego stosunkowo niedawno, od drugiej połowy lat 90. Rolę detektora OSL pełni odpowiednio przygotowany materiał (np. Al2O3:C) w osłonie światłoszczelnej [1]. W obecności promieniowania jonizującego stany pułapkowe detektora zapełniają się. Pułapki są metastabilne i charakteryzują się bardzo długim czasem życia. Zapisana informacja jest więc trwała - można ją odczytać nawet po wielu latach (nawet tysiącach lat) od naświetlenia. Określając liczbę nośników uwięzionych w pułapkach możemy wyliczyć dawkę promieniowania pochłoniętą przez detektor. Odczytu dokonuje się w specjalnym urządzeniu (czytniku) wykorzystującym technikę OSL. Idea tej metody polega na stymulacji napromieniowanego detektora bardzo silnym światłem o długości fali &#955;s (np. światło zielone). Światło to powoduje uwolnienie nośników ładunku znajdujących się w pułapkach i w efekcie, poprzez rekombinację promienistą, emisję luminescencji. Część tej luminescencji w zakresie krótkofalowym &#955; < &#955;s możemy zarejestrować odcinając się od bardzo silnej składowej &#955;s odpowiednim układem filtrów. W porównaniu do czytnika TL eliminacji uległ tutaj moduł grzania. Dzięki temu, możliwa jest bardziej zwarta, kompaktowa budowa czytnika. Kolejną korzyścią jest też krótszy czas pomiaru i możliwość jego wielokrotnego powtarzania, gdyż pomiar OSL nie zeruje całkowicie zapisanej informacji. W układach pomiarowych stosowanych w detekcji OSL do stymulacji detektora wykorzystuje się monochromatyczne elektroluminescencyjne diody LED [2, 3]. Warunkiem przeprowadzenia rzetelnych pomiarów jest wysoka stabilność spektralna stymulującego światła. Producenci diod LED podają parametry pracy swoich pr... więcej»

Badanie wpływu temperatury na charakterystyki fotoogniw DOI:10.15199/ELE-2014-145
(Krzysztof Górecki, Ewa Krac)

W ostatnich latach coraz większą uwagę przywiązuje się do odnawialnych źródeł energii. Do tej klasy źródeł należą m.in. systemy fotowoltaiczne (PV) [1-4]. Podstawowym składnikiem tych systemów są ogniwa fotowoltaiczne (fotoogniwa), w których zachodzi konwersja energii promieniowania optycznego, np. słonecznego, na energię elektryczną. Ogniwo fotowoltaiczne zawiera złącze pn, którego właściwości silnie zależą od temperatury [5, 6]. Przewiduje się, że do 2015 roku systemy fotowoltaiczne osiągną sumaryczną moc równą 200 GW, co stanowi podwojenie dzisiejszej mocy wytwarzane w krzemowych systemach PV [7], podczas gdy jeszcze pod koniec 2009 roku całkowita moc "elektrowni słonecznych" na świecie wynosiła tylko 23 GW [8]. Tak duży wzrost produkcji energii przy wykorzystaniu PV jest możliwy przede wszystkim dzięki znaczącemu podniesieniu sprawności poszczególnych ogniw oraz kompletnych systemów PV. Sprawność ogniw produkowanych w latach 40. ubiegłego wieku nie przekraczała 1%, podczas gdy już w 2009 wzrosła ona do 25% [9]. Zgodnie jednak z teorią Shockley-Queissera, maksymalna sprawność prostego krzemowego systemu PV może osiągnąć jedynie 31% [10]. Dodatkowo, na sprawność tę mają ogromny negatywny wpływ połączenia szeregowe poszczególnych ogniw, rozmiary paneli, temperatura otoczenia, zjawisko samonagrzewania [9, 11]. Dlatego wciąż trwają prace mające na celu podniesienie efektywności pracy systemów PV. Przy projektowaniu i analizie układów elektronicznych powszechnie są wykorzystywane programy komputerowe, wśród których jednym z najpopularniejszych jest obecnie program SPICE [12, 13]. Zagadnieniu modelowania systemów fotowoltaicznych za pomocą programu SPICE poświęcone są m.in. prace [11-15]. W pracy [14] przedstawiono sposób modelowania poszczególnych składników systemu fotowoltaicznego - od fotoogniwa, przez moduły fotowoltaiczne, falowniki do akumulatorów. Niestety modele przedstawiane w cytowanej pracy nie uwzględniają wielu i... więcej»

Diody Schottky&#8216;ego i tranzystory MESFET na bazie In-Ga-Zn-O z przezroczystą bramką Ru-Si-O DOI:10.15199/ELE-2014-123
(Jakub Kaczmarski, Jakub Grochowski, Eliana Kamińska, Andrzej Taube, Maciej Kozubal, Wojciech Jung, Anna Piotrowska, Elżbieta Dynowska)

Przezroczyste amorficzne półprzewodniki tlenkowe (ang. Transparent amorphous oxide semiconductors, TAOS), w tym tlenek indowo-galowo-cynkowych (a-IGZO), to materiały szerokoprzerwowe łączące cechy wysokiej transmisji optycznej z kontrolowanym przewodnictwem elektrycznym [1, 2]. Grupa przezroczystych amorficznych półprzewodników tlenkowych budzi uzasadnione zainteresowanie badawcze oferując szeroki wachlarz potencjalnych zastosowań - od przezroczystych przyrządów półprzewodnikowych i układów elektronicznych do całej gamy sensorów biomedycznych i optoelektronicznych, wytwarzanych zarówno na sztywnych jak i giętkich podłożach [3, 4]. Jednym z głównych wyzwań tej technologii jest wytworzenie niezawodnych kontaktów Schottky&#8217;ego, które umożliwiłyby rozwój przezroczystych cienkowarstwowych tranzystorów polowych ze złączem metal-półprzewodnik (ang. Metal-Semiconductor Field-Effect Transistor, MESFET). Niezawodne, przezroczyste kontakty Schottky&#8217;ego do przezroczystych półprzewodników tlenkowych powinny być wysokoprzewodzące, odporne na utlenianie oraz cechować się wysoką transmisją optyczną. Podczas osadzania metalizacji na powierzchnię TAOS, ze względu na powinowactwo chemiczne do tlenu, dochodzi do dyfuzji atomów O z półprzewodnika do obszaru przypowierzchniowego. Powoduje to powstanie zlokalizowanych stanów pułapkowych na interfejsie metal-półprzewodnik. W efekcie dochodzi do zwężenia obszaru zubożonego, zwiększając prawdopodobieństwo tunelowania nośników przez barierę potencjału [5, 6]. W celu przywrócenia stechiometrii obszaru przypowierzchniowego stosuje się dodatkowe procesy technologiczne, takie jak obróbka plazmą tlenową oraz wygrzewanie w atmosferze utleniającej przed osadzeniem metalizacji. Alternatywne podejście zakłada wykorzystanie, w roli bariery Schottky&#8217;ego, tlenków metali, których skład atomowy jest skuteczny w zapobieganiu dyfuzji tlenu w obszarze złącza [7-9]. W dotychczasowych pracach dotyczącyc... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Wybrane zagadnienia pomiarów zaburzeń na statkach morskich DOI:10.15199/ELE-2014-094
(Karol Korcz, Beata Pałczyńska, Ludwik Spiralski)

Występowanie silnych, zakłócających pól elektromagnetycznych w środowisku statku morskiego może w sposób bezpośredni wpływać na niezawodność okrętowych urządzeń oraz systemów elektrycznych i elektronicznych. Jest również nieobojętne dla bezpieczeństwa ludzi przebywających w pobliżu silnych źródeł tych pól. Dlatego też problematyka związana z pomiarami zakłóceń i kompatybilnością elektromagnetyczną na statkach morskich jest tak istotna. Efektem pracy zespołu badawczego jest zaprojektowanie komputerowego systemu do pomiaru przede wszystkim pola elektromagnetycznego w zakresie małych częstotliwości, a także badania zaburzeń odbiornika radiokomunikacyjnego. System pracuje w zintegrowanym środowisku programowania LabVIEW, w którym wirtualne przyrządy pomiarowe oprogramowane są z wykorzystaniem opracowanych, autorskich procedur [1-3]. Komputerowy system pomiarowy W schemacie funkcjonalnym systemu pomiarowego można wyróżnić dwie główne części (rys. 1): - sprzętową (czujniki i układy kondycjonowania sygnału, blok akwizycji danych pomiarowych z kartą pomiarową, źródło sygnału testowego), - programową (blok przetwarzania i analizy danych, blok interfejsu graficznego). System umożliwia pomiar charakterystyk zakłóceń małoczęstotliwościowych w sieciach zasilania, urządzeniach i systemach energoelektronicznych, elektronicznych, w tym urządzeniach radiokomunikacyjnych a także pomiar wolnozmiennego pola elektromagnetycznego [4, 5]. Badania wolnozmiennego pola elektromagnetycznego Za pomocą zaprezentowanego systemu pomiarowego dokonano oceny poziomu, w tym emisji pola elektromagnetycznego w odniesieniu do dopuszczalnych wartości zawartych w... więcej»

Elektrolitycza obróbka stali chromowo-niklowej w kontekście stanu powierzchni i ubytku materiału DOI:10.15199/ELE-2014-116
(MICHAŁ KRZYWIECKI, BARBARA KUCHARSKA)

Polerowanie mechaniczne metalu nie zawsze umożliwia uzyskanie odpowiedniej czystości powierzchni. W głębokich rysach technologicznych mogą pozostać zalegające tam obce wtrącenia i zanieczyszczenia. Dodatkowo, warstwa wierzchnia metalu zostaje zdefektowana i wprowadzone zostają do niej naprężenia. Alternatywą dla polerowania mechanicznego jest polerowanie elektrolityczne, które jest z powodzeniem stosowane w wielu gałęziach przemysłu od lotniczego począwszy a na medycznym skończywszy. Elektropolerowanie zmniejsza chropowatość powierzchni oraz usuwa niewielkie uszkodzenia powierzchniowe obrabianego materiału. Na gładkiej powierzchni nie osadzają się zanieczyszczenia, co prowadzi do poprawienia jej odporności korozyjnej [1-4]. Przygotowanie powierzchni elektroobróbką sprzyja poprawie adhezji osadzanych na nich powłok [6]. Polerowanie elektrolityczne jest stosowane również jako technika metalografii w celu ujawniania mikrostruktury materiałów [5]. Współcześnie konstruowane elektropolerki umożliwiają wykonanie zabiegu elektropolerowania lokalnie, na wybranym obszarze powierzchni detalu. Taki sposób elektropolerowania jest bardzo przydatny w kontroli technicznej konstrukcji i dużych urządzeń w miejscu ich ciągłej eksploatacji takich jak np. turbiny czy rurociągi. Dzięki elektropolerowaniu możliwe jest sukcesywne zdejmowanie cienkich warstw metalu bez wprowadzania deformacji struktury, zatem jest ono przydatne do wyznaczania gradientu mikrostruktury oraz naprężeń w detalach w miejscu ich montażu [8]. Obróbka elektrolityczna w zależności od oczekiwanych efektów powierzchni może mieć charakter zarówno polerowania jak i trawienia. Pierwszy z nich polega na intensywnym strawieniu materiału w celu otrzymania wytrawienia o określonej głębokości, w drugim stosuje się niższe napięcie i dłuższy czas (w porównaniu z elektropolerowaniem) w celu wygładzenia powierzchni i ujawnienia mikrostruktury. Odpowiedni dobór parametrów polerowania i tr... więcej»

The morphology and optical properties of silicon etched with bimetallic catalysts DOI:10.15199/ELE-2014-110
(Aneta KĘDRA, Robert P. SOCHA, Małgorzata ZIMOWSKA, Piotr PANEK, Lilianna SZYK-WARSZYŃSKA, Marek LIPIŃSKI, Piotr WARSZYŃSKI)

For the solar cells, which principle of operation is based on the light absorption, every energy loses pose a problem. Namely, reflectivity of the silicon surface used for photovoltaic cell production is one of the factors that needs to be minimized to approach the required absorption properties. The mitigation of the reflectivity is possible in two ways: by the use of an antireflective layer and/or by creation of a specific texture on the silicon surface. Both methods are effective but the texturization shows more advantages. The etching processes with the use of acid or alkaline systems are applied for the latter purpose [1, 2]. Moreover, the wet Metal- Assisted Chemical Etching (MAE) enables control of cross-sectional shape, diameter, length, doping type, doping level and the orientation of silicon nanostructures [3]. It is also possible to accelerate the surface recombination velocity due to increase of the silicon surface area [1]. Additionally, the textured surface allow for absorption of the reflected radiation resulting in an increase of the overall illumination density. The oxidant reduction, which occurs on the surface of metal, is an initial process of MAE. As a result, holes are generated and diffuse through the meta... więcej»

Czasopisma NT, indeksy, cytowania, bazy danych, wydawnictwa cyfrowe, bibliometria. Część 2 DOI:10.15199/ELE-2014-117
(Ryszard S. Romaniuk)

W części pierwszej artykułu omówiono pobieżnie kilka następujących zagadnień: czasopisma NT w erze dynamicznych mediów cyfrowych, wersja papierowa a bazodanowa czasopism, wirtualne czytelnie, zdrowe ambicje lokalnych czasopism NT wejścia do globalnych baz danych, polityka ustawodawcy dotycząca rynku wydawniczego czasopism naukowo-technicznych w kraju, otwarte wydawnictwa cyfrowe, czasopisma międzynarodowych organizacji NT, krajowe czasopisma NT, krajowy rynek wydawniczy czasopism NT, cytowania, pozycjonowanie (lokowanie) czasopism, indeksy bibliometryczne, licencjonowanie prawno-autorskie CCL, e-wydawnictwa krajowych czasopism NT - pytania z odpowiedziami i bez. W części drugiej ten pobieżny wywód jest kontynuowany z ukierunkowaniem na poważny dylemat wyboru czasopism wobec ryku wydawniczego otwartego i komercyjnego. Ponadto przedstawiono listę baz danych e-nauki i bibliograficznych oraz glosariusz wybranych terminów bibliograficznych. Ponadto powtórzono znaczne fragmenty wstępu do części pierwszej. W kraju wydawanych jest co najmniej kilkadziesiąt, liczących się także za granicą, lokalnych czasopism naukowo- technicznych (NT). Część z nich, wydawanych w języku angielskim, posiada międzynarodowe indeksy wydawnicze. Żadne z nich jednak nie posiada charakteru globalnego w sensie jakości i ilości wydawanych prac. W dziedzinie elektroniki i telekomunikacji takich czasopism o międzynarodowej renomie jest kilka, podobnie jak i w obszarze automatyki, robotyki i informatyki. Dodatkowo wydawanych jest zapewne kilkadziesiąt dobrych czasopism NT polskojęzycznych (lub także wydających okazjonalnie materiały po angielsku) cieszących się uznaniem i popularnością w swoich obszarach tematycznych w środowisku NT. Ustawodawca faworyzuje ze względów parametryzacyjnych, i internacjonalizacji krajowych środowisk NT czasopisma anglojęzyczne. Rynek wydawniczy czasopism NT jest w kraju znaczny. Czasopisma NT są znaczną częścią całego środowiska, ... więcej»

System przydziału celów powietrznych do środków ogniowych: maksymalizacja strat wroga DOI:10.15199/ELE-2014-113
(Przemysław M. Czyronis)

Problem przydziału celów powietrznych do środków ogniowych (ang. Weapon-Target Assignment Problem - WTA Problem) jest zasadniczym problemem wynikającym z zastosowań związanych z obronnością, które dotyczą znalezienia optymalnego przypisania środków ogniowych do kanałów celowania. Problem ten jest szczególnym przypadkiem bardziej ogólnego problemu jakim jest alokacja zasobów. Zadania związane z optymalną alokacją posiadanych zasobów posiadają swoje odzwierciedlenie w algorytmach systemów kierowania walką i ogniem Zestawów Rakietowych Obrony Powietrzenej. Użycie relatywnie dużej liczby pocisków rakietowych rozlokowanych na wielu wyrzutniach przy zmieniającej się sytuacji powietrznej wymaga wsparcia operatorów przez dedykowane systemy informatyczne. W przypadku kiedy mamy do czynienia z mniejszą celów powietrznych od liczby dostępnych kanałów celowania, problem się znacząco upraszcza. W sytuacji odwrotnej musimy zdecydować, które wybrane cele powietrzne zostaną przypisane do poszczególnych kanałów celowania. W tym przypadku na proces decyzyjny ma wpływ wiele czynników, takich jak: chwila czasowa wejścia celu powietrznego strefę rażenia, czas jego przebywania w strefie startu pocisków rakietowych, liczba przypisanych już celów powietrznych do danej wyrzutni czyli ilość wolnych kanałów celowania, liczba dostępnych pocisków rakietowych, priorytetowość (ważność) zwalczania danego celu, prawdopodobieństwo trafienia w cel, rodzaj przyjętej strategii. Rozważymy statyczny problem przydziału celów powietrznych do środków ogniowych pod względem optymalizacji różnych wskaźników jakości, określających pożądany efekt taki jak: zmaksymalizowanie strat w ugrupowaniu wroga (ang. total expected damaged value of the targets), zminimalizowanie liczby wrogich obiektów (ang. total expected value of the surviving targets). W każdym z przypadków zakładamy, że jest znana liczba celów powietrznych jak i predykcja ich trajektorii lotu (w ograniczonym ... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Utlenianie węglika krzemu: charakteryzacja procesu i metody symulacji kinetyki DOI:10.15199/ELE-2014-086
(Krystian Król, Mariusz Sochacki, Jan Szmidt)

Klasyczna technologia krzemowa osiąga bariery, które znacznie ograniczają możliwości jej zastosowania w urządzeniach dużej mocy i pracujących w wysokich temperaturach. Jednym z fundamentalnych ograniczeń jest wzrost koncentracji samoistnej nośników w półprzewodnikach wraz ze wzrostem temperatury. Bezpośredni wpływ na wartość koncentracji samoistnej ma szerokość przerwy energii zabronionych danego materiału. Od wielu lat bada się materiały o dużej szerokości przerwy zabronionej, które mają znacznie lepsze właściwości w wymienionych zastosowaniach niż krzem. Materiałem, z którym wiązane są największe nadzieje na rozwiązanie tych problemów, jest węglik krzemu (SiC). Materiał ten charakteryzuje się dużą szerokością przerwy zabronionej (2,4-3,26 eV w zależności od politypu [1]), co umożliwia pracę przyrządów SiC w wysokich temperaturach, nawet 700-800oC [2], wysokim krytycznym polem elektrycznym, dużą przewodnością cieplną oraz wysoką maksymalną prędkością unoszenia nośników. Ponadto materiał ten ma istotną przewagę nad innymi półprzewodnikami o szerokiej przerwie zabronionej - jako jedyny ma możliwość wytwarzania naturalnego, wysokiej jakości (z punktu widzenia właściwości objętościowych) dielektryka (SiO2) w procesie utleniania termicznego. Jest to jeden z elementów, który wywołał duże zainteresowanie węglikiem krzemu, ponieważ proces utleniania termicznego jest dobrze znany z technologii krzemowej i jest jednym z najlepiej opanowanych procesów technologicznych W ostatnim okresie dużo prac poświęcono próbom wytworzenia tranzystora mocy MOSFET na podłożach z węglika krzemu, z powodu potencjalnie znacznie lepszych właściwości w porównaniu z tranzystorem krzemowym, szczególnie w zakresie zastosowań związanych z szybkim przełączaniem w układach mocy. Współczesne tranzystory MOSFET SiC charakteryzują się jednak znacznie mniejszą niż przewidywana ruchliwością efektywną nośników w kanale. Tłumaczy się to dużą gęstością defektów na gra... więcej»

Wymagania konstrukcyjne dotyczące spełnienia wymagań kompatybilności elektromagnetycznej dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej DOI:10.15199/ELE-2014-073
(Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk)

Kompatybilność elektromagnetyczna Istotną sprawą kompatybilności elektromagnetycznej jest zdolność urządzeń elektrycznych lub elektronicznych do poprawnej pracy w określonym środowisku elektromagnetycznym przez osiągnięcie odpowiedniego poziomu odporności oraz ograniczenie emisji zaburzeń, które mogą zakłócić inne pracujące urządzenia. Przez zaburzenie elektromagnetyczne należy rozumieć każde zjawisko elektryczne, które może pogorszyć działanie urządzenia. Odporność jest zdolnością urządzenia do prawidłowego działania, bez pogarszania jakości, w obecności zakłócenia elektromagnetycznego. Obowiązek ograniczenia zaburzeń oraz uodpornienie na nie nakazuje obowiązująca dyrektywa 2004/108/WE "Kompatybilność elektromagnetyczna (EMC)". Poziomy emisji zaburzeń, jak i odporności na zaburzenia zostały określone w normach PN-EN 50263:2004 [1] i PN-EN 60255- 26:2013 [2]. Urządzenia EAZ są wyposażone w wejścia: pomiarowe, dwustanowe, zasilające oraz wyjścia przekaźnikowe, i obwody transmisji które nazywane są portami. Szczególną rolę odgrywa obudowa, zwykle metalowa, z zaciskiem uziemiającym zwana portem obudowy. Emisja zaburzeń ma miejsce poprzez obudowę, jak i poprzez port zasilający. Procedura badań i kryteria akceptacji dotyczące emisji zostały podane w normach (PN-EN 60255-25 [3] i PN-EN 55022). Odporność na zaburzenia dotyczy wszystkich portów dostępnych w urządzeniu, łącznie z obudową i przewodem uziemiającym. Źródła zaburzeń EMC dla urządzeń EAZ [5] Urządzenia elektryczne, nawet podczas normalnej pracy oraz zjawiska naturalne związane np. z wyładowaniami występującymi podczas burz, lub związane z wyładowaniami elektrostatycznymi zawsze wytwarzają zaburzenia elektromagnetyczne. Powinno się dążyć do zminimalizowania zaburzeń emitowanych przez źródła, aby nie przekraczać poziomu dopuszczonego dla innych urządzeń. Źródłami zaburzeń elektromagnetycznych dla urządzeń EAZ są [5]: ... więcej»

Nowoczesne techniki montażu 3D DOI:10.15199/ELE-2014-058
(Wojciech Stęplewski, Grażyna Kozioł, Józef Gromek, Piotr Ciszewski, Tomasz Krzaczek)

Trend w kierunku miniaturyzacji, zwiększenia szybkości działania, funkcjonalności i niezawodności urządzeń elektronicznych powoduje pojawianie się na rynku nowych podzespołów i technologii ich sprzężenia oraz montażu. Nowoczesne, mobilne urządzenia multimedialne wymagają bardzo krótkich czasów połączeń procesora i pamięci. Wymusza to zapotrzebowanie na rozwiązania gwarantujące maksymalne skrócenie czasu cyklu odczyt-zapis, przy jednoczesnym niskim zużyciu energii i niskim poziomie szumów i przesłuchów. Najszybszą metodą zapewnienia tych wymagań jest bezpośrednie połączenie pamięci z procesorem poprzez spiętrzanie, czyli nabudowywanie jednej struktury nad drugą. Obecnie jedną z najszybciej rozwijających technologii spiętrzania jest technologia Package on Package (PoP). Technologia PoP polega na piętrowym montażu techniką lutowania jednego lub kilku układów pamięciowych na położonym niżej układzie procesora, montowanym na płytce obwodu drukowanego. Układ procesora oraz pamięci zamknięte są w obudowach typu BGA (Ball Grid Array). Bliskość struktur półprzewodnikowych sprzyja korzystaniu z szybkich połączeń szerokopasmowych i tym bardziej zmniejsza zapotrzebowanie na powierzchnię na płytce drukowanej [1, 2]. Ten sposób montażu przy zwiększonej gęstości upakowania poprawia szybkość działania układów i odporność na zakłócenia elektromagnetyczne (EMC), pozwala również na wcześniejsze przetestowanie każdego z elementów struktury PoP osobno. Szczególnie jest to ważne dla układów logicznych, ponieważ potrzebują one często dużo bardziej skomplikowanej metodologii testowania. Architektura układów PoP pozwala na integrację układów logicznych o wysokiej wydajności (element dolny modułu) z pamięciami o dużych pojemnościach (element górny modułu) w elastycznym opakowaniu 3D. W ten sposób układy te stały się ciekawym rozwiązaniem w urządzeniach multimedialnych: smartfonach, tabletach, aparatach cyfrowych, urządzeniach GPS itp., gdzie ważna je... więcej»

Porównanie parametrów tranzystorów MO SFET wykonanych w technologii Si oraz SiC DOI:10.15199/ELE-2014-066
(WITOLD Kardyś, Krystian Król)

Tranzystory MOSFET wykonane w technologii krzemowej znalazły bardzo szerokie zastosowanie w układach przekształtników mocy. Wraz z rozwojem technologii wypierają one skutecznie rozwiązania oparte na tranzystorach bipolarnych, czy tyrystorach w zastosowaniach o coraz większej mocy wyjściowej. W artykule skoncentrowano się na zastosowaniach elektronicznych elementów przełączających w zasilaczach impulsowych oraz falownikach o mocy wyjściowej do 10 kW. W tego typu zastosowaniach, w zakresie niskich napięć do 200 V parametry tranzystorów MOSFET są znacząco lepsze od parametrów innych typów elektronicznych elementów przełączających [1]. W przypadku wyższych napięć w zakresie od 200 do 1200 V przewaga tranzystorów MOSFET nie jest już tak jednoznaczna. Czym wyższe jest dopuszczalne napięcie pracy tranzystora MOSFET tym wyższa jest rezystancja dren-źródło tranzystora (RDS(ON)) przy założeniu, że pozostałe parametry nie ulegają zmianie. W zakresie wyższych napięć wykorzystywane są również tranzystory IGBT. Ten rodzaj tranzystora wykazuje przewagę parametrów w zakresie napięć rzędu 1200 V i prądów powyżej jednego ampera. Takie porównanie parametrów jest bardzo uproszczone. Nie wzięto pod uwagę chociażby częstotliwości przełączania elementów. Waga poszczególnych parametrów zmienia się w zależności od zastosowania. Próbę bardziej kompleksowego porównania można znaleźć w [1]. W ostatnich latach pojawiła się komercyjnie dostępna alternatywa dla krzemowych tranzystorów MOSFET oraz IGBT - tranzystory wykonane z węglika krzemu (SiC) [2, 3]. Takie tranzystory dostępne są już komercyjnie a ich cena spadła do poziomu uzasadniającego ich zastosowanie w ni... więcej»

Adaptacja charakterystyki kierunkowej anteny inteligentnej metodami LM S oraz MVDR DOI:10.15199/ELE-2014-088
(Michał Gasztold)

Technologia dynamicznego kształtowania charakterystyk kierunkowych daje wiele możliwości dostosowywania systemu antenowego do warunków panujących w kanale radiowym lub do pełnienia określonych funkcji. Dzięki tej technice możliwe jest określanie kierunków przychodzenia sygnałów, minimalizacja odbieranych zakłóceń oraz zwiększanie pojemności sieci radiowych. Ta ostatnia cecha sprawia, że technika adaptacyjnego kształtowania charakterystyk kierunkowych jest wykorzystywana w sieciach komórkowych do dynamicznej minimalizacji współczynników Carrier-to-Interference (C/I) oraz Signal-to-Noise Ratio (SNR). Anteny wykorzystujące adaptacyjne formowanie wiązek są stosowane w stacjach bazowych systemów GSM, 3G oraz UMTS (IMT 2000) [1]. Anteny tego typu są często nazywane antenami inteligentnymi (ang. smart antennas). Antena inteligentna składa się z wielu elementów promieniujących tworzących najczęściej liniowy szyk antenowy. Sygnały odbierane przez wszystkie elementy są przetwarzane w celu dostosowania współczynników wagowych (amplitudowo-fazowych) tych elementów do aktualnej sytuacji panującej w kanale radiowym oraz do aktywnych użytkowników. Odpowiednio modyfikowane współczynniki wagowe zmieniają wypadkową charakterystykę kierunkową anteny, której listki główne (może ich być kilka) są skierowane w stronę aktywnych użytkowników systemu, a zera występują na kierunkach przychodzenia sygnałów zakłócających, patrz rys. 1. Dzięki temu możliwe jest uzyskanie większych wartości współczynników C/I oraz SNR. Popularnymi algorytmami stosowanymi do adaptacji charakterystyk kierunkowych są algorytmy LMS oraz MVDR, których podstawy matematyczne są opisane w niniejszym artykule. Zanim system antenowy będzie w stanie przeprowadzić adaptację współczynników wagowych niezbędne jest dostarczenie informacji o kącie lub kątach przychodzenia sygnałów pożądanych lub/i sygnałów zakłócających. Do określania kierunku sygnału pożądanego wykorzystuje się tzw. a... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Przepływomierz kolanowy do pomiaru strumieni przepływu gazu DOI:10.15199/ELE-2014-040
(Michał Kamiński, Artur Andruszkiewicz)

Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania DOI:10.15199/ELE-2014-045
(Małgorzata Tartanus, Tadeusz Antczak )

We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS DOI:10.15199/ELE-2014-036
(Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)

Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Obtaining 3D information from 2D images DOI:10.15199/ELE-2014-041
(Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)

Modern surveillance systems are based on the analysis of CCT V cameras. One of the problems that are encountered when trying to use an image for further analysis in terms of surveillance is the lack of information about the perspective. It is possible to use stereovision, but such a solution is expensive and complicated. Normal image does not have information about the perspective. By doing some reference measurements we can obtain the spatial information about the scene observed by the camera [5]. Scene configurator 2.5D allows obtaining 3D information from 2D image captured by a single camera by performing the following procedure when setting up the system and using it at a later stage image processing. Scene configurator 2.5D Configurator 2.5D allows the model to determine the perspective of the observed scene from a series of images. It is necessary to prepare and use a pattern in the form as shown in Figure 1.Pictures should be taken so that the lower bar pattern was on the floor and the top was at right angle to the floor. Lower bar should also be at right angle to the axis focal length of the lens. Pattern should be visible on image and pattern should not be photographed directly from the front or above, because these situations do not allow reference measurements. The example picture with a pattern is shown in Figure 2. To run the program the MATLAB Compiler Runtime (MCR ) version R2012b (32-bit) must be first installed, you can download the appropriate version for your operating system from: http://www.mathworks.com/products/compiler/mcr/index.htmlWhen the scene configurator is run, the main window shown in Figure 3 is displayed. Now the real image must be loaded to analyse it. For that purpose the user must click on the button and load the file from the hard drive. On the right side there are the following buttons located: &#9679; Button top, &#9679; Button left down, &#9679; Button middle down, &#9679; Button ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych DOI:10.15199/ELE-2014-025
(Wojciech Przyłuski )

Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Człowiek i organizacje w wirtualnym środowisku informacji DOI:10.15199/ELE-2014-020
(Zbigniew Kierzkowski)

Procesy przemian cywilizacyjnych w kształtującym się społeczeństwie informacyjnym zmierzają w kierunku tworzenia różnorodnych struktur wirtualnej organizacji działań (WOD). Problematykę WOD, jako nowy przedmiot badań naukowych i realizacji zadań badawczo-rozwojowych i edukacyjnych, podjęto w Polsce przed 20 laty. Od początku badania te są prowadzone przy współpracy wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych, konferencji krajowych i międzynarodowych. Problematyka WOD od początku wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP). Problematyka wirtualnej organizacji działań (WOD), nowy przedmiot badań naukowych i realizacji zadań badawczorozwojowych, podjęto w Polsce w latach 1994/1996. Są one przedmiotem współdziałania wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych. Od początku tematyka WOD wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP) i jest ściśle powiązana z pracami prowadzonymi na forum międzynarodowym przez Komitet Danych dla Nauki i Technologii [2] (CODATA - Committee on Data for Science and Technology of the International Council for Science). Dodatkowo od 2003 roku problematyka WOD prezentowana jest podczas krajowych Konferencji Okrągłego Stołu (KOS): Polska w drodze do społeczeństwa informacyjnego [3], które organizowane są corocznie, jako debata środowisk polityki, gospodarki i nauki przez Zarząd Główny SEP - Stowarzyszenie Elektryków Polskich, który jest głównym koordynatorem w Polsce obchodów ŚDSI - Światowego Dnia Społeczeństwa Informacyjnego (17 maja). Badania początkowe - do roku 2003/2004 - w obszarach tematycznych WOD poświęcone są analizie procesów przemian strukturalnych społeczeństwa informacyjnego oraz poszukiwaniu głównych czynników kształtowania społecz... więcej»

Projekt wbudowanej dwupasmowej anteny GSM
Artykuł prezentuje łączne zastosowanie oprogramowania CST MICROWAVE STUDIO &#174; (CST MWS), Antenna Magus i Optenni Lab w celu poprawienia konstrukcji urządzenia monitorującego pracującego w standardzie GSM. Zadanie polegało na zastąpieniu typowej obudowanej anteny katalogowej zintegrowaną anteną drukowaną w celu zmniejszenia kosztów produkcji i kosztów materiałowych. Nowa antena musiała pracować w standardowych pasmach GSM 900 MHz i 1800 MHz oraz musiała korzystać z istniejącego podłoża i warstw metalizacji, bez zmiany wielkości płytki i układu ścieżek poza obszarem samej anteny. Nowa, zintegrowana antena została zaprojektowana z wykorzystaniem aplikacji Antenna Magus w połączeniu z oprogramowaniem CST MWS co pozwoliło uniknąć niepożądanych sprzężeń i zapewnić pracę anteny w żądanych pasmach częstotliwości. Program Optenni Lab został wykorzystany do zaprojektowania układu dopasowującego. Do czego owcy potrzebna antena? Firma "ETSE electronics" z miasta Stellenbosch w RPA to ekspert w zakresie urządzeń i systemów do łączności w pasmach mikrofalowych i RF. Konstruktorzy z ETSE opracowali produkt nazwany "Celmax collar". Jest to urządzenie śledzące systemu GPS noszone przez wybrane owce wchodzące w skład większego stada. W przypadku próby kradzieży lub innego niebezpieczeństwa spłoszone owce zaczynają biec. Urządzenie wykrywa przyspieszenie i powiadamia hodowcę przez wiadomość SMS wysyłaną przez lokalną sieć komórkową GSM. Na rysunku 2 pokazano pierwotną konstrukcję urządzenia z typową anteną GSM zamontowaną na płytce PCB i połączoną przez przepust z układem scalonym RF zamontowanym na drugiej stronie płytki. Częstotliwości pracy urządzenia to standardowe pasma GSM 900 (890 MHz - 960 MHz) i GSM 1800 (1710 MHz - 1879.8 MHz). Antenna Magus i CST MWS zostały użyte do zastąpienia pierwotnej anteny drukowaną anteną dwupasmową, bez zmiany układu ścieżek i wymiarów PCB. Podłoże wykonane jest z 4 warstw laminatu FR4 o przenikalno... więcej»

Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora DOI:10.15199/ELE-2014-030
(Bartłomiej Półtorak, Jacek Szatkowski )

W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 k&#937; i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 &#937;. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Elektrochemiczny czujnik samopolaryzujący do naskórnego pomiaru prężności tlenu w krwi tętniczej DOI:10.15199/ELE-2014-031
(Tadeusz Pałko, Włodzimierz Łukasik, Józef Przytulski)

Prężność tlenu pO2 we krwi tętniczej jest ważnym parametrem obrazującym ilość tlenu rozpuszczonego w osoczu, wyrażonym w jednostkach ciśnienia oddziaływującego na osocze. W warunkach prawidłowych w krwi tętniczej pO2 &#8776; 80 mm Hg (10,6 kPa), a w powietrzu atmosferycznym pO2 &#8776; 154 mm Hg (21 kPa). Parametr ten umożliwia wykrycie zarówno niedotlenienia krwi tętniczej jak i groźbę wystąpienia zatrucia tlenowego, co może ujawnić się w trakcie leczenia w komorze hiperbarycznej lub leczenia czystym tlenem. Przedmiotem niniejszego artykułu jest elektrochemiczny czujnik samopolaryzujący do nieinwazyjnego naskórnego pomiaru prężności tlenu we krwi tętniczej oparty na ogniwie galwanicznym zwanym też komor-pomiarową Mackeretha oraz wyposażony w układ termoregulacji do grzania i termostatowania badanego miejsca obszaru tkankowego skóry i wnętrza czujnika, aby zapewnić wystarczająco dobrą dyfuzję tlenu z krwi w naczyniach kapilarnych do komory pomiarowej czujnika. Dotychczas znane i stosowane czujniki do nieinwazyjnego pomiaru prężności tlenu pO2 we krwi tętniczej metodą naskórną działają na zasadzie opisanej przez Clarka w artykule [1] odnoszącym się do pomiaru pO2 bezpośrednio w krwi metodą in vitro. Na przełomie lat 1970-tych i 1980-tych i później, zasada ta została zmodyfikowana, udoskonalona i rozszerzona do nieinwazyjnych pomiarów naskórnych pO2 w krwi tętniczej. Główna modyfikacja czujników naskórnych w stosunku do mierzących pO2 bezpośrednio w krwi polegała na wprowadzeniu układu termoregulacji do podgrzewania obszaru pomiarowego. W czujnikach pO2 opartych na zasadzie Clarka wykorzystuje się zjawiska oksyredukcyjne zachodzące na powierzchni, odpowiednio dobranych i spolaryzowanych z zewnętrznego źródła napięcia, elektrod zanurzonych w odpowiednim wodnym elektrolicie, najczęściej KCl do którego dyfunduje tlen przez membranę o właściwościach hydrofobowych tzn. nieprzepuszczającą cząsteczek wody z badanego środowiska. Na... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Time-delay of arrival estimation from voice signal DOI:10.15199/ELE-2014-002
(Damian Cetnarowicz, Adam Dąbrowski)

This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the &#8220;cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Iteracyjna metoda usuwania szumu impulsowego z obrazów cyfrowych DOI:10.15199/ELE-2014-004
(Adam Konieczka, Julian Balcerek, Adam Dąbrowski)

Podczas rejestracji obrazów z wykorzystaniem kamer i aparatów cyfrowych dochodzi do przekłamań wartości niektórych pikseli. Przekłamania te są widoczne jako zmniejszenie szczegółowości drobnych detali obrazu bądź jako niejednolity kolor na gładkich powierzchniach. Zapis oraz transmisja obrazów są także źródłem zmiany wartości poszczególnych pikseli. Takie przypadkowo zmienione piksele, określane jako szum impulsowy o zmiennych wartościach, są bardzo zauważalne dla ludzkiego oka [1, 2]. Do usuwania szumu impulsowego stosuje się wiele metod. Do najpopularniejszych należy filtracja medianowa, która skutecznie usuwa taki rodzaj szumu z gładkich powierzchni. Niestety, fragmenty o dużej szczegółowości, takie jak tekstury czy krawędzie, ulegają rozmyciu. W celu redukcji tego efektu zaproponowano filtry CWM (center weighted median filter) [3] oraz SWM (softswitching median filter) [4]. W ostatnich latach pojawiło się wiele zmodyfikowanych i udoskonalonych filtrów działających w oparciu o medianę. Do najistotniejszych można zaliczyć: peak-and-valley filter (PV) [5], extremum and median filter (EM) [6], minimummaximum exclusive mean filter (MMEM) [6] oraz pre-scanned minmax center-weighted filter (PMCW) [7] i decision-based median filters [8]. W artykule zaproponowano prosty i efektywny algorytm do wykrywania i usuwania szumu impulsowego wykorzystujący maskę o wymiarach 3×3 piksele. Wykrycie pikseli szumowych odbywa się w oparciu o dynamicznie dobierany próg detekcji, a odszumianie wykorzystuje filtrację medianową i uśrednianie. W dalszej części artykułu opisano sposób ustalania progu detekcji pikseli zaszumionych oraz metodę odszumiania pikseli uznanych za zaszumione. Rozdział "Przebieg i wyniki eksperymentów" prezentuje przeprowadzone eksperymenty oraz uzyskane wyniki odszumiania dla standardowych obrazów testowych wyrażone w decybelach, przykładowe odszumione obrazy oraz porównanie uzyskanych wyników z innymi, dostępnymi w literatu... więcej»

Zaawansowane systemy elektroniczne, zastosowania fotoniki i inżynieria Internetu &#8211; 33 Sympozjum WILGA 2014 DOI:10.15199/ELE-2014-018
(Ryszard S. Romaniuk)

XXXIII Sympozjum "Advanced Electronic Systems, Photonics Applications and Web Engineering" odbyło się na terenie Wydziału Elektroniki i Technik Informacyjnych PW w dniach 24-25 stycznia [1]. Sympozjum jest organizowane tradycyjnie pod auspicjami organizacji międzynarodowych SPIE i IEEE . Udział wzięło łącznie ok. 70 osób. Przedstawiono ok. 50 prezentacji. Sympozjum jest prowadzone tradycyjnie w języku angielskim. Tematyka sympozjum była skoncentrowana wokół teorii i praktyki aplikacyjnej zaawansowanych, funkcjonalnych układów i systemów fotonicznych i elektronicznych. Sympozjum stanowiło tradycyjnie przegląd prac magistrantów, doktorantów, i młodych uczonych w dziedzinie fotoniki, inżynierii sieci Internet oraz zaawansowanych funkcjonalnych systemów elektronicznych. Takie innowacyjne rozwiązania znajdują zastosowania w robotyce i automatyce przemysłowej, medycynie, ochronie środowiska, systemach bezpieczeństwa, eksperymentach badawczych, transporcie, technice kosmicznej, inżynierii oprogramowania, systemach sztucznej inteligencji. Uczestnicy Sesji na temat Systemów Wbudowanych pod przewodnictwem prof. Krzysztofa Poźniaka, XXXIII Sympozjum "Photonics Applications and Web Engineering". Przed popiersiem Patrona Wydziału Elektroniki i Technik Informacyjnych PW - prof. Janusza Groszkowskiego, Warszawa, 25 stycznia 2014 r. Materiały 33 Sympozjum Zastosowania Fotoniki i Inżynieria Sieci Web będą wydane łącznie, w jednym tomie serii wydawniczej Proc. SPIE , z tradycyjnym majowym Sympozjum młodych uczonych w Wildze [2-11]. Poniżej omówiono, korzystając z prezentacji autorskich, niektóre ciekawsze tematy poruszane w czasie wybranych sesji sympozjalnych. Sesję tematyczną rozpoczyna tradycyjnie krótka prezentacja opiekuna naukowego grupy studentów i doktorantów, po czym następuje seria prezentacji przyczynkowych rozwijających prezentację wprowadzającą. Sesje sympozjalne dotyczyły: inteligencji obliczeniowej i sztucznej inteligencji oraz... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF DOI:10.15199/ELE-2014-019
(Janusz DUDCZYK, Adam KAWALEC)

Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło &#957;(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect DOI:10.15199/ELE-2014-010
(Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)

W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Architektura sprzętowego modułu predykcji wewnątrzramkowej Intra dla standardu H.265/HEVC (Andrzej Abramowski, Grzegorz Pastuszak)
Ostatnie lata charakteryzują się gwałtownym rozwojem technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu. Postępy w tych dziedzinach wiążą się z dość znaczącym wzrostem ilości przesyłanych informacji wideo, co znacząco obciąża obecnie istniejące łącza telekomunikacyjne. W efekcie bardzo duża liczba firm oraz instytucji naukowych pracuje nad sposobami ograniczenia rozmiaru tego typu danych oraz wymaganej przez nie przepływności. Zarazem współcześni konsumenci są zainteresowani zdecydowanym wzrostem jakości oglądanych materiałów. Aby pogodzić te sprzeczne zapotrzebowania w 2010 r. grupa ekspertów Joint Collaborative Team on Video Coding rozpoczęła prace nad nowym standardem kompresji wideo pod kodową nazwą High Efficiency Video Coding (HEVC). Za cel postawiono sobie ograniczenie o połowę przepływności zakodowanej sekwencji wideo w porównaniu do H.264/AVC (Advanced Video Coding), przy jednoczesnym zachowaniu jakości ocenianej miarami subiektywnymi. Rozwój standardu trwał ponad trzy lata i zakończył się ostatecznym jego przyjęciem w 2013 r. przez ISO (International Organization for Standardization) i ITU Telecommunication Standardization Sector jako H.265/HEVC ([1]). Składnia standardu H.265/HEVC wykorzystuje regularne struktury drzewiaste, zapisywane w strumieniu wyjściowym. W porównaniu do jego poprzednika, H.264/AVC, istotnie rozbudowana została predykcja wewnątrzramkowa (Intra), predykcja międzyramkowa (Inter) oraz algorytmy transformacji. Wiąże się to ze zwiększoną złożonością obliczeniową, jednak wybrane rozwiązania powinny umożliwić zrównoleglenie znaczącej części operacji. W chwili obecnej opracowywane są dalsze rozszerzenia m. in. wersja skalowalna oraz dostosowana do kodowania sekwencji trójwymiarowych. Predykcja wewnątrzramkowa (Intra) Jedną z podstawowych technik w kodowaniu wideo jest predykcja wewnątrzramkowa. Wykorzystuje ona uprzednio zakodowane próbki z danej ramki do przewidywania poprze... więcej»

Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 &#937;. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow&#8209;tie w szczelinowo pobudzany monopol. Z... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

System akwizycji danych operacyjnych i pogodowych dla farmy fotowoltaicznej (Jacek Stępień, Konstanty W. Marszałek, Tomasz Matuska)
Farma fotowoltaiczna realizuje operację konwersji energii promieniowania słonecznego na energię elektryczną. W związku z koniecznością zapewnienia odpowiedniego poziomu nasłonecznienia paneli fotowoltaicznych, farmy budowane są w różnych, czasami odległych od terenów urbanizacyjnych miejscach. Jednocześnie systemy sterowania i nadzoru poprawności pracy systemu fotowoltaicznego wymagają posiadania często bardzo rozbudowanej infrastruktury komputerowej. Transfer danych do miejsc obsługi odpowiedzialnych za kontrolę stanowi istotny element systemu nadzoru nad prawidłowym funkcjonowaniem obiektu. Kompletne systemy sterowania i nadzoru są oferowane obecnie przez wielu producentów i nie stanowi żadnego problemu zbudowanie infrastruktury kontrolno-sterującej dla urządzeń pracujących na farmie [1-4]. Opisany w artykule system pomiarowy nie jest alternatywą dla rozwiązań tego typu, stanowi jakby pewne ich uzupełnienie. Opracowany, uniwersalny interfejs pomiarowy pozwala na dołączenie urządzenia do dowolnego układu czujnikowego, realizującego pomiary w trybie napięciowym lub prądowym, dzięki możliwości dopasowanie poziomu sygnału do zakresu optymalnego dla systemu akwizycji danych oraz transmisję za pomocą modemu GPR S (ang. General Packet Radio Service) do serwera realizującego wizualizację lub np. wyposażonego w aplikację do analizy efektywności pracy systemu fotowoltaicznego. System jest mobilny, niezależny od infrastruktury komputerowej farmy i bardzo elastyczny (możliwe jest rozbudowanie układu o kolejne moduły bez modyfikacji pozostałej części systemu). Został wykorzystany w pracach badawczych przy wdrażaniu wiatrowo- słonecznej elektrowni hybrydowej. Opis systemu fotowoltaicznego Opisywany system akwizycyjny testowany był na obiekcie przemysłowym tj. hybrydowej elektrowni wiatrowo-słonecznej budowanej w ramach realizacji projektu "Badania nad opracowaniem wytycznych, technik i technologii dla systemów kompensacji mocy biernej,... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Ocena efektywności dopasowania technologicznego dla struktur FPGA (Marcin KUBICA, Dariusz KANIA, Adam OPARA)
Jednym z kluczowych problemów w rozwoju techniki cyfrowej jest problem ciągłego tworzenia nowych narzędzi syntezy. Niestety dostępne obecnie narzędzia syntezy są dalekie od doskonałości. Uzyskiwane w wyniku syntezy rozwiązania nie zajmują minimalnych zasobów logicznych, jak i nie mają optymalnych właściwości dynamicznych. Istotą efektywnego odwzorowania technologicznego projektowanych układów cyfrowych w strukturach FPGA jest odpowiednio prowadzona dekompozycja funkcji logicznych, która stanowi podstawy teoretyczne efektywnego podziału układu pomiędzy bloki logiczne LUT, zawarte wewnątrz układu FPGA. Producenci układów FPGA zapewniają możliwość konfiguracji bloków logicznych zawartych wewnątrz struktury [1, 13]. Szczególnie istotna jest, zwykle niewielka, liczba wejść bloków logicznych zawartych w układach FPGA, gdyż ona stanowi główne ograniczenie projektowe. Problem efektywnego dopasowania technologicznego jest więc bezpośrednio związany z wyborem odpowiedniej dekompozycji funkcji i tworzenie odpowiedniej ścieżki dekompozycji. Celem artykułu jest przedstawienie metodologii poszukiwania odwzorowania technologicznego, pozwalającej na ocenę efektywności dopasowania technologicznego, która wskazuje na sposób doboru odpowiedniej dekompozycji w kolejnych etapach syntezy projektowanego układu. Przedstawiona w artykule metoda oceny efektywności odwzorowania technologicznego do struktury FPGA, jest dopasowana do zasobów struktury programowalnej scharakteryzowanych liczbą wejść bloków logicznych. Opracowana metoda oceny efektywności odwzorowania jest przeznaczona dla układów FPGA typu tablicowego. Problem dekompozycji funkcji Problem dekompozycji funkcji czy też zespołu funkcji jest tematem wielu prac naukowych [9, 12]. Dekompozycja jest modelem matematycznym podziału projektowanego układu na poszczególne bloki logiczne. Najprostszy model dekompozycji funkcji [4] sprowadza się do wyboru odpowiedniego podziału argumentów funkcji na... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski&#8201;)
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Microfluidic valve made in LTCC (Low Temperature Co-fired Ceramic) technology - preliminary results (Mateusz Czok, Karol Malecha, Leszek Golonka)
The history of the LTCC (Low Temperature Co-Fired Ceramics) technology dates back to early 80s, when it was developed by Hughes and DuPont. Since then the LTCC technology has attracted extraordinary attention in fabrication of hybrid circuits, sensors, and microsystems [1]. The typical LTCC module is built of several ceramic layers with internal and external mechanical and electrical structures. All parts are connected together and create one, complex multilayer structure. The LTCC technology provides possibilities of using embedded and external (on both sides of the module) components in combination with excellent mechanical and thermal properties of ceramic material. Typical LTCC module is a multilayer structure constructed from dielectric tapes. Different patterns of conductors, resistors and dielectrics can be deposited on the LTCC tape layers using screen-printing or ink-jet printing techniques. Thick-film conductors and passives can be fabricated as a surface or embedded structures. Moreover, additional passive and active components can be easily assembled on the top or bottom surface of the LTCC module using various mounting techniques (e.g. surface mounting technique, flip-chip etc.). Originally, LTCC modules provided only electrical functions, but some features of the LTCC technology allowed expanding its applications. The main features of the technology are: possibility of 3D structure creation, chemical resistance, possibility of working at high temperature and harsh environment, ability of using typical thick... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Wybrane problemy przetwarzania sygnałów wyjściowych detektora fazy w odbiorniku radaru dopplerowskiego w sensorze mikrofalowym do detekcji funkcji życiowych (Mariusz Łuszczyk, Łukasz Dąbrowski)
W rozwoju współczesnej medycyny można wyodrębnić kierunek zmierzający do zastosowania bezinwazyjnego pomiaru parametrów biomedycznych człowieka. Kierunek ten uwidacznia się w hospitalizacji, telemedycynie oraz w przypadkach, kiedy kuracja pacjenta odbywa się w warunkach domowych [1]. Każdy z wymienionych kierunków wymaga stworzenia osobistych urządzeń medycznych wyposażonych w urządzenia bezprzewodowej transmisji danych oraz rozwijaniu technologii w tym zakresie. Takimi urządzeniami są sensory, które dostarczają informacji o fizycznych, chemicznych lub biologicznych cechach monitorowanego systemu. W ogólności takimi parametrami mogą być temperatura, ciśnienie, prędkość lub przyśpieszenie poruszającego się ciała, bądź w przypadku sensorów wykorzystywanych w medycynie parametry życiowe człowieka, do których zalicza się tętno, oddech, ciśnienie krwi oraz temperaturę. Sensory medyczne podlegają intensywnemu rozwojowi. Dzieje się to pod wpływem wzrastających wymagań, co do skuteczności diagnostyki medycznej. Dlatego też na polu rozwoju sensorów medycznych można zaobserwować równoległy rozwój tradycyjnych technologii (np. technik mikrofalowych) oraz nowe zastosowania biotechnologii oraz mikro- i nanotechnologii. Sensory mikrofalowe (radary) do detekcji wybranych funkcji życiowych człowieka wykorzystują ruch klatki piersiowej człowieka towarzyszący oddychaniu oraz biciu serca. Rozważania zawarte w niniejszym artykule są więc aktualne również w zakresie monitorowania ruchu oscylacyjnego innych powierzchni odbijających fale elektromagnetyczne za pomocą opisanych urządzeń. Amplitudy tych ruchów są rzędu od pojedynczych milimetrów do ok. 20 mm (przyjmuje się średnią wartość 7 mm) dla oddechu oraz dziesiątych części milimetra dla bicia serca [2]. Typowe spoczynkowe częstotliwości oddechu wynoszą 0,2...0,7 Hz, zaś pracy serca 1...3 Hz. Górne wartości tych częstotliwości dotyczą noworodków, dolne osób dorosłych. W badaniach prowadzonych ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»