profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Przezroczysty amorficzny półprzewodnik tlenkowy Zn-Ir-Si-O (Jakub Grochowski, Eliana Kamińska, Jakub Kaczmarski, Anna Piotrowska)
W ostatnich latach obserwuje się gwałtowny rozwój elektroniki przezroczystej. Dziedzina ta jest ukierunkowana na projektowanie i wytwarzanie materiałów oraz przyrządów półprzewodnikowych wykorzystujących materiały łączące wysoki poziom przezroczystości z możliwością kontroli ich przewodnictwa [4]. Jednym z najistotniejszych aktywnych elementów urządzeń elektronicznych jest złącze p-n. W dziedzinie elektroniki przezroczystej, najlepiej poznane i wykorzystywane są materiały półprzewodnikowe o przewodnictwie elektronowym takie jak ZnO [5], SnO2 [6] czy amorficzny tlenek indowo-galowo-cynkowy In-Ga-Zn-O [7]. Jednym z najpoważniejszych wyzwań tej dziedziny jest opracowanie materiałów o przewodnictwie typu p oraz relatywnie wysokiej ruchliwości swobodnych dziur i możliwości kontrolowania ich koncentracji [8]. Osobliwymi i obiecującymi w kontekście badań nad półprzewodnikami tlenkowymi o przewodnictwie dziurowym są tlenki o strukturze spineli AB2O4, a w szczególności ZnB2O4, gdzie B = Co, Rh lub Ir. Materiały te ujawniają właściwości przewodnictwa typu p oraz charakteryzują się przerwą energetyczną o szerokości od ~2 eV [1, 2] do ~3 eV [3]. Synteza monokrystalicznych materiałów o strukturze spineli wymaga stosowania temperatur powyżej 1000°C. Niedawne doniesienia literaturowe informują o możliwości osadzania cienkich warstw amorficznych technikami ablacji laserowej oraz magnetronowego rozpylania katodowego [2, 3]. Tlenki o strukturze spinelu cechuje koncentracja dziur 1020 cm-3. Jednym z istotnych wyzwań tej technologii jest obniżenie koncentracji swobodnych nośników do poziomu umożliwiającego wykorzystanie tych materiałów w roli warstw aktywnych przyrządów półprzewodnikowych. Koncentrując badania nad sposobem ograniczenia koncentracji dziur w ZnIr2O4, który cechuje największa szerokość przerwy energetycznej, proponujemy wprowadzenie w s... więcej»

Obliczanie mocy traconej w tranzystorach wzmacniacza liniowego klasy AB (Juliusz Modzelewski)
Coraz powszechniejsza cyfryzacja systemów radiokomunikacji i radiodyfuzji wykorzystujących modulację OFDM powoduje konieczność stosowania liniowych wzmacniaczy mocy w nadajnikach tych systemów. Wzmacniacze liniowe są także wymagane w nadajnikach tradycyjnych analogowych systemów radiokomunikacyjnych z modulacją SSB i AM. Liniowe wzmacniacze mocy nadajników radiowych są najczęściej budowane jako szerokopasmowe niestrojone wzmacniacze klasy AB, głównie w układzie transformatorowym. Takie rozwiązanie pozwala bowiem w przypadku tranzystorowych nadajników większej mocy (z sumowaniem mocy z wielu elementarnych wzmacniaczy) ograniczyć liczbę bloków wymagających strojenia do jednego filtru wyjściowego. Zaletą wzmacniaczy klasy AB jest znacznie wyższa sprawność maksymalna i średnia w stosunku do klasy A. Wzmacniacze w układzie przeciwsobnym mają również niższe zniekształcenia nieliniowe (w sygnale wyjściowym teoretycznie nie występują bowiem parzyste harmoniczne). Projektowanie liniowych przeciwsobnych wzmacniaczy klasy AB jest od lat opisywane w większości podręczników dotyczących układów mocy małych i wielkich częstotliwości (por. [1-13]). Procedura projektowania powinna zapewnić uzyskanie wymaganej maksymalnej mocy wyjściowej Pwy max przy dostatecznie niskich zniekształceniach nieliniowych. Sprowadza się to do wyznaczenia odpowiednich dla użytych tranzystorów wartości napięcia zasilania EZ i rezystancji obciążenia Rd. Obliczenia projektowe w tym etapie prowadzi się przy założeniu pracy wzmacniacza w klasie B i ograniczonym wykorzystaniu napięcia zasilania (&#958;D < 1), zależnym od rezystancji tranzystora w stanie załączenia RDS (on) i wartości Rd : (1) gdzie Ud max jest maksymalną amplitudą napięcia dren źródło. Pomiędzy parametrami Pwy max, Rd i Ud max zachodzi związek (2) gdzie &#951;o jest sprawnością energetyczną obwodu wyjściowego wzmacniacza, a Pd max - jest jego maksymalną mocą dreno... więcej»

Obliczenia z pierwszych zasad własności defektów rodzimych w ZnRh2O4 (Oksana Volnianska, Piotr Bogusławski)
Przezroczyste tlenki przewodzące charakteryzuje zarówno wysoka przezroczystość w obszarze światła widzialnego, jak i wysoka ruchliwość nośników i dobre przewodnictwo elektryczne, co powoduje iż są one istotne z punktu widzenia zastosowań [1]. Większość tlenków wykazuje przewodnictwo typu n. Badania prowadzone w ostatnim okresie poświęcone były w znacznej mierze uzyskaniu przewodnictwa typu p. Dwie grupy tlenków, mianowicie delafosyty CuXO2 (X = Al, Ga, In) [2] i spinele ZnX2O4 (X = Co, Rh, Ir), wykazują przewodnictwo typu p [3-6], które może być aktywowane termicznie poniżej temperatury pokojowej, i przybiera wartości rzędu 0,4-3,4 S/cm w T = 300 K [5]. Co więcej, struktura elektronowa obu grup jest zbliżona. Najwyższe przewodnictwo elektryczne zaobserwowano dla X = Rh i Ir [5]. W szczególności własności ZnRh2O4 są obiecujące dla optoelektroniki. Pomiary Mizoguchiego i in. wykazały, iż w ZnRh2O4 optyczna przerwa wzbroniona Egap wynosi 2,1 eV [3]. W pracy tej przyjęto, iż wierzchołek pasma walencyjnego (VBT) jest zbudowany z orbitali 4d 6 atomów Rh w stanie niskospinowym. Dokładniejsze pomiary Dekkersa i in. [5] wykazały, że Egap = 2,74 eV, zaś przewodnictwo typu p zostało przypisane obecności dziur. Równolegle z badaniami doświadczalnymi prowadzone były obliczenia teoretyczne struktury elektronowej [4, 7-9] w ramach teorii funkcjonału gęstości. Potwierdziły one hipotezę wysuniętą w pracy [3], że przerwa wzbroniona jest utworzona pomiędzy stanami 4d(Rh) rozszczepionymi przez oktaedryczne pole krystaliczne na zapełniony tryplet t2g i pusty dublet eg. Orbitale d znajdują się w konfiguracji niskospinowej. Zbliżoną strukturę pasmową otrzymano w pracach [8, 9] przy zastosowaniu funkcjonałów hybrydowych, które prowadzą do wartości Egap bliższej wartości doświadczalnej. W pracy [10] przeprowadzono obliczenia struktury pasmowej idealnego materiału i defektów stosując przybliżenie uogólnionego gradientu (GGA), które wykazały też istotn... więcej»

Stabilność spektralna monochromatycznych diod LED w zastosowaniach OSL (Ewa Mandowska, Arkadiusz Mandowski, Bartosz Nitsze)
Rosnące wymagania i zaostrzane normy bezpieczeństwa wymuszają poszukiwanie nowych, lepszych technik pomiarowych. Od kilku lat zdecydowanie najbardziej obiecującą metodą stała się optycznie stymulowana luminescencja (OSL). Technikę OSL zaczęto stosować w dozymetrii promieniowania jonizującego stosunkowo niedawno, od drugiej połowy lat 90. Rolę detektora OSL pełni odpowiednio przygotowany materiał (np. Al2O3:C) w osłonie światłoszczelnej [1]. W obecności promieniowania jonizującego stany pułapkowe detektora zapełniają się. Pułapki są metastabilne i charakteryzują się bardzo długim czasem życia. Zapisana informacja jest więc trwała - można ją odczytać nawet po wielu latach (nawet tysiącach lat) od naświetlenia. Określając liczbę nośników uwięzionych w pułapkach możemy wyliczyć dawkę promieniowania pochłoniętą przez detektor. Odczytu dokonuje się w specjalnym urządzeniu (czytniku) wykorzystującym technikę OSL. Idea tej metody polega na stymulacji napromieniowanego detektora bardzo silnym światłem o długości fali &#955;s (np. światło zielone). Światło to powoduje uwolnienie nośników ładunku znajdujących się w pułapkach i w efekcie, poprzez rekombinację promienistą, emisję luminescencji. Część tej luminescencji w zakresie krótkofalowym &#955; < &#955;s możemy zarejestrować odcinając się od bardzo silnej składowej &#955;s odpowiednim układem filtrów. W porównaniu do czytnika TL eliminacji uległ tutaj moduł grzania. Dzięki temu, możliwa jest bardziej zwarta, kompaktowa budowa czytnika. Kolejną korzyścią jest też krótszy czas pomiaru i możliwość jego wielokrotnego powtarzania, gdyż pomiar OSL nie zeruje całkowicie zapisanej informacji. W układach pomiarowych stosowanych w detekcji OSL do stymulacji detektora wykorzystuje się monochromatyczne elektroluminescencyjne diody LED [2, 3]. Warunkiem przeprowadzenia rzetelnych pomiarów jest wysoka stabilność spektralna stymulującego światła. Producenci diod LED podają parametry pracy swoich pr... więcej»

Nanosłupki ZnO o wysokiej jakości - technologia i zastosowania (Bartłomiej S. Witkowski, Łukasz Wachnicki, Sylwia Gierałtowska, Jarosław Kaszewski)
Tlenek cynku (ZnO) jest półprzewodnikiem z grupy II-VI, który jest niezwykle intensywnie badany w ciągu ostatnich 10 lat w różnych dziedzinach fizyki i inżynierii materiałowej. ZnO ma prostą przerwę energetyczną, która wynosi w przybliżeniu 3,4 eV w temperaturze pokojowej, dzięki czemu jest przezroczysty w widzialnym zakresie światła [1, 2]. ZnO dzięki swoim fizycznym i chemicznyn właściwościom ma potencjalnie szerokie zastosowania [1, 3, 4], m.in jako przezroczysta elektroda w ogniwach słonecznych [5] i diodach LED [6]. ZnO jest również atrakcyjnym materiałem w przemyśle detektorów promieniowania UV i czujników związków chemicznych, gdzie niezwykle ważna jest rozbudowana powierzchnia materiału. Ponadto nanosłupki ZnO wysokiej jakości są atrakcyjnym materiałem dla fotowoltaiki, ze względu na niską koncentrcję nośników i długie drogi dyfuzji swobodnych nośników (w stosunku do amorficznej struktury), a rozbudowana powierchnia zwiększa ilość absorowanego światła (zmniejsza współczynnik odbicia). Niniejsza praca przedstawia technologię wzrostu nanosłupków ZnO z roztworu wodnego, która jest powszechnie stosowana do wzrostu różnego rodzaju nanostruktur, w szczególności nanoproszków [8]. Referencje [9-12] opisują różne warianty tej metody. Wszystkie te sposoby mają wspólne cechy: wzrost jest bardzo wolny (np. wzrost nanosłupków o wysokości 500 nm i grubości 40 nm trwa 4 godziny), a podłoża użyte w procesach są najpierw pokrywane cienką warstwą lub nano-kryształkami ZnO, które zarodkują wzrost. Jest to związane z faktem, ża zarodkowanie ZnO o strukturze krystalicznej wurcytu jest generalnie trudne. Nasze podejście jest znacznie prostsze, do zarodkowania nanosłupków zostały użyte nanocząstki złota (standardowo używana warstwa ZnO również może być używana do zarodkowania). Dzięki tej metodzie możliwy jest wzrost nanosłupków na różnego rodzaju podłożach w bardzo niskiej temperaturze (50şC) w stosunku do inncyh metod wzrostu nanosłupków... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
60 lat Wydziału Elektrycznego (Janusz Zarębski)
W bieżącym roku Wydział Elektryczny Akademii Morskiej w Gdyni (AMG) obchodzi 60-lecie swojego istnienia. Nasz Wydział został utworzony 1 kwietnia 1954 roku w Państwowej Szkole Morskiej, przekształconej w 1969 roku w Wyższą Szkołę Morską w Gdyni (od 2002 roku Akademia Morska w Gdyni). Jest to jedyny wydział elektryczny w polskiej uczelni morskiej. Zgodnie z rankingiem szanghajskim Akademia Morska w Gdyni zajmuje piąte miejsce w świecie i pierwsze miejsce w Europie wśród uczelni morskich. Podstawowym zadaniem Wydziału Elektrycznego AMG jest kształcenie oficerów marynarki handlowej i przygotowanie studentów do pełnienia funkcji oficera elektroautomatyka okrętowego lub radioelektronika. Kształcenie to jest realizowane zgodnie ze... więcej»

Wpływ tylnej warstwy typu p+ na parametry ogniwa słonecznego na bazie krzemu typu p na podstawie obliczeń wykonanych programem komputerowym PC-1D (PIOTR PANEK, KAZIMIERZ DRABCZYK, ROBERT PIOTR SOCHA, PAWEŁ ZIĘBA)
Założenia obliczeń komputerowych programem PC-1D Program komputerowy PC-1D służy do obliczania wyjściowych parametrów elektrycznych krzemowego ogniwa słonecznego na podstawie wprowadzonych numerycznych wartości parametrów materiałowych związanych z technologią wykonania ogniwa [1]. Program PC-1D w wersji 5.9 jest dostępny do bezpłatnego pobrania na stronie internetowej uniwersytetu Nowej Południowej Walii [2]. Użyte w nim metody numeryczne do obliczeń komputerowych opierają się na klasycznych równaniach transportu dla elektronów i dziur. Podstawą jest zależność Poissona i równania wiążące koncentrację nośników ładunku z energią poziomów Fermiego wraz z równaniami wiążącymi dynamiczną zmianę koncentracji nośników w wyniku procesu ich generacji, rekombinacji i transportu. Program umożliwia kreację modelu ogniwa zawierającego podział poprzeczny ogniwa na dowolną ilość regionów o określonej grubości, różniących się parametrami materiałowymi. Wszystkie parametry można modyfikować i wprowadzać do programu także ze zbiorów zewnętrznych. Program uwzględnia także parametry optyczne ogniwa i jego oddziaływanie ze źródłem promieniowania elektromagnetycznego generującego fotoprąd. W tab. 1 przedstawiono pełny zakres parametrów stosowanych do symulacji pracy ogniwa słonecznego wytworzonego na bazie krzemu krystalicznego typu p. Są to typowe wartości charakteryzujące ogniwa wytwarzane na linii doświadczalnej laboratorium fotowoltaicznego IMIM i nie odbiegają zasadniczo od parametrów ogniw słonecznych wytwarzanych przemysłowo [3]. Do obliczeń dotyczących wpływu dodatkowej warstwy p+ na parametry ogniwa słonecznego na ... więcej»

Jakość napięcia zasilania a obciążenia cieplne silników indukcyjnych klatkowych (PIOTR GNACIŃSKI, JANUSZ MINDYKOWSKI, TOMASZ TARASIUK)
W systemach elektroenergetycznych parametry napięcia zazwyczaj odbiegają od stanu idealnego - występują w nich zaburzenia, takie jak: asymetria napięcia, odkształcenie krzywej przebiegu napięcia od sinusoidy, odchylenia wartości skutecznej i częstotliwości napięcia od wartości znamionowej. Jakość napięcia stanowi szczególnie istotny problem w tzw. mikrosieciach, charakteryzujących się zmienną i niewielką liczbą źródeł energii, przy czym moc największych odbiorników jest porównywalna z mocą źródeł, oraz znaczną liczbą układów nieliniowych, zarówno po stronie obciążenia, jak i zasilania. Skutkiem jest znaczące pogorszenie jakości energii elektrycznej, w tym fluktuacje częstotliwości składowej podstawowej w warunkach pracy wyspowej. Jednocześnie zakłada się, że to właśnie mikrosieci będą stanowiły kluczowy element inteligentnych systemów elektroenergetycznych (ISE) [1]. Sieci okrętowe są przykładem inteligentnych mikrosieci z zaawansowanymi układami zarządzania mocą, w tym również ciągła kontrolą mocy obciążenia (demand management), a zjawiska w nich występujące będą pojawiały się w przyszłości w systemach energetyki zawodowej. Z tego powodu autorzy uważają doświadczenia zebrane w toku wieloletnich badań tych systemów, za szczególnie cenne dla naukowców i inżynierów zajmujących się rozwojem ISE. Obniżenie jakości energii elektrycznej ma ujemny wpływ na funkcjonowanie wielu odbiorników, w tym silników indukcyjnych. Skutkiem jest między innymi wzrost strat mocy i temperatury uzwojeń w silniku, zmniejszenie jego trwałości, niezawodności i obciążalności [2-8]. W celu ochrony odbiorników energii elektrycznej przed skutkami zasilania napięciem o zaniżonej jakości, towarzystwa klasyfikacyjne wprowadziły odpowiednie przepisy [9, 10]. Jednak przepisy te ograniczają poziomy poszczególnych zaburzeń (np. odchylenia częstotliwości, napięcia) bez uwzględnienia ich ewentualnej synergii. W rezultacie, jak wykazały badania doświad... więcej»

Właściwości wielofunkcyjnych cienkich warstw TiO2:Nd z przeznaczeniem na powierzchnię ogniw słonecznych (Michał Mazur, Danuta Kaczmarek, Damian Wojcieszak, Jerzy Morgiel, Małgorzata Kalisz, Magdalena Szymańska )
Zastosowanie tlenków metali o ściśle określonych właściwościach wzrasta w ostatnich latach, szczególnie w nowoczesnych technologiach, np. nanotechnologii [1-3]. Tlenki metali są używane w elektronice, optoelektronice, czy fotonice. Dla przykładu ze względu na bardzo dobre właściwości izolacyjne znajdują one zastosowanie w przemyśle półprzewodnikowym do wytwarzania układów scalonych wielkiej skali integracji. Domieszkowanie materiałów tlenkowych daje możliwość modyfikacji ich właściwości w bardzo szerokim zakresie [4-7]. Wśród materiałów stosowanych w nowoczesnych technologiach można wyróżnić materiały mikrokrystaliczne o krystalitach rzędu mikrometrów oraz materiały nanokrystaliczne o strukturze, którą tworzą krystality o wymiarach mniejszych niż 100 nm. Nanokrystaliczne tlenki metali o rozmiarach krystalitów rzędu od kilku do kilkunastu nanometrów mogą występować zarówno w postaci cienkich warstw, jak i proszków. W szczególności cienkie warstwy stosowane są w celu poprawienia właściwości materiałów, na które są nanoszone [1]. Cienkie warstwy mogą pełnić funkcje dekoracyjne, czy też stanowić materiał o zwiększonej odporności na korozję, odporności na ścieranie i twardości. Z tego względu nanokrystaliczne tlenki metali mogą być również stosowane jako warstwy ochronne. Inne przykłady zastosowania nanokrystalicznych warstw tlenkowych to powłoki antyrefleksyjne, nakładane np. na powierzchnię ogniw słonecznych, powłoki antybakteryjne, przezroczyste elektrody czy też warstwy czujnikowe. Jednym z materiałów, który w dziedzinie wytwarzania różnego typu powłok od lat cieszy się dużym zainteresowaniem jest dwutlenek tytanu (TiO2) [1, 7-10]. Zainteresowanie dwutlenkiem tytanu związane jest z unikatowymi właściwościami tego materiału, dzięki czemu może on zostać wykorzystany w różnych gałęziach przemysłu [1]. Do zalet TiO2należy między innymi neutralność dla środowiska, nietoksyczność, duża odporność chemiczna, termiczna, mechaniczna... więcej»

Szyfrator wykorzystujący odwracalne układy logiczne (Andrzej Skorupski, Marek Pawłowski, Krzysztof Gracki, Paweł Kerntopf)
Logika odwracalna wykorzystuje pewną klasę funkcji boolowskich wielu zmiennych, które są nazywane funkcjami odwracalnymi. Funkcją odwracalną nazywamy zespół n funkcji n zmiennych, przy czym każda z tych funkcji musi spełniać dwa warunki: &#9679; wszystkie funkcje są tzw. funkcjami zrównoważonymi, tj. takimi, że dla 2n-1 kombinacji zmiennych wejściowych (połowa wszystkich możliwych) funkcja przyjmuje wartość 1, a dla pozostałych 2n-1 kombinacji zmiennych wejściowych (druga połowa wszystkich możliwych) funkcja przyjmuje wartość 0, - n-bitowy wektor wyjściowy przyjmuje wszystkie możliwe kombinacje wartości n zmiennych. Ten ostatni warunek oznacza, że prawa (wyjściowa) strona tablicy prawdy funkcji odwracalnej stanowi permutację wierszy lewej (wejściowej) strony tej tablicy. Dla skrócenia zapisów będziemy przedstawiali wektory binarne w postaci odpowiadających im liczb dziesiętnych (zamiast 000 będziemy pisali 0, 001 - 1, 010 - 2, itd.). Można pokazać, że dla 2 zmiennych istnieją 24 (4!) różne funkcje odwracalne. Dla 3 zmiennych jest ich 40320 (8!), a dla 4 zmiennych ponad 20 bilionów (16!). Każdą z tych funkcji odwracalnych można zrealizować wykorzystując tzw. bramki odwracalne. W niniejszej pracy stosujemy tzw. bibliotekę bramek NCT opisaną w [1, 2]. Dla trzech zmiennych definiuje się 12 takich bramek, po 4 dla każdej zmiennej, czyli na każdej linii wejściowej. Na rys. 1 pokazano cztery bramki dla zmiennej x0, czyli na pierwszej linii. Są to bramki: T0, C0- 2, C0-1 i N0, dla których na linii x0 umieszczony jest symbol operacji XOR. W lewej kolumnie tablicy (rys. 1), pokazano oznaczenie graficzne bramki realizującej funkcję y0, (jest to tzw. wyjście sterowane), w ostatniej kolumnie tablicy - jaką permutację wierszy realizuje dana bramka. Analogicznie, bramki mające wyjścia sterowane na linii x1 oznaczane będą przez T1 (zamienia wiersze 5 i 7 w tablicy prawdy), C1-0 (zamienia wiersze 1 i 3 oraz 5 i 7), C1-2 (zamienia w... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
System mechatroniczny do badań struktur elektroniki organicznej (Tadeusz KOZŁO WSKI, Roman WOŹNIAK, Janus z WÓJCIK, Jerzy ZAJĄC)
Kontrola jakości procesów produkcyjnych elektroniki organicznej, również w przypadku produkcji małoseryjnej i prototypowej wymaga opracowania metod pomiarowych mogących charakteryzować właściwości fizyczne wytwarzanych elementów np. w strukturach próbnych. Aby scharakteryzować badane struktury konieczne jest wykonywanie pomiarów odizolowanych rezystorów, tranzystorów FET, a także kondensatorów i wyznaczanie stąd parametrów materiałowych i technologicznych. Problem połączenia badanych struktur do urządzeń pomiarowych można rozwiązać opracowując odpowiednie probery do ostrzowego badania struktur w atmosferze ochronnej. W Instytucie Tele- i Radiotechnicznym skonstruowano model probera umożliwiający elektryczne sprzęganie urządzeń pomiarowych z badanymi strukturami organicznymi na podłożach płaskich. W przyszłości zostanie opracowany model drugiej wersji probera do badania struktur na podłożach zakrzywionych mocowanych na bocznej powierzchni walca. Prober jest wyposażony w podsystem wizualizacji z kamerą i zmotoryzowanym obiektywem o zmiennym powiększeniu i ostrości, a także z automatycznym doborem ekspozycji kamery. Pozwala to na łatwą pracę w komorze rękawicowej z atmosferą ochronną. Prober sterowany jest przez autonomiczny sterownik przemysłowy mogący współpracować z nadrzędnym systemem pomiarowym. Architektura probera Opracowany model probera (rys. 1) zawiera podsystem wizualizacji, kompletne napędy w osiach X, Y, Z i... więcej»

Planowanie współpracy elektrowni wiatrowych i solarnych z systemem elektroenergetycznym przy zastosowaniu podejścia ewolucyjnego (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Różnorodne techniki obliczeniowe rozwijane w ramach badań nad sztucznymi systemami ewolucyjnymi są obecnie coraz powszechniej wykorzystywane do rozwiązywania trudnych i nietypowych zagadnień optymalizacyjnych, ze szczególnym uwzględnieniem problemów wielokryterialnych o dynamicznie zmieniających się uwarunkowaniach [5]. Do rozważanych technik obliczeniowych zalicza się różnego rodzaju algorytmy genetyczne, strategie ewolucyjne oraz metody programowania genetycznego i ewolucyjnego [6-9]. Przykładem zagadnienia optymalizacyjnego, w przypadku którego nader chętnie sięga się po wymienione techniki obliczeniowe, jest planowanie produkcji energii elektrycznej w systemie elektroenergetycznym [4]. Każdy system elektroenergetyczny jest obiektem technicznym o bardzo dużej skali złożoności, w skład którego wchodzą różnego typu urządzenia generujące energie elektryczną, elektroenergetyczne linie przesyłowe wysokich napięć, stacje transformatorowo-rozdzielcze oraz wszelkiego rodzaju odbiorniki energii elektrycznej [3]. Klasycznym zagadnieniem optymalizacyjnym rozpatrywanym w ramach szeroko pojętej analizy systemów elektroenergetycznych jest ekonomiczny rozdział obciążeń pomiędzy poszczególne bloki energetyczne elektrowni cieplnych [1]. W zagadnieniu tym chodzi o wyznaczenie takiego sposób rozdziału generowanej mocy pomiędzy poszczególne jednostki wytwórcze, aby całkowita masa paliw kopalnych spalonych w jednostce czasu we wszystkich pracujących blokach elektrowni cieplnych była możliwie jak najniższa, oczywiście przy zachowaniu wszelkich ograniczeń wynikających ze specyfiki pracy systemu elektroenergetycznego i konieczności zapewnienia ciągłości dostaw energii elektrycznej o odpowiedniej jakości [2]. Wykorzystanie odnawialnych źródeł energii elektrycznej Obecnie w dziedzinie elektroenergetyki obserwuje się systematycznie wzrastającą rolę odnawialnych źródeł energii elektrycznej [1]. Do klasycznych tego rodzaju sposobów pozyskiwania ene... więcej»

Wzmacniacz sygnałów wyjściowych przetworników bezrdzeniowych o dużej impedancji wejściowej (Aleksand er Lisowiec, Zdzisław Kołodziejczyk)
Bezrdzeniowe przetworniki prądowe pracujące na zasadzie cewki Rogowskiego, charakteryzują się bardzo dużą dynamiką mierzonego sygnału. Zakres mierzonych prądów jest ograniczony od góry napięciem przebicia przetwornika a od dołu szumami termicznymi rezystancji przetwornika i sięga kilku dekad, od ułamków ampera do setek kiloamperów. W praktyce dolny zakres mierzonych prądów zależy od czułości przetwornika oraz szumów wzmacniacza wejściowego [1]. Bezrdzeniowe przetworniki prądowe wykonane w tradycyjnej technologii wielowarstwowych obwodów drukowanych, charakteryzują się czułością do 5 mV/A. Są one stosowane do pomiaru prądów fazowych w energetyce od wartości 1 A wzwyż [2]. Rozszerzenie dolnego zakresu mierzonych prądów poniżej 1 A wymaga zastosowania przetworników o czułości powyżej 5 mV/A. Zwiększenie czułości bezrdzeniowych przetworników prądowych jest możliwe przez zastosowanie technologii wielowarstwowych obwodów drukowanych o wysokiej gęstości połączeń, HDI (ang. High Density Interconnect). Stosując tę technologię można skonstruować przetwornik o czułości nawet powyżej 10 mV/A. Technologia HDI oznacza cieńsze ścieżki obwodu drukowanego oraz większą ilość zwojów co powoduje znaczny wzrost rezystancji przetwornika, nawet do wartości 20 ohm [3]. Specyfika układów przetwarzania sygnału przetwornika wykonanego w technologii PC B HDI Rezystancja przetwornika, wraz z rezystancją wejściową wzmacniacza do którego jest dołączony przetwornik tworzy dzielnik napięcia. W dzielniku tym rezystancja przetwornika, wynikająca z rezystancji ścieżki miedzi obwodu PCB przetwornika, zmienia się z tem... więcej»

Krótki czas uruchamiania urządzenia z systemem wbudowanym Linux (Maciej Andrzejewski, Grzegorz Wojtaś)
Popularność wykorzystania systemów operacyjnych w urządzeniach elektronicznych stale rośnie, wprost proporcjonalnie do ilości usług, interfejsów i narzędzi, które mają być obsługiwane przez urządzenia oraz wprost proporcjonalnie do możliwości obliczeniowych współczesnych procesorów. Szybka implementacja nowych funkcjonalności i krótki czas TTM (time to market) wdrożenia produktu na rynek to główne atuty posiadania systemu operacyjnego. Duża część oprogramowania, sterowników związanego z obsługa warstwy sprzętowej została przygotowana i jest gotowa do wykorzystania, bez ponoszenia dodatkowego czasu i kosztów na opracowanie i testy. Dobrym przykładem jest tutaj warstwa sieciowa Ethernet, w przypadku systemu Linux obsługa i zarządzanie stosem TCP/IP jest gotowa od lat. Opracowywanie nowych aplikacji na system operacyjny zasadniczo różni się od przygotowywania oprogramowania na mikrokontrolery bez systemu operacyjnego. W drugim przypadku programista bez doświadczenia z zakresu elektroniki i mikrokontrolerów nie ma szans na szybkie napisanie kodu wykorzystującego peryferia mikrokontrolera. Producent jest zmuszony do posiadania większej kadry programistów-elektroników do opracowania nowego urządzenia. Własny system operacyjny z przygotowaną warstwą API do zarządzania peryferiami jest łatwo przenaszalny między platformami i procesorami. Wykorzystanie posiadanego systemu operacyjnego na innym procesorze, z tej samej architektury, wiąże się z podmianą kluczowych sterowników lub niewielkimi modyfikacjami w systemie, co daje bardzo duża elastyczność i przyczynia się do zmniejszenia czasu wdrożenia produktu na rynek. Niestety system operacyjny nie zawsze jest skutecznym rozwiązaniem, zwłaszcza w urządzeniach, które wykonują operację czasowo krytyczne. Nawet systemy tzw. Hard Real-Time mają pewną bezwładność wykonywania programów, która może okazać się wciąż niewystarczające w projektowanej aplikacji. Ist... więcej»

Rozwiązania układowe oraz parametry detektorów wartości szczytowej (Arkadiusz HULEWICZ)
Detektory wartości szczytowej, stanowiące podukłady bardziej rozbudowanych torów pomiarowych w miernikach i systemach pomiarowych stosowane są przede wszystkim w woltomierzach i amperomierzach, zwłaszcza tam, gdzie występują przebiegi o skrajnie niskich i wysokich wartościach częstotliwości. W wielu przypadkach, między innymi w pomiarach wielkości nieelektrycznych, wartość wielkości mierzonej określana jest na podstawie amplitudy sygnału napięciowego z czujnika (np. pomiary energii promienistej czujnikiem piroelektrycznym). W analogowym torze przetwarzania urządzeń tego typu niezbędna jest obecność detektora szczytowego. Zadaniem detektorów wartości szczytowej jest więc wykrycie maksymalnej wartości napięcia generowanego przez czujnik, zapamiętanie jej oraz poinformowanie o wystąpieniu tej wartości. Detektory te można więc również nazwać przetwornikami napięcia maksymalnego na stałe. W detektorach wartości szczytowej zarówno czas ładowania kondensatora, jak i czas pamiętania wartości maksymalnej nie jest dowolny, ale określany przez napięcie wejściowe. Wzrost napięcia wejściowego polaryzuje diodę w kierunku przewodzenia oraz powoduje ładowanie kondensatora pamiętającego do wartości napięcia badanego. Obniżenie napięcia wejściowego poniżej wartości maksymalnej polaryzuje diodę w kierunku zaporowym oraz powoduje zapamiętanie wartości maksymalnej. Detektor szczytowy ma więc wejście sygnału badanego oraz wyjście, w związku z czym można go przedstawić jako czwórnik (rys. 1). [1, 4]. Parametry detektorów szczytowych Detektory wartości szczytowej są charakteryzowane przez omówione niżej parametry statyczne i dynamiczne [2, 4, 6]. Do parametrów statycznych zalicza się: Nieliniowość - jest to maksymalne odchylenie charakterystyki rzeczywistej od charakterystyki idealnej. Odchylenie to jest określane dla stanu przewodzenia diody, w całym zakresie napięć wejściowych. Wyjściowe napięcie niezrównoważenia &#916;U0 - jest to różnica mię... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Computer game as means of Mine Risk Education for children (Andrzej Kaczmarczyk, Piotr Kowalski, Marek Kacprzak, Andrzej Masłowski)
Educational computer game being the subject of this paper is developed by IMM as a part of an European FP7 Collaborative Integration Project named TIR AMISU (Toolbox Implementation for Removal of Anti-personnel Mines, Submunitions and UXO)(UXO - Unexploded Ordnance). TIR AMISU aims at providing the foundation for a global toolbox that will cover the main Mine Action activities, from the survey of large areas to the actual disposal of explosive hazards, including Mine Risk Education (MRE ). The project has been planned for years 2012-2015 with participation of 24 partners from 11 countries. In this paper introductory information and assumptions making up a base for the game design are presented. State of the art Computer games find their application in education generally. They have "tremendous potential and level of capability as mediums of education", and many advantages because they offer: "agency, immersion, challenge, reward, immediacy, a dialect of repetition and variety, physical and mental engagement, and multi-sensory stimulation" [1]. As computer games advantages in education are considered also: &#8220;active participation, intrinsic and prompt feedback, challenging but achievable goals, and a certain degree of uncertainty and open-endedness" [2]. More complete list of attributes of the learning via computer games gives [3]. Specific aiming of educative computer games can be characterized - after [4] - as &#8220;to spawn objects, connect them with various constraints and thus create working systems that obey the laws of physics". Such applications can be found in chemistry (virtual laboratory), architectural design, biology (cell biology, virtual dissection), assembling (model of a car, experimental apparatus). Similar character have games with virtual lego bricks [5]. Advantages of this learning-by doing educational approach in computer games are discussed in [6]. Moreover - maybe first of all - there... więcej»

People counting vision system based on ARM processor programmed using Simulink environment (Tomasz Marciniak, Agata Chmielewska, Adam Dąbrowski, Albert Malina)
Modern video monitoring systems provide advanced image processing and support safety of people in the urban area [1, 2]. These situations include: analysis of human silhouettes, human movements [3], face detection and face recognition [4, 5], collecting information on people entering and/or leaving a building [6], or testing and estimating the number of people in urban areas [7]. Commercial systems used for people counting, described in next section, become more and more popular. They are mainly used to control flow of people in public buildings (e.g., shopping galleries), giving a lot of useful information in realtime such as e.g.: the sale success, the most popular pedestrian track, or the rush hour [3]. A real-time system presented in this paper monitors the entrance to a building and determines the number of people crossing the gate observed by a digital video camera. The required video processing operations have been realized in the MATLAB/Simulink environment, that had been chosen because of its widespread use as well as flexible simulation and experimental testing possibilities. In addition, this environment contains a lot of libraries, which support image processing operations - the Computer Vision System Toolbox [8] with e.g. People Tracking models, implemented and modified in our system. In our research we would like the system to be autonomous, so we have implemented our algorithm for bi-directional people counting on Raspberry Pi microcomputer [9]. As it is shown in Fig. 1, the designed system detects people passing under a camera positioned vertically down. The video signal from the camera is delivered to the Raspberry Pi microcomputer and this device performs all calculations on the input data. The fast prototyping [10-13] and implementation on this hardware is supported by Matlab 2013b and Simulink Support Package for Raspberry Pi Hardware library [14]. The paper presents important features of the prepared p... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Trawienie włókien światłowodowych w celu odsłonięcia rdzenia do zastosowania w bioczujnikach z wykorzystaniem modów galerii szeptów (Karolina Orłowska, Zuzanna Kowalska, Magdalena Morawiec, Piotr Pałetko, Anna Sankowska, Teodor Gotszalk)
Obecnie nowoczesne metody diagnostyczne stanowią obiekt zainteresowań zarówno grup naukowo-badawczych na całym świecie, jak i przeciętnych użytkowników, takich jak lekarze i ich pacjenci, pracownicy stacji epidemiologicznych czy inżynierowie nadzorujący linie produkcyjne w przemyśle spożywczym i chemicznym. Rozwój technologii bioczujników otwiera nowe możliwości prowadzenia badań o skróconym czasie i obniżonych kosztach. Wraz z powstaniem bioczujników pojawiły się nowe możliwości związane z szybkością i jakością przeprowadzanych analiz, mobilnością, a także z niewielkimi rozmiarami czujników. Duże zainteresowanie bioczujnikami doprowadziło do rozwoju wielu technik detekcji ze szczególnym uwzględnieniem metod bezznacznikowych (ang. labelfree) wykorzystujących m.in. tranzystory polowe FET i nanodruty [1, 2], mikrodźwignie [3], mikrowagi [4] i kamertony kwarcowe [5], Bardzo dużo takich technik stanowią techniki optyczne, w których wykorzystuje się powierzchniowy rezonans plazmonowy [6], światłowody włókniste i planarne [7], mody galerii szeptów (ang. whispering gallery modes, WGM) [8] czy techniki interferometryczne [9-11]. Techniki bezznacznikowe (ang. label-free) charakteryzuje szereg zalet w porównaniu z konwencjonalnymi metodami opartymi na zastosowaniu markerów. W metodach tych nie dochodzi do niepożądanej modyfikacji badanej substancji przez znacznik, badania mogą być prowadzone w czasie rzeczywistym, a czujniki są stosunkowo proste i mogą być wytwarzane niskim kosztem. Wytworzenie bioczujnika, który spełniałby wysokie wymagania odnośnie selektywności i czułości pomiarowej wymaga szerokiej wiedzy z zakresu elektroniki, optoelektroniki, chemii, biologii i biochemii. Konstrukcja czujnika powinna umożliwiać komercjalizację i być konkurencyjna wobec innych bioczujników dostępnych na rynku. Należy zaznaczyć jednocześnie, że wśród tak wielu propozycji konstrukcji czujnikowych nie ma możliwości wybrania najlepszego i uniwersal... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Using the hyperbolic algebra for efficient analysis of nonlinear switched dynamical circuits (Zdzisław Trzaska )
Nonlinear dynamical systems of various natures (electrical, chemical, biological, mechanical, astrophysical, etc.) quite often exhibit complex dynamical behavior and undergo bifurcations when one or more parameters change. Such complex behavior requires new mathematical tools that better describe properties of the dynamic processes and systems [1-3]. Overall, it is known that the non-smooth signals can make investigations quite drudging. Analyses of oscillations with essentially unharmonic, non-smooth or maybe discontinuous time shapes are especially diffcult. This is caused by the fact that the methods for nonlinear dynamic systems were originally developed within the paradigm of smooth oscillations based on the classical theory of differential equations, usually avoiding non-differentiable and discontinuous functions. Over the last three decades, a general interest in developing tools to incorporate the non-smooth and discontinuous signals has grown significantly. Presently, many theoretical and applied areas of dynamical systems and processes cover high-energy phenomena accompanied by highly non-linear spatio-temporal behavior, making the classical smooth methods inefficient in almost all cases [4-6]. The main purpose of this paper is to show a uniform basis suitable for analyses of non-harmonic shape oscillations resulting from the non-smooth or discontinuous excitations. The tool presented in this work employs a non-smooth approach as an efficient mean to analyze nonlinear dynamical switching circuits. The approach is built on the idea of non-smooth time transformation (NSTT) proposed originally for nonlinear and smooth models [7-9]. The NSTT is based on the explicit links between the hyperbolic algebra and impact dynamics, an approach analogous to the conventional complex number analysis and harmonic oscillatory processes [10-13]. Therefore, it is expected that the hyperbolic algebra and hyperbolic numbers can overcom... więcej»

Wykorzystanie sensorów radiowych w procesie lokalizacji emiterów (Grzegorz Czopik, Tomasz Kraszewski)
Przedsięwzięcie związane z budową rozproszonego systemu lokalizacji aktywnych emiterów radiowych było już sygnalizowane na łamach Elektroniki [1, 2]. W niniejszym artykule przedstawiono całość projektu ze szczególnym uwzględnieniem sensora radiowego i jego parametrów. Jako podstawowy element służący do budowy systemu, musiał zostać przebadany pod kątem parametrów, które uznano za najważniejsze ze względu na realizowane zadania. W systemie opracowanym w ramach projektu wykorzystano 5 urządzeń odbiorczych N6841A (RF Sensor) firmy Agilent [3] (rysunek 1). Są to szerokopasmowe odbiorniki pracujące w zakresie częstotliwości od 20 MHz do 6 GHz. Posiadają one dwa kluczowane wejścia sygnałowe RF, co pozwala na jednoczesne podłączenie dwóch anten. Odebrane i przechwycone dane mogą zostać zapisane w buforze wewnętrznym.Dużą precyzję synchronizacji pomiarów oraz oznaczanie danych pomiarowych sygnaturami czasowymi zapewnia wbudowany odbiornik GPS wraz z aktywną anteną. Sterowanie urządzeniem oraz odbiór danych w postaci ciągłego strumienia danych odbywa się z wykorzystaniem uniwersalnej magistrali sieciowej z wykorzystaniem protokołu TCP/IP [3]. Schemat blokowy wewnętrznej struktury odbiornika przedstawiony został na rysunku 2. Urządzenie pracuje tylko i wyłącznie pod kontrolą specjalizowanych aplikacji programowych definiowanych przez użytkownika. Zestaw wbudowanych w urządzenie elementarnych funkcji sterujących nakierowany jest na monitorowanie widma i detekcję sygnałów obecnych w kontrolowanej przez moduły N6841A przestrzeni. Potencjalny zakres zastosowań urząElektronika 5/2014 43 Rys. 3. Pomiar czułości stycznej - układ pomiarowy Fig. 3. The measurement of the tangential sensitivity Czułosc styczna -118 -116 -114 -112 -11... więcej»

Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Człowiek i organizacje w wirtualnym środowisku informacji (Zbigniew Kierzkowski)
Procesy przemian cywilizacyjnych w kształtującym się społeczeństwie informacyjnym zmierzają w kierunku tworzenia różnorodnych struktur wirtualnej organizacji działań (WOD). Problematykę WOD, jako nowy przedmiot badań naukowych i realizacji zadań badawczo-rozwojowych i edukacyjnych, podjęto w Polsce przed 20 laty. Od początku badania te są prowadzone przy współpracy wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych, konferencji krajowych i międzynarodowych. Problematyka WOD od początku wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP). Problematyka wirtualnej organizacji działań (WOD), nowy przedmiot badań naukowych i realizacji zadań badawczorozwojowych, podjęto w Polsce w latach 1994/1996. Są one przedmiotem współdziałania wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych. Od początku tematyka WOD wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP) i jest ściśle powiązana z pracami prowadzonymi na forum międzynarodowym przez Komitet Danych dla Nauki i Technologii [2] (CODATA - Committee on Data for Science and Technology of the International Council for Science). Dodatkowo od 2003 roku problematyka WOD prezentowana jest podczas krajowych Konferencji Okrągłego Stołu (KOS): Polska w drodze do społeczeństwa informacyjnego [3], które organizowane są corocznie, jako debata środowisk polityki, gospodarki i nauki przez Zarząd Główny SEP - Stowarzyszenie Elektryków Polskich, który jest głównym koordynatorem w Polsce obchodów ŚDSI - Światowego Dnia Społeczeństwa Informacyjnego (17 maja). Badania początkowe - do roku 2003/2004 - w obszarach tematycznych WOD poświęcone są analizie procesów przemian strukturalnych społeczeństwa informacyjnego oraz poszukiwaniu głównych czynników kształtowania społecz... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego (Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)
W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie &#964; jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Adaptive acoustic crosstalk cancellation in mobile computer device (Kuba Łopatka, Andrzej Czyżewski)
Recently one of the main paradigms in audio engineering is enhancement of spatial perception of sound. In that field, Virtual Acoustic Space (VAS) technique emerges. It is based on creating an illusion of 3D audio experience by exploiting the physical foundations of spatial hearing. The well-known Head- Related Transfer Functions (HRT Fs) are often used to that end [1]. While the creation of virtual sound sources is relatively easy to achieve using headphones, obtaining a VAS using loudspeakers remains a challenge. The task is particularly difficult in mobile conditions, while using a mobile computer as a playback device. We focus on investigating the practical possibility of creating a virtual sound experience using a typical mobile computer. The examined method relies on the acoustic crosstalk cancellation algorithm. The acoustic crosstalk cancellation algorithm (often denoted XTC ) is a known tool used to eliminate the signals transmitted from the left loudspeaker to the right ear (and vice versa) in freefield listening. The goal is to enable clear transmission of signals to the ipsilateral ears, thus providing a similar auditory experience to headphone listening. It is commonly referred to as binaural audio through loudspeakers (BAL) [2]. The benefit of such an effect is advanced control of the stereo image. Ideally, spatial cues encoded in HRT Fs can be used to create virtual sound sources outside the loudspeaker area. This leads to widening of the stereo image and an enhanced audio experience. Meanwhile, the BAL effect achieved with XTC algorithm is not perfect. The cancellation of signals transmitted to the contralateral ears is achieved only to a limited area - the sweet spot. Outside the sweet spot the crosstalk cancellation fails and perceived sound is degraded due to spectral coloration. Due to the physical constraints of the algorithm even a slight displacement of the head can deteriorate the XTC efficiency. In ou... więcej»

On designing a Nyquist fir filter of fractional group delay and phase delay (Ewa Hermanowicz, Miroslaw Rojewski )
Nyquist filters are crucial components in data communications [1]. Their traditional attributes are governed by the fulfilment of Nyquist condition. We wish to design a filter such that its impulse response satisfies the Nyquist first criterion [7] (1) where L is an positive integer, preferably odd, called the oversampling ratio. In digital (isochronous) signalling it indicates the number of discrete signal samples (Sa) per symbol (repetition) interval. Formula (2) expresses the Nyquist criterion in the normalized (fraction of sampling rate) frequency domain f, (2) A design of the frequency response H(f ) that satisfies the Nyquist conditions (1) and (2) is generally too restrictive and may not lead to a satisfactory filter. Moreover, the Nyquist filter conditions should be satisfied as closely as possible to minimize interference between successive data symbols (ISI) when channel distortion is absent. Also it is desirable to keep the length of the filter as small as possible to minimize the implementation cost. The goal of this paper is to formulate a novel concept for the Nyquist filter that has the additional ability to introduce a fractional sample delay otherwise referred to as subsample delay. Such a special filter has not been considered yet [2], [3], [4], [5], [6]. Hitherto in the literature the Nyquist filter and the fractional delay = - &#177; = = - = otherwise arbitrary 0, ( 1) / 2 , 1, 2, 3, 1, ( 1) / 2 [ ] n N mL m L n N h n ... więcej»

Zaawansowane systemy elektroniczne, zastosowania fotoniki i inżynieria Internetu &#8211; 33 Sympozjum WILGA 2014 (Ryszard S. Romaniuk)
XXXIII Sympozjum "Advanced Electronic Systems, Photonics Applications and Web Engineering" odbyło się na terenie Wydziału Elektroniki i Technik Informacyjnych PW w dniach 24-25 stycznia [1]. Sympozjum jest organizowane tradycyjnie pod auspicjami organizacji międzynarodowych SPIE i IEEE . Udział wzięło łącznie ok. 70 osób. Przedstawiono ok. 50 prezentacji. Sympozjum jest prowadzone tradycyjnie w języku angielskim. Tematyka sympozjum była skoncentrowana wokół teorii i praktyki aplikacyjnej zaawansowanych, funkcjonalnych układów i systemów fotonicznych i elektronicznych. Sympozjum stanowiło tradycyjnie przegląd prac magistrantów, doktorantów, i młodych uczonych w dziedzinie fotoniki, inżynierii sieci Internet oraz zaawansowanych funkcjonalnych systemów elektronicznych. Takie innowacyjne rozwiązania znajdują zastosowania w robotyce i automatyce przemysłowej, medycynie, ochronie środowiska, systemach bezpieczeństwa, eksperymentach badawczych, transporcie, technice kosmicznej, inżynierii oprogramowania, systemach sztucznej inteligencji. Uczestnicy Sesji na temat Systemów Wbudowanych pod przewodnictwem prof. Krzysztofa Poźniaka, XXXIII Sympozjum "Photonics Applications and Web Engineering". Przed popiersiem Patrona Wydziału Elektroniki i Technik Informacyjnych PW - prof. Janusza Groszkowskiego, Warszawa, 25 stycznia 2014 r. Materiały 33 Sympozjum Zastosowania Fotoniki i Inżynieria Sieci Web będą wydane łącznie, w jednym tomie serii wydawniczej Proc. SPIE , z tradycyjnym majowym Sympozjum młodych uczonych w Wildze [2-11]. Poniżej omówiono, korzystając z prezentacji autorskich, niektóre ciekawsze tematy poruszane w czasie wybranych sesji sympozjalnych. Sesję tematyczną rozpoczyna tradycyjnie krótka prezentacja opiekuna naukowego grupy studentów i doktorantów, po czym następuje seria prezentacji przyczynkowych rozwijających prezentację wprowadzającą. Sesje sympozjalne dotyczyły: inteligencji obliczeniowej i sztucznej inteligencji oraz... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF (Janusz DUDCZYK, Adam KAWALEC)
Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło &#957;(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R &#8901; fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e j&#969;Ts/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Analiza możliwości przesyłu energii elektrycznej produkowanej w elektrowniach solarnych na bardzo duże odległości (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Obecnie wiodącym tematem w elektroenergetyce są bez wątpienia odnawialne źródła energii. Według różnych opinii szersze wykorzystanie tego typu generacji energii elektrycznej doprowadzi do wręcz rewolucyjnych zmian w całej branży [1, 2]. Spośród różnych propozycji wykorzystania niekonwencjonalnych źródeł energii w opinii autorów najbardziej perspektywiczne wydaje się wykorzystani energii solarnej, powstającej w wyniku przemian termojądrowych zachodzących wewnątrz Słońca. Jako ciekawostkę można tylko podać, że powstały wewnątrz Słońca w wyniku reakcji termojądrowej foton (kwant promieniowania elektromagnetycznego) na dotarcie do jego powierzchni (tzw. fotosfery) potrzebuje około miliona lat, czyli docierające do nas ze Słońca promieniowanie elektromagnetyczne jest bezpośrednim skutkiem procesów zachodzących w jego wnętrzu w bardzo odległej przeszłości [3]. Energia generowana w wyniku procesów termojądrowych zachodzących we wnętrzu Słońca jest z punktu widzenia istnienia naszej cywilizacji w zasadzie niewyczerpalna. Według różnych szacunków Słońce powinno świecić w sposób podobny, jak ma to miejsce obecnie, jeszcze przez okres co najmniej jednego miliarda lat. Następnie temperatura powierzchni Słońca zacznie systematycznie wzrastać, czemu będzie towarzyszyło powiększanie się jego promienia, a co za tym idzie, również i objętości. Proces ten bezpośrednio spowodowany będzie kurczącymi się na Słońcu zapasami wodoru i rozpoczęciem procesu syntezy atomów helu i przejściem na tzw. cykl węglowy związany ze zwiększeniem się mocy promieniowania [3]. Wszystko to spowoduje, że temperatura na Ziemi podniesie się do takich wartości, że życie biologiczne na naszej planecie przestanie być już możliwe. Na szczęście, jak już zresztą uprzednio wspomniano, przez co najmniej najbliższy miliard lat taki scenariusz bynajmniej nam nie grozi. Ponadto, gdy porównamy ów miliard lat z czasem istnienia gatunku homo sapiens, który jest szacowany na nieco ... więcej»

Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Analiza wymagań pamięciowych dla podstawowej jednostki obliczeniowej w sprzętowej implementacji algorytmu dopasowania stereo typu "semiglobal" (Mikołaj Roszkowski, Grzegorz Pastuszak)
Algorytm dopasowania stereo działa na dwóch zrektyfikowanych obrazach przedstawiających jedną scenę. Rektyfikacja oznacza, że jeśli weźmie się pewien piksel na pierwszym obrazie, to odpowiadający mu piksel na drugim obrazie leży dokładnie w tej samej linii poziomej (o tej samej współrzędnej y). Bezwzględna wartość różnicy współrzędnych x odpowiadających sobie pikseli nazywana jest dysparycją i można wykazać że jest ona odwrotnie proporcjonalna do głębokości obiektu w scenie [1]. Celem algorytmu stereowizji jest przypisanie wartości dysparycji do każdego piksela i stworzenie tzw. mapy dysparycji. W literaturze znanych jest wiele algorytmów stereowizji. Generalnie można je podzielić na dwie grupy [2]: algorytmy decydujące jaka dysparycja powinna zostać przypisana do piksela tylko na podstawie jego najbliższego otoczenia (algorytmy lokalne), bądź na podstawie pewnej funkcji zdefiniowanej na całym obrazie (algorytmy globalne). Do pierwszej grupy należą np. algorytmy bazujące na dopasowaniu okna wokół piksela w jednym obrazie do pewnego okna w drugim obrazie za pomocą miar takich jak m.in. SAD [2], CENSUS [3]. Algorytmy te ze względu na swoją prostotę doczekały się wielu realizacji w układach FPGA. Ich implementacje są zazwyczaj szybkie, np. w [4] zaprezentowano system będący w stanie przetwarzać w sekundzie 230 ramek o rozdzielczości 640x480 i 64 poziomach dysparycji. Wadą algorytmów z tej grupy jest jednak zwykle gorsza jakość uzyskanej mapy dysparycji niż w przypadku algorytmów globalnych. W przypadku algorytmów globalnych najpopularniejsze bazują na "propagacji wierzeń" (belief-propagation) [5], bądź algorytmach" graph-cuts" [6]. Są to algorytmy bardzo wymagające pod względem obliczeniowym i przez to rzadko implementowane w sprzęcie. Istnieje jednak grupa algorytmów znajdująca się pomiędzy algorytmami globalnymi i lokalnymi. Są one oparte o programowanie dynamiczne na pewnym podzbiorze całego obrazu. Algorytmem z tej grupy da... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Metody syntezy komparatorów z wykorzystaniem języka Verilog w środowisku Quartus II (Marek Gruszewski )
W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przesyłania i przetwarzania informacji. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CPLD) oraz bezpośrednio programowalne macierze bramek (FPGA) [1]. Rozbudowany układ cyfrowy na ogół przedstawia się jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych [2-5]. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy bloków funkcjonalnych w strukturach CPLD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach (&#1086;d 64 bitów wzwyż). Znane metody syntezy standardowych bloków funkcjonalnych ukierunkowane są na elementy małej skali integracji (typu bramki) i nie uwzględniają całkowicie właściwości nowej bazy elementowej (CPLD/FPGA). Do takich bloków funkcjonalnych należą m.in. komparatory binarne. Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy, klasycznych oraz nowatorskich [6-10]. W pracach [7, 8] badania przeprowadzono za pomocą środowiska MAX+PLUS II. Ponieważ język AHDL i pakiet MAX+PLUS II nie jest obecnie rozwijany przez firmę Altera, to istotne jest opracowanie metod syntezy komparatorów dużych rozmiarów (pracujących ze słowami dużych rozmiarów) za pomocą współcześnie wykorzystywanych języków opisu sprzętu takich jak: VHDL i Verilog. W ostatnim czasie coraz większą popularność zdobywa język Verilog [11, 12], który wspierany jest przez większość producentów oprogramowania do projektowania układów cyfrowych. W pracy przedstawiono różne metody syntezy komparatorów z wykorzystaniem języka Verilog: równoległe, szeregowe, równoległo- szeregowe, &#1072; także równoległo-szeregowe z wykorzystaniem edytora graficznego. Badania eksperymentalne przeprowadzono w środowisku Quartus II firmy Alter... więcej»

Lista recenzentów za rok 2013 / The list of the reviewers
Prof. Bohdan V. Andriyevskyy - Politechnika Koszalińska Dr hab. inż. Artur Andruszkiewicz - Politechnika Wrocławska Dr hab. inż. Jerzy Bajorek - Politechnika Rzeszowska Prof. dr hab. inż. Roman Barlik - Politechnika Warszawska, Wydział Elektryczny Dr inż. Mikołaj Baszun - Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych Prof. dr hab. Mikołaj Berczenko - Uniwersytet Rzeszowski, Instytut Fizyki Prof. dr hab. inż. Michał Białko - Politechnika Koszalińska Dr inż. Andrzej Brudnik - AGH Akademia Górniczo-Hutnicza w Krakowie Prof. dr hab. Zbigniew Brzózka - Politechnika Warszawska, Wydział Chemiczny Prof. dr hab. Inż. Henryk Budzisz - Politechnika Koszalińska, Wydział Elektroniki i Informatyki Prof. dr hab. inż. Maciej Bugajski - Instytut Technologii Elektronowej, Warszawa Dr hab. Aleksandr Cariow - Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Prof. dr hab. inż. Zygmunt Ciota - Politechnika Łódzka Prof. dr hab. inż. Anna Cysewska-Sobusiak - Politechnika Poznańska, Instytut Elektrotechniki i Elektroniki Przemysłowej Prof. dr hab. inż. Wojciech Czerwiński, Politechnika Wrocławska, Wydział Elektroniki, Mikrosystemów i Fotoniki Prof. dr hab. inż. Adam Dąbrowski - Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów Dr inż. Jacek Dąbrowski - Akademia Morska w Gdyni, Katedra Elektroniki Morskiej Prof. dr hab. inż. Jerzy Dąbrowski - Szwecja Prof. dr hab. inż. Andrzej Demenko - Politechnika Poznańska Prof. dr hab. inż. Janusz Dobrowolski - Politechnika Warszawska Prof. dr ha. Inż. Andrzej Dobrucki - Politechnika Wrocławska, Instytut Telekomunikacji, Teleinformatyki i Akustyki Prof. dr hab. inż. Marek Domański - Politechnika Poznańska D... więcej»

Real-time gas recognition system based on the gas sensor array responses and portable computer Raspberry PI (Ewa Ardanowska, Paweł Kalinowski, Łukasz Woźniak, Grzegorz Jasiński, Piotr Jasiński)
Artificial olfaction systems based on gas sensors and data analysis system are potentially an attractive instruments for a large number of applications, where precise detection of measured volatile compounds is required. They can be used for air quality monitoring [1], in medicine, for detection of diseases [2] or in food industry, i.e. for monitoring the freshness of products [3]. Such instruments, commonly referred to as electronic noses, have the ability for qualitative and quantitative characterization of target gases. In electronic nose systems instead of single sensors, an array of partially selective sensors is used. The response of the array generates a multidimensional dataset, which is then processed using various feature extraction and pattern recognition methods. The most commonly used methods in e-nose systems are Principal Components Analysis (PCA), Partial Least Squares (PLS), Support Vector Machine (SVM) various type of artificial neural networks (ANN) like i.e. Backpropagation Neural Network (BPNN), Radial Basis Function Neural Networks (RBF) or Probabilistic Neural Networks (PNN) [4-5]. Although the properties of electronic noses are very attractive for practical applications, they are often still limited to the laboratory implementations. This is related to the issue of long term stability, which is the most challenging problems in such instruments. The drift phenomenon causes a problem with maintaining the proper ability of precise determination of the target gases in the long period of time. Another issue is connected with complexity of some concepts. The proposed calculation algorithms are rather complicated, i.e. d... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski&#8201;)
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Methods and tools for multi-criteria selection of sensor system components (Ryszard Świerczyński, Krzysztof Urbański, Artur Wymysłowski )
Choosing an optimal set of components required to build a complete sensor system is challenging and time-consuming task due to huge amount of available electronic components and constrains (input parameters) which have to be taken into account during this process [1]. Predicted fast growth of sensor systems market in the near future (for example, environmental sensor and monitoring market is expected to reach $15.3 billion in 2016 based on BCC Research report) requires better, more efficient design tools and methods to shorten time-to-market period for the new products. It is especially important not just to re-use "well-known and proven solutions", but to choose the best available system components. Without support in the form of computer tools, this task is virtually impossible. Single device selection tools (search engines) are widely supported by electronic component manufacturers and distributors. It is easy to find a device meeting specified requirements, even across various manufacturers. The matter becomes more difficult when one needs to select the optimum set of components at the level of the whole system. In this paper a new approach and design tool is proposed to speed-up designing process of complex sensor system. Emphasis is placed on providing ready-to-use software for selection of a set of available components rather than DEBYS approach proposed for ASIS systems in [3, 4]. Combined database containing detailed component parameters and parametric models in conjunction with external simulatio... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»