profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-12

zeszyt-4245-elektronika-konstrukcje-technologie-zastosowania-2014-12.html

 
W numerze m.in.:
Układy diagostyczne i źródła światła w fotodynamicznej metodzie terapii (Mirosław Kwaśny, Zygmunt Mierczyk, Mariusz Łapiński, Andrzej Gietka)
Podstawy metod PDD/PDT Fotodynamiczna metoda leczenia (Photodynamic Therapy - PDT) polega na selektywnym fotoutlenianiu tkanek biologicznych przy jednoczesnym udziale wprowadzonego do organizmu fotouczulacza (fotosensybilizatora), absorbowanego przez niego światła i tlenu. W pierwszym etapie podaje się dożylnie lub śródtkankowo barwnik lub jego prekursor, który se... więcej»

Implementacja multiplikatywnych gneratorów kongruencyjnych z modulnikiem w układzie FPGA (Michał Jaworski, Mieczysław Jessa )
Generatory pseudolosowe są powszechnie wykorzystywane w wielu dziedzinach życia. Przykłady to komputerowe symulacje układów fizycznych, biologicznych, chemicznych, kryptografia czy statystyka. Można je spotkać praktycznie w każdym języku programowania w postaci funkcji opisującej proces wytwarzania kolejnych elementów ciągu. Są to implementacje programowe bazujące zazwyczaj na generatorze Lehmera [1], znanym również jako kongruencyjny generator liniowy (ang. LCG - Linear Congruential Generator). Generator ten opisany jest przez następujące równanie: (1) gdzie a, c oraz M to liczby całkowite. Dla c = 0 równanie opisuje kongruencyjny generator multiplikatywny (ang. MCG - Multiplicative Congruential Generator). O własnościach ciągu wytwarzanego przez generator multiplikatywnych decydują mnożnik a oraz modulnik M. Aby uzyskać ciąg o maksymalnej długości (tzw. m-ciąg), modulnik M musi być liczbą pierwszą, natomiast mnożnik a musi być prymitywnym elementem modulo M [1]. [2]. Dla arytmetyki 32-bitowej, najbliższym modulnikiem, który jest liczbą pierwszą jest liczba pierwsza Mersenne'a o wartości 231 -1, wykorzystana, m.in., w dobrze znanym generatorze Minimal Standard (MINSTD) [3], [4]. Pierwsza implementacja generatora MINSTD została przedstawiona w 1996 roku, ale najnowsze prace pokazują, że ten typ generatora MCG jest nadal chętnie wykorzystywany w wielu aplikacjach [2], [5], [6]. Inne generatory MCG również pojawiają się w najnowszych pracach naukowych [7], [8]. Gdy parametr M jest określony, właściwości statystyczne generowanego ciągu zależą od tego, jaka jest wartość parametru a. Nawet, gdy dla danej wartości parametru a właściwości statystyczne wytworzonego ciągu nie są satysfakcjonujące, może on zostać wykorzystany jako składnik bazowy lepszego generatora. W roku 2010 zaproponowany został ulepszony multiplikatywny generator pseudolosowy (ang. IMCG - Improved Multiplicative Congruential Generator). Generator ten baz... więcej»

Zaawansowane Systemy Elektroniczne i Fotoniczne - WILGA 2014. Część 2 - Systemy elektroniczne dla eksperymentów fizyki wielkich energii (Ryszard S. Romaniuk)
Sympozjum młodej nauki Sympozjum młodych uczonych Wilga 2014 odbyło się tradycyjnie w tygodniu na przełomie maja i czerwca br. w Wildze pod Warszawą [wilga.ise.pw.edu.pl]. Sympozjum WILGA obejmuje tematykę zaawansowanych układów i systemów fotonicznych i elektronicznych. Udział wzięło około 350 osób. Wygłoszono około 250 referatów. Główna część prac sympozjum, około 150 artykułów, jest opublikowana w tomie Proc. SPIE vol. 9290 [spie.org]. Tom SPIE 9290 zawiera także kilkanaście prac przedstawionych w czasie styczniowej edycji Sympozjum Wilga. Kilkanaście prac opublikowano w Elektronice [elektronika.orf.pl], Photonics Letters of Poland [photonics. pl/plp], IJET - International Journal of Electronics and Telecommunications [ijet.pl], itp. Współczynnik akceptacji prac wynosił ok. 50%. Materiały poprzedniego Sympozjum Wilga 2013 zostały opublikowane w tomie Proc. SPIE vol. 8903. Około połowy uczestników Sympozjum WILGA to doktoranci, a ok. 20% to magistranci. Pozostali uczestnicy to najczęściej opiekunowie młodzieży naukowej. W Wildze prezentują się także studenci i doktoranci zagraniczni przebywający w Polsce w ramach projektów międzynarodowych, konsorcjów dla eksperymentów HEP, programów wymiany akademickiej, jak np. Erasmus, itp. Sympozjum jest organizowane przez młodych uczonych z ISE PW - Grupa Naukowa ELHEP i organizacji IEEE, SPIE, OSA, PSP, SEP dla młodych uczonych. Patronat nad Sympozjum sprawuje: KEiT PAN, PKOpto SEP, PSP i WEiTI PW. W prawie dwudziestoletniej historii Sympozjum WILGA opublikowało kilkanaście tomów Proc.SPIE z ponad 1500 artykułami naukowo-technicznymi (głównie w autorstwie polskich młodych uczonych) dostępnych w bazach danych Web of Knowledge oraz Scopus, a także Google Scholar, i innych w tym krajowych jak BazTech, Baza Wiedzy Politechniki Warszawskiej, Polska Bibliografia Naukowa, Ce-ON w ramach systemu Pol-ON. Opublikowano także kilka wydań specjalnych czasopism naukowo-technicznych. Jest to abs... więcej»

Lista recenzentów za rok 2014 The list of the reviewers
Prof. Bohdan V. Andriyevskyy - Politechnika Koszalińska Dr hab. inż. Artur Andruszkiewicz - Politechnika Wrocławska Dr hab. inż. Jerzy Bajorek - Politechnika Rzeszowska Prof. dr hab. inż. Roman Barlik - Politechnika Warszawska, Wydział Elektryczny Dr inż. Mikołaj Baszun - Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych Prof. dr hab. Mikołaj Berczenko - Uniwersytet Rzeszowski, Instytut Fizyki Prof. dr hab. inż. Michał Białko - Politechnika Koszalińska Dr inż. Andrzej Brudnik - AGH Akademia Górniczo-Hutnicza w Krakowie Prof. dr hab. Zbigniew Brzózka - Politechnika Warszawska, Wydział Chemiczny Prof. dr hab. Inż. Henryk Budzisz - Politechnika Koszalińska, Wydział Elektroniki i Informatyki Prof. dr hab. inż. Maciej Bugajski - Instytut Technologii Elektronowej, Warszawa Dr hab. Aleksandr Cariow - Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Prof. dr hab. inż. Zygmunt Ciota - Politechnika Łódzka Prof. dr hab. inż. Anna Cysewska-Sobusiak - Politechnika Poznańska, Instytut Elektrotechniki i Elektroniki Przemysłowej Prof. dr hab. inż. Wojciech Czerwiński, Politechnika Wrocławska, Wydział Elektroniki, Mikrosystemów i Fotoniki Prof. dr hab. inż. Adam Dąbrowski - Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów Dr inż. Jacek Dąbrowski - Akademia Morska w Gdyni, Katedra Elektroniki Morskiej Prof. dr hab. inż. Jerzy Dąbrowski - Szwecja Prof. dr hab. inż. Andrzej Demenko - Politechnika Poznańska Prof. dr hab. inż. Janusz Dobrowolski - Politechnika Warszawska Prof. dr ha. Inż. Andrzej Dobrucki - Politechnika Wrocławska, Instytut Telekomunikacji, Teleinformatyki i Akustyki Prof. dr hab. inż. Marek Domański - Politechnika Poznańska D... więcej»

Rozwój systemu COSPAS-SARSAT (Jerzy Czajkowski)
System COSPAS-SARSAT stanowi bardzo istotny podsystem składowy Światowego Morskiego Systemu Łączności Alarmowej i Bezpieczeństwa zapewniając realizację jego najistotniejszej funkcji jaką jest alarmowanie. W przypadku zaistnienia niebezpieczeństwa na wodzie, w powietrzu lub na lądzie umożliwia on organizacjom poszukiwania i ratowania - SAR - prowadzenie akcji ratowania. Od momentu jego powstania jest nieustannie rozbudowywany, stwarzając coraz bardziej dogodne możliwości realizowania powierzonych mu funkcji. Aktualnie system składa się z trzech części [2]: - segmentu kosmicznego, w skład którego wchodzą - satelity niskoorbitalne - LEO (Low Earth Orbit) krążące na orbitach biegunowych tworząc system LEOSAR - satelity geostacjonarne - GEO (Geostationary Earth Orbit) rozmieszczone w płaszczyźnie równika tworząc system GEOSAR - segmentu naziemnego składającego się z: - lokalnych stacji odbiorczych LUT (Local User Terminal) - centr sterowania systemem MCC (Mission Control Centres) - radiopław: - morskich - EPIRB (Emergency Position-Indicating Radio Beacon) pracujących na częstotliwości 406 MHz, - lotniczych ELT (Emergency Locator Transmi... więcej»

Zobacz wszystkie publikacje »

2014-11

zeszyt-4222-elektronika-konstrukcje-technologie-zastosowania-2014-11.html

 
W numerze m.in.:
Modelowanie transportu elektronów w kwantowych laserach kaskadowych (Andrzej Kolek)
Kluczowym elementem procesu projektowania lasera półprzewodnikowego jest opis transportu elektronów w obszarze medium wzmacniającego. W kwantowych laserach kaskadowych (ang. quantum cascade laser - QCL) medium to jest utworzone przez kaskadową sekwencję kilkudziesięciu (lasery średniej podczerwieni) lub kilkuset (lasery THz) podstawowych okresów lasera. Przykład takiego okresu pokazano na rys. 1. Modelowanie transportu elektrycznego koncentruje się na opisie przepływu prądu przez tego typu strukturę zakładając, że pozostałe elementy przyrządu, takie jak falowód czy kontakty elektryczne nie wpływają istotnie na kształt charakterystyki prądowo-napięciowej. Wyznaczenie tej zależności jest zagadnieniem złożonym. Wymagane jest tu bowiem stosowanie metod, które łączą kwantowy opis zjawisk z dokładnością na poziomie "ilościowym". Warunki te w różnym stopniu spełniają aktualnie stosowane metody modelowania. Stany elektronowe uzyskuje się rozwiązując równanie Schrödingera. Są one podstawą wyznaczenia międzypasmowych i wewnątrzpasmowych czasów relaksacji, które można wykorzystać do zbilansowania szybkości zapełniania/opróżniania stanów elektronowych. Równania tego bilansu tworzą model równań kinetycznych (ang. rate equation - RE) [1-4]. Jego rozwiązanie pozwala uzyskać obsadzenia podpasm lasera w stanie stacjonarnym. Są one także podstawą wyznaczenia wzmocnienia optycznego medium wzmacniającego. Model RE koncentruje się na transporcie rozproszeniowym (ang. scattering current) pomijając całkowicie efekty koherencji stanów (ang. coherent current), takie jak tunelowanie i/lub tunelowanie rezonansowe przez wielobarierową/ studniową strukturę obszaru wzmacniającego. Do opisu laserów THz, w których dominuje transport koherentny, należy stosować bardziej zaawansowane metody, takie jak metoda macierzy gęstości [5-7] lub formalizm nierównowagowych funkcji Greena [8-14]. Uzupełnieniem wspomnianych podejść jest metoda Monte Carlo [15-19], która ... więcej»

Charakterystyki progowe, wzmocnienie i własności optyczne laserów kaskadowych (Kamil Pierściński, Dorota Pierścińska, Piotr Gutowski, Artur Trajnerowicz, Piotr Karbownik, Maciej Bugajski)
Od momentu demonstracji kwantowego lasera kaskadowego (Quantum Cascade Lasers - QCLs) w 1994 r. przez grupę prof. Capasso z Bell Labs [1], przyrządy te przechodzą gwałtowny rozwój [2]. Lasery kaskadowe są obecnie bardzo szybko rozwijającą się grupą laserów półprzewodnikowych emitujących w zakresie średniej podczerwieni (3.5- 24[mikro]m) jak i w zakresie terahercowym (1.2- 4.9 THz). Warunkiem koniecznym do zwiększenia wydajności i niezawodności laserów kaskadowych w wyższych temperaturach pracy jest kompleksowa charakteryzacja, wyznaczenie charakterystyk progowych, wzmocnienia i własności optycznych laserów kaskadowych. Wzmocnienie i straty falowodowe są kluczowymi parametrami wpływającymi między innymi na wydajność laserów, są one także niezbędne w projektowaniu numerycznym przyrządów. Wyznaczenie tych parametrów jest istotne w optymalizacji projektu struktury/obszaru aktywnego kwantowego lasera kaskadowego pod kątem wydajności pracy i prądu progowego. Jednocześnie, określenie właściwej równowagi pomiędzy stratami falowodowymi i opornością elektryczną struktury jest ważne dla wydajnej pracy przyrządu. Praca ta przedstawia wyniki analizy elektrooptycznej kwantowych laserów kaskadowych zaprojektowanych na pasmo emisji 9-10 [mikro]m, projektowanych i wytwarzanych w Instytucie Technologii Elektronowej w Warszawie [3-7]. Charakteryzacja elektrooptyczna laserów kaskadowych Charakteryzacja elektrooptyczna zmontowanych laserów kaskadowych obejmuje pomiary charakterystyk LIV (moc optyczna w funkcji prądu, charakterystyki prądowo napięciowe) oraz charakterystyk spektralnych. Pomiary te pozwalają wyznaczyć m.in. prąd progowy (Jth), który przy wykorzystaniu metody "1/L" (pomiar prądu progowego kilku przyrządów o różnych długościach rezonatora) pozwala na wyznaczenie współczynnika wzmocnienia (gΓ) i strat falowodowych laserów ... więcej»

Epitaksja struktur laserów kaskadowych (Piotr Gutowski, Iwona Sankowska, Justyna Kubacka-Traczyk, Krystyna Gołaszewska-Malec, Maciej Bugajski, Justyna Grzonka )
Kwantowe lasery kaskadowe to półprzewodnikowe unipolarne emitery w zakresie średniej podczerwieni. W tym zakresie długości fal najczęściej wykorzystywany jest układ materiałowy AlGaAs/ GaAs oraz InAlAs/InGaAs na podłożu InP. Pierwszy charakteryzuje się jedynie pracą impulsową w temperaturach pokojowych, natomiast drugi może osiągnąć pracę ciągłą w temperaturach przekraczających 400K [1]. Sprawia to, że tylko on realnie pozwala spełnić standardy wymagań stawianych kwantowym laserom kaskadowym w elektronice. Heterostruktury tych przyrządów wytwarzane są najczęściej za pomocą epitaksji z fazy gazowej MOVPE lub epitaksji z wiązek molekularnych MBE. Struktura epitaksjalna obszaru aktywnego składa się z kilkuset ultracienkich warstw o różnej grubości powtórzonych w sekwencji kaskad, natomiast struktura falowodowa, stanowiąca znaczną pod względem ilościowym część przyrządu, z warstw relatywnie grubych. Stwarza to trudności w wykonaniu tego przyrządu, gdyż należy liczyć się z doborem optymalnej prędkości wzrostu dla całej heterostruktury. Ustalenie wszystkich parametrów jest bardzo czasochłonne i trudne, a wymagania powtarzalności i precyzji stanowią duże wyzwanie technologiczne. Powoduje to wciąż ograniczenia w komercjalizacji tych przyrządów, która praktycznie sprowadza się do małoseryjnej produkcji laboratoryjnej. Zakres badań Celem prowadzonych badań było opanowanie technologii struktur laserów InAlAs/InGaAs dopasowanych sieciowo do podłoża z InP. W toku prowadzonych prac zostały przebadane cztery różne konstrukcje wykonania falowodu. W pierwszej konstrukcji górny falowód wykonany był z InAlAs, natomiast w roli dolnego falowodu wykorzystano niskodomieszkowane podłoże InP 2e17 cm-3. Zastosowanie podłoża jako dolnego falowodu uprościło i skróciło znacznie proces epitaksjalny, co stanowiło dobry punkt wyjścia do demonstracji pracy samego przyrządu i dalszego rozwoju technologii. Domieszkowanie zostało tak dobrane, aby ograniczyć a... więcej»

Metoda analizy zasilania w sieci COAX (Hoang Nghia Le)
Dostępowa sieć telekomunikacyjna bazująca na technologii koncentrycznych kabli współosiowych (ang. Coaxial Cable Network - COAX) jest obecnie jedną z najpopularniejszych sieci stosowanych w Polsce. Pomimo długiego czasu istnienia tej technologii zagadnienie planowania zasilania sieci COAX wciąż nie jest w pełni rozwiązane. Planiści często uwzględniają jedynie aspekt siły sygnałów do odbiorców, zaniedbując inne aspekty takie jak obecności szumów i potrzeby zasilania. Taka praktyka zazwyczaj negatywnie wpływa zarówno na koszty budowania, jak i na zasięg sieci. W niniejszym artykule przedstawiamy sposób analizy aspektów zasilania sieci COAX: prezentujemy architekturę sieci COAX, proponujemy model sieci COAX jako obwodu elektrycznego i przedstawiamy zagadnienie analizy tego obwodu. Zagadnienie nie jest trywialne, gdyż aktywne elementy sieci mają nieliniową charakterystykę prądowo-napięciową (niezgodnie z prawem Ohma). W związku z tym przedstawiona metoda analizy tej sieci bazuje na metodzie numerycznej Newtona-Raphsona. Architektura sieci COAX Sieć COAX zaczyna się od odbiornika optycznego, który stanowi granicę pomiędzy siecią COAX, a siecią szkieletową. Strumień cyfrowy z sieci szkieletowej jest modulowany do postaci fali elektromagnetycznej i przesyłany do skrzynki abonenckiej, po czym zostaje demodulowany w ruterze abonenckim i dostarczony do poszczególnych odbiorników (telewizorów, telefonów stacjonarnych, komputerów i smartfonów). Elementy sieci COAX są następujące: o Węzeł optyczny (ang. Optical Node- ON). ON stanowi element graniczący sieci szkieletowej z siecią COAX. Główną rolą ON jest konwersja sygnałów z postaci światła do postaci fal radiowych, które są dalej transmitowane przez sieć COAX do mieszkań. ON obsługuje także zwrotne strumienie danych w postaci fal radiowych i konwertując je w postaci sygnałów optycznych, przesyła dane dalej do sieci szkieletowej. Jeden ... więcej»

W dniach 9-13.06.2014 roku w hotelu JAN w Darłówku Wschodnim odbyła się TRZYNASTA KRAJOWA KONFERENCJA ELEKTRONIKI (Włodzimierz Janke)
Referaty prezentowane w formie ustnej lub plakatowej były podzielone na tradycyjne grupy tematyczne: Materiały i technologie elektroniczne, Elementy elektroniczne, Układy analogowe, Układy cyfrowe, Energoelektronika, Optoelektronika, Szumy, zakłócenia, ograniczenia cieplne i niezawodność, Zastosowania układów elektronicznych, Systemy elektroniczne w mechatronice, zorganizowano także sześć Sesji Specjalnych: 1. Przezroczyste półprzewodniki tlenkowe (nowa klasa materiałów półprzewodnikowych dla przezroczystej elektroniki, optoelektroniki, fotowoltaiki i technik sensorowych). Organizatorzy: Prof. dr hab. Marek Godlewski - Instytut Fizyki PAN - Warszawa Prof. dr hab. inż. Anna Piotrowska - ITE - Warszawa 2. Zobrazowanie i pomiary w podczerwieni - krajowe potrzeby i możliwości... więcej»

Zobacz wszystkie publikacje »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Badanie procesu nanoszenia cienkich warstw węgla otrzymywanych metodą impulsowego magnetronowego rozpylania (WITOLD POSADOWSKI, MACIEJ GRUSZKA)
Warstwy węglowe wzbudzają coraz większe zainteresowanie ze względu na swoje unikalne właściwości elektryczne, mechaniczne, optyczne i inne. Odmiany alotropowe węgla (grafit, fulereny, diament) mogą tworzyć różne formy strukturalne (grafen, warstwy dimentopodobne, nanorurki), a ich potencjalne wykorzystanie otwiera nowe perspektywy w różnych gałęziach przemysłu. Są optymalizowane i poszukiwane nowe technologie otrzymywania warstw na bazie węgla, a dobitnym przykładem polskich osiągnięć na tym polu jest wdrożenie przemysłowe produkcji grafenu w ostatnich miesiącach w ITME Warszawa. Warstwy węglowe są otrzymywane między innymi metodami PVD (np. rozpylanie za pomocą wiązki jonów, z wykorzystaniem układów magnetronowych lub urządzeń działających z wyładowaniem łukowym) oraz metodami CVD (np. PECVD - ang. Plasma Assisted Chemical Vapour Deposition). Jednymi z pierwszych, którzy otrzymali izolacyjne warstwy dimentopodobne, tzw. DLC (ang. Diamond-Like Carbon) byli S. Aisenberg, R. Chabot [1]. Osadzali oni warstwy DLC za pomocą źródła plazmowego (układ dwuelektrodowy - katoda i anoda wykonane z węgla) wytwarzającego jony węgla i argonu. Od tego momentu następuje dynamiczny rozwój technologii warstw dimentopodobnych. W strukturze warstw węglowych występują wiązania sp2 oraz sp3 i w zależności od tego, które dominują, otrzymuje się odpowiednio warstwy grafitowe lub/ i diamentopodobne. Warstwy DLC wykazują niezwykłą twardość, odporność na erozję, ścieranie, przeźroczystość w zakresie światła podczerwonego, obojętność chemiczną. Charakterystyczną cechą procesów otrzymywania warstw DLC, w przeciwieństwie do tradycyjnej technologii wytwarzania diamentów (wysokie ciśnienie i temperatura), jest osadzanie w warunkach obniżonego ciśnienia przy stosunkowo niskich temperaturach, co otwiera nowe możliwości wykorzystywania tych powłok na podłożach nieodpornych termicznie. Zainteresowanie warstwami DLC powoduje, że poszukiw... więcej»

Implementacja wybranej metody klasterowej do klasyfikacji źródeł sygnałów EEG związanych z wyobrażaniem ruchu (Urszula Jagodzińska-Szymańska)
Mózg wykazuje bardzo zbliżoną aktywność zarówno podczas wyobrażania sobie ruchu jak i podczas wykonywania ruchu [10]. Lokalizacja obszarów aktywności mózgu jest zróżnicowana i zależy od tego, z którymi częściami ciała jest związana. Przykładowo ruch prawą i lewą ręką związany jest z obszarami znajdującymi się w korze ruchowej. Konkretne obszary aktywności mózgu związane z wykonywaniem ruchu przez różne części ciała są znane wtedy, kiedy znane jest rozwiązanie zagadnienia odwrotnego [9]. Należy jednak powiązać obszary mózgu z rodzajem wykonywanej aktywności poprzez przeprowadzenie klasyfikacji. Na podstawie wiedzy anatomicznej można dokładnie wyznaczyć obszary kory mózgowej skojarzone z wyobrażaniem sobie ruchu prawą i lewą ręką oraz innymi częściami ciała (np. na podstawie [16]). W celu przeprowadzenia klasyfikacji w niniejszej metodzie badawczej została wykorzystana t-statystyka. Do przeprowadzenia testów wykorzystane zostały przetworzone dane Data Set V z bazy Idiap [7-9]. Dane z Data Set V zawierają, między innymi, rozpatrywane przez autorkę dwa rodzaje aktywności myślowych (zadań myślowych) wykonywanych przez testowane osoby: K2 - wyobrażenie ruchu lewą ręką i K3 - wyobrażenie ruchu prawą ręką. Zestaw próbek w bazie Idiap został uporządkowany w taki sposób, że testowana osoba przez 15 sek. wykonywała jedno zadanie myślowe. Na podstawie wyznaczonego rozwiązania zagadnienia odwrotnego obliczono wartości t-statystyki dla obszarów, na które podzielono powierzchnię kory mózgowej P1, P2,..., PNM [9]. Wartości t-statystyki obliczono wykorzystując wzór (1) gdzie 1 , 2 to średnie, 1 2 , 2 2 to wzajemne wariancje liczone dla obszarów (obiektów) P1, P2,...,PNM dla pewnej liczby próbek odnoszących się do ruchu prawą i lewą ręką. Wiedza o tym, czy próbki dotyczą ruchu prawą czy lewą ręką pozwala na przeprowadzenie oceny jakości klasyfikacji. Przy pomocy t-statystyki została przetestowana istotność różnicy między średnim... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 3 (Ryszard S. Romaniuk)
Nauka i technika to delikatny system naczyń połączonych. Znamy elementy tego systemu - edukacja, dydaktyka, kształcenie ustawiczne, uczelnie, instytuty, laboratoria, stowarzyszenia zawodowe, organizacje naukowe, projekty badawcze i techniczne, programy współpracy z przemysłem innowacyjnym, naukowo-techniczne spin-offy, wdrożenia, naukowe, bazy danych, czasopisma i publikacje, raporty techniczne, e-nauka, wielka międzynarodowa infrastruktura badawcza będąca obecnie generatorem głównych odkryć (niestety poza Polską). Jeśli silnie podkreślimy rolę innowacji, to praktycznie dochodzi do tego systemu naczyń połączonych także innowacyjny business i przemysł. W tym systemie najważniejsi są ludzie. Pracują oni w określonych np. sprzyjających warunkach i generują pewne rezultaty, które są przydatne dla rozwoju społecznego, generacji dobrobytu, zdrowia, bezpieczeństwa, kultury, gospodarki, także i samej nauki. Trzeba te rezultaty mierzyć. Powstaje dziedzina tym się zajmująca - naukometria, scientometria [1-2]. Jej znaczną częścią jest bibliometria [4, 13-14]. Rozwijają się powszechne koncepcje Otwartej Nauki aby rezultaty naukowe i ich metryki były dostępne powszechnie [3, 5-7]. Elementem Otwarten Nauki są Otwarte Publikacje i Otwarty Dostęp do wyników badań naukowych. Ważnym elementem scientometrii i bibliometrii są czasopisma naukowe [20]. Dlaczego są ważne? Między innymi dlatego, że decydują w znacznym stopniu o parametryzacji jednostek naukowych, a obecnie także o karierach osobistych indywidualnych pracowników nauki. Ludzie nauki i czasopisma są podmiotem i przedmiotem naszych rozważań. Pracownicy nauki się zmieniają, wraz z bardzo szybką zmianą warunków pracy. Czasopisma naukowo- techniczne także podlegają szybkim zmianom, wraz z "internetyzacją" tj. cyfryzacją, badań naukowych i zaawansowanych procesów przemysłowych. Czasopisma naukowe, szczególnie NT, już obecnie nie liczą się zupełnie jako zbiory biblioteczne wydań papierowy... więcej»

Stanowisko do badania dźwigni mikromechanicznych wzbudzanych elektromagnetycznie (Wojciech Majstrzyk, Daniel Kopiec, Kamil Raczkowski, Anna Gosiewska, Michał Świątkowski, Andrzej Sierakowski, Piotr Grabiec, Teodor Gotszalk )
Dźwignie mikromechaniczne wykonywane są przeważnie z krzemu monokrystalicznego (Si), tlenku krzemu SiO2 lub azotku krzemu (Si3N4) w postaci belki sprężystej jednostronnie utwierdzonej. Długość tego typu przyrządów wynosi z reguły setki mikrometrów, natomiast grubość może zmieniać się w zakresie od pojedynczych mikrometrów do setek nanometrów. Układy tego typu stanowią zatem systemy MEMS (ang. Micro Electro-Mechanical System) lub NEMS (ang. Nano Electro-Mechanical System). Dźwignię mikromechaniczną modeluje się matematycznie wykorzystując teorię wytrzymałości materiałów, gdzie przyrząd mikromechaniczny opisuje się jako klasyczną belkę jednostronnie utwierdzoną - obowiązują te same prawa i zależności. Z punktu widzenia zastosowań, dźwignie takie mogą pracować jako układy statyczne lub jako układy dynamiczne, inaczej mówiąc - rezonansowe. Stosowane są zazwyczaj jako układy służące do pomiaru sił oddziaływań między cząsteczkami lub jako układy do pomiaru masy oraz jej zmiany [1]. Dźwignie przeznaczone do pracy w trybie statycznym powinny charakteryzować się jak najmniejszą sztywnością. Natomiast dźwignia pracująca w trybie rezonansowym powinna charakteryzować się możliwie wysoką częstotliwością drgań własnych przy zachowaniu niewielkiej sztywności. W wypadku dźwigni zawierających aktuator wychylenia, zakres ich stosowalności rozszerza się o mikro- oraz nanomanipulację. Parametrem wiążącym pomiary sił, masy oraz manipulację jest sztywność. W tym przypadku można zapisać wzór (1), wiążący siłę F działającą na koniec belki z jej ugięciem z w postaci: F = kz (1) Z powyższej zależności wynika również fakt, że drugim istotnym czynnikiem jest pomiar ugięcia mikrodźwigni. W literaturze notuje się bardzo wiele metod detekcji wychylenia końcówki dźwigni, jednak największe czułości oraz rozdzielczości zapewniają metody optyczne, jak na przykład metoda interferometryczna czy natężeniowa [2]. W niniejszej pracy metody optyczne stanowią pod... więcej»

Modelowanie sprzężeń magnetycznych między płytą przewodzącą i cewką spiralną wzbudnika (Tomasz Kwaśniewski, Mirosław Wciślik)
Celem pracy jest poznanie rozkładu prądów indukowanych w cienkiej płycie kołowej przy różnych konfiguracjach modelu wzbudnika spiralnego przeznaczonego do nagrzewania kołowego wsadu płaskiego. Modele układów zostały przedstawione na rys.1 i 2. Zebrane wyniki posłużą do budowy modelu wzbudnika spiralnego zapewniającego określony rozkład temperatury w nagrzewanym elemencie. Analizę oddziaływań elektromagnetycznych przeprowadzono przy pomocy równań obwodowych elektrycznych. Konieczność stosowania podejścia obwodowego wynika z zastosowania niesinusoidalnego źródła zasilania. Wyjściem do zastosowania równań obwodowych jest wyznaczenie indukcyjności własnych i wzajemnych oddziaływujących elementów. W tym celu wykorzystano prawo Biota-Savarta i na jego podstawie wyznaczono natężenie pola magnetycznego [1]. Wymiarowość problemu zmniejsza się dla elementów symetrycznych. W [2] opracowano metodę wyznaczania rozkładu pola magnetycznego wokół zwoju kołowego i na tej podstawie określono indukcyjność cewki spiralnej. Znacznie trudniejsze jest natomiast wyznaczenie indukcyjności wzajemnych występujących pomiędzy elementem wzbudzającym i wzbudzanym, szczególnie jeżeli obiektem wzbudzanym jest cienka płyta. W [3] badano oddziaływania zwoju i płyty kołowej, zamodelowanej jako zbiór koncentrycznych zwojów kołowych sprzężonych magnetycznie. Po odpowiednim przekształceniu model ten można wykorzystać do badań układu cewka spiralna - płyta okrągła. Zależności otrzymane w [3] wykorzystano do wyznaczenia indukcyjności własnych i wzajemnych koncentrycznych zwojów. Założono, że zwoje wykonane są z materiału, który jest przewodnikiem i nie jest ferromagnetykiem. Budowa i równania układu Cewkę spiralną zamodelowano jako zbiór koncentrycznych zwojów. W rozpatrywanym układzie sprawdzane są dwie konfiguracje ułożenia zwojów cewki spiralnej względem zwojów cienkiej płyty. Konfiguracje te zostały przedstawione na rys.1 i 2 . Dla modeli układu przedstawiony... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
System rozpoznawania komend głosowych z zastosowaniem systemu wbudowanego (Paweł Tomasik, Przemysław Barański)
Technologia rozpoznawania mowy znajduje zastosowanie w wielu dziedzinach. Przykładem może być komunikacja osoby niepełnosprawnej z komputerem lub sterowanie wybranymi niekrytycznymi funkcjami w samolocie. Rozpoznawanie mowy zdobywa coraz szersze uznanie w telefonicznych centrach obsługi klienta, gdzie osoba dzwoniąca opisuje swój problem słownie. System automatycznie łączy do odpowiedniego konsultanta [1]. Mimo wielu prowadzonych badań problem rozpoznawania mowy jest problemem otwartym i trudnym o czym może świadczyć projekt Siri, który jest rozwijany od roku 2010 i pochłonął ponad 100 milionów dolarów [2]. W uproszczeniu, z punktu widzenia przetwarzania sygnałów, za wytwarzanie mowy odpowiedzialne są struny głosowe oraz tzw. trakt głosowy [3]. Widmo drgających strun głosowych przedstawiono na rysunku 1. Widmo takie posiada szereg harmonicznych. Pierwsza harmoniczna nazywana jest podstawową częstotliwością tonu krtaniowego. Dźwięk drgających strun głosowych nazywany jest pobudzeniem krtaniowym. W przypadku głosek bezdźwięcznych ("p", "t", "k", "f", "s", "ś", "sz", "c", "ć", "cz", "ch") pobudzenia krtaniowego nie ma. Trakt głosowy pełni rolę filtru modelującego widmo sygnału mowy. Charakterystyka traktu głosowego zależy od ułożenia języka, żuchwy, warg, podniebienia. W wyniku połączenia tonu krtaniowego oraz traktu głosowego otrzymujemy na charakterystyce widmowej cztery skupiska o dużej energii, które nazywamy formantami. Powyższy schemat generacji sygnału mowy nazywany jest również modelem źródło-fil... więcej»

Ograniczenie zjawiska pustek w spoinach lutowniczych wykonanych metodą próżniowego lutowania kondensacyjnego (Beata Synkiewicz, Krzysztof Witek, Agata Skwarek)
Podstawowe cechy próżniowego lutowania kondensacyjnego Lutowanie kondensacyjne znane również jako lutowanie w parach nasyconych (ang. Vapor Phase Soldering VPS) wykorzystuje do podgrzania lutowanych elementów energię cieplną par uwolnioną podczas kontaktu z nimi. Pary są wytwarzane przez podgrzanie cieczy o dużej gęstości, która posiada stały punkt wrzenia. Kondensacja par trwa tak długo dopóki element nie osiągnie temperatury par. Ze względu na dużą gęstość par, warstwa ciekłej substancji wypiera tlen z powierzchni elementu. W efekcie tego mamy do czynienia z procesem podgrzewania i lutowania w środowisku pozbawionym tlenu. Przekazywana ilość ciepła jest liniowa w stosunku do dostarczonej energii cieplnej. Po wyjęciu płytek z obszaru grzania, w ciągu kilku sekund następuje odparowanie ciekłej warstwy z modułów, bez osadu, gdyż ciecz jest obojętna. Podstawowe zalety do lutowania w fazie gazowej są następujące: - lutowanie odbywa się w atmosferze beztlenowej, eliminując np. potrzebę stosowania azotu, - gwarantowana jest kontrola maksymalnej temperatury w komorze lutowniczej dzięki własnościom fizycznym zastosowanej cieczy - typowo 230 st. C do lutowania bezołowiowego oraz 200 st. C do lutowania z zastosowaniem spoiw ołowiowych, co skutkuje, także szczególnie dla lutowania bezołowiowego, o wiele węższym "oknem temperaturowym" procesu, - lepszy transfer ciepła dzięki wykorzystaniu do tego celu cieczy zamiast powietrza lub azotu, a w związku z tym brak miejscowych przegrzań, efektu "cienia", a także obojętność na kolor, materiał, objętość i masę lutowanych elementów elektronicznych, - elastyczna i łatwa kontrola temperatury lutowanych elementów o zróżnicowanej pojemności cieplnej aż do osiągnięcia temperatury topnienia, - zmniejszenie pustek (ang. "voids") w spoinach lutowniczych przez zastosowanie w piecu sekcji próżniowej, - ograniczenie ilości wad lutowniczych. Lutowanie elementów w faz... więcej»

Telewizor UHD o przekątnej 105 cali z wygiętym ekranem
Firma Samsung zaprezentowała w Berlinie swoje komercyjne telewizory ze skrzywionym ekranem Ultra High Definition (UHD) i zapowiedziała bogatą ofertę telewizorów profilowanych. Te nowe telewizory dostarczają wrażeń porównywalnych z wynoszonymi z kina, radykalnie zmieniają perspektywę, z jakiej widz patrzy na obraz. Zakrzywiony ekran nadaje wyświetlanym obrazom wyraz, jakiego nie można uzyskać na płaskim wyświetlaczu, a szersze pole widzenia wywołuje efekt panoramiczny, który sprawia wrażenie ekranu większego niż jest w rzeczywistości. Wklęsły ekran oznacza lepsze kąty widze... więcej»

Obliczanie mocy traconej w tranzystorach wzmacniacza liniowego klasy AB (Juliusz Modzelewski)
Coraz powszechniejsza cyfryzacja systemów radiokomunikacji i radiodyfuzji wykorzystujących modulację OFDM powoduje konieczność stosowania liniowych wzmacniaczy mocy w nadajnikach tych systemów. Wzmacniacze liniowe są także wymagane w nadajnikach tradycyjnych analogowych systemów radiokomunikacyjnych z modulacją SSB i AM. Liniowe wzmacniacze mocy nadajników radiowych są najczęściej budowane jako szerokopasmowe niestrojone wzmacniacze klasy AB, głównie w układzie transformatorowym. Takie rozwiązanie pozwala bowiem w przypadku tranzystorowych nadajników większej mocy (z sumowaniem mocy z wielu elementarnych wzmacniaczy) ograniczyć liczbę bloków wymagających strojenia do jednego filtru wyjściowego. Zaletą wzmacniaczy klasy AB jest znacznie wyższa sprawność maksymalna i średnia w stosunku do klasy A. Wzmacniacze w układzie przeciwsobnym mają również niższe zniekształcenia nieliniowe (w sygnale wyjściowym teoretycznie nie występują bowiem parzyste harmoniczne). Projektowanie liniowych przeciwsobnych wzmacniaczy klasy AB jest od lat opisywane w większości podręczników dotyczących układów mocy małych i wielkich częstotliwości (por. [1-13]). Procedura projektowania powinna zapewnić uzyskanie wymaganej maksymalnej mocy wyjściowej Pwy max przy dostatecznie niskich zniekształceniach nieliniowych. Sprowadza się to do wyznaczenia odpowiednich dla użytych tranzystorów wartości napięcia zasilania EZ i rezystancji obciążenia Rd. Obliczenia projektowe w tym etapie prowadzi się przy założeniu pracy wzmacniacza w klasie B i ograniczonym wykorzystaniu napięcia zasilania (&#958;D < 1), zależnym od rezystancji tranzystora w stanie załączenia RDS (on) i wartości Rd : (1) gdzie Ud max jest maksymalną amplitudą napięcia dren źródło. Pomiędzy parametrami Pwy max, Rd i Ud max zachodzi związek (2) gdzie &#951;o jest sprawnością energetyczną obwodu wyjściowego wzmacniacza, a Pd max - jest jego maksymalną mocą dreno... więcej»

Sensor wodoru na bazie TiO2 - model oddziaływania (Barbara Łysoń -Sypień, Katarzyna Zakrzewska)
Procesy adsorpcji fizycznej i chemicznej zachodzące podczas oddziaływania pomiędzy cząsteczkami gazu, a ciałem stałym odgrywają ważną rolę w mechanizmie detekcji, wpływając w sposób bezpośredni na funkcjonowanie urządzeń wykrywających określony gaz. Dzięki temu możliwe jest monitorowanie stanu otaczającej atmosfery i ostrzeganie na wypadek pojawienia się gazów niebezpiecznych. Powszechny wzrost zainteresowania nanomateriałami do konstrukcji elementu gazoczułego sensora wynika z obserwowanej poprawy właściwości sensorowych oraz z przekonania, że wykorzystanie nanomateriałów w tej dziedzinie przyczyni się do rozwoju sensoryki. Dwutlenek tytanu z powodu stabilności jak również znacznych i odwracalnych zmian oporu elektrycznego pod wpływem gazów redukujących i utleniających o intencjonalnie zmienianej koncentracji w atmosferze odniesienia jest jednym z podstawowych tlenków metali służących do detekcji gazów. W literaturze można odnaleźć przykłady wykorzystania TiO2 m.in. do detekcji: H2, alkoholi, CO, NH3, NO2, czy par organicznych [1-4]. W tym celu wykorzystywane są modyfikowane materiały na bazie TiO2 w postaci: nanoproszków, nanorurek, nanodrutów i nanowłókien. Pomimo tego, że dwutlenek tytanu jest powszechnie znanym związkiem mogącym służyć do detekcji gazów, nadal brak systematycznych badań w dziedzinie wpływu minimalizacji rozmiarów krystalitów na wartość oporu elektrycznego oraz dynamikę jego zmian w wyniku procesu chemisorpcji cząsteczek gazów redukujących lub utleniających, jak to zostało zaobserwowane w przypadku SnO2 [5]. Większość istniejących modeli opisuje procesy adsorpcji gazów na powierzchni dwutlenku cyny [6-10]. Modeli tych nie można jednak zastosować do opisu oddziaływania gazu z powierzchnią dwutlenku tytanu z uwagi na znaczne różnice we własnościach elektronowych obu tlenków. Mając na uwadze taki stan rzeczy, celem pracy było określenie mechanizmu oddziaływania nanomateriałów na bazie TiO2 z wodorem. Zastos... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Właściwości fotokatalityczne wielowarstwowych powłok antyrefleksyjnych (Damian Wojcieszak, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Frank Placido, Shigeng Song)
Rola powłoki antyrefleksyjnej (AR) polega na minimalizowaniu odbić światła od powierzchni podłoża na które została naniesiona. Jej działanie oparte jest na zjawisku interferencji światła (wygaszanie odbitych fal o jednakowej amplitudzie, ale przesuniętych w fazie). Z kolei wielowarstwowe powłoki AR wykorzystują efekt wielokrotnej interferencji. Składają się one z wielu naprzemiennie ułożonych warstw o różnych grubościach, wykonanych z materiałów o różnych właściwościach optycznych [1-4]. Istotnym parametrem optycznym cienkich warstw stosowanych w konstrukcji powłok optycznych jest zwłaszcza wartość współczynnika załamania światła (n) [1, 2]. Na rysunku 1 przedstawiono przykładowe charakterystyki cienkich warstw TiO2 i SiO2, które są powszechnie stosowane do wytwarzania m.in. powłok antyrefleksyjnych. Są to materiały typu H i L, czyli o dużej (TiO2) i małej (SiO2) wartości n. Jeśli chodzi o dwutlenek tytanu to materiał ten, oprócz dużej przezroczystości dla światła widzialnego, posiada szereg innych zalet. Jest on nietoksyczny, stabilny chemicznie, termicznie i mechanicznie, a także wykazuje aktywność fotokatalityczną [5-7]. Dlatego, jest on stosowany tak powszechnie w konstrukcji różnego typu powłok i filtrów optycznych. W wypadku typowych powłok antyrefleksyjnych na bazie TiO2 i SiO2 jako górną warstwę, która ma kontakt z otoczeniem (powietrzem atmosferycznym), stosuje się dwutlenek krzemu, czyli materiał o mniejszym współczynników załamania światła. Natomiast, gdy ułożenie poszczególnych warstw w powłoce AR jest odwrotne, wraz ze wzrostem grubości warstwy typu H (np. TiO2) maleje poziom przezroczystości całej powłoki AR. Na rysunku 2 przeds... więcej»

System przydziału celów powietrznych do środków ogniowych: maksymalizacja strat wroga (Przemysław M. Czyronis)
Problem przydziału celów powietrznych do środków ogniowych (ang. Weapon-Target Assignment Problem - WTA Problem) jest zasadniczym problemem wynikającym z zastosowań związanych z obronnością, które dotyczą znalezienia optymalnego przypisania środków ogniowych do kanałów celowania. Problem ten jest szczególnym przypadkiem bardziej ogólnego problemu jakim jest alokacja zasobów. Zadania związane z optymalną alokacją posiadanych zasobów posiadają swoje odzwierciedlenie w algorytmach systemów kierowania walką i ogniem Zestawów Rakietowych Obrony Powietrzenej. Użycie relatywnie dużej liczby pocisków rakietowych rozlokowanych na wielu wyrzutniach przy zmieniającej się sytuacji powietrznej wymaga wsparcia operatorów przez dedykowane systemy informatyczne. W przypadku kiedy mamy do czynienia z mniejszą celów powietrznych od liczby dostępnych kanałów celowania, problem się znacząco upraszcza. W sytuacji odwrotnej musimy zdecydować, które wybrane cele powietrzne zostaną przypisane do poszczególnych kanałów celowania. W tym przypadku na proces decyzyjny ma wpływ wiele czynników, takich jak: chwila czasowa wejścia celu powietrznego strefę rażenia, czas jego przebywania w strefie startu pocisków rakietowych, liczba przypisanych już celów powietrznych do danej wyrzutni czyli ilość wolnych kanałów celowania, liczba dostępnych pocisków rakietowych, priorytetowość (ważność) zwalczania danego celu, prawdopodobieństwo trafienia w cel, rodzaj przyjętej strategii. Rozważymy statyczny problem przydziału celów powietrznych do środków ogniowych pod względem optymalizacji różnych wskaźników jakości, określających pożądany efekt taki jak: zmaksymalizowanie strat w ugrupowaniu wroga (ang. total expected damaged value of the targets), zminimalizowanie liczby wrogich obiektów (ang. total expected value of the surviving targets). W każdym z przypadków zakładamy, że jest znana liczba celów powietrznych jak i predykcja ich trajektorii lotu (w ograniczonym ... więcej»

Satelitarny segment systemu Automatycznej Identyfikacji Statków (Marcin Waraksa, Jerzy Żurek)
System Automatycznej Identyfikacji Statków Budowany od połowy lat dziewięćdziesiątych XX wieku system Automatycznej Identyfikacji Statków (AIS - Automatic Identification System), pracujący w morskim paśmie VHF, jest systemem wymiany danych, (statycznych, dynamicznych, bezpieczeństwa) pomiędzy statkami oraz w relacji statek - ląd. Podstawowe parametry techniczne sytemu zebrano w tab. 1 [1, 2]. AIS pierwotnie został zaprojektowany jako dedykowane narzędzie będące pomocą nawigacyjną instalowaną na pokładzie statku. Główną jego rolą była eliminacja niedoskonałości radaru (brak informacji o echach na ekranie radaru, eliminacja stref cienia radarowego, eliminacja wpływu szumów na zobrazowanie radarowe). Uzupełnienie podstawowych funkcji radaru o dodatkowe informacje z transponderów AIS usprawniło proces decyzyjny na pokładzie statku oraz wydatnie zwiększono bezpieczeństwo żeglugi. Od samego początku istnienia systemu AIS oczywistym wydała się idea agregacji danych transmitowanych przez statkowe transpondery AIS przez instytucje zajmujące się bezpieczeństwem i ochroną żeglugi morskiej (administracja morska kraju, marynarka wojenna, straż przybrzeżna). Dane ze stacji brzegowych (PSS - Physical Shore Station), zbierane i przetwarzane w dedykowanych ośrodkach stanowią źródło informacji o sytuacji na akwenie morskim dla pracowników VTS (Vessel Traffic Centre) - ośrodków monitorowania i kierowania ruchem morskim. System AIS pracuje w oparciu o wymianę, pomiędzy transponderami statkowymi oraz stacjami brzegowymi, zbioru 27 dedykowanych wiadomości AIS - statycznych (m.in. nazwa jednostki, sygnał wywoławczy, ilość pasażerów, MMSI, port przeznaczenia) jak i dynamicznych (m.in. pozycja, prędkość, kurs). Dokładna lista zdefiniowanych w systemie AIS wiadomości zawarto w tab. 2 [1]. Tab. 1. Parametry techniczne transpondera AIS Tabl. 1. Technical parameters of the AIS transponder AIS parameters Value Frequencies 161,975 and 162,025 [MHz] ... więcej»

Horyzont energoelektroniczny obiektów morskich (Ryszard Strzelecki, Piotr Mysiak, Daniel Wojciechowski)
Charakter i kierunki rozwoju energoelektroniki Współczesna energoelektronika, której początki sięgają komercjalizacji tyrystora SCR (Silicon Controled Rectifier) przez firmę General Electric w 1958 r., jest jednym z wielkich sukcesów XX wieku. Skupiając różne techniki impulsowego przekształcania parametrów energii elektrycznej (EE), energoelektronika umożliwia dynamiczne sterowanie i dopasowanie parametrów źródeł zasilania na potrzeby zasilanych urządzeń, ze sprawnością bliską 100%. Jej rozwój, w perspektywie XXI w., ściśle wiąże się z wdrożeniami nowych, w pełni sterowalnych przyrządów energoelektronicznych. Przykładowo, od niedawna szybko upowszechniają się zastosowania przyrządów na bazie węglika krzemu. Mimo to, jak na razie, rozwój energoelektroniki, w szczególności w zakresie większych mocy, bazuje głównie na przyrządach krzemowych. Dąży się przy tym do osiągania coraz większych prądów przewodzenia, wyższych napięć blokowania oraz korzystniejszych właściwości dynamicznych (wyższych częstotliwości łączeń). Stan aktualny parametrów pracy ważniejszych przyrządów energoelektronicznych przedstawiono na rys. 1. Ze względu na charakter interdyscyplinarny, rozwój energoelektroniki zależy również od postępu w wielu innych obszarach, a nie tylko w fizyce ciała stałego. Wynika to zarówno z samego przedmiotu energoelektroniki, jak i obszarów aplikacji urządzeń energoelektronicznych (UE). W szczególności są to: napędy precyzyjne prądu stałego i przemiennego z maszynami konwencjonalnymi i specjalnymi, w tym o magnesach trwałych; napędy bardzo dużej mocy i/lub średniego napięcia, w tym napędy trakcyjne, na statkach i okrętach, młynów, taśmociągów itp.; napędy i zasilanie ekologicznych pojazdów elektrycznych lub hybryd... więcej»

60 lat Wydziału Elektrycznego (Janusz Zarębski)
W bieżącym roku Wydział Elektryczny Akademii Morskiej w Gdyni (AMG) obchodzi 60-lecie swojego istnienia. Nasz Wydział został utworzony 1 kwietnia 1954 roku w Państwowej Szkole Morskiej, przekształconej w 1969 roku w Wyższą Szkołę Morską w Gdyni (od 2002 roku Akademia Morska w Gdyni). Jest to jedyny wydział elektryczny w polskiej uczelni morskiej. Zgodnie z rankingiem szanghajskim Akademia Morska w Gdyni zajmuje piąte miejsce w świecie i pierwsze miejsce w Europie wśród uczelni morskich. Podstawowym zadaniem Wydziału Elektrycznego AMG jest kształcenie oficerów marynarki handlowej i przygotowanie studentów do pełnienia funkcji oficera elektroautomatyka okrętowego lub radioelektronika. Kształcenie to jest realizowane zgodnie ze... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Badania rentgenowskie zespołów elektronicznych DOI:10.15199/ELE-2014-052
(Krzysztof Lipiec, Grażyna Kozioł, Konrad Futera)

Coraz bardziej postępująca miniaturyzacja i zwiększenie gęstości upakowania układów elektronicznych, powoduje powstawanie większej ilości różnego rodzaju wad podczas wytwarzania zarówno samej płytki obwodu drukowanego, jak również w czasie procesu montażu elektronicznego. Dlatego konieczna jest odpowiednia kontrola wykonania gotowego wyrobu. Wykorzystywane są do tego celu urządzenia automatycznej inspekcji optycznej, pozwalające na szybkie i dokładne sprawdzenie jakości połączeń lutowanych po wykonaniu montażu elementów elektronicznych. Jednakże inspekcja optyczna nie dostarcza informacji o jakości powstałych połączeń lutowanych pod obudową podzespołu elektronicznego, tak jak to ma miejsce w przypadku wielowyprowadzeniowych struktur BGA, CSP lub nieobudowanych struktur półprzewodnikowych typu flip chip (rys. 1). Szczegółowych informacji na temat jakości połączeń tych podzespołów i struktur dostarcza automatyczna kontrola rentgenowska [1]. Badania rentgenowskie w Instytucie Tele- i Radiotechnicznym wykonywane są na urządzeniu do inspekcji rentgenowskiej Nanome/ X 180 NF, umożliwiającym obserwację badanego obiektu nie tylko w jednej płaszczyźnie, ale również pod kątem do 70°. Jest to niezwykle pomocne podczas kontroli połączeń lutowanych elementów w obudowach z wyprowadzeniami sferycznymi, gdyż tylko wtedy można prowadzić bardziej złożone analizy jakości połączeń po procesie lutowania [2]. Wykonując analizę rentgenowską należy pamiętać, że na jakość połączenia lutowanego ma wpływ wiele czynników. Wykryte wady w wyniku badania rentgenowskiego w połączeniach lutowanych można... więcej»

Wzmacniacz sygnałów wyjściowych przetworników bezrdzeniowych o dużej impedancji wejściowej DOI:10.15199/ELE-2014-065
(Aleksand er Lisowiec, Zdzisław Kołodziejczyk)

Bezrdzeniowe przetworniki prądowe pracujące na zasadzie cewki Rogowskiego, charakteryzują się bardzo dużą dynamiką mierzonego sygnału. Zakres mierzonych prądów jest ograniczony od góry napięciem przebicia przetwornika a od dołu szumami termicznymi rezystancji przetwornika i sięga kilku dekad, od ułamków ampera do setek kiloamperów. W praktyce dolny zakres mierzonych prądów zależy od czułości przetwornika oraz szumów wzmacniacza wejściowego [1]. Bezrdzeniowe przetworniki prądowe wykonane w tradycyjnej technologii wielowarstwowych obwodów drukowanych, charakteryzują się czułością do 5 mV/A. Są one stosowane do pomiaru prądów fazowych w energetyce od wartości 1 A wzwyż [2]. Rozszerzenie dolnego zakresu mierzonych prądów poniżej 1 A wymaga zastosowania przetworników o czułości powyżej 5 mV/A. Zwiększenie czułości bezrdzeniowych przetworników prądowych jest możliwe przez zastosowanie technologii wielowarstwowych obwodów drukowanych o wysokiej gęstości połączeń, HDI (ang. High Density Interconnect). Stosując tę technologię można skonstruować przetwornik o czułości nawet powyżej 10 mV/A. Technologia HDI oznacza cieńsze ścieżki obwodu drukowanego oraz większą ilość zwojów co powoduje znaczny wzrost rezystancji przetwornika, nawet do wartości 20 ohm [3]. Specyfika układów przetwarzania sygnału przetwornika wykonanego w technologii PC B HDI Rezystancja przetwornika, wraz z rezystancją wejściową wzmacniacza do którego jest dołączony przetwornik tworzy dzielnik napięcia. W dzielniku tym rezystancja przetwornika, wynikająca z rezystancji ścieżki miedzi obwodu PCB przetwornika, zmienia się z tem... więcej»

Alternatywna do procesu ENIG powłoka lutownicza DOI:10.15199/ELE-2014-057
(Tomasz Klej, Karolina Borowiecka, Dariusz Ostaszewski, Edward Ramotowski)

Wraz ze wzrostem wymagań producentów układów elektronicznych wzrasta zapotrzebowanie na rozwiązania mające spełnić ich oczekiwania. Dotyczy to nie tylko miniaturyzacji i zwiększania liczby połączeń na płytce drukowanej ale także polepszania jej właściwości elektrycznych oraz eliminacji błędów związanych z procesem produkcyjnym. Istotną rolę w obwodach drukowanych spełniają powłoki ochronne osadzane na polach kontaktowych. Ich celem jest zapewnienie dobrej lutowności pól kontaktowych, zabezpieczenie odkrytych płaszczyzn miedzi przed narażeniami środowiskowymi oraz nie pogorszanie własności elektrycznych w obwodach z integralnością sygnałową. Współczesne konstrukcje obwodów, szczególnie typu HDI, zawierające układy bezwyprowadzeniowe wymagają planarności pól lutowniczych. Jedną z najczęściej stosowanych powłok ochronnych jest ENI G (electroless nickel immersion gold) tzw. "złoto chemiczne". Powłoka ta jest dobra w wielu zastosowaniach, ale droga w stosowaniu z dość wąskim oknem technologicznym w procesie osadzania. Lutowanie do złota chemicznego jest lutowaniem do niklu. Cienka warstwa złota, stanowiąca zewnętrzną warstwę ENI G, ma zapobiegać przed pasywacją niklu i (tym samym) zapewnić jej dobra lutowność. Zdarza się, że osadzona powłoka ma pogorszoną lutowność bez żadnych widocznych w procesie kontroli objawów. Zawsze należy się też liczyć z pojawie... więcej»

Uniwersalny izolowany zasilacz AC /DC DOI:10.15199/ELE-2014-061
(Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)

W dzisiejszym przemyśle elektroenergetycznym liczą się sterowniki zabezpieczeniowe których wspólną cechą są niewielkie wymiary i wysoka wytrzymałość na zaburzenia elektromagnetyczne - w szczególności na impulsowe zakłócenia udarowe SURGE i szybkozmienne zakłócenia impulsowe BURST. Przedstawiony w poniższym artykule uniwersalny układ izolowanego zasilacza jest kompromisem pomiędzy niewielkimi gabarytami, niewygórowaną ceną, a odpornością na zaburzenia EMC i wysoką sprawnością. Zaprezentowany na schemacie z rys. 1 zasilacz jest układem o topologii flyback. Rozwiązania tego rodzaju są rozwiązaniami stosowanymi z reguły w aplikacjach wymagających izolacji galwanicznej i wysokiej sprawności. Od rozwiązań klasycznych (transformatorowych) różnią się przede wszystkim zdecydowanie mniejszymi gabarytami zastosowanego transformatora impulsowego i wagą całego rozwiązania. Podstawową wadą konstrukcji tego typu jest duża ilość elementów niezbędnych do zbudowania zasilacza, stosunkowo duża złożoność układu, a także właściwy dobór parametrów zastosowanego transformatora impulsowego. W trakcie konstrukcji zasilacza zdecydowano się na możliwie duże ograniczenie elementów konstrukcyjnych - w związku z tym zastosowano układ scalony sterownika przetwornicy wraz z wbudowanym kluczem - DPA422. Tego typu układy scalone pozwalają z reguły na znaczne zmniejszenie ilości elementów po stronie pierwotnej zasilacza i jednoczesne ograniczenie kosztów rozwiązania - z reguły jednak sprawność takiego obwodu maleje ze względu na zintegrowany klucz przetwornicy. W zastosowanym sterowniku rezystancja włączonego klucza RDSon jest na poziomie nie wyższym niż 4,6 &#937;, co skutku... więcej»

Zwiększenie prądu łączeniowego przekaźnika sterującego cewką wyłącznika przy sterowaniu napięciem stałym DOI:10.15199/ELE-2014-079
(Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk)

Urządzenia zabezpieczeniowe stosowane w elektroenergetyce wyposażone są w moduły elektromechanicznych wyjść przekaźnikowych, wykorzystywanych między innymi do sterowania stycznikami lub wyłącznikami montowanymi w rozdzielnicach niskiego lub średniego napięcia [1]. Przekaźniki te mogą sterować wyłącznikiem lub stycznikiem bezpośrednio lub za pośrednictwem przekaźnika pośredniczącego. W przypadku zastosowania przekaźników pośredniczących zdolność łączeniowa przekaźników sterownika nie jest parametrem krytycznym, ponieważ do załączenia przekaźnika pośredniczącego jest wymagana stosunkowo niewielka moc. W przypadku bezpośredniego podłączenia do cewki sterującej wyłącznikiem wymagania na moc łączeniową są większe a prąd łączeniowy wynosi wówczas do ułamka do kilku amperów w zależności od zastosowanych łączników. Największe trudności występują w sytuacji gdy cewki wyłącznika zasilane są napięciem stałym np. z baterii stacyjnej o napięciu 110 VDC lub 220 VDC. Przekaźniki zapewniające wystarczającą zdolność łączeniową, dla prądu stałego rzędu kilku amperów, dla podanych napięć mają duże gabaryty ... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Przepływomierz kolanowy do pomiaru strumieni przepływu gazu DOI:10.15199/ELE-2014-040
(Michał Kamiński, Artur Andruszkiewicz)

Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej DOI:10.15199/ELE-2014-035
(Michał Łabowski, Piotr Kaniewski)

Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych DOI:10.15199/ELE-2014-037
(PAWEŁ DĄBAL, RYSZARD PEŁKA)

Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

Trawienie włókien światłowodowych w celu odsłonięcia rdzenia do zastosowania w bioczujnikach z wykorzystaniem modów galerii szeptów DOI:10.15199/ELE-2014-034
(Karolina Orłowska, Zuzanna Kowalska, Magdalena Morawiec, Piotr Pałetko, Anna Sankowska, Teodor Gotszalk)

Obecnie nowoczesne metody diagnostyczne stanowią obiekt zainteresowań zarówno grup naukowo-badawczych na całym świecie, jak i przeciętnych użytkowników, takich jak lekarze i ich pacjenci, pracownicy stacji epidemiologicznych czy inżynierowie nadzorujący linie produkcyjne w przemyśle spożywczym i chemicznym. Rozwój technologii bioczujników otwiera nowe możliwości prowadzenia badań o skróconym czasie i obniżonych kosztach. Wraz z powstaniem bioczujników pojawiły się nowe możliwości związane z szybkością i jakością przeprowadzanych analiz, mobilnością, a także z niewielkimi rozmiarami czujników. Duże zainteresowanie bioczujnikami doprowadziło do rozwoju wielu technik detekcji ze szczególnym uwzględnieniem metod bezznacznikowych (ang. labelfree) wykorzystujących m.in. tranzystory polowe FET i nanodruty [1, 2], mikrodźwignie [3], mikrowagi [4] i kamertony kwarcowe [5], Bardzo dużo takich technik stanowią techniki optyczne, w których wykorzystuje się powierzchniowy rezonans plazmonowy [6], światłowody włókniste i planarne [7], mody galerii szeptów (ang. whispering gallery modes, WGM) [8] czy techniki interferometryczne [9-11]. Techniki bezznacznikowe (ang. label-free) charakteryzuje szereg zalet w porównaniu z konwencjonalnymi metodami opartymi na zastosowaniu markerów. W metodach tych nie dochodzi do niepożądanej modyfikacji badanej substancji przez znacznik, badania mogą być prowadzone w czasie rzeczywistym, a czujniki są stosunkowo proste i mogą być wytwarzane niskim kosztem. Wytworzenie bioczujnika, który spełniałby wysokie wymagania odnośnie selektywności i czułości pomiarowej wymaga szerokiej wiedzy z zakresu elektroniki, optoelektroniki, chemii, biologii i biochemii. Konstrukcja czujnika powinna umożliwiać komercjalizację i być konkurencyjna wobec innych bioczujników dostępnych na rynku. Należy zaznaczyć jednocześnie, że wśród tak wielu propozycji konstrukcji czujnikowych nie ma możliwości wybrania najlepszego i uniwersal... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
IFA 2014 - Światowa Konferencja Prasowa
W dniach 24-27 kwietnia w miejscowości Belek na Riwierze Tureckiej obyła się konferencja prasowa przezentująca wrześniową wystawę IFA w Berlinie. Wszyscy zdają sobie sprawę, że mamy do czynienia z szybko zmieniającymi się rynkami. Te zmiany to nie tylko nowe produkty, ale również nowi gracze rynkowi oraz nowe zasady. Hans-Joachim Kamp, przewodniczący rady nadzorczej firmy GFU (organizatora targów IFA) nazwał organizowaną aktualnie wystawę IFA 2014 (5-12 września) jako IFA Consumer Electronics 4,0 (CE 4.0). Aby wyjaśnić, co oznacza CE 4.0 oznacza należy cofnąć się trochę w czasie. Termin CE 1.0 został wprowadzony przez tradycyjne firmy branży elektroniki użytkowej. Rynki były zdominowane przez lokalnych producentów. Produkty charakteryzowały się stosowaniem techniki analogowej i wynikał z tego powolny cykl wprowadzania innowacji. Kolejnym krokiem było rozpoczęcie globalizacji w branży. Lokalne - europejskie marki - musiały stawić czoła silnej konkurencji ze strony podmiotów międzynarodowych w tej dziedzinie, wśród których prym wiodła Japonia, a później zaczęła dorów... więcej»

Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego DOI:10.15199/ELE-2014-023
(Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)

W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie &#964; jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym DOI:10.15199/ELE-2014-027
(Zbigniew Handzel, Mirosław Gajer)

Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Słowo Prezesa SEP na ŚDTiSI 2014 - XV KOS - Konferencja Okrągłego Stołu "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej"
Szanowni Państwo, Mam zaszczyt powitać Państwa na jubileuszowej XV Konferencji Okrągłego Stołu zatytułowanej "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej, na bazie szerokopasmowego dostępu do Internetu", objętej patronatem honorowym Pani Ewy Kopacz - Marszałek Sejmu RP. Konferencja ta stanowi kulminacyjny moment tegorocznych obchodów Światowego Dnia Telekomunikacji i Społeczeństwa Informacyjnego zorganizowanych przez Stowarzyszenie Elektryków Polskich i Polskie Towarzystwo Informatyczne. Obchody te zostały objęte patronatem honorowym Prezydenta Rzeczypospo... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych DOI:10.15199/ELE-2014-005
(PIOTR KARDYŚ, MAREK PORTALSKI)

W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 k&#937; [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 k&#937; w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Porównanie elektrycznych właściwości mikroczujników impedancyjnych wykonanych na podłożach krzemowych i szklanych DOI:10.15199/ELE-2014-012
(Konrad Chabowski, Tomasz Piasecki, Karol Nitsch, Teodor Gotszalk, Andrzej Sierakowski, Piotr Grabiec )

Technologie mikroelektroniczne dają możliwość wykonywania miniaturowych czujników, przyrządów półprzewodnikowych, układów scalonych oraz systemów mikro- i nanoelekromechanicznych. Systemy te, ze względu na bardzo duży stopień integracji, wymagają łączenia ze sobą różnych materiałów i struktur. Jako przykład można wymienić mikrosystemy przepływowe z wbudowanymi czujnikami impedancyjnymi, znajdujące zastosowanie w genomice, proteomice i badaniach komórek [1-3]. Konstruowano również biokompatybilne mikrosystemy przewidziane do zastosowań In vivo w ludzkim organizmie, służące np. do programowanego dozowania leków wraz z monitoringiem jego uwalniania [4] oraz wczesnego wykrywania niedokrwienia serca podczas operacji kardiochirurgicznych [5]. Prostszymi konstrukcjami mikroelektronicznymi są pojedyncze czujniki impedancyjne na jednolitym podłożu z utlenionego krzemu lub szkła, wykorzystywane m.in. do monitorowania wzrostu biofilmu bakteryjnego [6-8] lub, po biochemicznej funkcjonalizacji powierzchni podłoża, służące jako biosensory, które selektywnie detekują obecność analitu w próbce [9, 10]. Innym rodzajem czujników wykonanych w technologii krzemowej są czujniki mikromechaniczne wykonane na mikrodźwigniach krzemowych [11]. Struktury czujników impedancyjnych mogą być wykonane na podłożach dielektrycznych (szkło, polimer) [1-3, 8, 10] bądź na półprzewodniku pokrytym cienką warstwą dielektryka [4, 6, 7]. To drugie rozwiązanie jest interesujące ze względu na to, że daje ono możliwość integracji w jednej strukturze czujnika z układami elektronicznymi niezbędnymi do wykonania pomiaru. Badania prezentowane w artykule dotyczą porównania właściwości czujników impedancyjnych z elektrodami palczastymi o takiej samej geometrii, wykonanych na różnych podłożach: szkle, utlenionym krzemie oraz utlenionym krzemie z elektrodą ochronną. Porównywano zmierzone widma impedancyjne czujników umieszczonych w powietrzu, wodzie destylowanej oraz fizjologi... więcej»

Global-extreme-training of specific neural networks to find laws ruling empirical data DOI:10.15199/ELE-2014-008
(JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)

A need to create symbolic descriptions of unknown laws governing a given set of empirical data and to model the data set features is encountered in many situations and concerns plenty of physical systems. First papers on applying particular neural networks with exp(.) and ln(.) activation functions to solve the problem under consideration ware reported in [1-8]. Recently, specific networks with reciprocal-function activation-operators have been proposed in [9], [10]. Such networks allow us to describe the data set behavior be means of rational or polynomial functions, where the latter can be regarded as a particular case of the rational one. Coefficients of the rational or polynomial functions are determined in a way of training the specific neural network. As compared to the previously presented networks, the reciprocal-function-based ones lead to simpler network structures, include a lower number of the network elements and enable more effective network learning. Despite the introduced improvements, learning the networks is still a problem, [11], [12], and we devote plenty of time to make progress in this field. Improving the training technique is the goal of our research and this is the issue to be presented in this paper. Learning problems connected with gradient calculations Neural network learning can be realized in a variety of ways [11-12]. There are methods that are good in finding global optimum and can effectively omit local extremes. Another group is made by techniques which are fast and well suited for local area operations. Ability to generalize the data set behavior outside the range of the training variables is another required feature of the learning methods. For example, so called gradient descent (GD) techniques, where gradient of an objective function is calculated, often fail in case of very large networks [12]. From our experience results that learning the networks under consideration by means of the GD... więcej»

On designing a Nyquist fir filter of fractional group delay and phase delay DOI:10.15199/ELE-2014-003
(Ewa Hermanowicz, Miroslaw Rojewski )

Nyquist filters are crucial components in data communications [1]. Their traditional attributes are governed by the fulfilment of Nyquist condition. We wish to design a filter such that its impulse response satisfies the Nyquist first criterion [7] (1) where L is an positive integer, preferably odd, called the oversampling ratio. In digital (isochronous) signalling it indicates the number of discrete signal samples (Sa) per symbol (repetition) interval. Formula (2) expresses the Nyquist criterion in the normalized (fraction of sampling rate) frequency domain f, (2) A design of the frequency response H(f ) that satisfies the Nyquist conditions (1) and (2) is generally too restrictive and may not lead to a satisfactory filter. Moreover, the Nyquist filter conditions should be satisfied as closely as possible to minimize interference between successive data symbols (ISI) when channel distortion is absent. Also it is desirable to keep the length of the filter as small as possible to minimize the implementation cost. The goal of this paper is to formulate a novel concept for the Nyquist filter that has the additional ability to introduce a fractional sample delay otherwise referred to as subsample delay. Such a special filter has not been considered yet [2], [3], [4], [5], [6]. Hitherto in the literature the Nyquist filter and the fractional delay = - &#177; = = - = otherwise arbitrary 0, ( 1) / 2 , 1, 2, 3, 1, ( 1) / 2 [ ] n N mL m L n N h n ... więcej»

Time-delay of arrival estimation from voice signal DOI:10.15199/ELE-2014-002
(Damian Cetnarowicz, Adam Dąbrowski)

This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the &#8220;cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Zastosowanie metody wariancji Allana do analizy źródeł błędów losowych czujników inercjalnych (Jacek Paszek, Piotr Kaniewski)
Czujniki inercjalne są szeroko stosowane w systemach nawigacyjnych, aplikacjach autopilotów, układach stabilizacji położenia platform, czy w systemach digitalizacji ruchu (Motion Capture). Niezależnie od aplikacji, implementowany w systemie czujnik musi spełniać jej specyficzne wymagania. Producenci czujników inercjalnych zwykle podają jedynie ich podstawowe parametry, które pozwalają określić tylko przybliżoną dokładność pozycjonowania w systemie INS [1, 2]. Dokładniejszą informację o parametrach szumowych czujników można uzyskać wyznaczając na podstawie serii pomiarów funkcję gęstości widmowej mocy PSD (Power Spectral Density) lub korzystając z metody analizy w dziedzinie czasu, tzw. metody wariancji Allana AV (Allan Variance). Analiza metodą wariancji Allana Metoda AV do badania parametrów szumowych sensorów inercjalnych została opisana w normach IEEE po raz pierwszy w 1997 r. Opublikowany dokument dotyczy procedur testowania i formatowania dokumentacji dla jednoosiowych interferometrycznych giroskopów optycznych [3]. W 2005 r. organizacja IEEE opublikowała normę dotyczącą praktyk testowania, zbierania oraz analizy danych pomiarowych sensorów inercjalnych [4]. W tym samym roku norma ta została zatwierdzona przez organizacje ANSI (American National Standards Insitute) i IEEE -SA Standards Board. Pierwotnie metoda AV wykorzystywana była do mierzenia stabilności oscylatorów [5]. Obecnie wykorzystuje się ją również do określania rodzaju i oceny źródeł zakłócających dane pomiarowe dowolnych przyrządów. Analiza danych przy pomocy metody AV realizowana jest w dziedzinie czasu, a charakteryzowane procesy są funkcją czasu uśredniania zbiorów pomiarowych &#964;. Metoda polega na obliczeniu i graficznym przedstawieniu odchylenia standardowego &#963; (&#964;) różnic wartości średnich y- wielkości mierzonej x w sąsiadujących ze sobą przedziałach czasowych o długości &#964;, przy założeniu stałego czasu próbkowania oraz nieskończenie... więcej»

Analiza modulacji międzyimpulsowej i rodzajów skanowania przestrzeni w radarach o różnym przeznaczeniu (JAN MATUSZEWSKI)
Radary stosowane są w celu lokalizacji obiektu w obserwowanej przestrzeni wraz z określeniem jego parametrów, takich jak: położenie chwilowe, kierunek i prędkość przemieszczania. Aby było to możliwe w przestrzeń musi zostać wysłany sygnał, który po odbiciu od obiektu powróci do odbiornika stacji radiolokacyjnej. Rozwój radarów wymuszany jest przez coraz większe potrzeby ich stosowania. Radary znajdują bowiem coraz szersze zastosowanie zarówno cywilne jak i wojskowe. Ich wspólną cechą jest potrzeba wczesnego ostrzegania, w tym z wykorzystaniem radarów montowanych na pokładach obiektów latających. Radar wykorzystywany do analizy sytuacji za przeszkodą lub penetracji gruntu może stanowić cenne narzędzie zarówno w rękach policji, służb ratowniczych, straży granicznej jak i w badaniach geologicznych oraz archeologicznych. Stale wzrasta znaczenie radarów meteorologicznych, radarów obserwacji skażeń, np. detekcja plam ropy na powierzchni morza, radarów obserwacji płyty lotniska, radarów kontroli lądowania itd. Obiektami zainteresowania systemów rozpoznania są radary o bardzo różnym przeznaczeniu, od radarów obserwacyjnych, poprzez śledzące aż do wielofunkcyjnych. W związku z powyższym, parametry sygnałów współczesnych radarów mają w większości przypadków złożoną strukturę wewnątrz-impulsową (ang. intra-pulse structure) oraz między-impulsową (ang. inter-pulse structure). Złożona struktura międzyimpulsowa sygnału obejmuje między innymi zmiany wartości okresu powtarzania impulsów, częstotliwości nośnej oraz czasu trwania impulsów według różnych reguł [1]. Parametry sygnału radarowego obejmują szeroko rozumiane charakterystyki techniczne, reprezentujące własności radarów, opisy systemów i sposoby ich wykorzystania, miejsca instalacji, aktywności ich pracy lub widma pojedynczych impulsów. Końcowym etapem procesu analizy sygnałów radarowych w urządzeniach rozpoznania i walki elektronicznej jest identyfikacja ich źródeł emisji. Radary m... więcej»

Analiza możliwości przesyłu energii elektrycznej produkowanej w elektrowniach solarnych na bardzo duże odległości (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Obecnie wiodącym tematem w elektroenergetyce są bez wątpienia odnawialne źródła energii. Według różnych opinii szersze wykorzystanie tego typu generacji energii elektrycznej doprowadzi do wręcz rewolucyjnych zmian w całej branży [1, 2]. Spośród różnych propozycji wykorzystania niekonwencjonalnych źródeł energii w opinii autorów najbardziej perspektywiczne wydaje się wykorzystani energii solarnej, powstającej w wyniku przemian termojądrowych zachodzących wewnątrz Słońca. Jako ciekawostkę można tylko podać, że powstały wewnątrz Słońca w wyniku reakcji termojądrowej foton (kwant promieniowania elektromagnetycznego) na dotarcie do jego powierzchni (tzw. fotosfery) potrzebuje około miliona lat, czyli docierające do nas ze Słońca promieniowanie elektromagnetyczne jest bezpośrednim skutkiem procesów zachodzących w jego wnętrzu w bardzo odległej przeszłości [3]. Energia generowana w wyniku procesów termojądrowych zachodzących we wnętrzu Słońca jest z punktu widzenia istnienia naszej cywilizacji w zasadzie niewyczerpalna. Według różnych szacunków Słońce powinno świecić w sposób podobny, jak ma to miejsce obecnie, jeszcze przez okres co najmniej jednego miliarda lat. Następnie temperatura powierzchni Słońca zacznie systematycznie wzrastać, czemu będzie towarzyszyło powiększanie się jego promienia, a co za tym idzie, również i objętości. Proces ten bezpośrednio spowodowany będzie kurczącymi się na Słońcu zapasami wodoru i rozpoczęciem procesu syntezy atomów helu i przejściem na tzw. cykl węglowy związany ze zwiększeniem się mocy promieniowania [3]. Wszystko to spowoduje, że temperatura na Ziemi podniesie się do takich wartości, że życie biologiczne na naszej planecie przestanie być już możliwe. Na szczęście, jak już zresztą uprzednio wspomniano, przez co najmniej najbliższy miliard lat taki scenariusz bynajmniej nam nie grozi. Ponadto, gdy porównamy ów miliard lat z czasem istnienia gatunku homo sapiens, który jest szacowany na nieco ... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Cechy barier elektromagnetycznych w ochronie podzespołów i urządzeń radioelektronicznych przed skutkami oddziaływania impulsu elektromagnetycznego dużej mocy (Marian WNUK, Zdzisław CHUDY)
Cechą charakterystyczną współczesnych urządzeń radioelektronicznych jest ich ograniczona odporność na oddziaływanie napięć i prądów udarowych dochodzących do tych urządzeń z sieci zasilającej lub linii przesyłu sygnałów, a pochodzących od energii zakłóceń i zaburzeń promieniowanych bądź przewodzonych. Powstające przepięcia i przetężenia są przyczyną utraty sprawności pojedynczych lub grupy podzespołów, a tym samym funkcjonalności danego urządzenia bądź całego systemu. Największe zagrożenie dla utrzymania sprawności technicznej i pełnej funkcjonalności współcześnie eksploatowanych urządzeń radioelektronicznych stanowi impuls elektromagnetyczny dużej mocy zakresu mikrofal, który można generować przy wykorzystaniu celowo zbudowanych generatorów mikrofal dużej mocy. Efektem oddziaływania może być czasowe lub częściowe obezwładnienie techniczne z uszkodzeniem włącznie. Podstawowa metoda ochrony bądź zminimalizowania ryzyka uszkodzeń to właściwe zastosowanie barier elektromagnetycznych. Dostępne systemy ekranujące znacząco różnią się między sobą pod względem skuteczności i opłacalności. Większość z nich jest zbyt skomplikowana w montażu i zaawansowana technologicznie, przez co zbyt droga. Współczesne zagrożenia elektromagnetyczne Niejonizujące pola elektromagnetyczne to jeden z bardziej tajemniczych i budzących niepokój czynników fizycznych występujących w środowisku człowieka. Towarzyszą one człowiekowi od momentu, w którym nauczono się wytwarzać energię elektryczną, a następnie przesyłać ją przy pomocy prądu elektrycznego. Obecnie obserwuje się systematyczny wzrost sztucznych źródeł promieniowania elektromagnetycznego (PEM), tj. celowo wytwarzanych przez człowieka. Głównym powodem, dla którego PEM jest obiektem zainteresowania badaczy jest to, że jest ono formą energii. Energia ta rozprzestrzenia się z prędkością światła w postaci promieniowania elektromagnetycznego. Kiedy w polu PEM znajdzie się obiekt materialny (np. człowiek)... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 &#937;. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow&#8209;tie w szczelinowo pobudzany monopol. Z... więcej»

Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 &#956;m [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Ink-jet printed dielectric layers containing BaTiO3 nanopowders (Marcin Słoma, Karol Lenkiewicz, Grzegorz Wróblewski, Anna Młożniak&#8201;, Małgorzata Jakubowska)
Printed electronics is a new method for making electronics applications, but with growing industry and market is becoming more valuable year by year. In new technologies requiring improved precision it is important to obtain good repeatability and reliability, especially when dosing small amount of materials. For that reason ink-jet printing is one of the most most popular printing technique for precise printed electronics. It is an appropriate method for low cost application and small quantity production in industry or for research and laboratory tests. Ink-jet is a non-contact additive method and does not require stencil, mesh or rotating rollers, ink goes directly from dispenser head to substrate. For that reason loss of material is minimized. Small diameter of nozzle allows to obtain very thin and narrow lines. The smallest line width is 14 - 25 &#956;m [1]. Better efficiency was observed for polymeric photovoltaic device manufactured by ink-jet printing than the same layer thickness made by spin-coating. The reason was faster ink drying in ink-jet method [2]. Non-contact method allows to make 3D-printing such as abluminal coating for stents [3]. Ink-jet printing is an appropriate method for manufacturing passive electronic components like resistors, capacitors [4], biomedical devices like sensors, diagnostic elements [5] and RFID tags [6], organic transistors [7]. Ink-... więcej»

Per-unit-lenght parameters calculations for cable harnesses (Włodzimierz KALITA, Kazimierz KAMUDA, Dariusz KLEPACKI, Wiesław SABAT)
The mathematical analysis of electrical signal propagation communication interfaces requires a good knowledge about per-unitlength parameters of wires. It is especially important for analysis of circuits operated in high frequency range. The influence of p.u.l parameters on signal propagation in transmission lines describes the telegraph equation. For cable harnesses (with common coupled particular single wires) the p.u.l parameters have a form of R, L, C, G matrices [1-8]. P.U.L parameters calculations - theory The method of moments which belongs to the approximate methods allows the determination of distribution of electromagnetic fields (and their characteristic values) with much lower power consumption of calculations compared to the other methods. The analytical equations describing continuous electromagnetic field (in space and time domain) are transformed into a discrete system of algebraic equations. The quantities characterizing electromagnetic field in dielectric media can be determined from the Poisson equation described for the considered wire system: (1) The electric potential in any point P of homogenous dielectric media with permittivity &#949;m (without wire insulation) considered in 2D (Fig.1a) can be determined from general solution of equation (1) with given conditions: (2) where s&#956; is a lateral surface of wire. With good conductivity of wires it can be assumed that the potential &#956; on the perimeter of ( ) ... więcej»

Lista recenzentów za rok 2013 / The list of the reviewers
Prof. Bohdan V. Andriyevskyy - Politechnika Koszalińska Dr hab. inż. Artur Andruszkiewicz - Politechnika Wrocławska Dr hab. inż. Jerzy Bajorek - Politechnika Rzeszowska Prof. dr hab. inż. Roman Barlik - Politechnika Warszawska, Wydział Elektryczny Dr inż. Mikołaj Baszun - Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych Prof. dr hab. Mikołaj Berczenko - Uniwersytet Rzeszowski, Instytut Fizyki Prof. dr hab. inż. Michał Białko - Politechnika Koszalińska Dr inż. Andrzej Brudnik - AGH Akademia Górniczo-Hutnicza w Krakowie Prof. dr hab. Zbigniew Brzózka - Politechnika Warszawska, Wydział Chemiczny Prof. dr hab. Inż. Henryk Budzisz - Politechnika Koszalińska, Wydział Elektroniki i Informatyki Prof. dr hab. inż. Maciej Bugajski - Instytut Technologii Elektronowej, Warszawa Dr hab. Aleksandr Cariow - Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Prof. dr hab. inż. Zygmunt Ciota - Politechnika Łódzka Prof. dr hab. inż. Anna Cysewska-Sobusiak - Politechnika Poznańska, Instytut Elektrotechniki i Elektroniki Przemysłowej Prof. dr hab. inż. Wojciech Czerwiński, Politechnika Wrocławska, Wydział Elektroniki, Mikrosystemów i Fotoniki Prof. dr hab. inż. Adam Dąbrowski - Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów Dr inż. Jacek Dąbrowski - Akademia Morska w Gdyni, Katedra Elektroniki Morskiej Prof. dr hab. inż. Jerzy Dąbrowski - Szwecja Prof. dr hab. inż. Andrzej Demenko - Politechnika Poznańska Prof. dr hab. inż. Janusz Dobrowolski - Politechnika Warszawska Prof. dr ha. Inż. Andrzej Dobrucki - Politechnika Wrocławska, Instytut Telekomunikacji, Teleinformatyki i Akustyki Prof. dr hab. inż. Marek Domański - Politechnika Poznańska D... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski&#8201;)
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»