profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Architektura urządzeń zabezpieczeniowych podlegających dyrektywie ATE X (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
Współczesne urządzenia zabezpieczeniowe stosowane w przemyśle i energetyce zawodowej to bardzo skomplikowane urządzenia o dopracowanej konstrukcji bazującej zwykle na długoletnim doświadczeniu konstruktorów. Urządzenia zabezpieczeniowe stosowane w górnictwie węgla kamiennego zwykle podlegają dyrektywie ATEX. Obecnie obowiązująca dyrektywa ATEX 94/9/ WE narzuca wiele rozwiązań, które muszą zostać zastosowane w urządzeniach elektroenergetycznych użytkowanych w chodnikach lub na przodkach kopalni. Instalowane dzisiaj w kopalniach rozwiązania zasilania infrastruktury przodka lub chodnika górniczego wyposażone są w sterowniki polowe zabudowane w osłonach ognioszczelnych wraz z łącznikami i innego rodzaju aparaturą pomocniczą niezbędną jako wyposażenie stacji transformatorowej lub stacji rozdzielczej. Rozwiązania typowo stosowane w górnictwie wymagają przystosowania do pracy w wyrobiskach zarówno niemetanowych jak i metanowych zaliczanych do stopnia "a", "b" lub "c" niebezpieczeństwa wybuchu metanu, a także do pomieszczeń klasy "A" lub "B" niebezpieczeństwa wybuchu pyłu węglowego. Miejsce zastosowania decyduje o poziomie skomplikowania rozwiązań, które mogą zostać użyte. W górnictwie wyraźnie widoczny jest trend użytkowania sterowników polowych podlegających dyrektywie ATEX, przystosowanych do pracy w trybie ciągłym, w najbardziej narażonych na wybuch metanu lub pyłu węglowego wyrobiskach, a więc o najwyższym poziomie zabezpieczenia obwodów iskrobezpiecznych "ia". Poziom zabezpieczenia "ia", opisywany przez najnowszą normę [2], nierzadko stoi w sprzeczności z wymaganiami kopalni dotyczącymi warunków pracy - zmniejszające się przekroje wyrobisk, rozszerzony zakres temperatur pracy stacji, wiele odpływów stacji, większa liczba zabezpieczeń związanych z ochroną przeciwwybuchową i przeciwporażeniową. Przedstawione wymagania wymuszają zastosowanie sterowników polowych o podwyższonych parametrach [9], czego konsekwencją jest koniecznoś... więcej»

Nowa idea w technologii recyklingu odpadów płytek obwodów drukowanych (Jerzy Lenik)
Skrawki płytek obwodów drukowanych (pcb) pozostające jako ścinki z produkcji nowych płytek bądź z płytek ze zużytego sprzętu elektronicznego (ZSEE), stanowią znaczący ilościowo odpad, którego rocznie przybywa na świecie kilkaset tysięcy ton, w tym w Polsce, kilkaset ton. Odpad ten zawiera cenne metale: miedź, cynę, nikiel, złoto, oraz odporne chemicznie i mechanicznie kompozyty na osnowie duroplasycznych tworzyw sztucznych (głównie żywic epoksydowych lub poliestrowych). Materiał ten powinien być ponownie wykorzystywany. Może stanowić źródło surowców. Odpad, jak dotychczas, nie znalazł większego zainteresowania recyklerów. Głównie, z uwagi na brak opłacalnej technologii, dostosowanej do specyfiki tego odpadu. Istniejące rozwiązania Dostępne technologie, stosowane do recyklingu zużytego sprzętu elektronicznego i elektronicznego, polegają w zasadzie na mieleniu/strzępieniu odpadu na mniejsze elementy a następnie podawaniu uzyskanej mieszaniny segregacji. Mieszaninę rozdziela się na frakcje ziaren o różnych parametrach fizycznych: gęstości, podatności magnetycznej, stałej dielektrycznej, przewodności elektrycznej, absorpcji promieniowania, stosując metody segregacji pneumatycznej, hydrodynamicznej lub elektromagnetycznej... więcej»

Adaptacja charakterystyki kierunkowej anteny inteligentnej metodami LM S oraz MVDR (Michał Gasztold)
Technologia dynamicznego kształtowania charakterystyk kierunkowych daje wiele możliwości dostosowywania systemu antenowego do warunków panujących w kanale radiowym lub do pełnienia określonych funkcji. Dzięki tej technice możliwe jest określanie kierunków przychodzenia sygnałów, minimalizacja odbieranych zakłóceń oraz zwiększanie pojemności sieci radiowych. Ta ostatnia cecha sprawia, że technika adaptacyjnego kształtowania charakterystyk kierunkowych jest wykorzystywana w sieciach komórkowych do dynamicznej minimalizacji współczynników Carrier-to-Interference (C/I) oraz Signal-to-Noise Ratio (SNR). Anteny wykorzystujące adaptacyjne formowanie wiązek są stosowane w stacjach bazowych systemów GSM, 3G oraz UMTS (IMT 2000) [1]. Anteny tego typu są często nazywane antenami inteligentnymi (ang. smart antennas). Antena inteligentna składa się z wielu elementów promieniujących tworzących najczęściej liniowy szyk antenowy. Sygnały odbierane przez wszystkie elementy są przetwarzane w celu dostosowania współczynników wagowych (amplitudowo-fazowych) tych elementów do aktualnej sytuacji panującej w kanale radiowym oraz do aktywnych użytkowników. Odpowiednio modyfikowane współczynniki wagowe zmieniają wypadkową charakterystykę kierunkową anteny, której listki główne (może ich być kilka) są skierowane w stronę aktywnych użytkowników systemu, a zera występują na kierunkach przychodzenia sygnałów zakłócających, patrz rys. 1. Dzięki temu możliwe jest uzyskanie większych wartości współczynników C/I oraz SNR. Popularnymi algorytmami stosowanymi do adaptacji charakterystyk kierunkowych są algorytmy LMS oraz MVDR, których podstawy matematyczne są opisane w niniejszym artykule. Zanim system antenowy będzie w stanie przeprowadzić adaptację współczynników wagowych niezbędne jest dostarczenie informacji o kącie lub kątach przychodzenia sygnałów pożądanych lub/i sygnałów zakłócających. Do określania kierunku sygnału pożądanego wykorzystuje się tzw. a... więcej»

Efektywność środowiskowa produktów, a możliwości oceny cyklu życia płytek obwodów drukowanych z użyciem internetowego narzędzia "LCA to go" (Janusz Sitek, Marek Kościelski)
Efektywność środowiskowa produktów - wprowadzenie Od szeregu lat obserwowany jest wzrost działań pro-ekologicznych w wymiarze globalnym [1, 2], jak i na terenie Unii Europejskiej [3-5], który w ostatnim czasie uległ znaczącemu przyspieszeniu. Związane jest to z realizacją celu Unii Europejskiej oraz jej państw członkowskich, jakim jest stworzenie konkurencyjnej gospodarki, która efektywnie wykorzystuje ograniczone zasoby środowiska. W związku z tym podejmowane są działania, których celem jest eliminowanie produktów o negatywnym wpływie na środowisko i wspieranie rynku produktów ekologicznych [6]. Jednym z przykładów działań w tym zakresie jest opublikowane 5 maja 2013 roku przez Komisję Europejską "Zalecenie w sprawie stosowania wspólnych metod pomiaru efektywności środowiskowej w cyklu życia produktów i organizacji oraz informowania o niej" [7]. Planuje się, że przyszłe regulacje dotyczące zamówień publicznych w Unii Europejskiej mogą definiować ofertę najkorzystniejszą ekonomicznie nie tylko, jako ofertę o najniższej cenie, ale również ofertę najkorzystniejszą biorąc pod uwagę rachunek kosztów cyklu życia LCA (ang. Life-Cycle Assessment). W przyszłości planowane jest wykorzystanie metodyki pomiaru efektywności środowiskowej w konstrukcji instrumentów dotyczących wspierania poszczególnych przedsiębiorstw i branż, jak również uzależnienie wysokość ewentualnej pomocy od poziomu efektywności środowiskowej dóbr produkowanych przez poszczególnych przedsiębiorców. Coraz bardziej prawdopodobne jest również różnicowanie stawek podatkowych w zależności od wyniku analizy środowiskowej [7]. Dlatego znajomość tematyki oceny efektywności środowiskowej produktów w ich cyklu życia staje się coraz bardziej ważna dla pozycji konkurencyjnej danego produktu oraz firmy. Istotnym problemem przy ocenie i prezentacji efektywności środowiskowej produktów jest wybór metod jej oceny, wskaźników ją opisujących oraz sposobu prezentacji ekologiczności ... więcej»

Analiza elementarna siarki i węgla metodą absorpcji w podczerwieni (Krzysztof Jasek, Artur Witowski)
Analiza elementarna jest to technika analityczna stosowana w chemii do ustalania składu pierwiastkowego związków chemicznych i ich mieszanin. W ramach analizy elementarnej ustala się jakie i ile procent masowo pierwiastków chemicznych wchodzi w skład badanej substancji. Badania takie są bardzo istotne w wielu dziedzinach przemysłu, gdzie określa się skład surowców pochodzenia naturalnego, które podlegają procesom przetwórczym oraz w kontroli jakości otrzymanych produktów. W szczególności w przemyśle ciężkim (energetyka, hutnictwo, odlewnictwo, przemysł chemiczny) analizy takie wykonywane są standardowo w laboratoriach przemysłowych. W energetyce jednym z najważniejszych parametrów paliw stałych jest zawartość pierwiastkowego węgla, który określa energetyczność paliwa oraz siarki, której tlenki są głównymi czynnikami skażeń atmosfery [1]. W przemyśle odlewniczym analiza elementarna węgla wykorzystywana jest do określania zawartości węgla błyszczącego w materiałach dodawanych do mas bentonitowych [2-5]. Znajomość tego parametru umożliwia opracowanie mas formierskich o składzie zapewniającym żądaną gładkość powierzchni wykonywanych odlewów. Analiza elementarna węgla znajduje także zastosowanie w procesach wytwórczych alotropów węgla oraz w inżynierii materiałowej do badania składu chemicznego kompozytów/nanokompozytów węglowych [6-7]. Technika oparta o analizę elementarną węgla wykorzystywana może być także do badania reakcyjności koksu -niezwykle istotnego parametru koksu przeznaczonego do aplikacji wielkopiecowych [8]. Powszechnie stosowane metody chemiczne oznaczania siarki i węgla polegają na ilościowym spaleniu badanej próbki w strumieniu tlenu, a następnie miareczkowaniu wiązanego w roztworach wodnych dwutlenku siarki oraz oznaczaniu wagowym, absorbowanego na stałym absorbencie, dwutlenku węgla. Metody chemiczne są dokładne, wiarygodne i mało wrażliwe na zakłócenia, posiada ona jednak kilka istotnych wad. Są pracochłonne... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Digital radio modem operating in a 433 MHz band with an innovative front-end circuit (Cezary Worek, Łukasz Krzak, Dominik Nowak)
Many of the modern RF communication circuits are based on single chip radio transceivers. Their application is usually relatively simple and straightforward and only requires up to a dozen external passive elements. The main advantages of such a design are the small PC B size required, low power consumption, hardware support for many communication-related functions, flexible software control, high reliability and low cost of electronic components. The last property is often the most important one in consumer electronics, and many integrated transceivers find application in this market segment. In industrial applications, however, such solutions often give an inadequate performance. The most significant problems commonly found in single chip transceivers are low dynamic range, low selectivity, low immunity to blocking and unsatisfactory intermodulation parameters, especially at high signal levels. Moreover such constructions often suffer from significant emissions of local oscillator signals that cause problems during certification and functionally may disrupt neighbouring RF receivers or RF sensitive devices. The reason for such behaviour is commonly the homodyne or low intermediate frequency (IF) architecture used in integrated radio transceivers. Many of the radio reception issues remain hidden until the density of the electronic circuitry increases, radio network nodes start to operate close to each other or other high-level signal sources are present, which is a common event in industrial applications. These problems are widely recognised, and can be traced to standard specifications. For example, the ET SI EN 300-220-1 standard that describes requirements for short-range devices working in the sub-GHz frequency range establishes three categories of receivers, based on the risk assessment of the radio receiver performance. The most reliable category of devices has additional requirements concerning adjacent channel selectiv... więcej»

Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych (PAWEŁ DĄBAL, RYSZARD PEŁKA)
Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
INTERNETOWA POLONIA a nowe narzędzia edukacji i promocji kultury narodowej na bazie szerokopasmowego dostępu do Internetu (Andrzej M. Wilk)
Polska - Polonia i Polacy za granicą Polska w czternastym roku trzeciego tysiąclecia, w ćwierć wieku od transformacji ustrojowej przeżywa kolejny trudny okres w swej historii. W wyniku dwudziestu pięciu lat transformacji, gospodarka Polska stała się silnie asymetryczna własnościowo w stosunku do naszych głównych partnerów gospodarczych, co, obok typowych tego skutków dla krajowej gospodarki, powoduje również stały, znaczny odpływ kapitału za granicę. W połączeniu z rosnącym poziomem długu publicznego, zbliżającym się do krytycznej dla budżetu granicy i uzależniającym Polskę od życzliwości instytucji finansowych, powstała groźna mieszanka czynników, ograniczająca szanse rozwojowe i pole manewru każdego kolejnego rządu. Brak Polskich lokomotyw gospodarczych, generujących zapotrzebowanie na kooperację i powstawanie łańcuchów zaopatrzeniowych, złożonych w dużej części z małych i średnich krajowych przedsiębiorstw, utrudnia również proces powstawania i rozwoju tych firm w Polskiej gospodarce. Rezultatem tych wieloletnich procesów jest utrata znacznej liczby miejsc pracy, będąca również wynikiem automatyzacji wielu procesów produkcyjnych i usługowych. Powszechnie krytykowana, niesprzyjająca krajowym firmom, praktyka administracyjna i skarbowa, utrudnia również ich rozwój, pogłębiając brak pracy, powodujący ograniczenie perspektyw życiowych, szczególnie wśród młodych osób, wkraczających na rynek pracy. Skutecznie zniechęca ich również do podejmowania na większą skalę wysiłku poszukiwania miejsc pracy w Kraju, lub inicjowania działalności gospodarczej, mimo relatywnie dobrego przygotowania zawodowego i determinacji w działaniu. W połączeniu ze zmianami cywilizacyjnymi, dotyczącymi wzorców życia i pracy, skutkuje to narastającą w wielu środowiskach społeczną frustracją, dramatycznym spadkiem liczby urodzeń w Polsce i nasiloną, masową emigracją młodych i aktywnych zawodowo osób. Tam też, na emigracji, przychodzi na świat kolejne (cz... więcej»

Światłowody i ich zastosowania 2014 (Jan Dorosz, Ryszard Romaniuk)
Technika światłowodowa rozwijana jest w kraju, także na poziomie technologicznym, od połowy lat siedemdziesiątych ubiegłego wieku. Wkrótce będziemy obchodzić jej krajowe czterdziestolecie. Pierwsze ośrodki technologiczne powstały na terenie Wydziału Chemii UMCS w Lublinie (prof. A. Waksmundzki, J.Wójcik, A.Gorgol) w 1975 roku, a następnie na terenie instytutu ITME w Warszawie (L. Kociszewski), Hucie Szkła Polam-Ożarów, oraz na Politechnice Białostockiej i w Hucie Szkła Białystok (J. Dorosz). Obecnie technologiczne prace badawcze nad światłowodami są kontynuowane z sukcesem w trzech ośrodkach: Lubelskim (UMCS i PL), Białostockim (PB) i Warszawskim (ITME). Produkowane zaawansowane światłowody są stosowane w badaniach materiałowych i technologicznych, rozwoju procesów, a także do wytwarzania funkcjonalnych elementów i urządzeń fotonicznych. Z produkcji światłowodów telekomunikacyjnych, fotonicznych i specjalizowanych nietelekomunikacyjnych, w wymienionych ośrodkach, korzysta wiele laboratoriów elektronicznych, metrologicznych, telekomunikacyjnych, optoelektronicznych i fotonicznych, głównie uczelnianych, w całym kraju i zagranicą. Z tych światłowodów produkcji krajowej zbudowano wiele innowacyjnych elementów, układów i systemów fotonicznych. Dzięki dostępności w kraju światłowodów włóknistych telekomunikacyjnych i specjalnych, na wielu uczelniach mogły rozwinąć się nowoczesne laboratoria fotoniki światłowodowej. Jest to znaczny, chyba niedoceniany, sukces krajowych ośrodków technologicznych, wśród których Laboratorium Technologii Światłowodów na UMCS w Lublinie, pod kierownictwem prof. Andrzeja Waksmundzkiego, było pierwsze. Tradycja krajowych konferencji światłowodowych Krajowe środowisko naukowo-techniczne fotoniki i optoelektroniki światłowodowej spotyka się co półtora roku, na ogół w dość licznym towarzystwie gości zagranicznych, na Krajowej Konferencji" Światłowody i ich Zastosowania". XV Konferencja OFTA2014 odbyła się... więcej»

Wykorzystanie Połączeń Szerokopasmowych w Celach Utrzymania Stałego Rozwoju (Dr Hamadoun I. Touré)
Światowy Dzień Telekomunikacji i Społeczeństwa Informacyjnego 2014 jest obchodzony w 149 rocznicą ustanowienia Międzynarodowego Związku Telekomunikacyjnego w 1865 roku. Bogata historia Międzynarodowego Związku Telekomunikacyjnego przedstawia jego istotną rolę we wdrażaniu najbardziej zaawansowanych i innowacyjnych środków komunikacji na świecie, od czasów wynalezienia telegrafu aż do pojawienia się Internetu i systemu połączenia szerokopa smowego, które umożliwiają kontakt z przyjaciółmi i rodziną w każdej chwili. Prawo do komunikowania się jes... więcej»

IFA 2014 - Światowa Konferencja Prasowa
W dniach 24-27 kwietnia w miejscowości Belek na Riwierze Tureckiej obyła się konferencja prasowa przezentująca wrześniową wystawę IFA w Berlinie. Wszyscy zdają sobie sprawę, że mamy do czynienia z szybko zmieniającymi się rynkami. Te zmiany to nie tylko nowe produkty, ale również nowi gracze rynkowi oraz nowe zasady. Hans-Joachim Kamp, przewodniczący rady nadzorczej firmy GFU (organizatora targów IFA) nazwał organizowaną aktualnie wystawę IFA 2014 (5-12 września) jako IFA Consumer Electronics 4,0 (CE 4.0). Aby wyjaśnić, co oznacza CE 4.0 oznacza należy cofnąć się trochę w czasie. Termin CE 1.0 został wprowadzony przez tradycyjne firmy branży elektroniki użytkowej. Rynki były zdominowane przez lokalnych producentów. Produkty charakteryzowały się stosowaniem techniki analogowej i wynikał z tego powolny cykl wprowadzania innowacji. Kolejnym krokiem było rozpoczęcie globalizacji w branży. Lokalne - europejskie marki - musiały stawić czoła silnej konkurencji ze strony podmiotów międzynarodowych w tej dziedzinie, wśród których prym wiodła Japonia, a później zaczęła dorów... więcej»

Demonstrator radaru szumowego z interferometrycznym pomiarem kierunku (Paweł Roszkowski, Mateusz Malanowski)
Radary szumowe (ang. noise radars) są to radary wykorzystujące sygnał szumowy, losowy lub chaotyczny do oświetlania obserwowanych obiektów oraz przetwarzanie korelacyjne powracającego echa dla optymalnej filtracji i detekcji sygnału radiolokacyjnego. Zainteresowanie takiego typu radarami występuje głównie w aplikacjach militarnych ze względu na ich niskie prawdopodobieństwo przechwycenia LPI (ang. Low-Probability-of-Interception), dobrą kompatybilność elektromagnetyczną - EMC (ang. ElectroMagnetic Compatibility) oraz możliwości utajonego operowania na nieprzyjaznym terenie - tzw. koncepcja Stealth Radar. Radar szumowy posiada bardzo dobre możliwości detekcyjne obiektów z uwagi na brak niejednoznaczności pomiaru odległości ani prędkości bistatycznych obiektów, zachowując wysoką rozróżnialność i dokładność pomiaru. W artykule przedstawiono radar szumowy z falą ciągłą (istnieją także radary szumowe impulsowe), w którym zastosowano oddzielne anteny dla nadawania i odbioru, dzięki czemu nie jest potrzebna skomplikowana aparatura do przełączania nadawanie/odbiór. Gdy odseparujemy o pewną odległość antenę nadawczą i odbiorczą powstaje konfiguracja radaru bistatycznego (w odróżnieniu od konfiguracji monostatycznej w której anteny odbiorca i nadawcza znajdują się w tym samym miejscu). Przykładową geometrię bistatyczną w przygotowanym scenariuszu testowym przedstawia rys. 1. Radar w konfiguracji bistatycznej posiada wiele korzyści wynikających z geometrii, które stwarzają potencjalne możliwości detekcji obiektów typu stealth [3]. Związane jest to ze zwiększaniem się prawdopodobieństwo ustawienia się wybranych elementów obiektu prostopadle do siecznej kąta pomiędzy kierunkiem padania fali oświetlającej i kierunkiem na odbiornik radaru. Wykorzystanie geometrii bistatycznej ogranicza również kontrolę charakterystyki odbicia obiektu poprzez kształtowanie powierzchni i planowanie misji, tak by stać się niewidzialnym dla radaru aktywnego... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Zastosowanie stereowizji we wspomaganiu operatorów monitoringu wizyjnego (Julian Balcerek, Adam Dąbrowski, Adam Konieczka)
Wśród zagrożeń występujących we współczesnym środowisku zurbanizowanym rozróżniamy katastrofy naturalne, wypadki i popełniane przestępstwa. Na przestrzeni wielu lat ludzie wypracowali metody przeciwdziałania zagrożeniom. Techniczne metody są oparte na obserwacji, wykrywaniu i, w miarę możliwości, na eliminacji lub ograniczeniu skutków występowania zagrożeń. Jednym ze sposobów obserwacji są systemy monitoringu wizyjnego. Obsługa systemu monitoringu nastręcza jednak wielu problemów. Długotrwałe oglądanie obrazu przez operatora jest monotonne i nużące. W związku z tym po pewnym czasie słabnie uwaga i koncentracja operatora. W ostatnich latach są rozwijane techniczne możliwości wspomagania obsługi systemu monitoringu wizyjnego, odnoszące się do obserwowanych osób i obiektów. Osoby mogą być automatycznie wykrywane, śledzone i liczone [1]. Rozpoznawane są twarze, płeć i sposób chodu [2]. Wykrywane jest przekraczanie linii na dworcach kolejowych, przechodzenie na czerwonym świetle, czy też pozostawianie bagaży przez podróżnych [1, 3]. Dym i ogień również mogą być wykrywane [3]. Istnieją metody do automatycznego wykrywania, rozpoznawania, śledzenia i zliczania pojazdów oraz do wykrywania zatorów drogowych [4, 5]. Zabronione manewry wykonywane przez kierujących pojazdami, takie jak: parkowanie i skręcanie w niedozwolonych miejscach lub jazda w niewłaściwym kierunku na drogach jednokierunkowych również są wykrywane [3]. Numery tablic rejestracyjnych mogą być automatycznie odczytywane, a kolizje i wypadki drogowe wykrywane [6, 7]. Techniczne możliwości wspomagania operatorów monitoringu wideo poprawiają wydajność w przypadku średnio skomplikowanych zadań. Jednak dowiedziono, że operator, który jest skupiony na prostym zadaniu, ma nawet lepszą wydajność, kiedy nie korzysta z systemów do automatycznej analizy sygnału wideo [8]. Jednym z głównych wymogów stawianych operatorowi monitoringu wizyjnego jest zdolność utrzymywania koncentracji... więcej»

Metoda wyznaczania parametrów składowych wielotonów wybranych idiofonów (Andrzej Meyer, Marek Portalski)
Idiofony to grupa instrumentów muzycznych, w których źródłem dźwięku (wibratorem) jest ciało stałe mające niezmienną, naturalną sprężystość. Tym źródłem jest najczęściej cały instrument. Idiofony mogą wydawać dźwięki o charakterze szumowym lub o określonych częstotliwościach - wielotony. Zależy to od właściwości fizycznych elementu drgającego. Większość idiofonów to instrumenty perkusyjne. Należą do nich np. wibrafon, dzwony, gongi czy stosowane w terapii misy dźwiękowe [2]. Analiza dźwięków takich instrumentów jest zagadnieniem trudnym ze względu na ich wybitnie niestacjonarny charakter. Dlatego też wykorzystanie typowego spektrogramu nie daje tu zadawalających wyników. Autorzy skoncentrowali się w swoich badaniach na wybranej grupie idiofonów wydającej dźwięki będące wielotonami, na ogół wielotonami nieharmonicznymi. Wynikła stąd potrzeba napisania specjalistycznego programu pozwalającego na wyznaczenie najważniejszych parametrów takich dźwięków. Wielotony i ich parametry Wielotony to sygnały będące sumą składowych sinusoidalnych. W przypadku całkowitych krotności częstotliwości podstawowej mamy wielotony harmoniczne, czyli sygnały odkształcone posiadające okres pierwszej harmonicznej. W przypadku niecałkowitych zależności pomiędzy częstotliwościami składowych powstają wielotony nieharmoniczne, w których mogą powstawać dudnienia, a okres sygnału zależny od najmniejszej wspólnej wielokrotności częs... więcej»

Time-delay of arrival estimation from voice signal (Damian Cetnarowicz, Adam Dąbrowski)
This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the “cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Krótki przegląd technik biometrycznych do rozpoznawania osób (Mirosława Plucińska )
Biometria zajmuje się pomiarem i selekcją indywidualnych, fizjologicznych lub behawiorystycznych cech organizmów żywych oraz udoskonalaniem metod pomiaru i wyboru najbardziej niepowtarzalnych osobniczo parametrów. Obecnie istnieje na rynku szereg technik biometrycznych wykorzystywanych w systemach kontroli dostępu i uwierzytelniania osób. Techniki te są ciągle rozwijane i ulepszane, a także pojawiają też nowe techniki. Najnowszym trendem są multibiometrie, czyli łączenie kilku technik biometrycznych, co zwiększa pewność prawidłowego rozpoznawania osoby i podwyższa bezpieczeństwo systemów je wykorzystujących. Prace nad wykorzystaniem biometrii do celów rozpoznawania osób koncentrują się głównie na łatwo dostępnych cechach fizycznych. Wstępnie techniki biometryczne przydatne do uwierzytelniania osób można podzielić na trzy podstawowe grupy: 1. Techniki biometryczne znane od dawna: - rozpoznawanie rysów twarzy, - rozpoznawanie odcisku palca, - rozpoznawanie kształtu dłoni, - rozpoznawanie siatkówki oka, - rozpoznawanie tęczówki oka, - rozpoznawanie głosu. 2. Techniki biometryczne obecnie preferowane: - rozpoznawanie naczyń krwionośnych palca, - rozpoznawanie naczyń krwionośnych dłoni. 3. Techniki biometryczne przyszłości: - rozpoznawanie głosu (nowej generacji), - multibiometrie, w tym rozpoznawanie odcisku palca + naczyń krwionośnych palca. Interesujące są również techniki rozpoznawania cech behawioralnych takich, jak: - sposób pisania odręcznego (prędkość, nacisk, kąt), - sposób uderzania w klawisze klawiatury, - sposób mówienia (ruch ust), mimika. Prowadzone są także badania nad uwierzytelniania osób za pomocą rozpoznawania np.: geometrii uszu, odcisku kostek dłoni, chodu danego człowieka. Opis technik biometrycznych Rozpoznawanie rysów twarzy Rozpoznawanie geometrii twarzy jest wygodnym środkiem rozpoznawania - "swoją twarz masz zawsze ze sobą". Użytkownik spogląda w kamerę, która rejestruje obraz. Po obróbce i mat... więcej»

Cechy barier elektromagnetycznych w ochronie podzespołów i urządzeń radioelektronicznych przed skutkami oddziaływania impulsu elektromagnetycznego dużej mocy (Marian WNUK, Zdzisław CHUDY)
Cechą charakterystyczną współczesnych urządzeń radioelektronicznych jest ich ograniczona odporność na oddziaływanie napięć i prądów udarowych dochodzących do tych urządzeń z sieci zasilającej lub linii przesyłu sygnałów, a pochodzących od energii zakłóceń i zaburzeń promieniowanych bądź przewodzonych. Powstające przepięcia i przetężenia są przyczyną utraty sprawności pojedynczych lub grupy podzespołów, a tym samym funkcjonalności danego urządzenia bądź całego systemu. Największe zagrożenie dla utrzymania sprawności technicznej i pełnej funkcjonalności współcześnie eksploatowanych urządzeń radioelektronicznych stanowi impuls elektromagnetyczny dużej mocy zakresu mikrofal, który można generować przy wykorzystaniu celowo zbudowanych generatorów mikrofal dużej mocy. Efektem oddziaływania może być czasowe lub częściowe obezwładnienie techniczne z uszkodzeniem włącznie. Podstawowa metoda ochrony bądź zminimalizowania ryzyka uszkodzeń to właściwe zastosowanie barier elektromagnetycznych. Dostępne systemy ekranujące znacząco różnią się między sobą pod względem skuteczności i opłacalności. Większość z nich jest zbyt skomplikowana w montażu i zaawansowana technologicznie, przez co zbyt droga. Współczesne zagrożenia elektromagnetyczne Niejonizujące pola elektromagnetyczne to jeden z bardziej tajemniczych i budzących niepokój czynników fizycznych występujących w środowisku człowieka. Towarzyszą one człowiekowi od momentu, w którym nauczono się wytwarzać energię elektryczną, a następnie przesyłać ją przy pomocy prądu elektrycznego. Obecnie obserwuje się systematyczny wzrost sztucznych źródeł promieniowania elektromagnetycznego (PEM), tj. celowo wytwarzanych przez człowieka. Głównym powodem, dla którego PEM jest obiektem zainteresowania badaczy jest to, że jest ono formą energii. Energia ta rozprzestrzenia się z prędkością światła w postaci promieniowania elektromagnetycznego. Kiedy w polu PEM znajdzie się obiekt materialny (np. człowiek)... więcej»

Przestrzenne charakterystyki wiązek promieniowania emitowanego przez lasery półprzewodnikowe (BOHDAN MROZIEWICZ, EMILIA PRUSZYŃSKA-KARBOWNIK, KAZIMIERZ REGIŃSKI)
Przestrzenny rozkład natężenia pola w wiązce emitowanej przez laser jest z punktu widzenia jego użytkownika jedną z najważniejszych, obok mocy wyjściowej i długości fali, charakterystyką tego urządzenia. Kształt i wewnętrzna struktura polowa emitowanej wiązki decyduje bowiem o możliwości jej dalszej obróbki optycznej i przystosowania jej do wymaganych celów, np. do uzyskania możliwie wysokiego natężenia napromienienia (W/cm2), lub zogniskowania wiązki na możliwie małym obszarze. Wymagania takie stawiane są w odniesieniu do układów optycznych stosowanych w telekomunikacji światłowodowej czy też w otwartej przestrzeni, a także np. w urządzeniach do spektroskopii. Szczególnie istotne okazały się one w przypadku budowanych ostatnio urządzeń laserowych do cięcia metali lub innych materiałów z wykorzystaniem zjawiska ablacji przy jednoczesnym uniknięciu odparowywania naświetlanego materiału w wyniku jego nagrzewania. Te ostatnie zastosowania nie dotyczą wprawdzie jak dotąd kwantowych laserów kaskadowych, ale okazały się już szczególnie ważne w odniesieniu do laserów diodowych. Mierniki rozkładu natężenia pola w wiązce laserowej zwane potocznie profilometrami (ang. profilers), dedykowane do pomiarów wiązek generowanych przez lasery różnych rodzajów, są obecnie produkowane przez wiele firm i w zasadzie jako takie przestały być przedmiotem specjalnych badań. Stosowane w tych miernikach metody pomiaru rozkładu natężenia pola można ogólnie podzielić na dwie grupy: - metody oparte na wykorzystaniu matryc detektorowych, - metody oparte na mechanicznym skanowaniu i pomiarze pola w przekroju poprzecznym wiązki za pomocą pojedynczego detektora. Te ostatnie dzielą się na 3 podgrupy a mianowicie: skanowanie szczelinowe, skanowanie krawędziowe (tzw. knife-edge) oraz skanowanie dwuwymiarowe detektorem o małej aperturze. Każda z tych technik ma swoje zalety i wady zależnie od parametrów mierzonej wiązki laserowej (patrz ref. [1-3]). W szczególno... więcej»

Możliwości realizacji usług telekomunikacyjnych w morskim systemie INMARSAT Fleet77 (Jerzy Czajkowski )
Morski system INMARSAT Fleet77 jest przeznaczony do w pełni zintegrowanego satelitarnego systemu radiokomunikacyjnego umożliwiającego korzystanie w żegludze morskiej z najnowocześniejszych zdobyczy technik informacyjnych, w tym transmi-sji danych i poczty elektronicznej. Zapewnia przy tym realizację łączności dla alarmowania i potrzeb bezpieczeństwa statków oraz żeglugi. W [5] autor przedstawił ogólną strukturę systemu INMARSAT Fleet77, natomiast w niniejszym artykule scharakteryzowano możliwości realizacji usług telekomunikacyjnych w tym systemie. Celowym jest jednak odniesienie do artykułu autora w Elektronice 11/2012 [4] gdzie omawiając rozwój bardzo ważnego dla systemu GMDSS - systemu INMARSAT opisano rozwój członu satelitarnego tworząc satelity czwartej generacji. Otóż satelity te umożliwiają pracę z szerokimi wiązkami regionalnymi (wide beam) oraz wąskimi wiązkami punktowymi (spot beam). Usytuowanie trzech satelitów na orbicie geostacjonarnej umożliwia następujące pokrycie kuli ziemskiej:Rejony pokrycia satelitarnego I-4 - Americas - pokrycie Oceanu Wielkiego i Atlantyku - 098°W; I-4 - EMEA - (Europe, Middle East, Africa) - pokrycie Oceanu Atlantyckiego i Indyjskiego - 025°E; I-4 - Asia-Pacific - pokrycie Oceanu Indyjskiego i Wielkiego - 143,5°E. Na rysunku 1 przedstawiono pokrycie radiowe wiązkami punktowymi satelitów INMARSAT I-4, a na rys. 2 satelitę czwartej generacji. W tabeli przedstawiono dane techniczno-operacyjne satelitów I-4. Każdy satelita I-4 może generować 19 szerokich wiązek regionalnych oraz 254 wąskie wiązki punktowe. Wiązki te mogą być szeroko rekonfigurowane i mogą koncentrować się w dowolnym miejscu na Ziemi tak, aby zapewnić dodatkową przepustowość tam, gdzie jest to wymagane. Satelita I-4 w porównaniu ze swoim poprzednikiem I-3 dysponuje 60-krotnie większą pojemnością dzięki antenom Rys. 1. Pokrycie wiązkami punktowymi satelitów INMARSAT-4 Rys. 2. Satelita czwartej generacji I-4 systemu IN... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Metrologiczne aspekty toru pomiarowego spektrofotometru z fotopowielaczem (Zbigniew Krawiecki)
W metodach pomiarowych, w których sygnałem użytecznym jest promieniowanie optyczne, stosuje się specjalistyczną aparaturę, taką jak np.: spektrometry i spektrofotometry. Przyrządy te wykorzystuje się do pomiaru absorbancji, transmitancji, reflektancji, w badaniach jakościowych oraz ilościowych zawartości substancji, do wyznaczania właściwości optycznych materiałów [1-4]. Przykłady te można mnożyć, podając zastosowania z zakresu medycyny, przemysłu, nauki i wielu innych dziedzin. Pomiar natężenia promieniowania optycznego przechodzącego przez ośrodek lub odbijającego się od jego powierzchni jest zadaniem stosunkowo trudnym. Nierzadko użytkownicy przyrządów są przekonani, że pomiary z sygnałem optycznym należą do łatwych, a sprzęt "rozwiązuje" większość problemów metrologicznych. Bardzo często możliwości aparatury nie są wystarczające do wykonania poprawnych badań. Ważna jest świadomość i znajomość zachodzących zjawisk, gdyż ma to znaczenie dla poprawnego zinterpretowania wyników. Zjawiska, które występują na etapie realizacji pomiaru, mogą w różnym stopniu powodować "przekłamanie" otrzymywanych wyników i dlatego tak ważna jest wiedza o tych czynnikach. Rezultaty zamieszczone w pracy przedstawiają wybrane aspekty metrologiczne związane z torem pomiarowym spektrofotometru, które mogą mieć wpływ na wynik pomiaru transmitancji optycznej próbki materiału. Prezentowane wyniki dotyczą wykorzystania metody spektrofotometrycznej w pomiarach i zostały opracowane na podstawie danych uzyskanych z pomiarów spektrofotometrem dwuwiązkowym. Aparatura pomiarowa Obecne spektrofotometry to urządzenia konstrukcyjnie, z reguły bardzo złożone zarówno pod względem mechanicznym, jak i elektrycznym. Wyposażone są w magistrale komunikacyjne oraz oprogramowanie do obsługi przyrządu i rejestracji wyników. Ogólne dążenie do komputeryzacji technik pomiarowych również tutaj znajduje swoje odzwierciedlenie. Producenci oferują sterowane komputerowo stanowi... więcej»

Nieinwazyjna metoda oznaczania glukozy w badaniach cukrzycy (Dagmara Kwapińska, Artur Rydosz, Wojciech Maziarz, Tadeusz Pisarkiewicz, Konstanty W. Marszałek, Beata Olszańska-Piątek)
Cukrzyca w Polsce i na świecie Na całym świecie blisko 347 milionów ludzi żyje ze zdiagnozowaną cukrzycą. W 2004 roku z powodu powikłań wywołanych przez cukrzycę zmarło ok. 3,4 miliona ludzi. Według przewidywań Światowej Organizacji Zdrowia (ang. World Health Organization) w 2030 roku cukrzyca będzie na siódmym miejscu w rankingu chorób bezpośrednio wywołujących śmierć [1]. Szacunkowa liczba osób chorych na cukrzycę w Polsce oscyluje wokół 3 milinów, a liczba osób niezdiagnozowanych szacowana jest na ok. 750 tys. [2]. Powikłania wywoływane przez nieleczoną cukrzycę to: powikłania sercowe (75%), udary mózgu (14%), choroby nerek (8%), choroby oczu (1%) [3]. Cukrzyca jest chorobą metaboliczną związaną z metabolizmem cukrów. Spowodowana jest brakiem bądź niedostateczną ilością insuliny. Generalnie rozróżniamy dwa typy cukrzycy: typ 1 i typ 2. Znany jest jeszcze typ 1.5 oraz cukrzyca ciążowa [4]. Typ 1 (cukrzyca insulinozależna) stanowi ok. 10% wszystkich przypadków zachorowań na świecie. Charakteryzuje się bezwzględną koniecznością przyjmowania insuliny [5]. Symptomy cukrzycy typu 1 to m.in. wzmożone pragnienie, bardzo częste oddawanie moczu, szybkie chudnięcie osoby, która nie jest na diecie, senność, brak apetytu, suchość skóry [6]. Cukrzyca typu 2 (insulinoniezależna) stanowi zdecydowaną większość wszystkich zachorowań na cukrzycę. Dotyka ona ludzi w każdym wieku i określana jest jako choroba cywilizacyjna [1]. W przeciwieństwie do cukrzycy typu 1 nie jest związana z całkowitym brakiem insuliny w organizmie a jedynie z jej niedoborem (ograniczonym produkowaniem insuliny przez trzustkę). W przypadku cukrzycy typu 2 początkowe objawy nie są tak jednoznaczne i często bywają ignorowane. Szacuje się, że blisko 30% ze wszystkich cukrzyków w Polsce żyje jako osoby niezdiagnozowane. Objawy takie jak: suchość skóry, senność, zaburzenie widzenia, zaburzenia erekcji są bardzo często ignorowane. Badania cukru, które wykonuje się metodam... więcej»

Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros )
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 μm [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Methods and tools for multi-criteria selection of sensor system components (Ryszard Świerczyński, Krzysztof Urbański, Artur Wymysłowski )
Choosing an optimal set of components required to build a complete sensor system is challenging and time-consuming task due to huge amount of available electronic components and constrains (input parameters) which have to be taken into account during this process [1]. Predicted fast growth of sensor systems market in the near future (for example, environmental sensor and monitoring market is expected to reach $15.3 billion in 2016 based on BCC Research report) requires better, more efficient design tools and methods to shorten time-to-market period for the new products. It is especially important not just to re-use "well-known and proven solutions", but to choose the best available system components. Without support in the form of computer tools, this task is virtually impossible. Single device selection tools (search engines) are widely supported by electronic component manufacturers and distributors. It is easy to find a device meeting specified requirements, even across various manufacturers. The matter becomes more difficult when one needs to select the optimum set of components at the level of the whole system. In this paper a new approach and design tool is proposed to speed-up designing process of complex sensor system. Emphasis is placed on providing ready-to-use software for selection of a set of available components rather than DEBYS approach proposed for ASIS systems in [3, 4]. Combined database containing detailed component parameters and parametric models in conjunction with external simulatio... więcej»

Wybrane problemy przetwarzania sygnałów wyjściowych detektora fazy w odbiorniku radaru dopplerowskiego w sensorze mikrofalowym do detekcji funkcji życiowych (Mariusz Łuszczyk, Łukasz Dąbrowski)
W rozwoju współczesnej medycyny można wyodrębnić kierunek zmierzający do zastosowania bezinwazyjnego pomiaru parametrów biomedycznych człowieka. Kierunek ten uwidacznia się w hospitalizacji, telemedycynie oraz w przypadkach, kiedy kuracja pacjenta odbywa się w warunkach domowych [1]. Każdy z wymienionych kierunków wymaga stworzenia osobistych urządzeń medycznych wyposażonych w urządzenia bezprzewodowej transmisji danych oraz rozwijaniu technologii w tym zakresie. Takimi urządzeniami są sensory, które dostarczają informacji o fizycznych, chemicznych lub biologicznych cechach monitorowanego systemu. W ogólności takimi parametrami mogą być temperatura, ciśnienie, prędkość lub przyśpieszenie poruszającego się ciała, bądź w przypadku sensorów wykorzystywanych w medycynie parametry życiowe człowieka, do których zalicza się tętno, oddech, ciśnienie krwi oraz temperaturę. Sensory medyczne podlegają intensywnemu rozwojowi. Dzieje się to pod wpływem wzrastających wymagań, co do skuteczności diagnostyki medycznej. Dlatego też na polu rozwoju sensorów medycznych można zaobserwować równoległy rozwój tradycyjnych technologii (np. technik mikrofalowych) oraz nowe zastosowania biotechnologii oraz mikro- i nanotechnologii. Sensory mikrofalowe (radary) do detekcji wybranych funkcji życiowych człowieka wykorzystują ruch klatki piersiowej człowieka towarzyszący oddychaniu oraz biciu serca. Rozważania zawarte w niniejszym artykule są więc aktualne również w zakresie monitorowania ruchu oscylacyjnego innych powierzchni odbijających fale elektromagnetyczne za pomocą opisanych urządzeń. Amplitudy tych ruchów są rzędu od pojedynczych milimetrów do ok. 20 mm (przyjmuje się średnią wartość 7 mm) dla oddechu oraz dziesiątych części milimetra dla bicia serca [2]. Typowe spoczynkowe częstotliwości oddechu wynoszą 0,2...0,7 Hz, zaś pracy serca 1...3 Hz. Górne wartości tych częstotliwości dotyczą noworodków, dolne osób dorosłych. W badaniach prowadzonych ... więcej»

Meander monopole LTCC antenna for ISM 2.4 GHz (Jan Macioszczyk, Arkadiusz Dąbrowski, Piotr Słobodzian, Leszek Golonka)
Rapid and progressive growth of wireless communication, especially mobile telephony and positioning systems, creates a need for exploration of electromagnetic spectrum in high frequencies (microwaves and millimeter waves). Therefore, modern technical solutions should be multifunctional and hence multiband (in terms of operating frequency) as well as of small size, good quality and reliable [1]. Integrated microwave systems are manufactured using silicon, thin film and LTCC technologies [2]. All of the mentioned technologies are suitable for manufacturing micro- and millimeter waves components, with comparable good electrical parameters. In this paper design, manufacturing and measurements of the microwave monopole antennas are described. Measurements of S11 parameter, comparison between experiment and simulations, tuning of antenna and discussion is presented. Design of the antenna The antenna was designed and manufactured in the LTCC technology. The desired fr... więcej»

Impedance matching between antenna and chip in RFID transponder of UHF Band (Piotr Jankowski-Mihułowicz, Wojciech Lichoń, Grzegorz Pitera, Mariusz Węglarski)
Radiative coupling radio frequency identification (RFID) systems of the UHF band (860 to 960 MHz) [1] work in the range of far field where emitted wave (of frequency f0) is not only a data carrier but first of all an energy source (of power density S). The electromagnetic field is generated by a read/write device (RWD). The RWD antenna together with transponder antennas comprise a radio communication arrangement which has to be wave and impedance matched. It should be emphasised that the classical impedance matching of a transmitter and receiver is established only between the RWD output and connected antenna (50 Ω). If a transponder appears in the interrogation zone (IZ), it can be supplied with energy and the data can be exchanged (Fig. 1a) but the backscattering modulation is used to send answers back to the RWD. In the transponder backscattering response the emitted wave is only partially reflected towards the RWD because of switching load impedance of the internal chip - this process is extremely power-saving but also conveyed energy has limited amount. The minimal power PTmin (chip sensitivity) is required for activating communication process (Fig. 1b). Appropriate communication mechanisms are defined by ISO protocols, e.g. ISO/IEC 18000-6 (EPC Class 1 Gen 2), 18000-4 for UHF band. They determine the interrogation zone which is a basic application parameter of RFID systems. The IZ is a space zone around the RWD antenna which boundaries are dependent first of all on the transponder antenna construction and impedance matching to the chip input and can be estimated by using e.g. Monte Carlo method [2]. So, the specific parameters of the chip and target application have to be... więcej»

Per-unit-lenght parameters calculations for cable harnesses (Włodzimierz KALITA, Kazimierz KAMUDA, Dariusz KLEPACKI, Wiesław SABAT)
The mathematical analysis of electrical signal propagation communication interfaces requires a good knowledge about per-unitlength parameters of wires. It is especially important for analysis of circuits operated in high frequency range. The influence of p.u.l parameters on signal propagation in transmission lines describes the telegraph equation. For cable harnesses (with common coupled particular single wires) the p.u.l parameters have a form of R, L, C, G matrices [1-8]. P.U.L parameters calculations - theory The method of moments which belongs to the approximate methods allows the determination of distribution of electromagnetic fields (and their characteristic values) with much lower power consumption of calculations compared to the other methods. The analytical equations describing continuous electromagnetic field (in space and time domain) are transformed into a discrete system of algebraic equations. The quantities characterizing electromagnetic field in dielectric media can be determined from the Poisson equation described for the considered wire system: (1) The electric potential in any point P of homogenous dielectric media with permittivity εm (without wire insulation) considered in 2D (Fig.1a) can be determined from general solution of equation (1) with given conditions: (2) where sμ is a lateral surface of wire. With good conductivity of wires it can be assumed that the potential μ on the perimeter of ( ) ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»