• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • ODZIEŻ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 121583 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2015-4

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

SYSTEM ŚLEDZENIA PTAKÓW OPARTY NA ODBIORNIKU GPS I NADAJNIKU GSM

DOI:10.15199/59.2015.4.87
Maria Urbańska Henryk Gierszal Grzegorz Maciorowski Tadeusz Mizera Piotr Tryjanowski 
W artykule przedstawiono możliwości zastosowania specjalizowanego urządzenia do rejestracji położenia geograficznego obiektu na potrzeby śledzenia ptaków drapieżnych. Rozwiązanie wykorzystuje system GPS do określenia położenia oraz sieci GSM do transmisji geoinformacji przesyłanej w formie wiadomości SMS. Wdrożone komponenty elektroniczne oraz oprogramowanie nadzoruąjce pracę urządzenia pozwalają na długotrwałe jego funkcjonowanie, zaś lekka konstrukcja oraz zastosowane mocowanie chronią ptaka przed dyskomfortem związanym z dźwiganiem tego urządzenia. 1. WSTĘP Rozwiązania telemetryczne wykorzystywane do śledzenia przemieszczania się zwierząt znane są od wielu lat. Pozwalają one na obserwację ssaków, zwierząt morskich, jak i ptaków, np. w celu określenia ich lokalizacji, dróg migracji czy też zachowań. Systemy śledzenia zwierząt mogą wykorzystywać różne techniki. [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji (format pdf): 6.00 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 1h: 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 4h: 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 12h: 73.80 zł
 DO KOSZYKA 
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486.00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437.40 zł *)
prenumerata papierowa roczna - 396.00 zł
prenumerata papierowa półroczna - 198.00 zł
prenumerata papierowa kwartalna - 99.00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »
Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

Adaptacyjny system łączności z satelitą na orbicie niskiej - DOI:10.15199/59.2015.4.9
Krzysztof Kurek Sebastian Kozłowski Marcin Darmetko 
Szersze wykorzystywanie małych satelitów umieszczonych na orbicie niskiej LEO (Low Earth Orbit) oraz wzrost ilości danych generowanych przez aparaturę umieszczoną na takich satelitach i przesyłanych na Ziemię wymaga efektywnych systemów transmisji. Satelita na orbicie LEO znajduje się w zasięgu stacji naziemnej tylko przez krótki czas, jego przelot nad stacją trwa od kilku do kilkunastu minut, w zależności od wysokości orbity. W czasie przelotu zmienia się znacznie moc odbieranego przez stację sygnału, w zależności od chwilowej odległości satelita - stacja naziemna, która może się zmieniać w zakresie od kilku tysięcy km, gdy satelita jest widziany tuż nad widnokręgiem, do kilkuset km, gdy przelatuje on bezpośrednio nad stacją naziemną. Duże zmiany odległości powodują duże zmiany tłumienia sygnału odbieranego przez stację. Dodatkowo w przypadku odbioru sygnału z satelity nisko położonego nad widnokręgiem wzrastają szumy odbierane przez antenę stacji naziemnej. ADAPTACYJNA TRANSMISJA DANYCH Z S ATELITY LEO Struktura systemu łączności Satelita na orbicie LEO porusza się względem stacji naziemnej z dużą prędkością i pozostaje w zasięgu stacji naziemnej w czasie maksymalnie kilkunastu minut. Powoduje to ograniczenie ilości danych, jakie można przesłać z satelity do stacji naziemnej. Chcąc zwiększyć ilość przesyłanych danych, należy albo wykorzystać wiele stacji naziemnych, zlokalizowanych w różnych odpowiednio odległych od siebie miejscach, albo zwiększyć przepływność danych przesyłanych z satelity przez zwiększenie mocy nadajnika na satelicie lub zwiększenie anteny stacji naziemnej. Powyższe rozwiązania są trudne do realizacji w przypadku niskobudżetowych misji, np. dla celów edukacyjnych, w których wykorzystywane są bardzo małe satelity. Dlatego w ramach projektu SACC (Satellite Adaptive Communication Channel), realizowanego dla Europejskiej Agencji Kosmicznej, zaproponowano wykorzystanie adaptacyjnego systemu łączności, który więcej »

AKWIZYCJA OBRAZÓW DOKUMENTU TEKSTOWEGO W UKŁADZIE WIELOKAMEROWYM - DOI:10.15199/59.2015.4.75
Joanna Wiśniewska Grzegorz Galiński 
W niniejszym artykule przedstawiono analizę wydajnościową oraz jakościową algorytmów łączenia obrazów pochodzących z wielu źródeł, ze szczególnym uwzględnieniem obrazów zawierających dużą liczbę szczegółów. Testom poddano algorytmy związane z kalibracją stereo układu dwóch kamer oraz algorytmy detekcji i łączenia punktów charakterystycznych. 1. WSTĘP Niniejszy artykuł przedstawia metodę, dzięki której w prosty sposób możliwe jest wykonanie skanera obrazu wysokiej rozdzielczości, zbudowanego z kilku kamer, odpowiedniego do obrazów zawierających wiele szczegółów, w szczególności dokumentów tekstowych. Przy zastosowaniu dwóch kamer wideo, jednym ze sposobów uzyskania obrazu panoramicznego może być użycie kalibracji stereo i obliczenie macierzy przejścia między układami tych kamer. Dzięki procesowi kalibracji możliwe jest pozbycie się zniekształceń optycznych oraz wyznaczenie zewnętrznych i wewnętrznych parametrów kamery. Parametry zewnętrzne (ang. extrinsic) związane są z przesunięciem i rotacją układu kamery względem układu związanego z obserwowaną sceną, natomiast parametry wewnętrzne (ang. intrinsic) określają m. in. właściwości optyczne danej kamery. Kolejną badaną metodą jest zastosowanie algorytmów detekcji i łączenia punktów charakterystycznych. Algorytmy te są już powszechnie stosowane do tworzenia zdjęć panoramicznych, zazwyczaj przy wykorzystaniu jednego źródła obrazu, np. aparatu fotograficznego, który jest przesuwany o kilka - kilkanaście stopni w dowolnym kierunku [3]. Zachowane zostaje natomiast położenie aparatu w przestrzeni - zmiany obrazu następują wyłącznie na skutek obrotu kamery. W niniejszym artykule obie wymienione metody zostały rozpatrzone w zastosowaniu do dokumentów tekstowych, zawierających dużą liczbę szczegółów, oraz przy zastosowaniu dwóch niezależnych źródeł obrazu. 2. OPIS PROBLEMU Trudności związane z wysokoszczegółową akwizycją obrazu wielokamerowego dotyczą rejestracji badanych obiekt więcej »

Algorytm określania momentu rozpoczęcia odbioru sygnału użytecznego na potrzeby pomiaru odległości w systemach radiowych - DOI:10.15199/59.2015.4.8
Piotr Piotrowski Ryszard Zieliński 
Systemy lokalizacyjne czasu rzeczywistego RTLS (Real Time Location Systems) umożliwiają prowadzenie ciągłej kontroli położenia poszczególnych elementów systemu, umieszczonych na przedmiotach lub noszonych przez ludzi. Określenie system lokalizacyjny czasu rzeczywistego może odnosić się do systemu działającego w otwartej przestrzeni, jak system GPS, ale również takiego, który lokalizuje ludzi i obiekty w budynkach. W artykule skoncentrowano się na zagadnieniach dotyczących lokalizacji wewnątrzbudynkowej i w takim znaczeniu używa się w nim pojęcia system lokalizacyjny. Zazwyczaj opiera się on na jednej z dwóch technologii. Jest to bądź istniejąca infrastruktura sieci bezprzewodowej, bądź dedykowane rozwiązanie lokalizacyjne. Podstawowy podział systemów lokalizacyjnych przedstawiono na rys. 1. Obejmuje on trzy grupy sposobów lokalizacji: lokalizację opartą na wykrywaniu obiektu w zasięgu - lokalizację zbliżeniową; lokalizację opartą na trilateracji bądź triangulacji oraz lokalizację dopasowującą parametry, zależne od położenia obiektu, do wcześniej opracowanej mapy.Systemy wykrywające obiekty w zasięgu w większości przypadków działają wykorzystując technikę RFID. Położenie określane jest na podstawie informacji, które elementy systemu wykryły obecność lokalizowanego obiektu. Metody wyznaczania położenia przez dopasowanie wyników pomiarów charakterystyk sygnału radiowego do tzw. mapy radiowej wymagają z kolei utworzenia, przed uruchomieniem systemu, mapy z pomiarami np. poziomu sygnału odbieranego z kilku punktów dostępowych sieci WiFi. Systemy te są stosunkowo popularne ze względu na łatwość adaptacji istniejącej infrastruktury radiowej do potrzeb systemu lokalizacyjnego. Jednak ich wadą jest duży nakład pracy związany z tworzeniem mapy pokrycia radiowego dla całego obszaru podlegającego lokalizacji, a jej dokładność, zmienność w czasie oraz rozdzielczość bezpośrednio wpływają na dokładność lokalizacji. W przypadku metod opartyc więcej »

ANALIZA MECHANIZMU WCBSA DLA SIECI STANDARDU IEEE 802.11AA - DOI:10.15199/59.2015.4.37
Łukasz Prasnal Marek Natkaniec 
Artykuł zawiera analizę mechanizmów priorytetyzacji ruchu przeznaczonych do różnicowania obsługi transmisji dźwięku bądź strumieni wideo w sieciach WLAN zgodnych ze standardem IEEE 802.11aa. Wykazano, że standardowy algorytm Credit-Based Shaper może okazać się nieprecyzyjny w przydziale pasma. Na tej podstawie zaproponowano i poddano weryfikacji modyfikacje tego mechanizmu, zapewniające sprawiedliwy podział pasma dla różnych scenariuszy pracy sieci. Ponadto przedstawiono wybrane wyniki symulacji, potwierdzające prawidłowość działania omawianych mechanizmów. 1. WSTĘP W celu zapewnienia jakości obsługi (QoS) w sieciach WLAN w 2005 r. do standardu IEEE 802.11 [1] wprowadzono funkcję EDCA. Definiowała ona 4 klasy dostępu: głos (Voice - VO), wideo (Video - VI), najwyższej próby dostarczania (Best Effort - BE) i ruch tła (Background - BK). Rozszerzenie IEEE 802.11aa [2] z 2012 r. wprowadza kilka nowych mechanizmów mających usprawnić transmisję strumieni dźwiękowych i wideo w sieciach WLAN. Są to: potwierdzenia ramek nadawanych do grupy stacji (Groupcast with Retries - GCR), usługa klasyfikacji strumieni (Stream Classification Service - SCS), zarządzanie nakładającymi się sieciami (Overlapping BSS management), współpraca z protokołem rezerwacji strumieni (Stream Reservation Protocol - SRP) oraz różnicowanie ruchu w obrębie klas dostępu do medium. Podczas gdy większość prac badawczych związanych z 802.11aa koncentruje się na aspektach działania GCR, niniejsza praca traktuje o mechanizmach różnicowania ruchu i stanowi kontynuację wcześniejszych prac [4], [5]. Rozdział 2 przybliża rozszerzony schemat funkcji EDCA z wewnątrzklasowym różnicowaniem ruchu. W rozdziale 3 przybliżono zasadę działania algorytmów wyboru ramek, których zastosowanie zasugerowano w standardzie 802.11aa, w szczególności Credit-Based Shaper Algorithm (CBSA). Dyskusji poddano również aspekty związane z trudnością jego realizacji w sieciach bezprzewodowych. R więcej »

Analiza możliwości uruchomienia kolejnych multipleksów dvb -t w polsce - DOI:10.15199/59.2015.4.5
Dariusz Więcek Daniel Niewiadomski Rafał Michniewicz Janusz Sobolewski Dariusz Wypiór 
Trwające obecnie na świecie działania regulacyjne i dyskusje na temat przyszłej polityki zagospodarowania widma radiowego, odbywające się na forum ITU (International Telecommunication Union), CEPT (European Conference of Postal and Telecommunications Administrations) i grup doradczych Komisji Europejskiej (RSPG) wskazują, że istnieje duże prawdopodobieństwo zmiany przeznaczenia tzw. pasma 700 MHz (zakres 694 - 790 MHz) i przekazania go na wyłączność dla systemów komórkowych zarówno na forum europejskim, jak i krajowym. Taka decyzja oznaczałaby istotne konsekwencje dla emisji multipleksów telewizji naziemnej DVB-T (lub DVB-T2) w Polsce, włącznie z koniecznością zmiany przydziałów kanałowych oraz uzgadnianiem międzynarodowym dodatkowych kanałów dostępnych dla telewizji naziemnej [1]. W artykule, uwzględniając ryzyko wejścia w życie decyzji o rezygnacji z przeznaczenia pasma 700 MHz dla DVB-T w Polsce, wykonano analizy umożliwiające ocenę możliwości uruchomienia kolejnego multipleksu telewizji cyfrowej DVB-T w paśmie UHF. Dokonano także oceny możliwości uruchomienia dodatkowego multipleksu telewizyjnego DVB-T (MUX8) w paśmie VHF. AKTUALNA SYTUACJA Zgodnie z Planem GE06 [2], na potrzeby emisji naziemnej telewizji cyfrowej dla Polski zatwierdzono 6 ogólnopolskich multipleksów cyfrowych (MUX1 - MUX6) w zakresie częstotliwości UHF 470 - 790 MHz oraz jeden multipleks (MUX8) w zakresie VHF 174 - 230 MHz. Obecnie emisje DVB-T są realizowane w multipleksach MUX1-4 (MUX1-3 z programami niekodowanymi oraz MUX4 z programami kodowanymi), natomiast częstotliwości multipleksów MUX5 i MUX6 są niewykorzystywane i mogłyby posłużyć do uruchomienia kolejnych emisji. W przypadku MUX8 częstotliwości są dostępne i aktualnie prowadzi się konsultacje na temat jego przyszłego wykorzystania, planowane jest niedługo wyłonienie operatora tego multipleksu. O ile w więcej »

Analiza opóźnienia przekazu wideo w usłudze TV świadczonej za pomocą techniki adaptacyjnego strumieniowania w sieci Internet - DOI:10.15199/59.2015.4.17
Marek Dąbrowski Robert Kołodyński Wojciech Zieliński 
Streszczenie: Przedmiotem artykułu jest analiza opóźnienia przesyłu obrazu w usłudze TV świadczonej w sieci Internet za pomocą adaptacyjnego strumieniowania HTTP. Właściwości tej technologii, dostosowanej do transmitowania wideo w sieci bez gwarancji jakości, powodują powstawanie znacznego opóźnienia przekazu w porównaniu do tradycyjnych sposobów dystrybucji TV. W artykule przedstawiono praktyczną analizę przyczyn powstawania tego opóźnienia, popartą wynikami badań w sieci testowej. 1. WSTĘP Sieć Internet staje się powoli dominującym medium dla przekazu rozrywkowych treści wideo. Widzowie na całym świecie mogą korzystać z szybko powiększającej się oferty usług w tzw. modelu OTT (ang. Over The Top), czyli w otwartej sieci Internet, gdzie dostawca usługi nie sprawuje kontroli nad siecią przesyłu danych. Międzynarodowy projekt badawczo-rozwojowy NOTTS1 pracuje nad rozwiązaniami dla efektywnego świadczenia usług w modelu OTT, z uwzględnieniem mechanizmów dla zarządzania i monitorowania jakością usługi (QoE - Quality of Experience). Wprawdzie najpopularniejszym formatem treści wideo w sieci Internet są krótkie filmy (np. YouTube) oraz filmy na żądanie (np. IPLA, Player.pl, Orange TV Tu i Tam, na świecie Netflix), także transmisja TV na żywo okazuje się być doskonałym uzupełnieniem oferty tradycyjnej TV stacjonarnej, satelitarnej i kablowej. Szczególnym zainteresowaniem cieszą się transmisje ważnych wydarzeń sportowych jak np. mundial piłkarski lub igrzyska olimpijskie [2]. Okazuje się, że coraz więcej osób wybiera oglądanie takich transmisji na ekranie komputera osobistego, telefonu lub tabletu, na przykład w sytuacji kiedy są poza domem, lub kiedy pozostali członkowie rodziny oglądają w tym czasie inne programy na rodzinnym odbiorniku TV. Niestety, najpopularniejsza technologia przekazu wideo w sieci Internet, czyli tzw. strumieniowanie adaptacyjne HTTP [4], jest obarczona istotną wadą z punktu 1 Praca została zrealizowana więcej »

ANALIZA PORÓWNAWCZA ZMODYFIKOWANEGO ALGORYTMU GRADEINTOWEGO ORAZ ALGORYTMU CHANA DO WYZNACZANIA POŁOŻENIA OBIEKTÓW W SYSTEMACH RADIONAWIGACYJNYCH - DOI:10.15199/59.2015.4.90
Agnieszka Czapiewska Jarosław Sadowski 
W referacie zostały omówione dwa algorytmy służące do wyznaczania położenia obiektów na podstawie pomiarów odległości: znany z literatury algorytm Chana oraz nowy zmodyfikowany algorytm gradientowy zaproponowany przez autorów referatu. Efektywność obu algorytmów została porównana na podstawie pomiarów przeprowadzonych w środowisku wewnątrzbudynkowym charakteryzującym się silną propagacją wielodrogową. 1. WSTĘP Usługi pozwalające na ustalenie położenia osób i obiektów stają się coraz bardziej pożądane. Rośnie liczba centrów handlowych, biznesowych oraz rozrywkowych, które niejednokrotnie są wielopoziomowymi budynkami zajmującymi ogromne powierzchnie. W takich miejscach określenie położenia osób i obiektów podyktowane jest przede wszystkim wzgęldami bezpieczeństwa. W szczególności system pozycjonowania może zostać użyty do nadzorowania akcji służb mundurowych (np. straży pożarnej czy policji), odnajdowania osób (zwłaszcza dzieci), nadzorowania wartościowych przedmiotów, a także wspomagania osób niewidzących lub niedowidzących. W tym celu są proponowane nowe rozwiązania systemowe umożliwiające pozycjonowanie we wnętrzach budynków. Przykładem takiego systemu jest System Automatycznej Lokalizacji Osób (SALOn) do zastosowań specjalnych, który powstał w katedrze Systemów i Sieci Radiokomunikacyjnych na wydziale Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej [1]. W systemie tym położenie obiektów jest określane na podstawie pomiarów odległości do stacji referencyjnych o znanych i niezmiennych współrzędnych. Pomiary te realizowane są w sposób radiowy metodą RTT (ang. Round Trip Time). W środowisku wewnątrzbudynkowym panują szczególnie niekorzystne warunki do realizacji radoiwych pomiarów odległości. Zjawisko wielodrogowości sprawia, że wyniki tych pomiarów są najczęściej zawyżone. Oznacza to, że wartość średnia błędów pomiarów odległości jest różna od zera, najczęściej dodatnia. Ponadto rozkład tych błędów więcej »

ANALIZA ROZPŁYWU PRĄDÓW PIORUNOWYCH W WYSOKIM MASZCIE ANTENOWY - DOI:10.15199/59.2015.4.32
Karol Aniserowicz  
Streszczenie: Przedstawiono rezultaty obliczeń rozpływu prądów piorunowych w głównych elementach konstrukcyj­nych wysokiego masztu antenowego. Wykonano obliczenia dla rygorystycznego modelu wynikającego z zastosowania metody momentów. Wyniki porównano z rezultatami obli­czeń dla uproszczonego modelu obwodowego, spełniającego założenie quasi-stacjonarności, uwzględniającego jedynie indukcyjności segmentów przewodzących prąd. Wykazano, że do szacunkowych obliczeń i więcej »

ANALIZA STRUKTURY GEOMETRYCZNEJ SYSTEMU HAP-LTE - DOI:10.15199/59.2015.4.18
Andrzej Malinowski Ryszard J. Zieliński 
W artykule przedstawione zostały zależności geometryczne sieci LTE stosującej platformę stratosferyczną. Geometria systemu jest punktem wyjścia do badań umożliwiających określenie parametrów działania rozważanego systemu. W artykule zaprezentowano zagadnienia związane ze strukturami komórkowymi oraz geometrią wiązek. 1. WSTĘP Popularyzacja usług bazujących na szerokopasmowej transmisji danych powoduje, że użytkownicy końcowi oczekują dostępu do szerokopasmowego Internetu nie tylko w miejscu zamieszkania, w pracy czy w centrach miast, ale również na terenach wiejskich, w czasie podróży. System LTE stosujący platformę stratosferyczną [1] umożliwia dostęp szerokopasmowy na obszarach, na których budowa naziemnej infrastruktury jest nieopłacalna lub niemożliwa. System ten może być z powodzeniem użyty na obszarach dotkniętych klęskami żywiołowymi oraz na obszarach objętych działaniami wojennymi. Zaprezentowana w niniejszym artykule analiza struktury geometrycznej systemu HAP-LTE została opracowana w ramach badań sieci LTE stosującej platformę stratosferyczną. Znajomość zależności geometrycznych systemu stosującego platformę stratosferyczną jest niezbędna przy opracowywaniu metodyki badań tego systemu. Rys. 1. Zakłócenia w łączu w górę Przeniesienie systemu naziemnego, jakim jest system LTE, na platformę stratosferyczną zmienia sposób analizy tego systemu. W przypadku rozwiązań naziemnych największy negatywny wpływ na stosunek C/(N+I) mają komórki pracujące w tym samym paśmie, które są w najbliższym sąsiedztwie analizowanej komórki, oddalone o odległość koordynacyjną, natomiast wpływ pozostałych komórek, chociaż pracują one w tym samym paśmie, jest pomijalnie mały [2]. Analiza sieci komórkowej stosującej platformę stratosferyczną wymaga uwzględnienia zakłóceń pochodzących od nadajników wszystkich stacji bazowych oraz od nadajników wszystkich terminali abonenckich systemu umieszczonych w punktach testowych (Rys. 1). 2. STRUKT więcej »

ANALIZA WŁASNOŚCI WYBRANYCH MODELI KOREKTORÓW W ODBIORNIKU OFDM - DOI:10.15199/59.2015.4.78
Piotr Mozoła 
W artykule przedstawiono wyniki analiz jakości transmisji w systemie telewizji mobilnej DVB-H w przypadku zastosowania różnych estymatorów odpowiedzi impulsowej kanału radiowego. Analizy oparto na wynikach symulacji komputerowych wykonanych z wykorzystaniem opracowanego symulatora warstwy fizycznej systemu DVB-H. Symulacje komputerowe przeprowadzono dla kanału AWGN, jednościeżkowego kanału z zanikami Rayleigh- a jak i dla wielościeżkowych modeli kanałów. 1. WSTĘP Technika transmisji OFDM (ang. Orthogonal Frequency- Division Multiplexing) używana jest obecnie w wielu systemach telekomunikacyjnych. Zastosowanie wielotonowej transmisji pozwoliło na zmniejszenie niekorzystnych efektów wielodrogowości sygnału oraz zapewnienie odpowiedniej odporności systemu na występujący podczas mobilnego odbioru efekt Dopplera. Jednym z systemów w którym wykorzystano technikę transmisji OFDM jest system telewizji mobilnej DVB-H (ang. Digital Video Broadcast-Handheld). Podczas opracowywania standardu położono nacisk z jednej strony na zapewnienie, w zakresie warstwy fizycznej systemu, kompatybilności wstecz z systemem DVB-T (ang. Digital Video Broadcasting - Terrestrial), jak i zapewnieniem odpowiedniej odporności systemu na zaniki sygnału spowodowane mobilnym odbiorem. W niniejszym artykule przedstawiono najprostsze modele estymatorów odpowiedzi impulsowej kanału, które zostały wykorzystane do korekcji sygnału w odbiorniku OFDM. Zaproponowane algorytmy zostały zaimplementowane w symulatorze warstwy fizycznej systemu. Dla zaproponowanych algorytmów przeprowadzono analizy jakości transmisji w warstwie fizycznej systemu DVB-H w przypadku transmisji z wykorzystaniem zarówno jedno jak i wielościeżkowych modeli kanałów radiowych. 2. SYMULATOR SYSTEMU Symulator warstwy fizycznej systemu DVB-T/H opracowany został w środowisku Matlab?. Schemat blokowy modelu symulatora został przedstawiony na Rys. 1. Składa się on z modelu nadajnika, symulatora k więcej »

ANALIZA ZJAWISKA ANOMALII WYDAJNOŚCI W SIECIACH STANDARDU IEEE 802.11AC - DOI:10.15199/59.2015.4.36
Marek Natkaniec Roman Kowalski Karol Kostecki 
Praca obejmuje analizę możliwości transmisji danych w standardzie IEEE 802.11ac w warunkach występowania zjawiska tzw. anomalii wydajności (ang. performance anomaly), czyli zmniejszenia się ogólnej wydajności pracy sieci bezprzewodowej na skutek równoczesnej pracy urządzeń sieciowych wykonanych w starszych wersjach standardu IEEE 802.11. Badania związane są z analizą trzech kompatybilnych ze sobą standardów pracujących w paśmie częstotliwości 5 GHz: IEEE 802.11ac, IEEE 802.11n i IEEE 802.11a. Analizie poddane zostały trzy różne szerokości kanałów: 80 MHz, 40 MHz oraz 20 MHz. 1. WSTĘP Organizacją odpowiedzialną za opracowywanie standardów opisujących najnowsze technologie związane z lokalnymi sieciami bezprzewodowymi jest Instytut Inżynierów Elektryków i Elektroników (ang. IEEE). Jednym z pierwszych standardów, opracowanym przez grupę roboczą IEEE 802.11 był 802.11a, który został opublikowany w 1999 roku [2]. Opisuje on sposób realizacji warstwy fizycznej lokalnej sieci bezprzewodowej w paśmie 5 GHz, pozwalając przy tym na uzyskanie szybkości transmisji do 54 Mbit/s. Ważnym krokiem było opracowanie standardu IEEE 802.11n [3], który ukazał się w 2009 roku. Wspomniany standard również wykorzystuje do pracy pasmo 5 GHz, jednak pozwala na osiągnięcie znacznie większych szybkości transmisji, które wynoszą aż 600 Mbit/s. Najnowszym, opublikowanym w 2013 roku i zaimplementowanym w sprzęcie sieciowym WLAN (ang. Wireless Local Area Network), dostępnym na komercyjnym rynku standardem, jest obecnie IEEE 802.11ac [1]. Dzięki zastosowaniu zaawansowanych technik transmisyjnych, pozwala on na osiągnięcie szybkości transmisji wynoszącej teoretycznie aż 6 Gbit/s. Prezentowana praca opisuje problem anomalii wydajności (ang. performance anomaly), występującej w sieciach standardu IEEE 802.11ac, gdy przynajmniej jedna ze stacji klienckich, z powodu niekorzystnych warunków transmisyjnych, spowodowanych np. dużą odległością od punktu dostęp więcej »

ANTENA NA PODŁOŻU WIELOWARSTWOWYM Z ELEKTRYCZNYM KSZTAŁTOWANIEM WIĄZKI NA PASMO 60 GHZ - DOI:10.15199/59.2015.4.40
Marcin Miazga Yevhen Yashchyshyn 
W artykule przedstawiono projekt i wyniki symulacji wielowarstwowej anteny szczelinowej przeznaczonej do pracy w paśmie 60 GHz. Sprawdzono możliwość wykonania struktury z przestrajalną wiązką, dzięki zastosowaniu w niej warstwy innowacyjnego, elektrycznie przestrajalnego ferroelektrycznego kompozytu ceramiczno-polimerowego. 1. WSTĘP Ciągły wzrost znaczenia komunikacji bezprzewodowej i zmniejszanie się niezagospodarowanego pasma fal elektromagnetycznych implikuje poszukiwanie rozwiązań w wyższych zakresach częstotliwości, które do niedawna były ciężkie do zrealizowania. Coraz nowsze technologie sprawiają, że nielicencjonowane pasmo 57-64 GHz już niedługo może stać się jednym z głównych mediów komunikacji bliskiego zasięgu. Ze względu na dużą szerokość pasma, możliwe jest uzyskanie przepływności rzędu kilku Gbit/s, co można porównać do szybkości transmisji współczesnych systemów światłowodowych [1]. Ciekawą właściwością fal o częstotliwości w okolicy 60 GHz jest to, że występuje dla nich maksimum absorpcji energii przez cząsteczki tlenu zawarte w powietrzu, co w znacznym stopniu obniża moc sygnału w funkcji odległości od źródła. W kontekście rozwiązań krótkiego zasięgu jest to niewątpliwa zaleta, ponieważ łącza te stają się znacznie bezpieczniejsze i mniej podatne na podsłuch. Co więcej ze względu na małe interferencje, można na danym obszarze zastosować gęstą strukturę układów nadawczo-odbiorczych [2]. 2. PROJEKT ANTENY 2.1. Model wielowarstwowego falowodu Projekt anteny opiera się na falowodzie SIW (ang. Substrate Integrated Waveguide), który jest przystosowany do masowej produkcji i ma niskie koszty wykonania przy jednoczesnym zachowaniu dobrej wydajności. Symulacje przeprowadzono w symulatorze FEKO wykorzystującym metodę momentów. Falowód SIW to nowa forma linii transmisyjnej więcej »

ANTENA SYSTEMU MIMO DLA TERMINALI DORĘCZNYCH SYSTEMÓW UMTS / LTE / WLAN - DOI:10.15199/59.2015.4.55
Wojciech J. Krzysztofik Artur Urbanowicz 
Przedstawiono analizę warunków pracy anteny w systemie odbioru zbiorczego MIMO. Określono kryteria, jakie powinien spełniać układ anten dla zapewnienia optymalnej przepływności i niezawodności w systemach komunikacji mobilnej. Przyjęte założenia zweryfikowano dla układu dwóch mikropaskowych anten monopolowych, osiągając dużą zgodność obliczeń i pomiarów. 1. WSTĘP Systemy telekomunikacji mobilnej umożliwiają użytkownikom swobodny dostęp do świadczonych usług przez bezprzewodowe medium transmisyjne, niezależnie od tego czy użytkownik znajduje się w ruchu czy przebywa w stałej lokalizacji. Umożliwiają one realizację różnych przekazów: transmisję głosu, krótkich informacji tekstowych, obrazów, danych, przekazów multimedialnych, danych nawigacyjnych. Obecnie najczęściej stosuje się systemy: GSM (ang. Global System for Mobile Communications); UMTS (Universal Mobile Telecommunication System); LTE (Long Term Evolution); WLAN (Wireless Local Area Network); Bluetooth; GPS (Global Positioning System) i in. Oczekuje się od nich dużej przepustowości i jednocześnie odpowiedniej niezawodności kanału. Jednym z najbardziej skutecznych sposobów realizacji tych celów jest wykorzystanie technologii MIMO (Multiple Input Multiple Output) [1]. Dla efektywnego funkcjonowania techniki przesyłania w różnych czasoprzestrzeniach, anteny systemu MIMO składają się z wielu niezależnych elementów promieniujących, wzajemnie odizolowanych. Technologię MIMO stosuje się sieciach WLAN i UMTS, w których urządzeniami końcowymi są punkty dostępowe (Access Point, Hot Spot), laptopy, telefony komórkowe, klucze USB itp.. Zasadniczy trend marketingowy, jakim jest miniaturyzacja tych urządzeń sprawia, że osiągnięcie wysokiej izolacji między elementami anteny jest nie lada wyzwaniem, ze względu na mały (< 0.25 więcej »

ASYNCHRONICZNA METODA TDOA - DOI:10.15199/59.2015.4.44
Jacek Stefański 
Przedstawiono nową metodę lokalizowania terminali ruchomych MT (Mobile Terminal) w sieciach radiowych, w których stacje bazowe BS (Base Station) pracują asynchronicznie względem siebie. Metoda ta, nazwana ATDOA (Asynchronous Time Difference of Arrival), umożliwia estymację położenia MT na podstawie pomiarów różnicy czasów propagacji sygnałów radiowych pomiędzy terminalem ruchomym będącym w ruchu, a pojedynczą stacją bazową w różnych chwilach czasu k i k+1. W artykule przedstawiono szczegółowo opis metody ATDOA oraz wyniki badań symulacyjnych. 1. WSTĘP Radiolokalizacja polega na określaniu pozycji, prędkości i innych parametrów położenia i ruchu obiektu (terminala ruchomego) lub też pozyskiwaniu informacji związanych z tymi parametrami, z wykorzystaniem właściwości fal radiowych [1]. Na przestrzeniu wielu lat opracowano i rozwijano wiele metod, które prowadziły do estymacji położenia obiektów, w tym: - AOA (Angle Of Arrival) - polegającą na pomiarze kątów nadejścia sygnałów radiowych, - TOA (Time Of Arrival) - polegającą na pomiarze czasów opóźnień propagacyjnych sygnałów radiowych, - TDOA (Time Difference Of Arrival) - polegającą na pomiarze różnicy czasów opóźnień sygnałów radiowych, - RSS (Received Signal Strength) - polegającą na pomiarze poziomów mocy sygnałów radiowych. Zazwyczaj, architektura systemu radiolokalizacyjnego jest oparta o zestaw nieruchomych stacji bazowych BS (Base Station) oraz terminal ruchomy MT (Mobile Terminal), którego położenie jest poszukiwane [2]. W sieciach radiowych często dokonuje się estymacji położenia terminala ruchomego na podstawie sygnałów emitowanych przez MT. W tym przypadku sieć radiowa jest odpowiedzialna za realizację odpowiednich pomiarów parametrów sygnałów radiowych oraz za estymację położenia MT [3]. Istotnym zagadnieniem w tego typu systemach jest precyzyjna synchronizacja stacji bazowych względem siebie. Proces synchronizacji w sieciach radiowych pociąga za sobą dodatkow więcej »

BADANIA DOKŁADNOŚCI WYZNACZANIA TDOA W ULTRASZEROKOPASMOWYM SYSTEMIE LOKALIZACYJNYM - DOI:10.15199/59.2015.4.57
Vitomir Djaja-Jośko Jerzy Kołakowski 
W referacie zamieszczono opis infrastruktury ultraszerokopasmowego unilateralnego systemu lokalizacyjnego. W zrealizowanym systemie łącze ultraszerokopasmowe zaprojektowano z wykorzystaniem układów DW1000 firmy Decawave. W artykule zamieszczono opis konstrukcji węzła oraz wyniki badań TDOA infrastruktury złożonej z czterech węzłów. 1. WSTĘP Ultraszerokopasmowe systemy lokalizacyjne umożliwiają lokalizacje osób i obiektów z dokładnością przewyższającą dokładności osiągane w radiowych systemach lokalizacyjnych wykorzystujących emisje wąskopasmowe. Istotną wadą ograniczającą powszechne zastosowanie tych rozwiązań jest ich wysoki koszt. Szansą na zwiększenie liczby implementacji systemów UWB jest pojawienie się na rynku pierwszych układów scalonych działających zgodnie ze standardem IEEE 802.15.4a. Standard ten oprócz transmisji danych z przepływnościami sięgającymi 6.8 MHz umożliwia określenie odległości pomiędzy węzłami. W Instytucie Radioelektroniki w ramach projektu EIGER (FP7) opracowano system lokalizacyjny, w którym łącze radiowe oparto na układach DW1000 oraz modułach DWM1000 firmy Decawave. System działa w paśmie przypisanym systemom lokalizacyjnym typu 1 (LT1). Częstotliwość środkowa emisji jest równa 6.5 GHz, pasmo emisji wynosi ok. 500 MHz. Dokładność i precyzja lokalizacji zależą w dużym stopniu od właściwości układów obsługujących ultraszerokopasmowe łącze radiowe. W referacie opisano infrastrukturę sytemu, przedstawiono budowę węzłów oraz zamieszczono wyniki badań eksperymentalnych infrastruktury złożonej z czterech węzłów. 2. SYSTEM LOKALIZACYJNY 2.1. Architektura systemu W unilateralnym systemie lokalizacyjnym [9] położenie jest obliczane w etykiecie na podstawie sygnałów odebranych z węzłów tworzących infrastrukturę systemu. Na rys. 1 przedstawiono schemat infrastruktury systemu lokalizacyjnego. Rys. 1 Architektura syste więcej »

Badania i analiza uwarunkowań propagacyjnych w sieciach bezprzewodowych pracujących w otoczeniu ciała człowieka - DOI:10.15199/59.2015.4.6
Sławomir J. Ambroziak Luis M. Correia Ryszard J. Katulski Michał Maćkowiak 
Bezprzewodowe sieci WBAN (Wireless Body Area Networks) pracujące w otoczeniu ciała ludzkiego, ze względu na możliwość integrowania różnorodnych przenośnych czy też nasobnych urządzeń ze stałą infrastrukturą telekomunikacyjną (sieci typu off-body), będą odgrywać znaczącą rolę w systemach radiokomunikacyjnych nowej generacji [1]. W takim stanie rzeczy niezwykle istotne jest zapewnienie dużej niezawodności tego rodzaju łączy radiowych. Do zwiększenia wydajności sieci WBAN wymagane jest dogłębne poznanie i zrozumienie uwarunkowań propagacyjnych w takich łączach. Prace z tym związane są przedmiotem zainteresowania grupy roboczej TWGB (Topical Working Group on Body environment) w ramach europejskiego projektu COST IC1004 [2]. Wyniki prac przedstawione w niniejszym artykule są efektem współpracy dwóch ośrodków badawczych: Katedry Systemów i Sieci Radiokomunikacyjnych (KSiSR) Politechniki Gdańskiej i Instituto Superior Tecnico (IST) z Lizbony [3]. Głównym celem artykułu jest przeanalizowanie wpływu ciała ludzkiego oraz warunków propagacyjnych na tłumienie sygnału radiowego w sieciach WBAN typu off-body, pracujących w środowisku wewnątrzbudynkowym, przy czym w myśl zalecenia [4] tłumienie propagacyjne jest rozumiane jako tłumienie systemowe, określane przez różnicę mocy dostarczonej na zaciski anteny nadawczej oraz mocy dostępnej na zaciskach anteny odbiorczej [5]. Przedstawiono tu stanowisko pomiarowe zastosowane w badaniach oraz scharakteryzowano zrealizowane scenariusze badawcze. Ponadto przeanalizowano wyniki badań pomiarowych i zaprezentowano główny kierunek dalszych badań. OPIS STANOWISKA POMIAROWEGO Badania zrealizowano z zastosowaniem stanowiska pomiarowego zaprojektowanego i zbudowanego w Gdańskim Laboratorium Propagacji Fal Radiowych w Katedrze Systemów i Sieci Radiokomunikacyjnych Politechniki Gdańskiej. Schemat blokowy tego stanowiska ilustruje rys. 1. Część nadawcza składa się z generatora SMBV100A oraz mikropaskowej więcej »

BADANIA WPŁYWU TRANSMISJI WIELOSKOKOWEJ NA WARTOŚĆ WYBRANYCH PARAMETRÓW OCENY WYDAJNOŚCI BEZPRZEWODOWEJ SIECI KRATOWEJ - DOI:10.15199/59.2015.4.80
Sławomir Pluta 
W artykule przedstawiono wyniki badań wydajności transmisji w kampusowej, bezprzewodowej sieci kratowej składającej się z 6 węzłów. Opracowane w tym celu środowisko testowe umożliwia wykonanie pomiaru zmian parametrów charakteryzujących wydajność transmisji w warunkach transmisji wieloetapowej. Zbadano także wpływ protokołu TCP i UDP na szybkość oraz opóźnienie transmisji. 1. WSTĘP Bezprzewodowe sieci kratowe WMN ( ang. Wireless Mesh Networks) charakteryzują się nieruchomymi, bezprzewodowymi węzłami przekaźnikowymi, które tworzą szkielet infrastruktury dla mobilnych węzłów dostępowych zgodnie z topologią częściowej kraty. W sieci kratowej przekazywanie danych odbywa się z wykorzystaniem wielu skoków. Podstawowymi zaletami kratowych sieci bezprzewodowych są: umiejętność reakcji na awarie sieci, łatwość rozbudowy oraz duża przepustowość. Sieci kratowe zwykle są oparte o rozwiązania WLAN i działają w układzie Infrastructure/ Backbone, gdzie punkty dostępowe tworzą w formie Infrastrukture strefy dostępu dla klientów, a połączone z nimi specjalizowane routery, wyposażone w przynajmniej dwie karty radiowe, zapewniają transmisję w szkielecie sieci (ang. backbone) [1,2,3]. Sieci drugiej generacji posiadają dwie karty (interfejsy) radiowe, jedną zwykle działającą w paśmie 2,4 GHz do połączeń z klientami i drugą w pasmach zakresu 5 GHz do połączeń z innymi węzłami. Wieloetapowa transmisja danych pomiędzy węzłami wykonywana jest poprzez tzw. przeskoki. W sieciach WMN trzeciej generacji węzły wyposażone są nawet w sześć kart radiowych, co daje możliwość pracy wielokanałowej na wielu interfejsach radiowych jednocześnie. Uzyskano w ten sposób łączność typu full-duplex w nieinterferujących kanałach radiowych [4,5]. Sprawne transmitowanie ramek z węzła szkieletowego sieci jest zapewnione w warstwie 1 i 2, a nie jak w dotychczasowych rozwiązaniach poprzez optymalizację protokołów routingu w warstwie 3 modelu OSI. W maju 2012 roku pod więcej »

BADANIE DOKŁADNOŚCI OKREŚLANIA ODLEGŁOŚCI W ŚRODOWISKU ZAMKNIĘTYM PRZY UŻYCIU MODEMÓW UWB W STANDARDZIE 802.15.4-2011 - DOI:10.15199/59.2015.4.64
Paweł Gadka 
W referacie przedstawiono wyniki badań pomiarowych dokładności określania odległości pomiędzy dwoma węzłami przy użyciu modemów UWB w środowisku wewnątrzbudynkowym. Badania przeprowadzono dla przypadków bezpośredniej wzajemnej widoczności anten nadawczej i odbiorczej oraz przy braku bezpośredniej widoczności anten. 1. WSTĘP Do niedawna, technika UWB (Ultra-Wideband) [1] była stosowana w bardzo ograniczonym zakresie, np. w radarach i komunikacji wojskowej. Wprowadzenie przez FCC (Federal Communication Commision) [2] oraz Komisję Europejską [3] regulacji zezwalających na szersze użycie techniki UWB w odpowiednich pasmach częstotliwości wywołało duże zainteresowanie środowisk naukowych i rozwój urządzeń oraz systemów UWB [4]. Szczególnym obszarem zastosowań dla impulsowej techniki UWB, ze względu na bardzo krótki czas trwania impulsów UWB zapewniający dużą odporność na skutki propagacji wielodrogowej oraz dużą rozdzielczość czasową, stały się systemy lokalizacyjne. Ponieważ jednak, zastosowanie techniki UWB wiąże się z bardzo restrykcyjnymi obostrzeniami dotyczącymi gęstości widmowej mocy sygnału nadawanego, technika UWB jest wykorzystywana głównie w wewnątrzbudynkowych systemach lokalizacyjnych krótkiego zasięgu [5]. Podstawowym narzędziem określania położenia w systemach lokalizacyjnych jest wyznaczanie odległości pomiędzy węzłami, dlatego też, przeprowadzono badania mające na celu ocenę dokładności określania odległości pomiędzy dwoma węzłami, wykorzystując technikę UWB. W kolejnych rozdziałach opisano zastosowaną przy badaniach metodę pomiarów odległości, scharakteryzowano podstawowe elementy warstwy fizycznej UWB IEEE 802.15.4-2011, w oparciu o którą pracują wykorzystywane węzły UWB, przedstawiono wyniki pomiarów odległości oraz płynące z nich wnioski. 2. METODA POMIARÓW Pomiary odległości były wykonywane metodą SDS TWR (Symmetric Double-Sided Two-Way Ranging) [6], w której odległość jest mierzona w sposób pośredni więcej »

BADANIE EFEKTYWNOŚCI KODEKÓW ŹRÓDŁOWYCH W RADIOFONII CYFROWEJ DAB+ - DOI:10.15199/59.2015.4.60
Przemysław Gilski Jacek Stefański 
W Polsce radiofonia cyfrowa jest dostępna dla słuchaczy już od 2013 roku. Jednakże brakuje ogólnodostępnych publikacji naukowych lub też raportów badawczych uzasadniających przyjęte przepływności dla strumieni audio. W artykule przedstawiono badania sprawności kodowania oraz subiektywnej oceny jakości kodeka MPEG-4 HE-AAC v2, wykorzystywanego w standardzie DAB+. Testy przeprowadzono wg. techniki porównawczej MUSHRA na dwóch grupach, złożonych z ludzi posiadających oraz nieposiadających wykształcenia muzycznego. 1. WSTĘP Wraz z postępem technologicznym wzrasta zapotrzebowanie na kodeki audio do kodowania zarówno sygnałów mowy jak i muzyki przy stosunkowo niskich przepływnościach. W wielu przypadkach, obejmujących transmisję rozsiewczą, czy też audio-booki, materiał dźwiękowy nie ogranicza się jedynie do samej mowy lub muzyki. Nie można przecenić wpływu radiofonii cyfrowej na rozwój metod kompresji materiałów dźwiękowych. Nowe kierunki badań i prac standaryzacyjnych w tej dziedzinie wynikają głównie z potrzeb wykreowanych przez rozwój systemów bezprzewodowych. Obszar ten wymaga specyficznych rozwiązań, uwzględniających ograniczone zasoby widmowe, przepustowość kanałów oraz konieczność ochrony przed błędami transmisji. Szczególne znaczenie nabiera tutaj radiofonia cyfrowa, która, w porównaniu do radiofonii analogowej, oprócz większego współczynnika pokrycia kraju, ma oferować także szereg usług dodatkowych oraz wyższą jakość przesyłanego materiału dźwiękowego. 2. RADIOFONIA CYFROWA Międzynarodowy standard DAB+ (Digital Audio Broadcasting) jest efektem prac mających na celu poszerzenie i wzbogacenie oferty programowej. Zadaniem emisji cyfrowej jest eliminacja tzw. białych plam, miejsc znajdujących się poza zasięgiem analogowego sygnału radiowego, z uwagi na ograniczone zasoby widmowe. Platforma cyfrowa umożliwia wprowadzenie dodatkowych funkcji, m.in. listę programów wraz z opisami audycji, wybór ulubionych stacji, czy t więcej »

BADANIE I ANALIZA TECHNOLOGII RADIA PROGRAMOWALNEGO JAKO NARZĘDZIA DO OKREŚLANIA POLARYZACJI FAL RADIOWYCH - DOI:10.15199/59.2015.4.77
Krzysztof Cwalina Piotr Rajchowski 
W artykule przedstawiono badania i analizę toru odbiorczego USRP jako uniwersalnego odbiornika sygnałów radiowych. Przeprowadzone prace pozwoliły na zaproponowanie rzeczywistego schematu blokowego urządzenia. Udowodniono możliwość zastosowania urządzeń USRP jako elementów odbiornika do określania polaryzacji fal radiowych głównie ze względu na wysoką powtarzalność uzyskanych wyników dla wielu urządzeń. 1. WSTĘP Rozwój techniki znacząco wpłynął na obecną budowę urządzeń radiokomunikacyjnych. Powszechna dostępność układów scalonych o dedykowanych zastosowaniach przyspiesza i ułatwia konstruowanie nadajników i odbiorników radiokomunikacyjnych. Należy jednak pamiętać, że każde z rozwiązań jakie jesteśmy w stanie opracować jest przeznaczone do pracy w dedykowanym systemie, mając na uwadze warstwę aplikacji jak i sprzętu. W tym miejscu możemy mówić o powstaniu idei radia programowalnego SDR (Software Defined Radio), czyli urządzeniu o wspólnej dla każdego rozwiązania platformie sprzętowej a częścią zmienną jest w tym przypadku aplikacja sterująca, np. znajdująca się na komputerze PC. Oznacza to, że funkcjonalność urządzenia jesteśmy w stanie zmieniać w sposób programowy. Wśród urządzeń radia programowalnego możemy wyróżnić dwie podstawowe grupy, urządzenia posiadające wbudowany układ sterujący oraz uniwersalne interfejsy radiowe, tzw. USRP (Universal Software Radio Peripheral). W artykule zostały przedstawione wyniki badań urządzenia USRP-2920 produkcji National Instruments [1] oraz sposób w jaki badania te zostały przeprowadzone. Prace badawcze miały na celu przeprowadzenie pomiaru charakterystyki amplitudowej toru synfazowego (I) oraz kwadraturowego (Q) części odbiorczej urządzenia. Warto zaznaczyć, że producent nie dostarcza karty charakterystyki opisującej dane urządzenie. Uzyskane wyniki mają na celu potwierdzenie możliwości zastosowania urządzenia USRP dookreślenia polaryzacji odbieranych sygnałów radiowych. Dodatkowo więcej »

BADANIE METOD SZEREGOWANIA DANYCH I MECHANIZMU HARQ II W SYSTEMIE WIMAX MOBILE - DOI:10.15199/59.2015.4.83
Dominik Rutkowski Marcin Sokół 
W pracy przedstawiono ogólne założenia systemu WiMAX Mobile oraz scharakteryzowano wybran e mechanizmy, implementowane w podwarstwie MAC tego systemu, tj. w szczególności hybrydowy mechanizm retransmisyjny HARQ oraz metody szeregowania danych i przydziału podnośnych OFDM. Omówiono i przeanalizowano wyniki badań symulacyjnych własnej metody szeregowania danych i mechanizmu HARQ typu I i II (w we-r sjach CC i IR), w interfejsie SOFDMA/TDD systemu WiMAX Mobile. 1. WSTĘP Dostrzegając potrzeby usługodawców na rosnący popyt w zakresie usług szerokopasmowej transmisji danych, organizacja WiMAX Forum w 2001 roku podęjła prace nad ewolucją technologii WiMAX (Worldwide Interoperability for Microwave Access). Co ciekawe, system WiMAX miał być pierwotnie rozwiązaniem dla operatorów działających w krajach tzw. "trzeciego świata", gdzie istniała potrzeba szybkiej budowy tanich i względnie nowoczesnych sieci, służących do transmisji danych pakietowych na obszarach o skrajnie różnej gęstości zaludnienia. W tym kontekście, ważnym celem do osiągnięcia przez WiMAX Forum, w zakresie specyfikacji założeń tego systemu była, oprócz zasięgu, liczba możliwych do obsłużenia abonentów, a co za tym idzie, pojemność systemu [1-6]. Cechą charakterystyczną sieci opartych na systemie WiMAX jest prostota ich implementacji i zarządzania oraz możliwość ich współistnienia z innymi sieciami bezprzewodowymi. Doświadczenia wielu operatorów systemu WiMAX na całymś wiecie pokazują, że bardzo cenna jest możliwość uruchamiania sieci WiMAX Mobile w nielicencjonowanym paśmie częstotliwości. Obecnie sieci WiMAX są uruchamiane głównie w krajach średnio i wysoko rozwiniętych. Doświadczenie pokazuje, że sieci WiMAX doskonale sprawdzają się zarówno na obszarach silnie zurbanizowanych, jak i na peryferiach miast oraz terenach wiejskich. Sieci te pozwalają też na realizację szerokopasmowych usług telekomunikacyjnych użytkownikom zlokalizowanym na obszarach, gdzie istni więcej »

BADANIE SKUTECZNOŚCI MECHANIZMU OCHRONY OPARTEGO NA ZAUFANIU - DOI:10.15199/59.2015.4.48
Joanna Głowacka Marek Amanowicz 
W artykule przedstawiono mechanizm ochrony oparty na zaufania - TUBE (ang. TrUst-Based protEction), który jest uzupełnieniem standardowych mechanizmów bezpieczeństwa dla węzła funkcjonującego w środowisku zdegradowanym. Umożliwia on klasyfikację węzłów ze względu na wykonywane akcje, ale również poprawność przekazywanych rekomendacji. Skuteczność mechanizmu została sprawdzona przez eksperymenty symulacyjne. 1. WSTĘP Realizacja działań militarnych wymaga współpracy wielu sieci, w szczególności mobilnych, należących do różnych podmiotów, zarówno wojskowych (narodowych, koalicyjnych) jak również instytucji i organizacji cywilnych. Zachowania węzłów takich sieci nie zawsze muszą być spójne z celem prowadzonych działań, mogą one wykorzystywać zasoby systemu do realizacji innych często ukrytych celów, w tym także działać w sposób niekooperacyjny lub nieprzyjazny. Standardowo wykorzystywane mechanizmy bezpieczeństwa, takie jak uwierzytelnienie i autoryzacja stają się niewystarczające w przypadku realizacji działań połączonych w środowisku zdegradowanym i nieprzyjaznym. Konieczne jest więc, aby węzeł posiadał wiedzę o zachowaniu węzłów, w celu ich klasyfikacji i możliwości określenia sposobu reagowania w danej sytuacji. Często wiedza zgromadzona przez pojedynczy węzeł okazuje się niewystarczająca do oceny jego otoczenia. W takich przypadkach, jako dodatkowe źródło informacji wykorzystywane są rekomendacje. Jednak uwzględnianie tych informacji wiąże się z możliwością występowania węzłów "kłamców" - węzłów przekazujących nieprawidłowe rekomendacje. Nieprawidłowe rekomendacje mogą przyczynić się do niewłaściwej oceny węzłów, a tym samym współpracy z węzłami wrogimi bądź wyizolowaniu węzłów koalicyjnych. W artykule został przedstawiony mechanizm ochrony przed zagrożeniami oparty na zaufaniu - TUBE (TrUst-Based protEction). Mechanizm ten jest kontynuacją rozwiązania przedstawionego w [1], które zostało uzupełnione o dodatkowe para więcej »

BLOK PRZEMIANY CZĘSTOTLIWOŚCI ODBIORNIKA UWB NA PASMO 6,0 - 8,5 GHz - DOI:10.15199/59.2015.4.59
Piotr Symonides Ryszard Michnowski 
W pracy przedstawiono koncepcję, projekt oraz wyniki badań układu mnożącego do odbiornika sygnałów w ultraszerokopasmowym systemie lokalizacyjnym. Do budowy układu wykorzystano układ scalony realizujący operację mnożenia oraz układy symetryzujące. W referacie zamieszczono szczegółowy opis konstrukcji oraz wyniki badań układu. 1. WSTĘP Technika ultra szerokopasmowa (UWB ang. UltraWideBand) staje się coraz popularniejsza. Znalazła ona zastosowanie w: systemach radarowych, lokalizacyjnych oraz systemach radiokomunikacyjnych wymagających dużych przepływności. Podstawowym rodzajem sygnałów wykorzystywanych w systemach UWB są sygnały impulsowe. Odbiór impulsów UWB wciąż stanowi wyzwanie ze względu na bardzo krótki czas ich trwania, nierzadko krótszy od 1 ns. Do powszechnie stosowanych technik odbioru należy detekcja progowa amplitudy lub energii impulsu oraz techniki korelacyjne. Zrealizowany w ramach pracy układ jest elementem odbiornika z detekcją progową. 2. Koncepcja układu Ponieważ odbiornik ma być wykorzystany do pomiarów czasów przybycia sygnałów ultraszerokopasmowych nadawanych w paśmie 6 - 8,5 GHz (rys. 2) zaproponowano konstrukcję, której schemat blokowy przedstawiono na rys. 1. Rys. 1 Schemat blokowy odbiornika sygnałów UWB W najprostszych rozwiązaniach progowych detektorów impulsu, sygnał po wzmocnieniu i filtracji jest poddawany detekcji progowej albo progowana jest moc lub energia impulsu. W proponowanym rozwiązaniu wykorzystano przemianę częstotliwości co pozwoliło na dokonanie detekcji na sygnale odpowiadającym obwiedni impulsu wejściowego. Rozwiązanie to pozwala na uniezależnienie pracy detektora progowego od częstotliwości sygnału wejściowego. Niezależnie od pasma w jakim nadawa więcej »

CHARAKTERYZACJA MATERIAŁÓW DIELEKTRYCZNYCH W UKŁADACH Z LINIAMII TRANMISYJNYMI - DOI:10.15199/59.2015.4.107
Beata Barteczka Piotr Słobodzian 
Artykuł stanowi krótki przegląd metod wyznaczania parametrów elektrycznych materiałów w układach z liniami transmisyjnymi. W pierwszej części artykułu opisano i porównano metodę dwóch linii mikropaskowych oraz metodę z rezonatorem typu SPDR. Artykuł zawiera także przykładowe wyniki pomiarów materiałów dielektrycznych. W drugiej części pracy przedstawiono metodę falowodową. Pokazano, że mała dokładności tej metody jest spowodowana przez niepropagujące rodzaje pola EM, które powstają w obszarze układu pobudzania. 1. WSTĘP Dokładna znajomość parametrów elektrycznych materii jest pożądana i wykorzystywana w technice i inżynierii. Istnieje wiele metod wyznaczania parametrów elektrycznych [1]. Różnią się one m.in. zasadą działania układu pomiarowego, oferowaną dokładnością charakteryzacji, wymaganym kształtem i formą próbki materiału, użytecznym zakresem częstotliwości oraz wygodą pomiaru. Metody wyznaczania parametrów elektrycznych materiałów dielektrycznych można podzielić na dwie główne grupy, tj. metody rezonansowe i nierezonansowe. Za pomocą metod nierezonansowych można scharakteryzować materiały dielektryczne w bardzo szerokim zakresie częstotliwości, jednak zwykle kosztem zmniejszenia dokładności charakteryzacji. Z kolei metody rezonansowe są często dokładniejsze, ale w zamian za to umożliwiają charakteryzację jedynie dla wybranych częstotliwości. W metodach rezonansowych wykorzystuje się zależność częstotliwości rezonansowej układu pomiarowego od parametrów elektrycznych badanego materiału. Stosuje się dwa różne podejścia w tych metodach. W pierwszym próbka badanego materiału służy do przestrajania istniejącego układu rezonansowego, jak np. w metodzie wykorzystującej dzielony rezonator dielektryczny (ang. Split Post Dielectric Resonator) [2]. W drugim podejściu, próbka materiału jest wykorzystywana do budowy układu rezonansowego, jak np. w metodzie z mikropaskowym rezonatorem pierścieniowym [3]. W metodach nierezona więcej »

CZĘSTOTLIWOŚCI REZONANSOWE W OTWARTYCH STRUKTURACH MIKROPASKOWYCH UMIESZCZONYCH NA POWIERZCHNIACH ZAKRZYWIONYCH - DOI:10.15199/59.2015.4.105
Rafał Lech Adam Kusiek 
Artykuł prezentuje wyniki badań otwartych struktur mikropaskowych umieszczonych na powierzchniach cylindrycznych, eliptycznych lub sferycznych. Analiza numeryczna badanych struktur oparta jest na rozwinięciu pól elektrycznych i magnetycznych w odpowiednie szeregi funkcyjne. Korzystając z warunków ciągłości pól formułowane jest zagadnienie brzegowe, które rozwiązywane jest przy wykorzystaniu metody momentów. Badane struktury mają zastosowanie w technice antenowej przy konstrukcji anten konforemnych. 1. WSTĘP Struktury konforemne, czyli takie, których kształt powierzchni dopasowany jest do obiektu na którym są osadzone lub zintegrowane, idealnie nadają się, ze względów aerodynamicznych, do zastosowania na skrzydłach samolotu, rakiety czy pocisku, lub szybkiego pociągu czy łodzi. Najbardziej popularną aplikacją tych struktur są anteny konforemne. Możliwość umieszczania tych anten na powierzchniach zakrzywionych powoduje, że mogą one znaleźć również zastosowanie w układach nadawczo-odbiorczych znajdujących się na zabytkowych budynkach, wieżach lub kolumnach bez zakłócenia ich estetyki i lokalnej architektury. Oprócz dużej integralności struktury, do niekwestionowanych zalet i korzyści jakie można uzyskać wykorzystując takie anteny (w stosunku do anten planarnych), należy zaliczyć np. większe pokrycie kątowe, sterowanie wiązki bez zniekształcenia charakterystyki, szersze pasmo pracy oraz mniejszy RCS. Istnieją jednak różne przeszkody, które powodują że wykorzystanie anten konforemnych nie jest rozpowszechnione. Przykładowo, technologia realizacji anten konforemnych jest znacznie trudniejsza niż anten planarnych i nie jest jeszcze w pełni dojrzała. Ponadto, brak jest na rynku uniwersalnych narzędzi do projektowania tego typu anten. Z uwagi na rozmiar projektowanej anteny stosuje się podział na anteny elektrycznie małe i elektrycznie duże. Anteny elektrycznie duże są antenami, których wymiary powierzchni są wielokrotnie więk więcej »

DYNAMICZNA REZERWACJA ZASOBÓW DLA TRANSMISJI CZASU RZECZYWISTEGO Z ZASTOSOWANIEM ROZSZERZONEJ WERSJI PROTOKOŁU RSVP - DOI:10.15199/59.2015.4.16
Robert R. Chodorek Agnieszka Chodorek 
W artykule zaprezentowano rozszerzenia do protokołu RSVP, umożliwiające przesyłanie informacji sygnalizacyjnych o chwilowym zapotrzebowaniu na zasoby sieciowe. Przeprowadzone testy wykazały, że wprowadzone zmiany nie wpłynęły znacząco na jakość testowych obrazów wideo (w stosunku do RSVP bez rozszerzeń), poprawiły natomiast wykorzystanie łącza stanowiącego "wąskie gardło". Utrzymano zatem wysoką jakość usługi sieciowej QoS, przy zwiększeniu wykorzystania łącza. 1. WSTĘP Wiele nowoczesnych usług dostępnych w sieci Internet (np VoIP, IPTV) to usługi multimedialne, wymagające transmisji informacji w czasie rzeczywistym. Dla prawidłowego funkcjonowania usługi te wymagają odpowiednich gwarancji QoS (Quality of Service) jakości transmisji [1][2], co w praktyce oznacza konieczność zapewnienia niezbędnych zasobów sieciowych dla transmisji objętej gwarancją jakości. Aplikacje wymagające QoS informacje o zapotrzebowaniu na zasoby sieciowe często przekazują korzystając z sygnalizacji realizowanej przez protokół RSVP (Resource ReSerVation Protocol) [1][3]. W niniejszym artykule zaprezentowano rozszerzenia do protokołu RSVP, zaproponowane przez Autorów [4]. Rozszerzenia zwiększają funkcjonalność standardowego protokołu RSVP, który wysyła informacje o całkowitym zapotrzebowaniu na zasoby sieciowe, szacowanym dla całej sesji. Wersja rozszerzona RSVP może dodatkowo, w trakcie trwania sesji, przesyłać informacje sygnalizacyjne o chwilowym zapotrzebowaniu na zasoby sieciowe. Mogą być one wysyłane na bieżąco, w sposób ciągły. Ewentualnie mogą być wysyłane w miarę potrzeby, jeśli zapotrzebowanie na zasoby sieciowe zmieni się w sposób istotny. Informacja taka może być następnie wykorzystana do dynamicznej zmiany ustawień rezerwacyjnych. Zaproponowane przez Autorów rozszerzenia do protokołu RSVP umożliwiają zaimplementowanie w architekturze IntServ dynamicznej alokacji zasobów sieciowych. Jak wykazały badania, tak zrealizowana dynamiczna a więcej »

EFEKTYWNA TECHNIKA POSZUKIWANIA MIEJSC ZEROWYCH FUNKCJI ZESPOLONYCH WYSTĘPUJĄCYCH W ZAGADNIENIACH PROPAGACYJNYCH - DOI:10.15199/59.2015.4.106
Piotr Kowalczyk 
Artykuł dotyczy zastosowania nowatorskiego algorytmu poszukiwania miejsc zerowych (na płaszczyźnie zespolonej) do badania własności propagacyjnych prowadnic mikrofalowych. Problemy tego typu występują nie tylko przy analizie struktur stratnych, ale również w badaniu zjawisk związanych z wypromieniowaniem (rodzaje wyciekające i zespolone). Proponowany algorytm jest prosty w implementacji, a jednocześnie "odporny" na osobliwości i cięcia płaszczyzny zespolonej, często występujące w tego typu zagadnieniach. 1. WSTĘP Rozwiązywanie różnego typu zagadnień propagacyjnych często sprowadza się do problemu wyznaczenia miejsc zerowych funkcji zespolonych. Sytuacja taka ma miejsce nie tylko w analizie struktur stratnych, ale również w badaniu szczególnych typów fal - rodzajów zespolonych i wyciekających w układach otwartych. Niekiedy dziedzina funkcji jest czysto rzeczywista (wtedy problem jest znacznie prostszy), jednak w wielu przypadkach ograniczenie takie nie jest możliwe. W literaturze znaleźć można szereg algorytmów dotyczących tego typu zagadnień (metoda Newtona [1], Mullera [2], Simplex [3]). Niestety, najczęściej są to metody lokalne, pozwalające jedynie poprawić dokładność rozwiązania, przy wstępnej znajomości jego lokalizacji. Najbardziej popularne aktualnie metody globalne są efektywne wyłącznie dla funkcji wielomianowych lub funkcji, które można w ten sposób aproksymować na zadanym obszarze [4,5]. Jednakże, w większości problemów propagacyjnych przybliżenie takie nie jest możliwe, gdyż otrzymywane funkcje posiadają liczne osobliwości i cięcia na płaszczyźnie zespolonej (często w bliskim sąsiedztwie miejsc zerowych). Skutecznie uniemożliwia to zastosowanie wymienionych wcześniej metod. Jedyny wolny od wymienionych powyżej ograniczeń jest globalny algorytm iteracyjny, oparty o triangulacje Delaunaya [6]. Pomimo wysokiej efektywności działania, jego implementacja jest stosunkowo prosta i łatwa do zrównoleglenia. Sugerowa więcej »

ELEKTROMAGNETYCZNE TECHNIKI TERAPEUTYCZNE - DOI:10.15199/59.2015.4.102
Andrzej Krawczyk Agnieszka Iwaniszczuk Bolesław Kalicki Piotr Murawski 
W pracy przedstawione zostały główne obszary terapeutyczne (terapia narządu ruchu), w których wykorzystywane jest pole elektromagnetyczne. Przebadane zostały parametry techniczne i przeanalizowano efekty terapeutyczne. 1. RYS HISTORYCZNY Równolegle do odczuwania zagrożenia związanego z polem elektromagnetycznym rozwija się przekonanie o jego uzdrowicielskiej mocy. Można z łatwością spostrzec, że lecznictwo elektromagnetyczne powstało znacznie wcześniej aniżeli świadomość zagrożenia, ponieważ ta ostatnia związana jest z odkryciami XIX wieku: ogniwa Volty, indukcji Faradaya czy propagacji fali elektromagnetycznej Hertza. Pomijając czasy starożytne oraz okres Średniowiecza, kiedy to uzdrawiające działanie materiałów magnetycznych propagowali m.in. Hipokrates z Kos, Aetius z Amidy, Awicenna, Hidegarda z Bingen, Paracelsus, pojawia się w historii medycyny Franz Anton Messmer (1734-1815). Nazwisko jego weszło do powszechnego stosowania jako nazwa techniki terapeutycznej stosowanej w owym czasie, a przetrwałej w zmutowanej formie do dzisiaj. Mesmeryzm, bo taka jest eponimiczna nazwa metody, polegał na przyjęciu, że ciało ludzkie posiada naturalny magnetyzm (animal magnetism), który jest uporządkowany w stanie zdrowia pacjenta, a zatem jest zakłócony w stanie choroby. Działanie terapeutyczne polega na porządkowaniu tego magnetyzmu. Rys. 1 Sesje terapeutyczne u dr Messmera: a) nakładanie rąk pod postacią pass, b) kąpiele w specjalnych baliach magnetycznych Wiek XIX przyniósł znacznie pogłębione rozumienie magnetyzmu, elektryczności czy wreszcie elektromagnetyzmu (prace Oersteda, Ampere’a, Faradaya, czy wreszcie Maxwella), a zatem i zjawiska bioelektromagnetyczne mogły być lepiej rozumiane. Ale dopiero wiek XX, a w właściwie jego druga połowa, eksplodował badaniami w tej dziedzinie. Coraz lepsze rozumienie zjawisk bioelektromagnetycznych prowadziło do coraz większej aplikacji tych zjawisk w praktyce. Zastosowania te to więcej »

Ewolucja sieci bezprzewodowych standardu ieee 802.11 - DOI:10.15199/59.2015.4.4
Marek Natkaniec 
Lokalne sieci bezprzewodowe WLAN (Wireless Local Area Networks) należą obecnie do najbardziej dynamicznie rozwijanych kierunków współczesnej telekomunikacji. Są one chętnie stosowane w wielu dziedzinach codziennego życia, zapewniając bardzo dużą szybkość transmisji danych, odpowiednią jakość świadczonych usług i stosunkowo wysoki poziom bezpieczeństwa. Sieci WLAN umożliwiają, przy zapewnieniu mobilności terminala, przesyłanie usług wideo, głosu i danych zarówno w mieszkaniach, miejscach organizacji konferencji, firmach, jak i miejscach publicznych: szkołach, szpitalach, stacjach benzynowych, kinach, sklepach, restauracjach, a także w terenach otwartych. Sieci WLAN stają się obecnie idealnym rozwiązaniem dla zapewnienia łączności w obrębie popularnych hot-spot-ów. Do najbardziej znanych standardów opisujących sposób działania sieci WLAN należy obecnie standard IEEE 802.11 [1]. Został on opracowany przez Instytut Inżynierów Elektryków i Elektroników IEEE (Institute of Electrical and Electronics Engineers) w ramach prac standaryzacyjnych Komitetu 802. Komitet ten zajmuje się określaniem sposobu działania dwóch pierwszych warstw modelu OSI/ISO: fizycznej i łącza danych, a w szczególności podwarstwy dostępu do fizycznego nośnika, czyli podwarstwy MAC (Medium Access Control). Pierwsza wersja standardu IEEE 802.11 pojawiła się w roku 1997 [2], a dwa lata później doczekała się oficjalnej korekty. Dostarcza ona trzy sposoby realizacji warstwy fizycznej: z użyciem techniki rozpraszania widma, opartej na " skakaniu" sygnału po częstotliwościach FHSS (Frequency Hopping Spread Spectrum), z bezpośrednim modulowaniem nośnej sekwencją kodową DSSS (Direct Sequence Spread Spectrum) w paśmie częstotliwości 2,4 GHz oraz z zastosowaniem promieniowania podczerwonego w zakresie 316 - 353 THz. Wszystkie określone powyżej realizacje warstwy fizycznej standardu IEEE 802.11 zapewniają transmisję danych z szybkościami 1 Mbit/s i 2 Mbit/s. Warto tutaj p więcej »

HYBRYDOWY SPOSÓB WYZNACZANIA ODPOWIEDZI ANTENY LINIOWEJ NA POBUDZENIE IMPULSOWE PRZY ZABURZENIU DANYCH - DOI:10.15199/59.2015.4.86
Maciej Walkowiak Anna Witenberg 
Opisano hybrydowy sposób wyznaczania odpowiedzi anteny liniowej na pobudzenie krótkim impulsem. Sposób polega na zastąpieniu późnoczasowej części odpowiedzi anteny wyrażeniem analitycznym, którego parametry wyznacza się z numerycznie obliczonej części początkowej. Podstawowym parametrem niezbędnym do zapisania formuły analitycznej jest pierwszy biegun funkcji przejścia anteny. W pracy przedstawiono wpływ niedokładności danych na lokalizację pierwszego bieguna. 1. WSTĘP Analiza anten liniowych, podobnie jak i innych struktur przewodzących, jest tradycyjnie przeprowadzana w dziedzinie czasu albo w dziedzinie częstotliwości. Oczywiście, problem może być formułowany w jednej z tych dziedzin, a rozwiązywany w drugiej. Dziedzina obliczeń zwykle pozostaje jednolita. Od kilku lat pojawiają się jednak propozycje rozwiązań hybrydowych, w których do analizy wykorzystuje się obie wymienione dziedziny [8]. Znane są. też metody mieszane wykorzystujące modele numeryczno-analityczne. Tradycyjnie, do numerycznej analizy anten liniowych wykorzystywało się dziedzinę częstotliwości. Jeśli antena miała pracować w szerszym paśmie częstotliwości, w którym jej parametry się zmieniały, powtarzano obliczenia na odpowiednio licznym zbiorze ustalonych częstotliwości pasma. Zmiana podejścia nastąpiła z dwóch zbliżonych powodów, którymi były pobudzenia impulsowe oraz praca w bardzo szerokim paśmie. Rzecz jasna, można nadal stosować i tu metody działające w dziedzinie częstotliwości. Przy analizie szerokopasmowej, takie podejście wymaga sporych nakładów numerycznych i dlatego w tego typu zadaniach atrakcyjniejsze są metody działające w dziedzinie czasu. Inne znane zalety analizy w dziedzinie czasu, to łatwość modelowania nieliniowości i zmienności parametrów w czasie [1]. Wykorzystanie do obliczeń dziedziny czasu opiera się na prostym koncepcie. Chcąc określić szerokopasmowe właściwości anteny, pobudzamy ją odpowiednio krótkim w czasie impulsem, a więcej »

iBEACON - NOWE ZASTOSOWANIE STANDARDU BLUETOOTH - DOI:10.15199/59.2015.4.88
Karol Radecki Tomasz Kosiło 
W artykule omówiono standard iBeacon - zastosowanie standardu Bluetooth Smart (BLE). Przedstawiono przykłady beaconów i ich parametry, oraz typowe dziedziny zastosowań. Omówiono metody lokalizacji wewnątrz budynku w standardzie iBeacon. Przedstawiono badanie systemu lokalizacji w pomieszczeniach z wykorzystaniem beaconów. Wykonano pomiary lokalizacji statycznej przez zestawiony system iBeacon, w którym użyto beaconów polskiej firmy Estimote i typowego smartfona. 1. WSTĘP Bluetooth małej mocy - Bluetooth Low Energy (BLE) albo Bluetooth Smart jest jedną z nowszych modyfikacji standardów związanych z rozwojem aplikacji mobilnych. Przykładem zastosowań jest iBeacon - rozwiązanie lokalizacji zbliżeniowej w pomieszczeniach czy też SmartWatch'e. iBeacon został zaprezentowany przez firmę Apple na konferencji WWDC’2013 [1], dla systemu operacyjnego iOS. W standard Bluetooth Smart są wyposażone obecne smartfony z najnowszymi systemami iOS oraz Android (wersja 4.3 i późniejsze). Do lokalizacji wykorzystuje się miniaturowe nadajniki - beacony pracujące w standardzie iBeacon. Mają one małą moc i niewielki zasięg (maksymalnie 70 -100 m), ale i niski pobór energii. Są zwykle zasilane z baterii o przewidywanym czasie ciągłej pracy nawet kliku lat. Beacony nadają cyklicznie krótkie komunikaty, które w zasadzie zawierają tylko własny identyfikator. Zgodnie ze standardem, identyfikatory są bardzo rozbudowane i każdy może być unikalny w skali globalnej, przy przewidywanych masowych zastosowaniach. W typowym zastosowaniu beacony mają być instalowane w obiektach handlowych, muzeach, urzędach itp. Smartfon wyposażony w układ Bluetooth Smart odbiera ten identyfikator, co jest równoznaczne z jego orientacyjną lokalizacją. Dzięki temu może zostać uruchomiona odpowiednia aplikacja bądź z pamięci smartfona, a zwykle z lokalnej sieci WiFi, która dostarczy abonentowi odpowiednich informacji. Beacony mogą być też rodzajem etykiet nalepianych więcej »

IEEE P1900.x - standaryzacja w zakresie radia kognitywnego - DOI:10.15199/59.2015.4.30
Adrian Kliks 
W artykule przeanalizowano proces standaryzacji technologii radia kognitywnego w odniesieniu do roZiny standardów IEEE 1900.x realizowany przez grup standa­ryzacyjną IEEE DySPAN-SC. W szcz:gólności przedsta­wiono obecny stan prac poszczególnych grup roboczyh, w tym opublikowane standardy, a talże planowane działa­nia. W ostatniej części artykułu przedstawiono autorskie propozycje prezentowane podczas spotka wybranych grup roboczych, w szczególności grupy pracującej nad interfejsem radiowym. 1. WPROWADZENIE Dyskusja nad możliwościami zarówno techniczny­mi jak i legislacyjnymi zastosowania w praktyce tehno- logii radia kognitywnego toczy sę z różnym nasileniem już od parunastu lat. Warto w tym miejscu chociażby wspomnieć o słynnych publikacjach J. Mitoli III na temat technologii radia kognitywnego opublikowanych około piętnastu lat temu w latach 1999 - 2000. [1]-[3]. Technologia ta miała być jednym z możliwych rozwią­zań problemu nieefektywnego wykorzystania pasma częstotliwościowego przydzielanego pomiędzy zaintere­sowane podmioty typowo w sposób statyczny. W zao- żeniu terminal radia kognitywnego powinien móc rozpo­znać na po więcej »

IMPLEMENTACJA ALGORYTMU INTELIGENTNEGO WYBORU KANAŁÓW RADIOWYCH (OBSS MANAGEMENT) ZDEFINIOWANEGO W ROZSZERZENIU IEEE 802.11AA - DOI:10.15199/59.2015.4.38
Łukasz Michałek Katarzyna Kosek-Szott 
Wraz z rosnącą gęstością sieci Wi-Fi rośnie też zajętość dostępnych kanałów radiowych. W rezultacie znalezienie wolnego kanału radiowego dla nowotworzonej sieci Wi-Fi może okazać się w praktyce niemożliwe. Standard IEEE 802.11aa wychodzi naprzeciw tym problemom definiując algorytm OBSS management. Algorytm poprzez inteligenty wybór kanłu pozwala na optymalny i sprawiedliwy dostęp do medium radiowego. W artykule została przedstawiona wstępna implementacja algorytmu OBSS management wykonana w języku C++ 11. 1. WSTĘP Sieci bezprzewodowe standardu IEEE 802.11 (Wi-Fi) ze względu na niewątpliwą przewagę nad sieciami Ethernet, jaką jest brak wymaganego okablowania, zyskały dużą popularność w zastosowaniach domowych, przemysłowych i komercyjnych. Dodatkową zaletą standardu IEEE 802.11 jest to, że jest on ciągle rozszerzany o nowe mechanizmy poprawiające m.in. jakość świadczenia usług (ang. quality of service, QoS) (rozszerzenia 802.11e/aa), przepustowość (rozszerzenia 802.11ac/ad) oraz wydajność (rozszerzenie 802.11ax). Mechanizmy te wydają się być konieczne nie tylko ze względu na rosnącą liczbę urządzeń pracujących w pasmach 2,4 GHz oraz 5 GHz, ale także ze względu na rosnącą liczbę aplikacji wymagających małych opóźnień oraz/lub dużych przepustowości, a więc takich, które wysyłają dźwięk/obraz w czasie rzeczywistym (wideokonferencje, telewizja na życzenie, gry internetowe). Jednym z głównych problemów, z jakim borykają się użytkownicy sieci Wi-Fi, jest fakt, że ze względu na brak stosowania inteligentnych algorytmów wyboru kanałów radiowych oraz status prawny pasm sieci Wi-Fi (są to pasma nielicencjonowane), użytkowanie pasm 2,4 GHz oraz 5 GHz jest obecnie nieoptymalne. Ponadto na obszarach o dużym zagęszczeniu sieci czy to domowych (blokowiska) czy komercyjnych (centra miast, galerie handlowe), występują problemy takie jak brak zasobów radiowych do wprowadzenia mechanizmów QoS czy nawet całkowite wzajemne zagłuszanie się więcej »

IMPLEMENTACJA I TESTOWANIE USŁUGI STRUMIENIOWANIA TELEWIZJI CYFROWEJ W SIECI LOKALNEJ - DOI:10.15199/59.2015.4.61
Krzysztof Piwowarski Piotr Łubkowski 
W dobie cyfryzacji zapewnienie dostępu do mediów w dowolnym miejscu i czasie ma kluczowe znaczenie zwłaszcza w przypadku telewizji, która powinna być oferowana za pomocą różnych form dystrybucji i z wykorzystaniem szerokiego wachlarza terminali końcowych. Rozwój sieci komputerowych pozwala na uruchomienie transmisji sygnału telewizji cyfrowej do szerokiego grona odbiorców znajdujących się w zasięgu sieci domowej, akademickiej bądź też sieci firmowej. W artykule przedstawiono problemy implementacji i testowania usługi strumieniowania telewizji cyfrowej w lokalnej sieci komputerowej. Zaproponowane rozwiązanie stanowi część platformy multimedialnej testowanej w ramach systemu monitoringu i akwizycji danych [1]. 1. WSTĘP Naziemna telewizja cyfrowa DVB-T (Digital Video Broadcasting Terrestial) jest nowym sposobem na przesyłanie sygnału telewizyjnego do szerokiego grona odbiorców. W porównaniu do analogowego systemu przesyłania telewizji cyfrowa technika charakteryzuje się możliwością przesyłanie większej ilości kanałów na jednej częstotliwości, poprawą jakości obrazu i dźwięku, możliwością emisji telewizji HDTV (High Definition Television) oraz przesyłaniem dodatkowych informacji (dodatkowe ścieżki dźwiękowe, napisy, elektroniczny przewodnik po programach (EPG)). Naziemna telewizja cyfrowa DVB-T została wprowadzona w Polsce na mocy ustawy z dnia 30 czerwca 2011r. o wdrożeniu naziemnej telewizji cyfrowej [2]. W ustawie tej zawarto informację o sposobach wdrożenia cyfrowej telewizji naziemnej oraz obowiązkach operatorów dostarczających tego typu usługi. Cyfrowe kanały telewizyjne przesyłane są w tzw. multipleksach (MUX), które stanowią zbiór cyfrowych danych zawierających strumienie obrazu, dźwięku oraz dodatkowych danych (Rys. 1). Dzięki zastosowaniu odpowiedniej kompresji multipleks umożliwia równoczesne przesyłanie wielu kanałów telewizyjnych. W Polsce zastosowanie ma system kompresji H.264/AVC dla sygnału wideo oraz MPEG więcej »

ITERACYJNY ODBIÓR MULTI-SYMBOLI OFDM W SIECIACH WLAN - DOI:10.15199/59.2015.4.66
Robert Kotrys Maciej Krasicki Piotr Remlein Andrzej Stelter Paweł Szulakiewicz 
W artykule przedstawiono wyniki badań własności iteracyjnego odbiornika realizującego demodulację i dekodowanie sygnałów OFDM w systemie telekomunikacyjnym z wieloma strumieniami przestrzennymi. Pokazano przebiegi bitowej i ramkowej stopy błędów w funkcji szerokości kanału transmisyjnego oraz liczby równolegle transmitowanych strumieni. Przedstawiono wyniki symulacji systemu działającego w wielodrogowym kanale WLAN 802.11 typu E. 1. WSTĘP Systemy bezprzewodowej transmisji danych w sieciach WLAN wymagają zapewnienia użytkownikowi dużej prędkości transmisji, która pozwala na komfortową realizację usług multimedialnych i aplikacji działających w chmurze. Duże prędkości transmisji są osiągane m. in. dzięki wykorzystaniu szerszego pasma, np. szerokość kanału równą 20 MHz w standardzie IEEE 802.11a/g powiększono do 40MHz w standardzie 802.11n lub do 80, a nawet 160 MHz w standardzie 802.11ac. Ostatnio opublikowany standard 802.11ac dopuszcza także zwiększanie wartościowości modulacji do 256 QAM (poprzednie standardy, 802.11a/g/n, dopuszczały stosowanie modulacji 64-QAM). Począwszy od standardu 802.11n wprowadzono możliwość wykorzystania wieloantenowych układów nadawczoodbiorczych i zwielokrotnienia przestrzennego. Zamiast jednego strumienia przestrzennego wg standardu 802.11a/g, możliwe jest stosowanie do czterech strumieni przestrzennych w systemach wg standardu 802.11n i aż do 8 strumieni przestrzennych w systemach wg standardu 802.11ac. Wykorzystanie do transmisji danych wielu strumieni przestrzennych istotnie zwiększa wymagania dotyczące stosunku mocy sygnału do mocy szumu (SNR), w wyniku czego znacząco zmniejsza się zasięg transmisji. By przeciwdziałać zmniejszaniu zasięgu transmisji, konieczna jest poprawa jakości kodowania i odbioru sygnału. Tradycyjnie, w warstwie fizycznej sieci WLAN, stosowane jest kodowanie splotowe (kod [133 171]8) oraz odbiornik Viterbiego. Obecne standardy nie umożliwiają stosowania odbioru i więcej »

JAKOŚĆ MIERZONA I ODCZUWANA: QoS vs. Qol - DOI:10.15199/59.2015.4.20
Małgorzata Langer 
Streszczenie: W referacie poruszono temat jakości usługi - ocenianej na podstawie zmierzonych paramertrów i obiektywnie charakteryzującej techniczny stan sieci, w stosunku do jakości odczuwanej (QoE) - rozumianej jako poziom satysfakcji odbiorcy usługi. QoEjest jedyną miarą, która bierze pod uwagę klienta i usystematyzowane podj ście do tej oceny pozwoliłoby (pozwoli) dostawcom uług, sprzętu, itd. na efektywną poprawę wskaźników jakości (a tym samym QoS). 1. WSTĘP Wskaźniki jakości usług (QoS - Quality of Service) kojarzy się z cechami, które można zmierzyć. Wskaźniki jakości, zmierzone ustalonymi metodami, w ustalonych warunkach, w powtarzalnych procedurach i środowisku, pozwalają na obiektywną ocenę i porów­nanie różnych usług, dostawców, sprzętu, sieci itd. Ra­port prac w ramach Memorandum [1] jest dla polskiego rynku usług telekomunikacyjnych kompendium, zawie­rającym wykaz i definicje wskaźników jakości usług telekomunikacyjnych, metodyki pomiarowe wraz ze sposobem organizacji pomiarów, zasady sprawozdaw­czości i publikowania wyników itd., które w zarysie Urzędu Komunikacji Elektronicznej UKE) da abonen­tom "przejrzystą, aktualną i porównywalną między ope­ratorami informację o jakości tych usług". Z punktu widzenia użytkownika mierzalne kryteria nie zawsze są zbieżne z jego osądem i potrzebami oceny. QoS - "Jakość Usług" to tylko jedna strona oceny jalo- ści. Równi więcej »

Kodowanie wielokanałowego sygnału fonicznego na potrzeby systemów syntezy pola akustycznego - DOI:10.15199/59.2015.4.15
Maciej Bartkowiak Adam Wereszczyński 
Artykuł dotyczy metody kompresji sygnałów fonicznych o wielkiej liczbie kanałów, reprezentujących pole akustyczne w systemach WFS. Idea kompresji polega na wydzieleniu sygnałów reprezentujących indywidualne źródła przestrzenne. Sygnały te, wraz z towarzyszącymi im składowymi tła (rezyduum) kodowane są techniką perceptualną z większą efektywnością niż indywidualne sygnały kanałów. 1. WSTĘP Systemy syntezy pola akustycznego, WFS (ang. wave field synthesis) pozwalają na realistyczną reprodukcję dźwięku przestrzennego z punktową lokalizacją źródeł dźwięku w pomieszczeniu, co nie jest możliwe w systemach dyskretnej stereofonii [1,2]. Osiągane jest to poprzez wykorzystanie reguły Huygensa oraz dużej liczby (kilkadziesiąt do kilkuset) indywidualnych przetworników głośnikowych odtwarzających falę akustyczną gęsto spróbkowaną w przestrzeni (rys. 1).Przyszłościowe systemy multimedialne związane z telewizją swobodnego punktu widzenia oraz kinem 3D będą dążyły do wykorzystania metody WFS w celu uzyskania pełnego realizmu reprodukcji [3], dlatego dziś prowadzi się badania nad techniczną realizowalnością takich rozwiązań (rys. 2). Koszt eksploatacyjny systemu syntezy pola wynikający z dużej ilości danych (ze względu na liczbę kanałów) może być zredukowany przez stosowanie odpowiednich technik kompresji. Warto zauważyć, że gęste próbkowanie przestrzenne (np. przy pomocy macierzy mikrofonów) powoduje, że sąsiednie kanały reprezentujące zazwyczaj punktowe źródła dźwięku przekazują sygnały o bardzo podobnej treści. Te podobieństwa mogą zostać wykorzystane lokalnie poprzez kodowanie różnicowe (M/S) sąsiadujących par kanałów, ale w przypadku kanałów odległych w przestrzeni taki zabieg jest bezskuteczny ze względu na przesunięcie fazowe i efekty tzw. filtracji grzebieniowej. Z tego powodu obecnie stosowane metody kodowania dźwięku przestrzennego (MPEG-2 NBC [4], MPEG-D SAOC [5]) nie mogą być bezpośrednio wykorzystane do kompresji danych WF więcej »

KOMPAKTOWA STRUKTURA DWUPOLARYZACYJNEJ, DWUPASMOWEJ ANTENY PRACUJĄCEJ W ZAKRESIE CZĘSTOTLIWOŚCI PASMA VHF - DOI:10.15199/59.2015.4.53
Przemysław Piasecki 
W artykule przedstawiono nową koncepcję anteny prętowej pracującej w dwóch ortogonalnych polaryzacjach: pionowej w paśmie VHF_I = 88 MHz ÷ 108 MHz i poziomej w paśmie VHF_II = 174 MHz ÷ 230 MHz. Kluczowym elementem struktury jest zasilanie, pozwalające pobudzić odpowiednie ramiona anteny. Współczynnik dopasowania wejścia anteny |S11| w pasmach VHF_I i VHF_II jest poniżej -10 dB (WFS < 2). Zysk anteny GVHF_I ≈ 7 dBi dla polaryzacji pionowej oraz GVHF_II ≈ 8 dBi dla polaryzacji poziomej. 1. WSTĘP Anteny dwupolaryzacyjne są szeroko wykorzystywane do poprawy jakości odbieranego sygnału [1, 2] lub rozszerzenia możliwości współpracy anteny z różnymi systemami radiokomunikacyjnymi. W porównaniu z systemami zbiorczymi (ang. Space Diversity) składającymi się z kilku anten, technika dwupolaryzacyjna pozwala zredukować liczbę anten zapewniając porównywalną jakość odbieranego sygnału [3]. W literaturze można znaleźć wiele typów szerokopasmowych anten, m.in. rozwiązania oparte o struktury Bowtie [4, 5] lub Batwing [6]. Anteny typu Bowtie są bardzo dobrze znane ze względu na prostą konstrukcję oraz możliwość pracy w szerokim paśmie częstotliwości. Struktura anteny składa się z dwóch symetrycznych ramion w kształcie trójkąta lub trapezu zwanych skrzydełkami. Zasilanie anteny umieszczone jest centralnie w osi apertury. Pasmo pracy promiennika zależy od wymiarów ramion, przede wszystkim długości oraz kata rozwarcia. Wektor pola elektrycznego E jest skierowany wzdłuz dłuższego wymiaru anteny, co implikuje liniową polaryzację zgodnie z dłuższym wymiarem promiennika. Drugim rodzajem szerokopasmowej anteny jest struktura typu Batwing, która jest stosowana do rozsyłania sygnałów telewizji naziemnej [7, 8]. Kształt anteny jest podobny do konstrukcji Bowtie, jednak ze względu na sposób zasilania wektor pola elektrycznego jest skierowany wzdłuż krótszego ramienia anteny, co powoduje uzyskanie ortogonalnej polaryzacji względe więcej »

Krajowa Konferencja Radiokomunikacji Radiofonii i Telewizji 2015
Sławomir Hausman 
Szanowni Państwo Krajowa Konferencja Radiokomunikacji, Radiofonii i Telewizji obchodzi w tym roku swoje piętnastolecie. Największe w Polsce forum naukowo-techniczne w obszarze radiokomunikacji jest miejscem integracji środowiska naukowego, inżynierów z przemysłu, operatorów, przedstawicieli urzędów centralnych oraz branżowych organizacji gospodarczych. Dotychczas gospodarzami KKRRiT były już trzykrotnie Politechnika Gdańska, Politechnika Poznańska, Politechnika Warszawska i Politechnika Wrocławska, a dwukrotnie Akademia Górnicza. W tym roku, po raz pierwszy, ten zaszczyt p więcej »

KSZTAŁTOWANIE CHARAKTERYSTYKI GRUPOWEJ ZA POMOCĄ WIELOPORTOWYCH PRZEŁĄCZNIKÓW MIKROFALOWYCH - DOI:10.15199/59.2015.4.43
Grzegorz Bogdan Yevhen Yashchyshyn 
Cechą charakterystyczną szyków antenowych z modulacją czasową jest możliwość zmiany kształtu charakterystyki kierunkowej przy pomocy szybkich przełączników umieszczonych w sieci zasilającej szyk. Sprawność energetyczna takiego szyku zależy od typu wykorzystanych przełączników. W tym artykule przedstawiono nową metodę modulacji czasowej oraz nową architekturę szyku, która bazuje na wykorzystaniu przełączników typu SP4T (ang. single-pole four-throw). Opracowana metoda pozwala na wprowadzenie takich rozkładów funkcji przełączających, które są równoważne stałym skokom fazy pomiędzy elementami szyku. Ponadto, opracowana architektura eliminuje stan "wyłączony", co powoduje poprawę sprawności energetycznej szyku. 1. WSTĘP Modulacja czasowa jest techniką znaną od roku 1963, w którym po raz pierwszy wykorzystano metodę modulacji czasowej do obniżenia poziomu listków bocznych charakterystyki kierunkowej [1]. Architektura szyków antenowych z modulacją czasową jest podobna do architektury szyków fazowanych z tym wyjątkiem, że przesuwniki fazy zostały zastąpione przez szybkie przełączniki mikrofalowe. Dzięki temu, szyki antenowe z modulacją czasową mogą być wykorzystane jako tańsza alternatywa dla szyków fazowanych. W ciągu ostatniego dziesięciolecia opracowano liczne algorytmy i metody modulacji czasowej szyków z niezależnymi przełącznikami SPST (ang. single-pole single-throw) [2, 3, 4]. Przełącznik SPST w stanie "włączony" pobudza element szyku, a w stanie "wyłączony" rozprasza w dopasowanym obciążeniu moc sygnału w.cz., co zmniejsza sprawność energetyczną szyku antenowego. Poprawa sprawności za pomocą przełączania pomiędzy dwoma promiennikami, zamiast przełączania pomiędzy promiennikiem i dopasowaniem, została przedstawiona w [5]. Elementy liniowego szyku antenowego zostały pogrupowane w pary i połączone z wrotami przełącznika SPDT (ang. single-pole doublethrow), co pozwoliło zwiększyć zysk o blisko 2 dB względem realizacji na więcej »

METODYKA BADANIA WPŁYWU TURBIN WIATROWYCH NA SYSTEMY RADAROWE - DOI:10.15199/59.2015.4.98
Krzysztof Bronk Adam Lipka Rafał Niski Błażej Wereszko 
W referacie omówiono uwarunkowania związane z badaniem wpływu turbin wiatrowych na systemy radarowe ze szczególnym uwzględnieniem tzw. fałszywych ech radarowych. Przedstawiono niezbędne informacje teoretyczne, opisano metodykę badań symulacyjnych oraz przykładowe wyniki przeprowadzonych analiz. 1. WSTĘP Wzrost zainteresowania odnawialnymi źródłami energii - ze szczególnym uwzględnieniem energetyki wiatrowej - staje się w ostatnich latach trendem o charakterze globalnym. Jak podają statystyki, w roku 2013 łączna moc oferowana przez wszystkie istniejące na świecie farmy wiatrowe wynosiła 318 GW, z czego na farmy zlokalizowane w Europie przypadało ok. 38% tej wartości [1]. W tej sytuacji istotnym zagadnieniem wydaje się być analiza wpływu turbin wiatrowych na ich otoczenie - w tym na systemy radiokomunikacyjne. Z uwagi na swoje gabaryty, a także specyficzne materiały, z których są wykonane, konstrukcje te mogą bowiem w istotny sposób tłumić, odbijać czy przesłaniać sygnał radiowy, stając się przyczyną poważnych zakłóceń w łączności. W zaprezentowanych na konferencji KKRRiT 2014 referatach autorzy niniejszej publikacji skupili się na wpływie turbin wiatrowych na systemy radiokomunikacyjne pracujące w pasmie VHF [2, 3]. W niniejszym artykule zostanie z kolei podjęta niemniej istotna tematyka interakcji pomiędzy turbinami a systemami radarowymi, ze szczególnym uwzględnieniem zjawiska tzw. fałszywych ech radarowych. Należy podkreślić, iż mówiąc w tym kontekście o systemach radarowych, mamy na myśli nie tylko radary funkcjonujące na lądzie, czy radary lotnicze, ale również radary morskie (i statkowe), gdyż coraz większym zainteresowaniem cieszą się (także wśród potencjalnych inwestorów w Polsce) farmy wiatrowe w całości zlokalizowane na morzu. Publikacja jest efektem doświadczeń zdobytych przez Instytut Łączności podczas zakrojonych na szeroką skalę prac komercyjnych poświęconych temu zagadnieniu. Efektem tych działań było m.i więcej »

MODELE POZYSKANIA SZEROKOPASMOWEJ USŁUGI ŁĄCZNOŚCI DYSPOZYTORSKIEJ - DOI:10.15199/59.2015.4.91
Henryk Gierszal Karina Pawlina Andrzej Hajdasz Piotr Tyczka Krzysztof Romanowski Joanna Modławska 
Postęp technologiczny w radiokomunikacji ruchomej lądowej sprawił, że służby odpowiedzialne za bezpieczeństwo i porządek publiczny oraz ratownictwo coraz częściej sięgają po rozwiązania operacyjne wymagające szerokopasmowej transmisji danych. Doprowadziło to do tego,ż e już kilka lat temu zainicjowano dyskusję nad strategią wymiany eksploatowanych obecnie wąskopasmowych systemów łączności dyspozytorskiej na systemy szerokopasmowe. Najbardziej prawdopodobnym scenariuszem tego rozwoju jest oparcie nowyhc systemów na standardzie LTE. W pracy tej przeanalizowano klki a modeli pozyskania szerokopasmowej usługi ąłczności dyspozytorskiej, które pozwalają uzyskać pewien kompromis między przeciwstawnymi czynnikami determinującymi sukces realizacji takiego przedsięwzięcia. 1. WSTĘP Służby bezpieczeństwa i porządku publicznego coraz chętniej wykorzystują na swoje potrzeby operacyjne, szczególnie w sytuacjach kryzysowych, usługi szerokopasmowe świadczone przez operatorów publicznych sieci bezprzewodowych, dzięki czemu z miejsca incydentu możliwy jest m.in. przekaz podglądu wideo lub dostęp do baz danych. To rosnące zapotrzebowanie na usługi szerokopasmowe sprawia, że od kilku już lat obserwowany jest trend zmierzający do znalezienia najbardziej optymalnych rozwąizań techniczno- biznesowych umożliwiających sprawną organizacyjnie i niskonakładową finansowo wymianę sieci wąskopasmowych na sieci szerokopasmowe. Te plany muszą uwzględniać także co najmniej utrzymanie obecnego stanu współpracyr óżnych służb bezpieczeństwa publicznego i ratownictwa (SBPiR). W artykule zaprezentowano analizę finansowo-ekonomiczną pozyskania i eksploatacji rozwiązań technicznych zdolnych do świadczenia usług szerokopasmowych na potrzeby organizacji PPDR (ang. Public Protection and Disaster Relief) zajmujących się ochroną publiczną i pomocą w przypadku katastrof i klęsk żywiołowych. Układ artykułu jest następujący. W rozdz. 2 przedstawiono modele pozyskania więcej »

MODELOWANIE ELEKTROMAGNETYCZNE ZJAWISK NIELINIOWYCH WE WŁÓKNACH ŚWIATŁOWODOWYCH - DOI:10.15199/59.2015.4.104
Tomasz Karpisz Bartłomiej Salski 
W referacie opisano zastosowanie metody różnic skończonych w dziedzinie czasu do analizy zjawiska generacji supercontinuum w mikrostrukturalnych włóknach światłowodowych. W celu ograniczenia nakładów obliczeniowych metody, zaproponowano podejście hybrydowe. W pierwszym kroku, wyznaczane są własności dyspersyjne rodzaju podstawowego prowadzonego we włóknie przy pomocy analizy dwuwymiarowej wektorowej zredukowanej do przekroju poprzecznego włókna. Następnie, wykonywana jest analiza jednowymiarowa skalarna propagacji wzdłuż włókna. Wyznaczone parametry badanego rodzaju, czyli efektywny współczynnik załamania, uzupełnione o parametry nieliniowe zastosowanego szkła są reprezentowane w takiej symulacji jednowymiarowej poprzez odpowiednio dobrany wielobiegunowy model dyspersyjny. 1. WSTĘP Generacja supercontinuum (SC) zachodząca w mikrostrukturalnych włóknach światłowodowych może być efektywnym źródłem promieniowania szerokopasmowego w zakresie podczerwieni, stosowanym w szeroko rozumianej spektroskopii [1,2]. Proces generacji SC zależy od spełnienie odpowiednich relacji pomiędzy własnościami dyspersyjnymi, a efektami nieliniowymi, takimi jak samomodulacja fazy, generacja i rozpad solitonów czy mieszanie czterofalowe [3]. Mikrostrukturalne włókna światłowodowe są strukturami dużymi elektrycznie w porównaniu do długości fal. W rezultacie do modelowania zjawisk elektromagnetycznych (EM) zachodzących w tego typu strukturach stosuje się metody przybliżone, takie jak split-step-Fourier method (SSFM), służące do rozwiązania jednowymiarowego nieliniowego równania Schrödingera opisującego propagację fali wzdłuż włókna o wcześniej zdefiniowanych własnościach dyspersyjnych oraz nieliniowych [4]. Jednakże SSFM jest metodą niejawną pozwalającą na śledzenie jedynie obwiedni impulsu w jednowymiarowej linii transmisyjnej. W związku z tym w metodzie tej trudno rozróżnić rozwiązania fizyczne od niefizycznych [5]. W szczególności idea śledzeni więcej »

MODELOWANIE NIEREGULARNYCH POWIERZCHNI NA POTRZEBY ANALIZY PROPAGACYJNEJ W WYROBISKACH GÓRNICZYCH - DOI:10.15199/59.2015.4.62
Sławomir Kubal Ryszard J. Zieliński 
W artykule przedstawiono propozycje dwóch modeli nieregularnych powierzchni, które mogą zostać użyte w analizie propagacyjnej, bazującej na Optyce Geometrycznej w skomplikowanym środowisku wyrobiska górniczego. Przedstawiono również wyniki analiz rozproszeniowych na nieregularnych powierzchniach a także porównanie z wynikami pomiarów. 1. WSTĘP W artykule przedstawiono dwa rodzaje modeli nieregularnej powierzchni, które mogą zostać użyte do analiz propagacyjnych w środowisku wyrobiska górniczego. Środowisko propagacyjne wyrobiska górniczego z reguły tworzy system korytarzy ze stosunkowo regularnym przekrojem pionowym. Jednakże charakterystycznym elementem tego środowiska są znaczne nieregularności ścian, które powodują, że jest to bardzo skomplikowane środowisko do analiz propagacyjnych. W środowisku wyrobiska górniczego na coraz szerszą skalę stosuje się systemy bezprzewodowe, nie tylko do transmisji głosu, ale również w celach kontrolnych czy lokalizacyjnych. Planowanie takich systemów wymaga przeprowadzenia analizy propagacyjnej. W tym celu konieczne jest opracowanie modeli, które mogą być używane w tym środowisku przy założonej dokładności obliczeń. W środowisku zamkniętym bardzo często stosuje się metody bazujące na optyce geometrycznej GO [5],[9], często w połączeniu z analizą dyfrakcji przy użyciu jednolitej teorii dyfrakcji UTD [2]. Próby użycia tych metod przedstawiono między innymi w [3],[7],[11],[14]. 2. ROZPASZANIE FALI ELEKTROMAGNETYCZNEJ Padaniu fali elektromagnetycznej na nieregularną powierzchnię towarzyszy szereg zjawisk, które mają wpływ na kierunek, amplitudę i fazę fali rozproszonej na takiej powierzchni. Parametry fali odbitej od płaskiej i nieregularnej powierzchni znacznie różnią się od siebie (przy założeniu, że ta sama fala pada na obie powierzchnie pod tym samym kątem). Dla płaskiej powierzchni tylko dwa promienie docierają do określonego punktu Rx (znajdującego się nad powierzchnią): bezpośre więcej »

MODELOWANIE UKŁADÓW MEMS DO CELÓW EDUKACYJNYCH - DOI:10.15199/59.2015.4.109
Michał Szermer Piotr Zając Andrzej Napieralski 
W artykule zawarto opis prac związanych z projektowaniem i modelowaniem układów mikro-elektromechanicznych. Przedstawiono opis projektu europejskiego EDUMEMS, w ramach którego są realizowane wspomniane prace. 1. WSTĘP Projektowanie, modelowanie i wytwarzanie układów scalonych jest jedną z najbardziej dynamicznie rozwijających się dziedzin współczesnej elektroniki. Specjalizowane układy scalone typu ASIC znajdują zastosowanie w każdej dziedzinie życia, począwszy od telefonów komórkowych, tabletów, poprzez komputery, aż do zaawansowanych systemów sterowania używanych w zakładach przemysłowych. Tak duża różnorodność ich zastosowania wymaga ogromnej wiedzy wykorzystywanej przy ich projektowaniu. W Katedrze Mikroelektroniki i Technik Informatycznych były i wciąż są realizowane liczne projekty, polegające na opracowywaniu coraz to bardziej zaawansowanych układów [1], [2]. Szczególną rolę odgrywa tutaj projekt pt.: "Developing Multidomain MEMS Models for Educational Purposes - EDUMEMS". Jest to projekt realizowany w ramach siódmego programu ramowego Unii Europejskiej polegający na wykorzystaniu istniejącego potencjału naukowców z całej Europy. Utworzyli oni zespół projektantów o specjalizacji z różnych dziedzin nauki, którzy są w stanie zaprojektować układy MEMS z uwzględnieniem ich złożoności. Układy MEMS są obecnie najbardziej dynamicznie rozwijającą się dziedziną układów scalonych, które stosuje się obecnie w wielu urządzeniach gospodarstwa domowego i nie tylko. Tak szybko rozwijający się rynek smartfonów, tabletów i innych urządzeń mobilnych wymusza powstawanie coraz to nowszych i bardziej zaawansowanych technologicznie czujników i aktuatorów znajdujących zastosowanie w wyżej wymienionych urządzeniach. Do każdego układu MEMS wymagane jest podejście indywidualne, gdyż każdy system spełnia inną unikalną funkcję. Ich złożoność wymaga wiedzy i doświadczenia nie tylko z elektroniki ale również z mechaniki, termiki czy optyki. więcej »

MODYFIKACJE PROTOKOŁÓW STANDARDU 802.11 DLA UZYSKANIA NOWYCH FUNKCJONALNOŚCI W ŁĄCZU WI-FI - DOI:10.15199/59.2015.4.79
Krzysztof Bronk Adam Lipka Kacper Wereszko Krzysztof Żurek 
W niniejszym artykule przedstawiono przegląd platform sprzętowych i software'owych umożliwiających dokonywanie modyfikacji w protokołach komunikacji zgodnej ze standardem IEEE 802.11. Jako przykład podano dostosowanie routera Wi-Fi do pracy z tzw. równoległymi Internetami. 1. WSTĘP Rozwój komunikacji bezprzewodowej i rosnące zapotrzebowanie na pojemność łączy oraz zwiększająca się różnorodność jej zastosowań powoduje m.in. poszukiwanie niestandardowych rozwiązań w dziedzinie łączności radiowej, w tym w łączności zgodnej ze standardem IEEE 802.11 [1] będącym podstawą certyfikatów Wi-Fi. Poszukiwanie nowych rozwiązań w komunikacji Wi-Fi może być powodowane m.in. przez:  Budowanie Internetu nowej generacji na potrzeby nowych usług sieciowych, np. telewizji 4K;  Współpraca z Internetem Rzeczy (IoT), co wiąże się z nowymi rozwiązaniami w dziedzinie bezpieczeństwa, adresowania, routingu;  Łączenie różnych technologii radiowych (np. Wi- Fi, bluetooth, ZigBee i inne w paśmie ISM) w celu zwiększenia zasięgu sieci na lądzie, jak również na morzu;  Dążenie do poprawy procedur zarządzania zasobami radiowymi;  Budowa autorskich urządzeń z obsługą Wi-Fi z niestandardowymi funkcjami. 2. WYBÓR SPRZĘTU DO MODYFIKACJI KOMUNIKACJI 802.11 Zmiany w protokole 802.11 mogą być dokonywane na kilku poziomach:  W sterowniku chipsetu Wi-Fi;  W warstwie łącza, np. zmiana wartości bajtu nagłówka MAC 802.11, niestandardowa długość nagłówka;  W warstwie sieciowej np. w procedurach routingu;  W warstwie fizycznej np. zmiana modulacji, a nawet nośnika (np. technologia Li-Fi [2] gdzie medium transmisji jest światło widzialne), zmiana częstotliwości. Poziom, na którym planowane są zmiany, powoduje konieczność wyboru odpowiedniego sprzętu, w którym zmiany takie będą możliwe do wprowadzenia. Projektant ma do dyspozycji następujące platformy sprzętowo - software'owe: a) Komputer PC lub specjalizowane urządzenie do zastosowań si więcej »

MONITOROWANIE STANU KONSTRUKCJI HELIKOPTERA Z UŻYCIEM SIECI SENSOROWYCH - DOI:10.15199/59.2015.4.51
Łukasz Prasnal Marek Natkaniec 
Praca obejmuje analizę sieci sensorowej opartej na standardzie IEEE 802.15.4, przesyłającej dane z czujników umieszczonych w kadłubie helikoptera w celu szybkiej detekcji uszkodzeń jego konstrukcji. W pracy zaproponowano sposób rozmieszczenia poszczególnych sensorów na powierzchni kadłuba helikoptera oraz zaproponowano trzy warianty rozmieszczenia węzłów docelowych (ujść) sieci sensorowej. Wykazano również optymalne wielkości parametrów pracy sieci pozwalające na minimalizację strat przesyłanych danych, maksymalizację przepływności oraz minimalizację zużycia energii. 1. WSTĘP W ostatnich latach obserwowany jest dynamiczny rozwój bezprzewodowych sieci sensorowych WSNs (Wireless Sensor Networks). Sieci WSNs [2], [4] mogą znaleźć zastosowanie w najróżniejszych systemach mających za zadanie monitorowanie, dokonywanie pomiarów bądź alarmowanie o wystąpieniu określonych zjawisk. Z dużym zapotrzebowaniem na tego typu systemy spotyka się zwłaszcza przy nadzorowaniu stanu środowiska - np. jakości wód - oraz struktur krytycznych - np. stanu technicznego mostów. Czujniki stanowią nieodzowny element wielu skomplikowanych systemów, pozwalają bowiem powiązać działanie urządzeń z warunkami panującymi w środowisku zewnętrznym. Dzięki temu mogą one reagować na pojawienie się pewnych bodźców bądź rejestrować wartości wybranych wielkości fizycznych. Istotnym utrudnieniem w wykorzystywaniu sensorów jest w wielu przypadkach potrzeba umieszczenia ich w określonym, nierzadko trudno dostępnym miejscu, skąd przewodowe doprowadzenie sygnału do reszty systemu może okazać się niemożliwe bądź nieopłacalne. Stąd z dużym zainteresowaniem spotykają się metody bezprzewodowego przesyłu wyników pomiarów dokonanych przez czujniki, najczęściej z użyciem sieci WSNs. Jednym z głównych kandydatów do zastosowania w sieciach sensorowych jest standard IEEE 802.15.4, opracowany z myślą o bezprzewodowych sieciach osobistych niskich przepływności LRWPANs (Low Rat więcej »

NOWOCZESNE UKŁADY SCALONE MORE THAN MOORE - ANALIZA ZJAWISK ELEKTROMAGNETYCZNYCH - DOI:10.15199/59.2015.4.110
Mariusz Jankowski Mariusz Zubert Mateusz Chmurski Andrzej Napieralski 
W artykule przedstawiono prowadzone badania związane z modelowaniem i symulacją elektronicznych układów scalonych, z uwzględnieniem zachodzących w nich zjawisk elektromagnetycznych. Artykuł opisuje przegląd najefektywniejszych metod będących punktem wyjścia implementacji pełnego "solvera" do tego problemu. 1. WSTĘP Badania dotyczące modelowania i analizy zjawisk elektromagnetycznych w materiałach półprzewodnikowych są niezwykle istotne ze względu na powszechność i znaczenie półprzewodnikowych układów mikroelektronicznych dla rozwoju współczesnej cywilizacji. Dzieje się tak ze względu na trendy rozwoju technologii półprzewodnikowych: rozmiary przyrządów, częstotliwości sygnałów, wymagania systemów integracji układów scalonych, rosnące znaczenie połączeń bezprzewodowych w i pomiędzy układami scalonymi, zwłaszcza w strukturach 3D. Autorzy skupili się nad zastosowaniem nowego podejścia do modelowania i symulacji zjawisk elektromagnetycznych w strukturach scalonych, poprzez opracowanie modeli i wysoce efektywnej czasowo i precyzyjnej metody obliczeniowej, a następnie zestawu narzędzi programistycznych korzystających z niej, jest w stanie polepszyć jakość procesu projektowania, i parametrów elektromagnetycznych układów scalonych, ze szczególnym uwzględnieniem trójwymiarowo scalanych struktur scalonych - 3D IC (ang. 3-Dimensional Integrated Circuits, zob. Rys, 1). Rezultaty proponowanych badań umożliwią upowszechnianie scalonych systemów trójwymiarowych (3D), poprzez opracowanie metod i narzędzi, pozwalających na projektowanie struktur scalonych z uwzględnieniem i wykorzystaniem ich właściwości elektromagnetycznych. Obecnie istniejące, komercyjne pełno-falowe symulatory EMC oraz SI dedykowane dla modelowania zjawisk w IC (np. IE3D-SSD, FEKO), nie pozwalają na uzyskanie wysokiej dokładności dla wysokich częstotliwości, ze względu na wykorzystanie metody momentów (MoM). Druga grupa komercyjnych symulatorów EMC, opartych na więcej »

OBWODY ZASILANIA DWUPOLARYZACYJNYCH UKŁADÓW ANTENOWYCH O DUŻEJ IZOLACJI - DOI:10.15199/59.2015.4.42
Dariusz Wójcik Artur Noga Maciej Surma 
Artykuł porusza wybrane zagadnienia kon­strukcji obwodów zasilania liniowych układów antenowych dla sieci bezprzewodowych stosujących technikę MIMO 2x2 wraz z odbiorem zbiorczym polaryzacyjnym. Pokaza­no, jak realizacja układu dystrybucji mocy dla obu polary­zacji wpływa na uzyskiwane izolacje pomiędzy wrotami anteny. Zamieszczono wyniki symulacji komputerowych i pomiarów wykonanych na prototypach anten. 1. WSTĘP Wzrost przepustowości systemów bezprzewodowej transmisji danych realizowany jest powszechnie przez zastosowanie techniki wieloantenowej MIMO (ang. Multiple Input Multiple Output), gdzie informacja transmitowana jest między nadajnikiem i odbiornikiem przy zastosowaniu wielu strumieni danych [1]. Dla osią­gnięcia dużej efektywności tej techniki konieczny jest brak korelacji wzajemnej pomiędzy transmitowanymi sygnałami. Oczywistym wy więcej »

OCENA SKUTECZNOŚCI DZIAŁANIA SYSTEMU ROZPOZNAWANIA MÓWCY JAKO SYSTEMU PRACUJĄCEGO NIEZALEŻNIE OD ZAREJESTROWANEGO JĘZYKA WYPOWIEDZI - DOI:10.15199/59.2015.4.14
Ewelina Majda-Zdancewicz Andrzej Dobrowolski 
W artykule przedstawiono wyniki badań automatycznego systemu rozpoznawania mówcy (ASR - ang. Automatic Speaker Recognition), przeprowadzonych przy użyciu niezależnej bazy danych głosowych 2002 NIST Speaker Recognition Evaluation. Przeprowadzono zarówno badania jakościowe, jak i ilościowe, związane m.in. z badaniem wpływu zmian długości wypowiedzi uczącej oraz testowej na skuteczność rozpoznania. Badania prowadzone były pod kątem zastosowania ASR jako systemu działającego niezależnie od zarejestrowanego języka wypowiedzi. 1. WSTĘP Od kilku lat obserwuje się wzrastające zainteresowanie urządzeniami wykorzystującymi biometryki powodując ich upowszechnienie i spopularyzowanie. Rozpoznawanie głosu wydaje się być jedną z najbardziej obiecujących i użytecznych technologii, głównie ze względu na fakt, że charakteryzuje się niskim stopniem inwazyjności. Automatyczne rozpoznawanie głosu obejmuje dwie zasadniczo różniące się procedury: identyfikację oraz weryfikację. Identyfikacja mówcy jest procesem decyzyjnym, polegającym na określeniu tożsamości mówcy bez deklarowania przez niego tożsamości. Z kolei weryfikacja to proces decyzyjny wykorzystujący cechy sygnału mowy do określenia, czy mówca danej wypowiedzi jest faktycznie osobą, której tożsamość deklaruje. Bardzo istotną, z praktycznego punktu widzenia, charakterystyką systemów rozpoznawania mówców jest ich zależność od wypowiadanego przez osobę rozpoznawaną tekstu. W tym kontekście rozróżnia się systemy rozpoznawania mówców zależne od tekstu (ang. textdependent), w których zawartość lingwistyczna materiału treningowego i testowego jest jednakowa oraz niezależne od tekstu (ang. text-independent), gdy zdania testowe różnią się od zdań uczących przynajmniej pod względem kolejności słów. W szczególności w tym przypadku dopuszcza się możliwość rozpoznawania mówcy nawet niezależnie od języka wypowiedzi [1, 3]. W artykule przestawiono zaimplementowany w środowisku Matlab uniwersalny więcej »

OCHRONA ODGROMOWA Z ZASTOSOWANIEM URZĄDZEŃ NIEZGODNYCH Z NORMAMI PN-EN - DOI:10.15199/59.2015.4.33
Karol Aniserowicz 
Przedstawiono urządzenia stosowane do tzw. niekonwencjonalnej ochrony odgromowej obiektów budow­lanych, w tym telekomunikacyjnych. Podzielono je na dwie zasadnicze grupy: piorunochrony aktywne i urządzenia mające zapobiegać wyładowaniom atmosferycznym. Pod­dano je krytyce jako urządzenia kosztowne, często instalo­wane w sposób sprzeczny z podstawowymi zasadami bez­pieczeństwa, a przy tym nie zapewniające skuteczności ochrony lepszej niż standardowa instalacja piorunochron- na. 1. WSTĘP Wydarzeniem, które jest najczęściej wymieniane w literaturze jako początek badań nad naturą wyładowań atmosferycznych i ochroną odgromową, był słynny eks­peryment Benjamina Franklina z latawcem w roku 1752. Z perspektywy długości ludzkiego życia było to dawno, a jednocześnie jakże niedawno - z perspektywy rozwoj więcej »

OCHRONA PRZED PEM A ROZWÓJ RADIOWYCH SIECI SZEROKOPASMOWYCH - DOI:10.15199/59.2015.4.26
Piotr Grajkowski 
Artykuł stanowi kontynuację przedstawionego w [1] i [2] przeglądu przepisów i ich interpretacji stosowanych w procesie budowy i eksploatacji infrastruktury radiokomunikacyjnej. Tym razem autor skupił się na wskazaniu regulacji w zakresie ochrony środowiska pracy i środowiska naturalnego przed PEM - regulacji, których złagodzenie, a zarazem uściślenie mogłoby wpłynąć stymulująco na rozwój infrastruktury radiowej, w tym radiowych sieci szerokopasmowych (RSS). 1. ROZWÓJ RADIOWEJ INFRASTRUKTURY SZEROKOPASMOWEJ W ŚWIETLE STRATEGII "EUROPA 2020" Ochrona przed promieniowaniem elektromagnetycznym (PEM) jest głównie domeną takich dziedzin nauki jak medycyna pracy i ochrona środowiska zarówno w aspekcie merytorycznym, jak i formalno-prawnym. Jaki zatem może mieć związek ochrona przed PEM z radiokomunikacją, a w szczególności z RSS? Otóż, o ile medycyna pracy i ochrona środowiska zajmują się tą tematyką podmiotowo, o tyle radiokomunikacja, a konkretnie radiowe obiekty nadawcze, jako wyposażone w źródła PEM, są jej przedmiotem. Rozwój społeczeństwa informacyjnego, w którym istotną rolę odgrywają radiowe technologie szerokopasmowe, jest jednym z pięciu celów "Europy 2020", unijnej strategii wzrostu na bieżące dziesięciolecie. Sukces tego wizjonerskiego projektu w odniesieniu do poszczególnych państw członkowskich, w tym Polski, zależy nie tylko od regulacji branżowych, wynikających z prawa telekomunikacyjnego, lecz także w sposób oczywisty od stanu rozwoju szeroko rozumianej infrastruktury. Z kolei inwestycje w infrastrukturę telekomunikacyjną podlegają - jak w każdej branży - ogólnym ograniczeniom wynikającym z kształtu i realizacji prawa. Zagadnienia przedstawione w artykule wpisują się w cel strategii "Europa 2020", którym jest wsparcie rozwoju infrastruktury i usług szerokopasmowych, rozumiane zarówno jako wdrażanie instrumentów technicznych, ekonomicznych, prawnych, jak i usuwanie hamulców, m.in. formalno-prawnych. Można wyr więcej »

Ochrona systemów antenowych od wyładowań atmosferycznych - wymagania zawarte w nowej edycji normy PN-EN 62305 dotyczącej ochrony odgromowej - DOI:10.15199/59.2015.4.99
Krzysztof Wincencik 
W referacie przedstawiono wymagania dotyczące ochrony odgromowej systemów antenowych . Omówiono zmiany jakie wprowadza druga edycja normy dotyczącej ochrony odgromowej obiektów budowlanych oraz norma dotycząca bezpieczeństwa sieci kablowych. 1. WSTĘP Systemy antenowe to widok z którym mamy do czynienia na co dzień - anteny rożnych systemów łączności widoczne są niemal na każdym budynku. Pomimo że Polska nie leży w strefie klimatycznej gdzie występuje zwiększona aktywność burzowa , to jednak corocznie odnotowuje się wiele przypadków trafienia pioruna w systemy antenowe. Konsekwencją tego może być pożar i zniszczenie części obiektu lub tylko uszkodzenie urządzeń elektronicznych. Dzieje się tak m.in. dlatego, że temat zagrożenia i potrzeby ochrony odgromowej systemu antenowego jest marginalizowany i praktycznie nie istnieje w świadomości właścicieli budynków. Ochrona odgromowa anten została ujęta w zapisach rozporządzenia ministra infrastruktury w sprawie warunków technicznych jakim powinny odpowiadać budynki i ich usytuowanie oraz w normach dotyczących ochrony odgromowej budynków i bezpieczeństwa sieci kablowych[1],[3]. Również Międzynarodowy Związek Telekomunikacyjny ( ITU) w ramach swoich norm wydał odpowiedni dokument dotyczący ochrony anten u klientów oraz na stacjach bazowych. Ważne jest też, że wszystkie wymienione wcześniej dokumenty powoli dążą wprowadzenia do jednolitych zapisów i usunięcia różnic w poszczególnych normach.. 2. ROZPORZĄDZENIE MINISTRA INFRASTRUKTURY Rozporządzenie ministra Infrastruktury w wykazie norm , w zakresie ochrony odgromowej budynków przywołuje wieloarkuszową normę PN-EN 62305 - Ed.1.0 , która opublikowana została przez PKN ( w języku polskim ) w latach 2008-2009. Jednocześni więcej »

OCHRONA URZĄDZEŃ TELEWIZJI PRZEMYSŁOWEJ PRZED IMPULSOWYMI ZABURZENIAMI ELEKTROMAGNETYCZNYMI - DOI:10.15199/59.2015.4.34
Leszek Kachel 
W artykule poruszono problematykę zabezpieczenia urządzeń telewizji przemysłowej przed impulsowymi zaburzeniami elektromagnetycznymi o małej i dużej energii. Stopień narażenia tych urządzeń jest duży ze względu na przestrzenne rozmieszczenie kamer oraz znacząca długość linii transmisyjnych i zasilających. W referacie zamieszczono przykładowy system zabezpieczenia przeciwprzepięciowego wszystkich urządzeń przeznaczonych do pracy w danym obiekcie. 1. WSTĘP Urządzenia telewizji przemysłowej znajdują coraz częstsze zastosowanie do monitorowania wielu obiektów nie tylko przemysłowych, ale również obiektów prywatnych i o charakterze ogólnodostępnym, jak na przykład tereny osiedlowe. Urządzenia te pracują najczęściej w rozbudowanych przestrzennie systemach i narażane są na impulsowe zaburzenia elektromagnetyczne wywołane przede wszystkim przez wyładowania atmosferyczne oraz na przepięcia komutacyjne, stanowiące najczęściej przyczynę około 30% awarii. Wszystkie urządzenia elektryczne i elektroniczne pracujące w dowolnym środowisku elektromagnetycznym muszą spełniać wymagania kompatybilności elektromagnetycznej. Szczegółowe wymagania zawarte są w europejskich i krajowych standardach normalizacyjnych, które w tym zakresie są obowiązkowe dla producentów i użytkowników sprzętu. Wymagania zawarte w standardach dotyczą odporności na określone zaburzenia elektromagnetyczne. Należy zaznaczyć, że urządzenia telewizji przemysłowej są szczególnie narażone na oddziaływanie impulsowych zaburzeń elektromagnetycznych. Do najgroźniejszych ze względu na skutki zagrożeń należą wyładowania atmosferyczne oraz przepięcia komutacyjne stanowiące najczęściej przyczynę około 30% awarii. Prawidłowy dobór elementów zabezpieczających może zapewnić niezakłóconąi bezawaryjną pracę urządzeń zainstalowanych w obiektach stacjonarnych, jak i kamer instalowanych w różnych miejscach na terenie otwartym. Dlatego prawidłowa ocena zagrożeń w danym środowisku ele więcej »

ODPORNOŚĆ SYSTEMU LTE NA ZAGŁUSZANIE - DOI:10.15199/59.2015.4.12
Rafał Krenz Soumya Brahma 
Najpopularniejszym obecnie systemem łączności wykorzystywanym przez służby bezpieczeństwa publicznego oraz ratownictwa w Europie jest system TETRA. Ze względu na ograniczony zakres usług coraz częściej rozważa się wykorzystanie przez te służby systemu LTE, umożliwiającego transmisję multimedialną, niezwykle przydatną w tego rodzaju zastosowaniach. Należy jednak pamiętać, że system ten została opracowany do zastosowań cywilnych i dlatego istotnym zagadnieniem staje się zbadanie odporności systemu LTE na celowe zagłuszanie. 1. WSTĘP Sprawne działanie służb bezpieczeństwa publicznego oraz służb ratowniczych w sytuacjach kryzysowych nie jest możliwe bez zapewnienia niezawodnej komunikacji pomiędzy jednostkami zaangażowanymi w akcję oraz centrami dowodzenia. Obecnie w Europie wykorzystywanych jest w tym celu kilka niekompatybilnych ze sobą systemów, m.in. TETRA, TETRAPOL, PMR/DMR oraz publiczne sieci komórkowe (GSM/UMTS) [1]. Zapewniają one na ogół wyłącznie połączenia głosowe oraz transmisję danych o niewielkich przepływnościach, natomiast nie umożliwiają transmisji multimedialnej (w szczególności strumieniowania wideo) przydatnej w wielu sytuacjach. Od kilku lat rozważa się wykorzystanie w tym celu systemu LTE, który ma już ugruntowana pozycję w publicznych sieciach komórkowych. Jego zastosowanie dla służb bezpieczeństwa publicznego oraz służb ratowniczych wymaga wprowadzenia pewnych modyfikacji, jak np. umożliwienie pracy w pasmach wydzielonych 400/700 MHz, dodanie usług trankingowych (PTT, funkcje dyspozytorskie, itd.), jednak takie rozwiązania są już od pewnego czasu proponowane przez producentów sprzętu [2, 3]. W związku z narastającym, szczególnie w ostatniej dekadzie, zagrożeniem terrorystycznym, nasuwa się pytanie, czy system zaprojektowany pierwotnie dla zastosowań cywilnych jest wystarczająco odporny na celowe ataki, które mogą zostać przeprowadzone w celu zakłócenia komunikacji służb specjalnych i ratowniczych. więcej »

OPTYCZNY SKANER OBIEKTÓW TRÓJWYMIAROWYCH - DOI:10.15199/59.2015.4.73
Tomasz Grajek Maciej Celmer Monika Trączyńska Krzysztof Wegner 
W pracy przedstawiono technikę skanowania obiektów trójwymiarowych. Model 3D obiektu tworzony jest jedynie na podstawie analizy obrazów zarejestrowanych za pomocą zwykłej kamery (wideo). Zaproponowana technika wykorzystuje, opracowywany w ramach Międzynarodowej Organizacji Normalizacyjnej (ISO), algorytm estymacji głębi stereoskopowej z szeregu niezrektyfikowanych obrazów. Efektywność opracowanego rozwiązania sprawdzono na wielu obiektach testowych, zarejestrowanych za pomocą sensora Kinect. W celach porównawczych, poza obrazem obiektu, zarejestrowano również mapę głębi. Przedstawione wyniki eksperymentów potwierdzają możliwość zastąpienia urządzeń aktywnych do tworzenia trójwymiarowych modeli obiektów urządzeniami pasywnymi, wykorzystującymi techniki algorytmicznej estymacji map głębi jedynie na podstawie analizy zarejestrowanego obrazu. 1. WSTĘP Wraz z gwałtownym rozwojem dziedziny trójwymiarowej grafiki komputerowej, filmowych efektów specjalnych, przemysłu gier komputerowych oraz wchodzących na rynek drukarek 3D, można zaobserwować rosnące zainteresowanie rozwiązaniami pozwalającymi na szybkie i dokładne tworzenie modeli 3D fizycznych przedmiotów. Ręczne tworzenie modeli jest bardzo czasochłonne i wymaga specyficznych umiejętności oraz pewnej dozy talentu. Z kolei automatyczne techniki tworzenia modeli 3D, zwane skanerami 3D, wymagają specjalistycznego sprzętu. Na rynku są już dostępne różne systemy skanowania obiektów trójwymiarowych (3D), spośród których warto wymienić: kamery głębi [1], skanery wykorzystujące światło strukturalne w zakresie widzialnym lub w podczerwieni [2] oraz laserowe skanery obiektów. Jednak techniki te albo są bardzo drogie albo wytworzone z ich wykorzystaniem modele są niskiej rozdzielczości i jakości. W takich okolicznościach, prosta i tania technika automatycznego tworzenia modeli przestrzennych wydaje się być wielce pożądana. Co więcej, gdyby takie modele udało się stworzyć, wykorzystuj więcej »

OPTYMALIZACJA EFEKTYWNOŚCI ENERGETYCZNEJ ŁĄCZA RADIOWEGO ADAPTACYJNEGO SYSTEMU OFDM - DOI:10.15199/59.2015.4.19
Bartosz Bossy Hanna Bogucka 
W artykule przedstawiono zagadnienie efektywności energetycznej łącza sieci bezprzewodowej. Wyznaczano krzywe efektywności energetycznej w funkcji mocy transmitowanej dla systemu wykorzystującego adaptacyjną modulację oraz adaptacyjne kodowanie kanałowe. Wyniki symulacji wskazują, że istnieje optymalny punkt pracy dla danego łączą, w którym efektywność energetyczna osiąga wartość maksymalną1. 1. WSTĘP Problem zużycia energii w bezprzewodowych sieciach telekomunikacyjnych staje się coraz bardziej istotnym aspektem ich projektowania. Szybki rozwój technologii związanych z ICT (ang. Information and Communication Technologies) w znaczący sposób przyczynił się do zjawiska globalnego ocieplenia. Ponadto powszechnie wiadomo, że więcej niż 3-5% światowej energii zużywa właśnie infrastruktura ICT. W rezultacie oznacza to, że emisja CO2 związana z infrastrukturą telekomunikacyjną jest porównywalna z emisją dwutlenku węgla światowego ruchu lotniczego. Według przewidywań Cisco globalny ruch danych w sieci Internet wzrasta dwukrotnie każdego roku, oznacza to, że w ciągu dziesięciu lat wzrost ten będzie tysiąckrotny [1], co przełoży się na taki sam wzrost zużycia energii. Pierwszym głównym źródłem zużycia energii w systemach komunikacji bezprzewodowej są wzmacniacze mocy sygnału przeznaczonego do transmisji. Jak pokazano w Tabeli 1. od 50 do 80% całkowitej energii zużywanej przez stacje bazowe sieci komórkowych jest zużywane przez wzmacniacze mocy [2]. Podobne wyniki są uzyskiwane dla terminali mobilnych lub dla komunikacji o lokalnym zasięgu np. WLAN (ang. Wireless Local Area Network), w których wzmacniacze mocy są odpowiedzialne za 44% zużycia energii (patrz Tabela 2.) [3]. Dodatkowo należy pamiętać o nieliniowej charakterystyce wzmacniaczy mocy oraz innych elementów elektronicznych znajdujących się na drodze przetwarzania sygnału w łączu radiowym. Elementy nieliniowe zakłócają sygnał o wysokiej amplitudzie chwilowej oraz powoduj więcej »

OSZCZĘDNOŚĆ ENERGETYCZNA KOOPERACYJNEJ DETEKCJI SYGNAŁÓW W RADIU KOGNITYWNYM - DOI:10.15199/59.2015.4.29
Krzysztof Cichoń Hanna Bogucka 
W pracy przeanalizowano zużycie energii w sieci trzech węzłów realizujących detekcję zajętości pasma i przekazujących stosowną informację do węzła zbiorczego. Wykonano analizę jakości detekcji i zużycia energii dla różnych konfiguracji urządzeń. Pokazano, że wybranie jedynie części urządzeń realizujących tę detekcję pozwala zwiększyć oszczędność energetyczną, przy ryzyku obniżonej jakości detekcji. Badania symulacyjne dowiodły, że liczba węzłów koniecznych do zapewnienia wysokiej jakości detekcji zależy od jakości łącza i odległości od węzła zbiorczego oraz od użytkownika licencjonowanego.1 1. WSTĘP Dynamiczny wzrost liczby urządzeń mobilnych, połączeń przez nie wykonywanych, jak i wzrost liczby użytkowników mobilnych leży u podstaw rosnącego zapotrzebowania na transmisję bezprzewodową. W prognozie firmy Cisco [1] przewiduje sęi , że w latach 2014- 2019 nastąpi dziesięciokrotny wzrost ruchu w sieciach mobilnych. Spowoduje to jednocześnie deficyt pasma radiowego, co jest istotną podstawą poszukiwania nowych sposobów elastycznego i efektywnego wykorzystania tego pasma. U podstaw radia kognitywnego, będącego odpowiedzią na rosnące zapotrzebowanie na zasoby widmowe, leży obserwacja, że obecnie wiele pasm częstotliwości jest zajętych w małym stopniu. Pomiary wykonane w budynku Wydziału Elektroniki i Telekomunikacji Politechniki Poznańskiej wykazały, że dla częstotliwości radiowych z przedziału 75-3000 MHz średnia zajętość pasm wynosi jedynie 27% [2]. W radiu kognitywnym dopuszcza się pożytkowanie pasm przypisanych użytkownikom licencjonowanym (tzw. użytkownikom pierwotnym, ang. Primary User - PU). Użytkownik radia kognitywnego (tzw. użytkownik wtórny SU) jest jednak zobowiązany, aby z wysokim poziomem wiarygodności ocenić czy PU transmituje sygnał w określonym paśmie. Jeśli tak, to transmisja SU jest niemożliwa w tym paśmie, w przeciwnym przypadku, SU może je zająć i rozpocząć transmisję, zapewniając ochronę PU poprzez min więcej »

PASMOWO-PRZEPUSTOWE FILTRY DYSPERSYJNE - DOI:10.15199/59.2015.4.76
Łukasz Szydłowski 
W niniejszym referacie przedstawiona została nowa technika syntezy dyspersyjnej macierzy sprzężeń dla pasmowo-przepustowych filtrów mikrofalowych o uogólnionych charakterystykach Czebyszewa. Zaproponowane podejście bazuje na optymalizacyjnej technice minimalizującej funkcję kosztu zbudowanej z odpowiednich zestawów wartości własnych pęków macierzowych opisujących część stałą oraz część dyspersyjną macierzy sprzężeń filtru. Przeprowadzone testy numeryczne potwierdzają zasadność zaproponowanego podejścia. 1. WSTĘP Filtry mikrofalowe są podstawowym elementem każdego systemu telekomunikacyjnego. Zasadniczym zadaniem układu filtrującego jest usunięcie niepożądanych częstotliwości z widma sygnału i przesłanie odfiltrowanego sygnału do portu wyjściowego. W celu podwyższenia selektywności filtru lub też kształtowania charakterystyki opóźnienia grupowego wprowadza się zera transmisyjne (urojone lub zespolone). Podstawową metodą uzyskiwania zer transmisyjnych w filtrze są sprzężenia skrośne pomiędzy niesąsiadującymi rezonatorami (przy założeniu stałej w funkcji częstotliwości wartości sprzężenia) [1-3]. Podejście to jest znane od wielu lat jednak opracowane techniki projektowe są zasadne tylko dla wąskiej grupy filtrów. Drugim podejściem jest wykorzystywanie sprzężeń dyspersyjnych (tj. zmiennych z częstotliwością) do generowania zer transmisyjnych. W koncepcji tej wykorzystuje się liniową zmienność z częstotliwością wartości współczynnika sprzężenia do wygenerowania dodatkowych zer transmisyjnych. Idea wykorzystania tego typu połączeń nie jest nowa - zaproponowana została w 1976 roku [4]. Niestety, do zaproponowanego modelu nie opracowano żadnej metodologii pozwalającej zsyntezować wartości jego elementów. Filtry ze sprzężeniami zmiennymi z częstotliwością zostały ponownie odkryte pod koniec XX wieku i zaczęły regularnie pojawiać się w doniesieniach naukowych. Pierwsze realizacje układów dyspersyjnych dotyczyły filtrów, w któ więcej »

Pola elektromagnetyczne w otoczeniu routerów Wi-Fi - DOI:10.15199/59.2015.4.25
Paweł Mamrot Magda Mariańska 
Przedstawiono wyniki pomiarów pola elektromagnetycznego (PEM) w otoczeniu routerów Wi-Fi. Badania prowadzono w warunkach rzeczywistych w środowisku mieszkalnym człowieka (20 urządzeń) oraz w warunkach laboratoryjnych (10 urządzeń). Routery bezprzewodowe są źródłem PEM o wielkościach natężenia pola elektrycznego dochodzących do 5.0 V/m w odległościach do 0.1 m. W szczególnych warunkach wartości mogą wzrosnąć do 12 V/m. 1. WSTĘP Postęp technologiczny wprowadza do środowiska pracy jak i do gospodarstw domowych człowieka wiele urządzeń elektronicznych. Wśród wielu rozwiązań nowoczesnych technologii jednym z najczęściej występujących są sieci bezprzewodowe Wi-Fi. Ze względu na brak połączeń kablowych, mobilność urządzeń współpracujących z siecią, sieci bezprzewodowe cieszą się dużą popularnością w środowisku domowym. Sieci Wi- Fi występują także w miejscach pracy, w miejscach zbiorowej rozrywki - czyli niemal wszędzie. Używając urządzeń nowoczesnych technologii połączonych z sieciami Wi-Fi, takich jak smartfony, tablety, laptopy, netbooki, czy odbiorniki tv, człowiek przebywa w zasięgu słabych pól elektromagnetycznych (PEM), wytwarzanych przez te urządzenia. Pola te w widoczny sposób zmieniają naturalne środowisko elektromagnetyczne w którym człowiek przebywa stale. Niektóre badania dotyczące środowiska elektromagnetycznego dotyczą możliwego wpływu PEM o nieznacznie podwyższonych wartościach, oddziałujących w sposób ciągły, na zdrowie człowieka. Routery są podstawowym elementem sieci bezprzewodowej Wi-Fi, przez które odbywa się cały ruch sygnałów przenoszących dane do i od przyłączonych do nich urządzeń bezprzewodowych. W zależności od zastosowań, przepustowości sieci można kupić model odpowiadający wymaganiom nawet najbardziej wymagającego użytkownika. W pracy przedstawiono wyniki pomiarów 20 modeli routerów, pracujących w najczęściej występujących konfiguracjach, w warunkach domowych. Biorąc też pod uwagę wzrastającą l więcej »

POMIAR PASMA KOHERENCJI KANAŁÓW RADIOWYCH W SYSTEMIE TETRA - DOI:10.15199/59.2015.4.93
Jarosław Sadowski 
Referat zawiera opis weryfikacji pasma koherencji kanałów radiowych dla systemu TETRA na bazie pomiarów zrealizowanych w warunkach rzeczywistych w województwie pomorskim. Opisana została metoda pomiarowa bazująca na wykorzystaniu sygnałów łącza w dół z systemu CDMA2000. Wyniki pomiarów zostały porównane z modelami kanałów radiowych zawartymi w specyfikacji systemu TETRA. 1. WSTĘP Prawidłowe funkcjonowanie systemów radiokomunikacyjnych w warunkach zmiennych własności kanałów radiowych wymaga zastosowania odpowiednich technik odbioru. Poprawę odbioru sygnałów w cyfrowych systemach radiokomunikacji ruchomej można uzyskać stosując wiele metod, z których najczęściej spotykane to np. korektory adaptacyjne (tzw. equalizery) oraz odbiór zbiorczy czasowy i przestrzenny. O tym, które z technik będą pozwalały na istotną poprawę jakości odbioru sygnałów, decydują przede wszystkim parametry czasowo-częstotliwościowe nadawanych sygnałów oraz własności kanału radiokomunikacyjnego. Problem właściwego doboru technik poprawy odbioru w systemach cyfrowych zaistniał w 2014 roku podczas projektowania sieci trunkingowej TETRA dla potrzeb jednego z krajowych operatorów sieci energetycznych i definiowania wymagań odnośnie wyposażenia stacji bazowych dla tej sieci. Pod rozwagę brane były wymogi zastosowania w stacjach bazowych odbioru zbiorczego dwu- i trójdrożnego oraz odbiorników z korektorem adaptacyjnym (equalizerem) Funkcjonowanie odbiornika z korektorem adaptacyjnym będzie efektywne wtedy, gdy sygnał radiowy będzie propagowany przez kanał chrakteryzujący się zanikami selektywnymi częstotliwościowo. Pomimo, że zarówno teoretyczne rozważania jak i modele zdefiniowane w specyfikacji systemu TETRA [1] wskazują na występowanie w kanałach radiowych w pasmie UHF zaników płaskich, autor podjął się weryfikacji własności częstotliwościowych kanałów radiowych w systemie TETRA na drodze pomiarowej z wykorzystaniem sygnałów łącza w dół w sieci tele więcej »

POMIARY JAKOŚCI TRANSMISJI DANYCH NA TERENIE TRÓJMIASTA W SIECIACH WYBRANYCH OPERATORÓW KOMÓRKOWYCH - DOI:10.15199/59.2015.4.21
Krzysztof Bronk Rafał Niski Błażej Wereszko 
W referacie przedstawiono możliwości po­miarowe Mobilnej Platformy Pomiarowej (MPP) zaprojek­towanej i wykonanej w Instytucie Łączności w Gdańsku zgodnie z wymaganiami Memorandum. Ponadto referat prezentuje wyniki testowej kampanii pomiarowej wykona­nej na terenie Trójmiasta dla wybranych operatorów. 1. WSTĘP W Instytucie Łączności w Gdańsku od 2012 roku prowadzone są prace związane z rozbudową Mobilnej Platformy Pomiarowej (MPP) do badań parametrów jakościowych usług transmisji danych w sieciach ko­mórkowych [1]. W ramach prowadzonej w 2014 roku pracy statutowej [2] dokonano przystosowania MPP do wymogów Memorandum oraz dodatkowo rozszerzono jej funkcjonalność. Wspomniane Memorandum to porozumienie dla współpracy na rzecz podnoszenia jakości usług teleko­munikacyjnych, przygotowane w ramach współpracy Urzędu Komunikacji Elektronicznej z przedstawicielami operatorów, uczelni technicznych, instytutów naukowo- badawczych i innych instytucji. Ma ono gwarantować przejrzystą, porównywalną formę dla abonentów sieci komórkowych, a w zamyśle ma prowadzić do podnosze­nia jakości świadczonych usług na rynku telekomunika­cyjnym. Podpisane przez przedstawicieli poszczegól­nych instytucji Memorandum zawiera między innymi zakres pomiar więcej »

POMIARY PRZEPUSTOWOŚCI W SIECI WLAN STANDARDU IEEE 802.11 W PAŚMIE ISM 2.4 GHz W ŚRODOWISKU ZAŁÓCEN INTERFERENCYJNYCH - DOI:10.15199/59.2015.4.35
Adam Pieprzycki 
W artykule zaprezentowano wyniki pomiarów przepustowości w sieci WLAN standardu IEEE 802.11g w środowisku zakłóceń interferencyjnych wykrywanych za pomocą analizatora widma. Porównano przepustowości zmierzone w wybranych scenariuszach pomiarowych w środowisku radiokomunikacyjnym bez i z zakłóceniami w paśmie ISM 2.4 GHz dla różnych narzędzi pomiarowych. Ponadto oceniono wpływ systemu operacyjnego OS (Operation System) na wyniki pomiarów przepustowości w sieci WLAN. 1. WSTĘP Rosnąca popularność lokalnych komputerowych sieci bezprzewodowych WLAN standardu IEEE 802.11g, powoduje wzrost liczby punktów dostępu AP (Access Point) i w konsekwencji wzrost poziomu mocy zakłóceń interferencyjnych. Ponadto w ostatnich latach pojawiło się szereg urządzeń i systemów, pracujących w paśmie ISM 2.4 GHz, stanowiących dodatkowe źródło interferencji. Wzrost interferencji wpłynął na rozwój nowych metod planowania sieci WLAN standardu IEEE 802.11g oraz spowodował, poszukiwania nowych rozwiązań sprzętowych zarządzania pasmem częstotliwości, jak np. CCA (Cisco CleanAir),. W tym kontekście bardzo ważnym zadaniem, stawianym przed projektantami obecnych i przyszłych sieci WLAN, jest wybór liczby punktów dostępu AP oraz ich wzajemnego rozmieszczenia, czy wreszcie przypisanie im odpowiednich numerów kanałów radiowych oraz mocy nadawczych, które oddziałują na zasięg działania sieci oraz na osiągane w niej przepustowości. 2. METODYKA PROWADZENIA POMIARÓW PRZEPUSTOWOŚCI Dla potrzeb niniejszej pracy, metodykę prowadzenia pomiarów przepustowości w sieciach WLAN oparto na pracy [1] oraz na dokumencie RFC 2544, w którym opisano podstawowe procedury testowania lokalnych sieci transmisji danych. Zgodnie z dokumentem RFC 2544, przepustowość (throughput) definiuje się jako liczbę bitów danych w polu ładunku pakietu (payload) - MSDU (MAC Layer Service Data Unit), przesłaną przez sieć za pomocą testowanego urządzenia DUT (Device Under Test) w ciągu jednej se więcej »

PORÓWNANIE WYBRANYCH MODELI PAS NA BAZIE POMIARÓW EMPIRYCZNYCH - DOI:10.15199/59.2015.4.95
Cezary Ziółkowski Jan M. Kelner 
Statystyczne właściwości kąta odbioru odgrywają istotną rolę w kształtowaniu właściwości korelacyjnych i widmowych sygnałów. W artykule dokonano anaizl y porównawczej dwóch modeli kątowego rozproszenia mocy PAS. Spośród wielu modeli wybrano model o rozproszeniach gaussowskich GDSM i model eliptyczny UERO. Jako dane referencyjne wykorzystano wyniki pomiarów dla zróżnicowanych scenariuszy. Ocenę dokładności dopasowania modeli i danych empirycznych oparto na bęłdzie średniokwadratowym i rms rozmycia kąta odbioru. 1. WSTĘP Wyniki licznych pomiarów pokazują, że właściwości środowiska propagacji istotnie wpływaąj na rozproszenie kąta odbioru sygnału. Zjawisko to odgrywa istotne znaczenie w mobilnych systemach ąłczności, co związane jest z występowaniem efektu Dopplera. W konsekwencji deformacji ulega korelacja i widmo transmitowanych sygnałów. Stąd też, w badaniach symulacyjnych odwzorowanie zjawiska rozmycia kąta odbioru sygnału zapewnia uzyskanie wyników w warunkach zbliżonych do rzeczywistych. Charakterystyki promieniowania anten w większości mobilnych systemów dostępowych cechuje duża rozwartość w płaszczyźnie azymutu zaś mała w płaszczyźnie elewacji. Dlatego też, decydujący wpływ na kształtowanie struktur czasowowidmowych odbieranych sygnałów ma rozmycie kąta w płaszczyźnie azymutu. Podstawowymi modelami opisującymi rozproszenie kąta odbioru sygnału są: funkcja gęstości prawdopodobieństwa kąta odbioru f( więcej »

POSZERZANIE PASMA MAŁEJ ANTENY Z WYKORZYSTANIEM KONWERTERA UJEMNO IMPEDANCYJNEGO - DOI:10.15199/59.2015.4.41
Katarzyna Jagodzińska 
Tematyką referatu jest przedstawienie możliwości poszerzania pasma elektrycznie małej anteny z wykorzystaniem aktywnego układu dopasowania impedancyjnego, który zrealizować można za pomocą konwertera ujemno impedancyjnego. W tym celu opracowano prototyp takiego układu, a jego projekt, wykonanie i pomiary stanowią treść niniejszego opracowania. 1. WSTĘP Elektrycznie małe anteny (ESA) ze względu na swoje zalety jakimi są niewielkie rozmiary (w porównaniu z długością fali) i szeroki wachlarz możliwych zastosowań (urządzenia mobilne, bezzałogowe statki powietrzne, bezprzewodowe czujniki itp.) stały się obecnie popularną klasą anten stosowaną przy projektowaniu systemów i urządzeń bezprzewodowych. Zazwyczaj antenę ESA określa się jako antenę, która da się otoczyć tzw. "sferą radianową" o promieniu kr<1, gdzie k to liczba falowa (k=2π/λ) a r to promień hipotetycznej sfery otaczającej antenę [1,2]. Cechą charakterystyczną omawianych anten jest to, iż ich impedancja wejściowa ma charakter wysoce reaktancyjny, co przekłada się bezpośrednio na wzrost dobroci Q anteny i spadek sprawności promieniowania. Wynika to bowiem z faktu iż większość mocy dostarczonej do anteny jest magazynowana w jej polu bliskim, a tylko niewielka część mocy zostaje wypromieniowana do strefy dalekiej. Co więcej, szerokość pasma (BW) jest odwrotnie proporcjonalna do Q i dlatego anteny ESA są wąskopasmowe. W celu poszerzenia pasma anten ESA można zastosować kilka metod. Pierwszą z nich jest modyfikacja kształtu anteny tak, aby zminimalizować ilość energii w jej polu bliskim. Jednakże wadą tego rozwiązania jest ograniczenie sformułowane przez Chu i Harringtona [3,4]. Kolejną metodą na uzyskanie szerokiego pasma jest zapewnienie dopasowania energetycznego więcej »

PROBLEM STANDARDÓW OGRANICZNIKÓW PRZECIWPRZEPIĘCIOWYCH NA RYNKU POLSKIM - DOI:10.15199/59.2015.4.31
Jarosław Wiater 
Na polskim rynku istnieje bardzo duża rozbieżność deklarowanych i faktycznych parametrów ograniczników przepięć. W artykule przestawiono wyniki badań wytrzymałości udarowej ograniczników. Przedstawiono praktyczne przykłady zniszczeń powstałych w wyniku powszechnego stosowania ograniczników o mniejszej niż deklarowana wytrzymałości udarowej. 1. WSTĘP Najbardziej niebezpiecznymi zjawiskami z punktu widzenia chronionych urządzeń są doziemne wyładowania piorunowe. Sprawa jest jasna w przypadku, gdy dochodzi do bezpośredniego wyładowania. Wówczas w oczywisty sposób zdajemy sobie sprawę z zagrożenia jakie może być z tym związane. Nie mniej jednak bardzo często zapomina się skutkach rozpływającego się prądu doziemnego wyładowania. Powszechne jest przekonanie, że jak doszło do wyładowania w obiekt kilkanaście metrów dalej umiejscowiony to "nasze" urządzenia są bezpieczne. Zapomina się o połączeniach pomiędzy obiektami wynikające z konieczności dostarczenia energii elektrycznej, wody, gazu, usługi telekomunikacyjnej. Wzajemne sprzężenie poprzez różnorodne media powoduje, że prąd doziemnego wyładowani piorunowego rozprzestrzenia się w pobliskich instalacjach/obiektach potęgując poziom zagrożenia i skalę zniszczeń. Bardzo niebezpiecznych dla wszelakich urządzeń elektronicznych jest lokalny skok potencjału systemu uziomowego. Różnica w czasie propagacji powoduje powstanie znaczących różnic w poziomach napięć w obrębie analizowanego obiektu. Nie należy również zapominać o napięciach indukowanych w okablowaniu na skutek znaczących wartości pola elektrycznego i magnetycznego podczas wyładowań piorunowych, o pętlach tworzonych przez okablowanie - patrz rysunek 1. Przed tymi wszystkim jak i innymi zagrożeniami mają użytkowników chronić urządzenia do ograniczania przepięć. 2. URZĄDZENIA DO OGRANICZANIA PRZEPIĘĆ Urządzenia do ograniczania przepięć mają za zadanie zmniejszyć do bezpiecznych poziomów napięcia w instalacji elektr więcej »

PROGRAMOWA IMPLEMENTACJA MODELU ODBIORNIKA SYSTEMU ŁĄCZNOŚCI Z SATELITĄ NA ORBICIE LEO - DOI:10.15199/59.2015.4.71
Jacek Skarzyński Marcin Darmetko Sebastian Kozłowski Krzysztof Kurek Józef Modelski 
Referat przedstawia opis implementacji części programowej odbiornika systemu adaptacyjnej transmisji danych z satelity poruszającego się po orbicie niskiej LEO z wykorzystaniem technik cyfrowego przetwarzania sygnału. Odbiornik jest wielowątkową aplikacją pracującą na komputerze PC, współpracującą z zewnętrznym modułem SDR. Odbiornik umożliwia korekcję przesunięcia częstotliwości, spowodowanego efektem Dopplera i realizuje miękko-decyzyjne dekodowanie sygnału dla modulacji BPSK, QPSK, 8-PSK i 16-APSK. 1. WSTĘP Opisywany odbiornik powstał w ramach projektu "SACC - Satellite Adaptive Communication Channel", realizowanego dla Europejskiej Agencji Kosmicznej, w którym zaproponowano opracowanie modelu adaptacyjnego systemu przesyłania danych z satelity umieszczonego na orbicie LEO, pozwalającego zwiększyć ilość danych przesyłanych w czasie pojedynczego przelotu satelity nad stacją naziemną. Satelita na orbicie niskiej porusza się względem stacji naziemnej i pozostaje w jej zasięgu w ciągu kilku lub kilkunastu minut, w zależności od wysokości orbity. W czasie przelotu satelity, ze względu na znaczne zmiany odległości satelita-stacja naziemna, zmienia się moc odbieranego sygnału. Zwiększenie mocy sygnału i wzrost stosunku sygnał szum SNR, gdy satelita przelatuje nad stacją pozwala na zwiększenie szybkości przesyłania danych, poprzez zastosowanie bardziej efektywnej widmowo modulacji, albo przez zwiększenie przepływności binarnej transmitowanego sygnału (poszerzenie pasma transmisji). Odbiornik na podstawie oszacowanej wartości SNR przesyła kanałem zwrotnym (kanał telekomend sterujących pracą satelity) żądania zmiany parametrów transmisji tak, aby przesłać jak największą ilość danych z satelity, przy zachowaniu stopy błędów poniżej założonego progu. W projekcie SACC założono transmisję z użyciem modulacji BPSK, QPSK, 8-PSK i 16-APSK z kodowaniem splotowym o sprawnościach 1/2, 2/3, 3/4, 5/6 i 7/8 (zgodnych ze standardami DVB-S więcej »

PROTOKÓŁ TRANSMISJI SENSOROWEJ SIECI AD HOC - DOI:10.15199/59.2015.4.49
Andrzej Marczak 
W referacie zaprezentowano protokół radiowej sieci sensorowej Ad Hoc. Sieć ta pracuje w oparciu o metodę wielodostępu TDMA. Szybkość transmisji w kanale radiowym wynosi 57,6 kb/s. W referacie przedstawiono budowę ramek, rodzaje pakietów oraz procedury przypisania wolnych szczelin czasowych do węzła, zwalniania przypisanych szczelin i wykrywania konfliktów przyporządkowania szczelin. 1 WSTĘP Sieci sensorowe Ad Hoc bardzo często wykorzystują metodę wielodostępu TDMA ze względu na możliwość zapewnienia transmisji bez kolizji pakietów niezależnie od wielkości ruchu w sieci. Można znaleźć wiele rodzajów protokołów sieci Ad Hoc stosowanych w sieciach z wielodostępem TDMA. Część z nich nie obsługuje autonomicznych zachowań węzłów. Nie zmieniają przyporządkowania szczelin czasowych w przypadku pojawienia się nowego węzła w sieci, lub opuszczenia sieci przez węzeł [2]. Opisane w publikacjach [3, 4] protokoły USAP (ang. Unifying Slot Assignment Protocol) i USAP-MA umożliwiają działanie sieci, których topologia zmienia się dynamicznie. Charakteryzują się jednak dużą liczbą konfliktów przypisania i dużą liczbą niewykorzystanych szczelin, przez co wykorzystanie kanału radiowego jest nieefektywne [2]. Przedstawiony w referacie protokół sensorowej sieci Ad Hoc wykorzystuje wielodostęp z podziałem czasowym (TDMA - Time Division Multiple Access) oraz protokół ASAP (ang. Adaptive Slot Assignment Protocol) [1]. 2 STRUKTURA RAMEK TDMA Sieć sensorowa składa się z węzłów MIO (Moduł Identyfikacji Osobistej) oraz węzłów WR (Węzeł Referencyjny). W ramach sieci przesyłanych jest siedem rodzajów pakietów: więcej »

Przejście z linii koplanarnej na falowód dielektryczny dla zakresu częstotliwości 120 GHz ÷ 137 GHz - DOI:10.15199/59.2015.4.39
Przemysław Piasecki Yevhen Yashchyshyn 
W artykule zaprezentowano model przejścia z linii koplanarnej do falowodu dielektrycznego, który został opracowany z myślą możliwości realizacji w technologii LTCC. Zaprojektowane przejście dla zakresu częstotliwości 120 GHz ÷ 137 GHz charakteryzuje się współczynnikiem |S11| < -14,8 dB oraz współczynnikiem transmisji |S21| > -5,8 dB (w konfiguracji dwóch połączonych struktr). 1. WSTĘP Wraz ze wzrostem zapotrzebowania na szybką transmisję danych rozwijają się nowe i bardziej zaawansowane bezprzewodowe systemy radiokomunikacyjne. Coraz większą rolę odgrywają systemy pracujące w zakresie fal milimetrowych. Dzięki możliwości wykorzystania wyższego zakresu częstotliwości istnieje możliwość zaprojektowania systemu o szerszym paśmie pracy. Z twierdzenia Shanona-Hartleya wynika, że szersze pasmo skutkuje wzrostem przepustowości kanału radiowego, co pozwala na znaczny wzrost szybkości transmisji danych systemów bezprzewodowych. Ponadto urządzenia wykorzystujące zakres fal milimetrowych lub sub-milimetrowych, mają znacznie mniejsze rozmiary poszczególnych elementów systemu, w szczególności anten, filtrów, czy sprzęgaczy. Dzięki niewielkim rozmiarom kompletny system milimetrowy jest bardziej kompaktowy od systemów mikrofalowych. Z drugiej strony zakres fal milimetrowych w porównaniu do częstotliwości mikrofalowych [1] charakteryzuje się dużo wyższym tłumieniem atmosferycznym. Istnieją jednak okna częstotliwościowe, które pozwalają na transmisję sygnału z akceptowalnym tłumieniem. Na rys. 1 przedstawiono wykresy tłumienia sygnału radiowego przez atmosferę w zależności od wartości częstotliwości (długości fali ) oraz wysoko więcej »

Radioelektronika terahercowa - oczekiwania, możliwości i ograniczenia - DOI:10.15199/59.2015.4.3
Yevhen Yashchyshyn Józef Modelski 
Pasmo częstotliwości terahercowych (w starej nomenklaturze - fale submilimetrowe) obejmuje częstotliwości od 0,1 do 10 THz, znajdujące się między zakresami częstotliwości należącymi do tradycyjnych mikrofal oraz zakresu optycznego. Pasmo terahercowe było wykorzystywane głównie w spektroskopii, astronomii, zobrazowaniu obiektów biologicznych oraz w systemach bezpieczeństwa [1]. W ostatnich latach znacznie zwiększyło się zainteresowanie pasmem terahercowym z punktu widzenia budowy szerokopasmowych systemów bezprzewodowych. Główną zaletą pasma terahercowego - w porównaniu do systemów pracujących w pasmie mikrofalowym - jest fakt, że w tym pierwszym istnieje dużo możliwości zwiększenia przepływności danych w kanale ze względu na dostępność znacznie szerszego pasma. W porównaniu do mikrofal oraz do zakresu optycznego pasmo częstotliwości terahercowych nie było szeroko badane. Główną przyczyną był brak źródeł sygnału o akceptowalnych parametrach oraz wysoki poziom tłumienia w atmosferze ziemskiej. Opinia, że fale terahercowe charakteryzuje duże tłumienie atmosferyczne (około 100 dB na km) jest tylko częściowo uzasadniona. Istnieją okna częstotliwościowe, które umozliwiają transmisję sygnału z akceptowalnym tłumieniem. Ponadto - jeśli rozważyć komunikację na krótkie odległości - możliwość zastosowania bezprzewodowych systemów terahercowych zasadniczo zwiększa się. Na rys. 1 pokazano są wyniki symulacji transmisji krótkodystansowej na poziomie morza dla standardowego ciśnienia i wilgotności [2, 3]. Świadczą one, że poniżej 1 THz występują liczne pasma częstotliwości, w których transmisja osiąga ponad 70% na odległości 10 m. Znaczy to, że systemy komunikacyjne mogą być skutecznie wykorzystywane do budowy sieci bezprzewodowych krótkiego zasięgu. Na rys. 2 pokazano tłumienność atmosfery w zakresie częstotliwości od 0,1 do 3 THz, a także dziewięć głównych okien transmisyjnych [1]: okno A obejmuje pasmo 100 - 550 GHz,B: 560 - 750 GHz, C: więcej »

RADIOWA LOKALIZACJA TERMINALA RUCHOMEGO W ŚRODOWISKU Z PRZYPADKOWO ROZMIESZCZONYMI PRZESZKODAMI - DOI:10.15199/59.2015.4.47
Wiktor Mardini Tomasz Kacprzak 
W komunikacie przedstawiono wyniki wyznaczania nieznanej lokalizacji odbiornika na podstawie wartości mocy odebranej przez trzy rozmieszczone w środowisku propagacji stacje bazowe. Propagacja fali radiowej w rozpatrywanym środowisku miejskim została zamodelowana metodą sieci perkolacyjnej. Przypadkowość środowiska propagacyjnego została określona za pomocą współczynnika wypełnienia badanego obszaru budynkami o regularnej strukturze. 1. WSTĘP Bardzo ważnym segmentem rozwoju komunikacji bezprzewodowej jest lokalizacja geograficzna terminali ruchomych. Jej zastosowania wydają się być nieograniczone i obejmują bardzo szeroki zakres, począwszy od efektywnego zarządzania sieciami a skończywszy na dedykowanych usługach użytkownika końcowego. W tym obszarze zastosowań są również usługi lokalizacyjne dla potrzeb ratownictwa, ujęte w zalecenia i normy obowiązujące operatorów. Obszary geograficzne obejmujące zastosowania radiowej lokalizacji są praktycznie nieograniczone, tak, co do wielkości jak i różnorodności. Stanowi to istotną przeszkodę w prostym i szybkim wdrażaniu systemów lokalizacyjnych, albowiem zgromadzenie i przechowanie, a także szybka i skuteczna eksploracja danych o ukształtowaniu i morfologii otoczenia jest trudna i kosztowna. Wszystko to sprawia, że wykorzystanie zjawiska propagacji fal radiowych do lokalizacji obiektu zainteresowania jest problemem otwartym i dalekim od satysfakcjonującego rozwiązania. Głównym problemem jest znalezienie odpowiednio prostego, ale i dostatecznie dokładnego modelu propagacji fali radiowej w założonym zakresie częstotliwości, dającego się wykorzystać w różnorodnym środowisku, scharakteryzowanym możliwie najmniejszą liczbą parametrów. W niniejszym komunikacie przedstawia się próbę analizy dokładności lokalizacji w przestrzeni dwuwymiarowej, z przypadkowo rozmieszczonymi przeszkodami W celu określenia położenia terminala konieczna jest znajomość odległości dzielącej nadajnik od odbi więcej »

RESA-OLSR: mechanizm routingu oparty na zasobach wę złów sieci MANET - DOI:10.15199/59.2015.4.50
Adam Kraśniewski Janusz Romanik Szymon Kącik Edward Golan 
W artykule przedstawiono mechanizm routingu dedykowany dla sieci MANET. Prezentowane rozwiązanie bazuje na proaktywnym protokole OLSR (ang. Optimized Link State Routing), w którym wprowadzono wyznaczenie metryki globalnej węzła uwzględniającej jego zasoby, takie jak poziom naładowania baterii i dosętpne pasmo. Obliczone wartości metryki znajdują odzwierciedlenie w wartości parametru Willingness, który jest wykorzystywany przy wyborze węzłów MPR (ang. Multi Point Relays). Wyniki symulacji pokazują, że dzięki zastosowaniu tego rozwiązania możliwe jest zwiększenie czasu życia węzłów oraz wydajności i niezawodności sieci. 1. WPROWADZENIE Sieci MANET (ang. Mobile Ad-hoc NETwork) składają się z równorzędnych, mobilnych węzłów, komunikujących się ze sobą za pomocą wieloskokowych łączy bezprzewodowych. Ze względu na fakt, że węzły te mogą poruszać się i formować odpowiednie sieci w dowolny sposób, sieć taka ma tendencje do dynamicznych zmian swojej topologii [1]. Sieci MANET s ą pozbawione hierarchiczności, a tym samym cechuje je brak centralnych jednostek zarządzających czy węzłów - koordynatorów. W związku z tym spełnienie wymagań na obsługę mobilności i zdolność do dynamicznej rekonfiguracji wymaga wbudowania odpowiedniej logiki bezpośrednio w węzły. Sieci tego typu są użyteczne wszędzie, gdzie wymagana jest tymczasowa i dynamicznie ustanawiana łączność radiowa. Poza wykorzystaniem w systemach komunikacji wojskowej, sieci MANET znajdują zastosowanie w sytuacjach kryzysowych, gdy konieczne jest zorganizowanie łączności na potrzeby ratownictwa medycznego, usuwania skutków powodzi, trzęsień ziemi, czy innych katastrof. Wydajność mobilnych sieci ad-hoc zależy od efektywności mechanizmu routingu. Należy zwrócić uwagę, że standardowe protokoły routingu dla sieci MANET ąs mało wydajne [2]. Swobodne i losowe przemieszczanie się węzłów powoduje, że topologia sieci nie jest stała i zmienia się dynamicznie. W takich sieciach generowan więcej »

ROZPOZNAWANIE ZACHOWAŃ OSÓB Z WYKORZYSTANIEM PUNKTÓW ZNAJDUJĄCYCH SIĘ W SĄSIEDZTWIE PUNKTÓW EKSTREMUM KRZYWIZNY KONTURU CIAŁA - DOI:10.15199/59.2015.4.74
Łukasz Kamiński Paweł Gardziński Krzysztof Kowalak Sławomir Maćkowiak 
W artykule przedstawiono metodę automatycznego rozpoznawania zachowań osób z wykorzystaniem modelu opartego o graf ukierunkowany. W zaproponowanym rozwiązaniu, jako punkty charakterystyczne, zastosowano punkty GDDP na konturze sylwetki, czyli punkty, które znajdują się w sąsiedztwie punktów minimum wklęsłości i maksimum wypukłości konturu sylwetki. Wyniki eksperymentów potwierdzają poprawę skuteczności rozpoznawania zachowań w stosunku do metody bazującej na punktach ekstremum krzywizny konturu sylwetki. 1. WSTĘP W ostatnich latach znacząco wzrosła liczba kamer rejestrujących zachowania osób w różnych dziedzinach życia i jednocześnie spowodowała znaczny przyrost ilości materiału wizyjnego. W związku z tym wzrasta również zapotrzebowanie na aplikacje służące do opisu zawartości treści sekwencji wizyjnych, czy też streszczania sekwencji opartego na rozpoznawaniu zarejestrowanych zdarzeń. Analiza zachowań ludzi w sekwencjach wizyjnych zyskała na znaczeniu wraz z rozwojem możliwości wykorzystania obrazu wizyjnego w systemach ochrony i dozoru wizyjnego. Szczególnie znaczące jest zastosowanie takich rozwiązań w zautomatyzowanych systemach obserwacji obszarów publicznych i wykrywania niebezpiecznych zdarzeń. Tego rodzaju zadanie obserwacji jest bardzo wymagające dla operatora systemu jakim jest człowiek, ponieważ wymaga dużego skupienia przez dłuższy okres czasu. Dlatego też, jest to motywacja do rozwijania zautomatyzowanych, inteligentnych systemów monitoringu opartego na obrazie ruchomym, które mogłyby pomóc użytkownikowi w procesie wykrywania i analizy ryzyka. Zakres przeglądu został ograniczony do powszechnie stosowanych modeli grafowych wykorzystywanych w złożonym modelowaniu aktywności człowieka w zatłoczonych przestrzeniach publicznych. Istnieje wiele różnorodnych metod do modelowania zachowań w systemach jednokamerowych, do których należą m.in. modele oparte o grafy prawdopodobieństwa (np. sieci Bayesa [3, 4], dynami więcej »

SATELITARNY NADAJNIK ADAPTACYJNY WYKORZYSTUJACY TECHNIKĘ RADIA PROGRAMOWEGO (SDR) - DOI:10.15199/59.2015.4.70
Katarzyna Szczygielska Marcin Stolarski 
W artykule przedstawiono model nadajnika dla adaptacyjnego systemu łączności satelitarnej realizowanego w ramach projektu SACC (ang. Satellite adaptive communication channel) w oparciu o technologię radia programowanego SDR (ang. Software Defined Radio). Zaprezentowano strukturę˛ nadajnika stworzoną w oparciu o architekturę klient-serwer oraz opisano poszczególne bloki programu. Zawarto także rezultaty przeprowadzonych testów. Aby przybliżyć ideę projektu SACC krótko przedstawiono podstawowe informacje dotyczące problematyki łączności satelitarnej z satelitami na niskiej orbicie okołoziemskiej. 1. WSTĘP Projekt SACC (ang. Satellite adaptive communication channel) realizowany jest w ramach działania Europejskiej Agencji Kosmicznej. Jego celem jest zamodelowanie adaptacyjnego systemu łączności satelitarnej dla małych satelitów znajdujących się na niskiej orbicie okołoziemskiej LEO ( ang. Low Earth Orbit). Taki system dzięki adaptacyjnej zmianie parametrów transmisji pozwoli na zwiększenie ilości przesyłanych danych podczas jednego przelotu satelity nad stacją naziemną. W trakcie trwania projektu powstały modele nadajnika, odbiornika oraz symulator kanału pozwalające na zamodelowanie działania adaptacyjnego systemu komunikacji. Model kanału radiowego pozwolił na odwzorowanie warunków panujących w łączu satelitarnym (dla satelity na niskiej orbicie okołoziemskiej). 2. OPIS SYSTEMU Przelot satelity LEO nad stacją naziemną (zwany oknem komunikacyjnym) trwa około 15 minut [4]. W trakcie takiego przelotu odległość miedzy satelitą a stacją naziemną zmienia się w zakresie 3500 - 600 km (dla satelity na orbicie LEO 600 km nad powierzchnią Ziemi) [Rys. 1], co wiąże się ze zmianami wartości tłumienia wolnej przestrzeni (FSL), co z kolei implikuje zmienne wartości stosunku sygnał/szum (SNR) w systemie odbiorczym stacji naziemnej. Na Rys. 2 przedstawiono różne scenariusze łącza radiowego i osiąganą prędkości bitową łącza danych dla więcej »

Sieć smartfonów ieee 802.11ac w trybie ad-hoc z VoIP w sytuacjach kryzysowych - DOI:10.15199/59.2015.4.10
Jacek Jarmakiewicz Krzysztof Maślanka Krzysztof Parobczak  
Z sytuacjami kryzysowymi mamy do czynienia na świecie na co dzień, środki masowego przekazu dostarczają wiadomości o nich błyskawicznie. Sytuacje te występują zarówno w krajach stabilnych i bogatych, takich jak Francja, jak i niestabilnych, do których można zaliczyć Ukrainę. Atak na redakcję Charlie Hebdo czy atak rakietowy na Mariupol są różnymi przypadkami nieszczęść, łączy je jednak wspólna cecha. Zarówno w jednym, jak i drugim przypadku, dostęp do usług telefonii mobilnej był ograniczony, w pierwszym przypadku - z powodu przeciążenia sieci mobilnej, a później jej wyłączenia - a w drugim z powodu uszkodzeń sieci stacjonarnej. Jeszcze cięższa sytuacja wystąpiła w 2004 i 2011 roku, w Indonezji i Japonii, gdzie kataklizm tsunami spowodował śmierć setek tysięcy ludzi, zaś na terenach katastrof brak było dostępu do telefonii, tak bardzo przydatnego w takiej sytuacji. Z powodu uszkodzeń elektrowni pracujących w zintegrowanym systemie elektroenergetycznym, na dużym obszarze Japonii (nawet tym niedotkniętym bezpośrednim oddziaływaniem żywiołu) zapanował black-out. Rozwój standardów sieci Wi-Fi powoduje, że są one coraz bardziej zbliżone swą przepustowością do sieci przewodowych opartych na Ethernecie. Dzisiaj trudno sobie wyobrazić telewizor, aparat fotograficzny czy smartfon bez Wi-Fi, są one, można rzec, tak popularne, jak powszechna usługa telekomunikacyjna. Interfejs radiowy Wi-Fi w wydaniu domowym jest ograniczony swym zasięgiem do kilkudziesięciu metrów i zapewnia szybką metodę wymiany danych pomiędzy różnymi urządzeniami. Cena jednostkowa wytworzenia urządzenia nadawczo-odbiorczego z chipem Wi-Fi umożliwia nawet korzystanie z tego rozwiązania jako urządzenia jednorazowego użytku [1]. W przytoczonych sytuacjach kryzysowych jedyne urządzenia, które nadawały się do wykorzystania jeszcze przez pewien czas, to smartfony i laptopy z Wi-Fi, umożliwiające współpracę między sobą w trybie ad-hoc. Sieci urządzeń Wi-Fi najczęściej maj więcej »

SPEKTROGRAMY FOURIERA SYGNAŁÓW POLA ELEKTRYCZNEGO ANTENY UWB - DOI:10.15199/59.2015.4.85
Marek Garbaruk Giennadij Czawka 
W pracy przedstawiono wyniki analizy spektrogramów Fouriera nanosekundowych sygnałów pola elektrycznego ultraszerokopasmowej (UWB) mikropaskowej anteny. Zastosowano czasowo-częstotliwościową analizę sygnałów z przesuwającym się oknem, tzw. krótkoczasową transformatę Fouriera, na podstawie przekształcenia Gabora. Do analizy, jako przykład, wybrano impuls wzbudzenia UWB Rayleigha oraz okno Gaussa. 1. WSTĘP Zastosowanie ultraszerokopasmowych (UWB) sygnałów i odpowiednich anten UWB ma coraz większe znaczenie przy opracowaniu współczesnych systemów radiowych. Należą do nich [1-3]: - różnorodne systemy telekomunikacyjne o dużej przepływności, w tym radiowe sieci komputerowe; - radary, w tym: systemy naziemne, nadwodne i podwodne, systemy do wykrywania samolotów "Stealth", systemy penetracji ziemi, bioradary (wykrywanie ludzi za optycznie nieprzezroczystymi przeszkodami), systemy pomiarowe do tzw. medycyny bezkontaktowej, systemy ochronne i wiele innych; - układy i urządzenia do tzw. "odzieżowej" techniki antenowej dla strażaków, górników i innych; - systemy analizy procesów UWB w fizyce i technice. Jeden z kierunków technik UWB bazuje na przesyłaniu i odbiorze bardzo krótkich impulsów elektromagnetycznych przy odpowiedniej szerokości widma; tworzy to tzw. radio impulsowe (ang. impulse radio) [1]. Przy opracowaniu tych systemów ważne znaczenie ma przedstawienie sygnałów radiowych w dziedzinie czasu i częstotliwości. W ostatnich latach stosuje się przedstawienie różnego rodzaju sygnałów w postaci spektrogramów Fouriera z zastosowaniem czasowoczęstotliwościowej krótkoczasowej transformaty Fouriera z przesuwającym się oknem (ang. Short Time Fourier Transform - STFT) [2,3]. W pracy przedstawiono wyniki analizy spektrogramów Fouriera nanosekundowych sygnałów pola elektrycznego mikropaskowej anteny UWB. Rezultaty badań sygnałów UWB, charakterystyki i parametry zaprojektowanych, wykonanych i zbadanych anten UWB przedstawiono w [4 więcej »

SPOSÓB WSPÓŁPRACY SYSTEMU INSIGMA Z KRAJOWYM SYSTEMEM POWIADAMIANIA RATUNKOWEGO - DOI:10.15199/59.2015.4.13
Andrzej Stańczak Damian Duda Piotr Pyda Joanna Śliwa 
W artykule opisano możliwość współpracy systemu INSIGMA z krajowym Systemem Powiadamiania Ratunkowego. INSIGMA 1) jest złożonym systemem informacyjnym do celów kompleksowej detekcji i identyfikacji zagrożeń oraz monitoringu i identyfikacji obiektów ruchomych. Obszary tematyczne zadań projektu pokrywają się w istotnym zakresie z dziedzinami Systemu Powiadamiania Ratunkowego, zatem współpraca obu systemów i współdzielenie przez nie informacji mogą znacząco poprawić bezpieczeństwo obywateli. 1. WSTĘP Bezpieczeństwo obywateli jest ważnym filarem nowoczesnego państwa i jednym z największych priorytetów UE; ma zarazem szeroki, wieloaspektowy wymiar - np. w sytuacjach kryzysowych silnie zależy od działania systemu ratownictwa. Funkcjonowanie tego systemu jest z kolei uwarunkowane obowiązującymi procedurami i skutecznością powiadamiania o zdarzeniach stanowiących zagrożenie dla zdrowia i życia ludzi. Obsługa zgłoszeń alarmowych w krajach UE - w tym kierowanych na numer 112 oraz przyjmowanych przez systemy E112 i eCall - jest uregulowana odpowiednimi dyrektywami, komunikatami i zaleceniami [1…4]. Ustawa o Systemie Powiadamiania Ratunkowego (SPR), obowiązująca od 1 stycznia 2014 r. [5], w sposób kompleksowy normuje zagadnienia z zakresu powiadamiania ratunkowego, opierając SPR na Centrach Powiadamiania Ratunkowego (CPR). Podstawowym zadaniem SPR jest obsługa zgłoszeń alarmowych kierowanych do numerów 112 i 9xx. CPR-y wykonujące zadania SPR współpracują z Policją, Państwową Strażą Pożarną (PSP), dysponentami zespołów Państwowego Ratownictwa Medycznego (PRM) oraz dodatkowo z innymi podmiotami, których zadaniem jest ochrona życia, zdrowia, bezpieczeństwa i porządku publicznego, mienia lub środowiska (np. staż gminna). 2. SYSTEM POWIADAMIANIA RATUNKOWEGO SPR jest częścią Krajowego Systemu Ratownictwa (medycznego - PRM; technicznego - PSP; porządkowego - Policja itd.). Schemat funkcjonalny SPR przedstawiono na rys. 1. Zadani więcej »

SYSTEM PA-BICM-ID Z NIEJEDNOZNACZNYM ODWZOROWANIEM BITÓW W PUNKTY KONSTELACJI QPSK - DOI:10.15199/59.2015.4.65
Maciej Krasicki 
Autor proponuje ulepszenie kodowanej modu­lacji z przeplotem bitowym, iteracyjnym dekodowaniem i transmisją dodatkowych sygnałów po zakończeniu kon­wencjonalnego pakietu (PA-BICM-ID, Packet-Appended Bit-Interleaved Coded Modulation with Iterative Decoding). W stosunku do oryginalnego pomysłu, zmieniona została metoda odwzorowania bitów w sygnały dodatkowe, co skutkuje poprawą jakości transmisji przy jednoczesnym ograniczeniu liczby operacji wykonywanych przez odbior­nik. 1. WSTĘP Zastosowanie kodowanej modulacji z przeplotem bitowym (Bit-Interleaved Coded Modulation, BICM) w systemach transmitujących przez kanały z zanikami Rayleigha pozwala uzyskać ko więcej »

Systemy bezprzewodowe piątej generacji - nowości i wyzwania - DOI:10.15199/59.2015.4.1
Krzysztof Wesołowski 
Systemy radiokomunikacji bezprzewodowej to ciągle jeden z najszybciej rozwijających się działów telekomunikacji. Ich obecny rozwój wynika z masowego dostępu do Internetu i zmiany treści przesyłanych danych. Już obecnie transmisja głosowa ustąpiła pod względem wolumenu przesyłanych danych danym multimedialnym. Zasadniczy wpływ na gwałtowny wzrost ruchu telekomunikacyjnego miało też wprowadzenie telefonów inteligentnych (smartfonów) i stosowanie ich na masową skalę. Równocześnie z systemami komórkowymi intensywnemu rozwojowi podlegają również systemy dostępu bezprzewodowego do sieci LAN oparte na standardach serii IEEE 802.11 (WLAN). Z kolei coraz bardziej realna staje się idea Internetu rzeczy. Zgodnie z nią, z siecią połączone będą najróżniejszego typu urządzenia (w tym np. AGD) generujące dodatkowy ruch o dość specyficznych własnościach i wymaganiach. Wreszcie w niedalekiej przyszłości przewiduje się rozwój systemów transmisyjnych pomiędzy poruszającymi się pojazdami oraz pojazdami i infrastrukturą drogową. Zasadniczą cechą tego typu transmisji powinna być jej niezawodność. Wszystkie rodzaje systemów w procesie ich rozwoju - przy olbrzymim wzroście wymagań dotyczących wielkości przenoszonych strumieni danych - zmagają się z ograniczeniami wynikającymi z wielkości dostępnego widma elektromagnetycznego. Jest ono cennym, ograniczonym zasobem i podlega ścisłej reglamentacji. Bez przydziału widma elektromagnetycznego działanie nowych systemów nie jest możliwe. W kontekście powyższych obserwacji i przewidywań oczekuje się, że do 2020 r. liczba urządzeń bezprzewodowych wzrośnie z obecnej liczby około 5 miliardów do 50 miliardów. Będą one połączone z tzw. chmurą, zaś komunikacja między masową liczbą urządzeń stworzy bazę dla Internetu rzeczy. Ogólnie cele postawione przed systemami 5G można ująć następująco [1]: 1000-krotny wzrost wolumenu danych na jednostkę powierzchni pokrywanej przez system bezprzewodowy,  10 - 100-krotny wzr więcej »

SYSTEMY DYSPOZYTORSKIE NOWEJ GENERACJI - SYSTEM TRANKINGOWY LTE - DOI:10.15199/59.2015.4.11
Sławomir Gajewski Małgorzata Gajewska Ryszard Katulski 
Referat dotyczy rozwiązań systemów trankingowych- dyspozytorskich opartych na infrastrukturze LTE. W pierwszej części omówiono rozwiązanie w postaci odrębnego systemu trankingowego LTE, natomiast w drugiej opisano propozycję rozwiązania systemu trankingowego w ramach ogólnodostępnej sieci LTE. Scharakteryzowano również problem integracji takiego systemu z systemem TETRA lub DMR. 1. WSTĘP Służby i instytucje odpowiedzialne za bezpieczeństwo państwa i obronę granic poszukują rozwiązań systemów trankingowych, które są w stanie zapewnić realizację usług dyspozytorskich o najwyższej jakości. Wiadomo, że dotychczas dominującą rolę odgrywają tu systemy dedykowane do tych celów, takie jak np. TETRA (ang. Terrestrial Trunked Radio) albo DMR (ang. Digital Mobile Radio) [1, 2]. Nie ma wątpliwości, że systemy te w znacznym stopniu spełniają oczekiwania odbiorców, szczególnie w zakresie funkcji dyspozytorskich, usług głosowych oraz bezpieczeństwa transmisji. Dlatego wciąż są one głównymi rozwiązaniami stosowanymi w praktyce. Jednak nie sposób nie zauważyć bardzo dynamicznego rozwoju ogólnodostępnych systemów komórkowych, takich jak GSM, UMTS, a obecnie LTE (ang. Long Term Evolution), które zmieniły i w dalszym ciągu zmieniają oblicze współczesnej radiokomunikacji, a w konsekwencji - również systemów dyspozytorskich. Wiemy, że standaryzacja TETRY i DMR jest wciąż dynamiczna, a systemy te stanowią w istocie bezpieczne narzędzie dla służb [3]. Obydwa systemy, jak przystało na systemy profesjonalne, posiadają wiele zalet bardzo ważnych z punktu widzenia różnych służb, np. kolejowych, straży granicznej, policji, wojska, pogotowia itd. Stawiają one jednak w zamian bardzo liczne ograniczenia. Okazuje się, że rozwój technologiczny zarówno TETRY, jak i DMR, także z uwagi na wąskie, dostępne kanały częstotliwościowe, nie nadąża za współczesnymi systemami komórkowymi, które oferują coraz większe szybkości przesyłania danych oraz niezwykle sz więcej »

SYSTEMY PPDR W PRZESTRZENI WIDMOWEJ II DYWIDENDY CYFROWEJ - DOI:10.15199/59.2015.4.92
Maciej J. Grzybkowski 
W referacie zaprezentowano możliwość implementacji systemów BB PPDR w paśmie II dywidendy cyfrowej, po przeznaczeniu zakresu 694-790 MHz na potrzeby służb ruchomych, Przedstawiono sposób szacowania zasobów widmowych dla potrzeb systemów PPDR oraz koncepcje i możliwości rozlokowania kanałów radiowych w zasobach częstotliwości II dywidendy. 1. WSTĘP Systemy ochrony bezpieczeństwa publicznego i akcji pomocy w przypadku klęsk żywiołowych, PPDR, (ang. Public Protection and Disaster Relief) stanowią ważną część dyspozytorskich systemów radiokomunikacji ruchomej lądowej1 . W dokumentach ITU-R [1, 2] zostały zdefiniowane pojęcia radiokomunikacji przeznaczonej do tych celów. Według ITU pojęcie "radiokomunikacja w celu ochrony bezpieczeństwa publicznego" (PP - Public Protection) odnosi się do radiokomunikacji wykorzystywanej przez agencje i organizacje odpowiedzialne za utrzymywanie porządku i ładu publicznego, ochronę życia i mienia oraz działania w sytuacjach nadzwyczajnych. Natomiast pojęcie "radiokomunikacja w celu akcji pomocy w przypadku klęsk żywiołowych" (DR - Disaster Relief) odnosi się do radiokomunikacji wykorzystywanej przez agencje i organizacje odpowiedzialne za podejmowanie działań w przypadkach poważnego zakłócenia funkcjonowania społeczeństwa, w sytuacjach znaczącego zagrożenia dla życia i zdrowia dużej grupy ludzi, mienia lub środowiska na znacznym obszarze, niezależnie od tego, czy powstały w wyniku wypadku, zjawisk naturalnych lub działań człowieka, oraz niezależnie od tego, czy powstały nagle lub w wyniku skomplikowanych długotrwałych procesów. Systemy PPDR wykorzystują więc radiokomunikację użytą do wszystkich wyżej sformułowanych celów. Techniki użyte w systemach PPDR można podzielić na trzy kategorie: wąskopasmowe, szerokopasmowe i rozległopasmowe. Zdefiniowane zostały szczegółowo w Załączniku E do Sprawozdania CEPT ECC 102 [3]. Generalna różnica miedzy nimi polega na stosowaniu wąskiego (kilka - kilkad więcej »

SYSTEMY SCALONE - OD ZASTOSOWAŃ TRADYCYJNEJ TECHNOLOGII CMOS DO NAJNOWSZYCH KONCEPCJI FD-SOI ORAZ VESTIC - DOI:10.15199/59.2015.4.108
Andrzej Pfitzner Wiesław Kuźmicz Zbigniew Jaworski Witold Pleskacz 
W artykule opisano w zarysie realizowane w Zakładzie Metod Projektowania w Mikroelektronice IMiO PW prace badawcze służące rozwojowi najnowszych technologii realizacji systemów scalonych. Przedstawiono wybrane projekty zrealizowane w tradycyjnej technologii CMOS związane z przestrzenią kosmiczną oraz potencjalne możliwości i dotychczasowe wyniki badań oraz prace w ramach rozpoczętego projektu dotyczącego technologii FD-SOI (Fully-Depleted SOI), a także nad rozwojem alternatywnej, nowatorskiej koncepcji technologii VeSTIC (Vertical-Slit Transistor based Integrated Circuit). 1. WSTĘP Od lat siedemdziesiątych zespół związany z Zakładem Metod Projektowania w Mikroelektronice w Instytucie Mikroelektroniki i Optoelektroniki Politechniki Warszawskiej (ZMPM IMiO PW) rozwija metodologię projektowania układów scalonych i narzędzia CAD, projektuje złożone cyfrowe i analogowe układy do niestandardowych zastosowań, a także prowadzi badania nad nowymi przyrządami i układami dla przyszłych generacji systemów mikroelektronicznych. Przykładami projektowania niebanalnych układów specjalizowanych w tradycyjnej, ale zaawansowanej technologii CMOS, są projekty związane z przestrzenią kosmiczną opisane w rozdziale 2. Rozwój technologii CMOS wytwarzania układów scalonych natrafia jednak na szereg barier i podtrzymanie jego tempa nazywanego prawem Moore’a staje się problematyczne w zakresie głęboko submikrometrowych wymiarów układów. W szczególności, poważnym ograniczeniem wydajności i skalowania stało się odprowadzanie ciepła: gęstość wydzielanej mocy rośnie potęgowo ze zwiększaniem skali integracji, a możliwości redukcji napięcia zasilania wyczerpują się; wzrasta też udział mocy statycznej w rozpraszaniu energii (już w przypadku wymiaru charakterystycznego technologii CMOS 45 nm może on stanowić nawet ok. 70% mocy całkowitej). Równocześnie procesy technologiczne są coraz bardziej kosztowne (bardziej złożone i wykorzystujące drogie ma więcej »

Szczegółowy model wykorzystania energii przez termial bezprzewodowy - DOI:10.15199/59.2015.4.28
Adrian Kliks 
W artykule przedstawiono wyniki prac dotycących utworzenia adaptacyjnego modelu ziżycia energii przez terminal bezprzewodowy w kontekcie radia programo­walnego i kognitywnego. W szczególnoci analizie poddane zostały proponowane w literaturze modele eneretyczne poszczególnych elementów stopnia wiciowego i wyjścio­wego terminala, modele iżycia energii przez wybrane pio- cedury przetwarzania sygnału w pasmie podstawowym i warstwy dostępu do łącza. Przedstawiony model wykory- stano podczas przykładowych badań eksperymentalnych, 1. WPROWADZENIE Praktyczna implementacja proponowanych rozwą- zań teoretycznych w przypadku większości dyscyplin naukowych musi być w zasadzie poprzedzona licznymi i intensywnymi testami z wykorzystaniem rzeczywistycł narzędzi, układów czy systemów. Coraz cęściej jednak złożoność badanego zagadnienia i jego zależność od coraz to większej liczby czynników sprawiają, że prze­prowadzanie praktycznych testów staje sęi operacją na tyle kosztowną, iż jest ona traktowana jako ostateczne potwierdzenie poprawności wcześniejszych cząstkowych eksperymentów. Te zaś wymagają często użycia odpo­wiednich modeli odzwierciedlających rzeczywiste za­chowanie systemu. Obserwacja ta jest szczególnie itot- na w kontekście projektowania rozwiązań dla systemów telekomunikacyjnych. Ich diża złożoność powoduje więcej »

SZYBKA METODA SZEROKOPASMOWEJ ANALIZY INSTALACJI ODGROMOWYCH - DOI:10.15199/59.2015.4.96
Andrzej Karwowski Artur Noga Tomasz Topa 
Zaprezentowano szybka˛, oparta˛ na metodzie momentów, technik˛e szerokopasmowej analizy instalacji odgromowych. Spektakularne skrócenie czasu obliczen´ uzyskano dzi˛eki przeniesieniu kluczowych algorytmów z CPU na GPU i zastosowaniu wymiernej, poła˛czonej z próbkowaniem adaptacyjnym, interpolacji poszukiwanej odpowiedzi cz˛estotliwo´sciowej instalacji. Przedstawiono wyniki eksperymentów numerycznych potwierdzaja˛ce znakomita˛ skuteczno ´s´c zaproponowanego podej´scia. 1. WSTE˛P Wyładowania atmosferyczne sa˛ - jak wiadomo - z´ródłem silnych impulsów elektromagnetycznych (LEMP - Lightning Electromagnetic Pulse), stwarzaja˛cych zagro- z˙enie dla urza˛dzen´ elektronicznych. Podstawowym sposobem ochrony obiektów i urza˛dzen´ radiokomunikacyjnych przed destrukcyjnym oddziaływaniem tych impulsów jest zastosowanie instalcji odgromowych. Takie instalacje z reguły maja˛ postac´ przestrzennie rozbudowanych, uziemionych struktur, zbudowanych ze wzgl˛ednie cienkich przewodów. Wybór topologii instalacji nie jest sprawa˛prosta˛, chociaz˙ ogólne rekomendacje w tym zakresie moz˙na znalez´c´ w istnieja˛cych, stosownych normach. Racjonalny wybór struktury ka˙zdej instalacji powinien w istocie uwzgl˛ednia´c wyniki starannej predykcji jej własno ´sci na etapie projektowania. Odpowiednim, ogólnym podej´sciem do analizy instalacji odgromowych jest w tym kontek´scie zastosowanie metod elektromagnetyzmu obliczeniowego. Według kryteriów przyj˛etych w in˙zynierii pola elektromagnetycznego (PEM), instalacje odgromowe sa˛ strukturami cienkoprzewodowymi. Za najskuteczniejsza˛ metod ˛e "rygorystycznego" modelowania numerycznego takich struktur jest uwa˙zana metoda momentów (MoM - Method of Moments) implementowana w dziedzinie cz˛estotliwo ´sci [1]. Metoda umo˙zliwia wyznaczenie rozkładu pra˛du indukowanego przez zewne˛trzne PEM w przewodach tworza˛cych strukture˛. Znajomos´c´ rozkładu pra˛du pozwala z kolei obliczy´c warto´sci wszystkich innych, wtór więcej »

SZYBKOŚĆ TRANSMISJI URZĄDZEŃ SIECI BEZPRZEWODOWYCH IEEE 802.11AC W RÓŻNYCH ŚRODOWISKACH Z PROPAGACYJĄ WIELODROGOWĄ - DOI:10.15199/59.2015.4.82
Zbigniew Jóskiewicz 
W artykule przedstawiono i porównano wyniki pomiarów szybkości transmisji uzyskane dla wybranych urządzeń sieci bezprzewodowych zgodnych z IEEE 802.11ac w typowych rzeczywistych środowiskach z propagacją wielodrogową oraz w komorze SAC (Semi- Anechoic Chamber) i komorze rewerberacyjnej. Wykazano, że komora SAC zapewnia odpowiednie środowisko umożliwiające powtarzalność i odtwarzalność oceny osiągów urządzeń bezprzewodowych w zakresie testowania maksymalnych przepływności. 1. WSTĘP Zgodnie ze specyfikacją techniczną IEEE 802.11ac [1] urządzenia bezprzewodowej transmisji powinny zapewniać transmisję w paśmie do 80MHz z szybkością nie mniejszą niż 500Mb/s, aby zapewnić realizację usług szybkiej transmisji danych oraz HDTV (High Definition TV). Uzyskanie większych szybkości transmisji jest możliwe poprzez implementację w urządzeniach dodatkowych, opcjonalnych funkcji i technik jak np.:, modulacji 256QAM, obsługi do 8 przestrzennych strumieni, MU-MIMO (Multi-User MIMO), krótszego 400ns odstępu ochronnego GI (Guard Interval), kodowania STBC (Space Time Block Coding) oraz LDPC (Low Density Parity Check). Oznacza to, że urządzenia zgodne z IEEE 802.11ac, w których zostaną zastosowane powyższe opcjonalne techniki, mogą realizować transmisję z szybkością do około 3,5Gb/s w paśmie 80 MHz i okoła 7Gb/s w paśmie 160MHz. W rzeczywistych warunkach uzyskiwane szybkości transmisji większości dostępnych na rynku urządzeń są zwykle mniejsze od teoretycznych. Wynika to z ich ograniczeń techniczno-funkcjonalnych, ale i stosowanych protokołów i mechanizmu wielodostępu do medium transmisyjnego CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) ze względu na współdzielenia pasma z innymi systemami i urządzeniami (niekoniecznie radiowymi). Wzrost zakłóceń, czy też spadek stosunku SNIR (Signal to Noise & Interference Ratio) na skutek wzrostu tłumienia sygnału radiowego (np. większej odległości lub dodatkowego tłumienia wnoszonego p więcej »

SZYK ANTENOWY DLA STANDARDU IEEE 802.11 a\h\n\ac - DOI:10.15199/59.2015.4.52
Piotr Włodarczyk Yevhen Yashchyshyn Konrad Godziszewski 
W artykule przedstawiono projekt i wyniki badań szyku antenowego pracującego w paśmie od 5.150 GHz do 5.875 GHz. Projekt anteny, symulacje parametrów i optymalizacje konstrukcji przeprowadzano z użyciem symulatora elektromagnetycznego FEKO. Do obliczeń wykorzystano metodę momentów MoM. Szyk składa się z sześciu promienników. Antena zasilana jest centralnie od spodu struktury przez doprowadzony kabel koncentryczny. Charakteryzuje się dużym zyskiem energetycznym około 15 dBi i wąską wiązką promieniowania w przekroju pola H. Zaprojektowany szyk antenowy może być używany do połączeń typu Punkt - Punkt dla standardu 802.11a\h\n\ac. 1. WSTĘP Standard IEEE 802.11 jest prężnie rozwijany, a z biegiem lat powstają kolejne, udoskonalone wersje umożliwiające transmisję z coraz większą szybkością. Część z nich oznaczonych literami a\h\n\ac obejmuje omawiane w artykule pasmo częstotliwości pracy zaprojektowanego szyku antenowego, w okolicy 5 GHz. Pasmo to jest udostępnione dla nielicencjonowanego użytkowania. Jednak jego wykorzystanie ograniczone jest przez bardzo restrykcyjne warunki. Jednym z nich jest ograniczenie mocy EIRP. Oznacza to konieczność używania anten z dużym zyskiem energetycznym w celu tworzenia połączeń typu Punkt - Punkt na zwiększone odległości. Anteny drukowane, czyli wykonane w technice płytek drukowanych mają szerokie zastosowanie w wielu dziedzinach życia. Między innymi w lotnictwie, statkach kosmicznych, systemach satelitarnych, systemach związanych z pociskami, a także w bardziej przyziemnej, mobilnej i stacjonarnej komunikacji radiowej. Znajdują zastosowanie wszędzie tam gdzie liczą się małe wymiary i waga, niskie koszty wytworzenia, łatwość w instalacj więcej »

TECHNIKI KODOWANIA I WYZNACZANIA MAP GŁĘBI STEREOSKOPOWEJ W SYSTEMACH TELEWIZJI WIELOWIDOKOWEJ - DOI:10.15199/59.2015.4.72
Olgierd Stankiewicz 
Artykuł stanowi podsumowanie i streszczenie rozprawy doktorskiej [1]. Przedstawiono osiągnięcia autora związane z opracowaniem nowych technik estymacji głębi oraz nowej techniki kodowania głębi wykorzystującej reprezentację nieliniową, która została włączona do specyfikacji międzynarodowych norm opisujących nowe techniki kodowania obrazu trójwymiarowego. Opisano również udział autora w opracowaniu poznańskiego kodeka obrazu trójwymiarowego oraz eksperymentalnego systemu wielokamerowego i sekwencji testowych. 1. WSTĘP Rozprawa [1] dotyczy nowej generacji systemów obrazu trójwymiarowego. Swoim zakresem obejmuje zwłaszcza systemy swobodnego punktu widzenia (free viewpoint navigation) i autostereoskopię. W stosunku do dotychczas znanych i stosowanych rozwiązań wykorzystujących stereoskopię, nowe systemy mają zapewnić lepsze wrażenia obrazu przestrzennego, lepszą reprodukcję struktury sceny oraz umożliwić widzowi oddziaływanie na widzianą scenę i jej oglądanie bez użycia specjalnych okularów. Zarówno nawigacja swobodnego punktu widzenia, jak i autostereoskopia, wymagają znacznej liczby widoków sceny, których akwizycja, przetwarzanie i transmisja byłaby niepraktyczna. Sposobem, który umożliwia efektywny opis sceny trójwymiarowej jest zastosowanie reprezentacji MVD (Multiview Video plus Depth) [2]. Reprezentacja sceny trójwymiarowej w formacie MVD składa się z ograniczonej liczby widoków oraz odpowiadających im map głębi, które przenoszą dodatkową informację na temat trójwymiarowej struktury sceny. Mapy głębi są obrazami, których wartości odzwierciedlają odległości pomiędzy daną kamerą a punktami w scenie. Wykorzystanie map głębi (rys. 1) pozwala na generowanie tzw. widoków wirtualnych. Widok wirtualny, czyli widok pochodzący z kamery umiejscowionej wirtualnie w scenie, nie jest rejestrowany a powstaje syntetycznie na podstawie treści zarejestrowanej przez kamery rzeczywiste. Taka wirtualna kamera może być umieszczona w dowo więcej »

TESTY SYSTEMU TELENAWIGACJI DLA OSÓB NIEWIDOMYCH - DOI:10.15199/59.2015.4.22
Przemysław Barański Paweł Strumiłło 
W referacie opisano testy systemu zdalnej nawigacji dla osób niewidomych. Niewidomy otrzymuje słowne wskazówki nawigacyjne od zdalnego przewodnika na podstawie przesyłanych obrazów z urządzenia noszonego przez osobę niewidomą. Testy systemu pokazały dużą skuteczność systemu we wspomaganiu osób niewidomych w ostrzeganiu o przeszkodach oraz w orientacji przestrzennej. W referacie zawarto wyniki testów, w których rejestrowano parametry transmisji danych oraz odpowiedzi uczestników testu na ankietę oceny użytkowej systemu. 1. WSTĘP Wg danych Światowej Organizacji Zdrowia, 285 milionów ludzi doświadcza problemów ze wzrokiem, a 39 milionów osób to niewidomi [1]. Odsetek liczby osób mających problemy ze wzrokiem w Europie wynosi ok. 1,75%. Liczba ta nieprzerwanie wzrasta ze względu na starzejące się społeczeństwa. Mimo znacznego postępu technologicznego, problem swobodnego i bezpiecznego poruszania się osób niewidomych pozostaje nadal nierozwiązany. Większość osób niewidomych korzysta z podstawowych środków wspomagających poruszanie się, przede wszystkim z białej laski i rzadziej z psa przewodnika. Środki te, mimo dużego wsparcia, nie zapewniają swobodnego podróżowania. Biała laska pomaga wykrywać przeszkody znajdujące się w bezpośrednim otoczeniu niewidomego, angażuje jedną rękę i nie zapewnia wykrycia przeszkód na wysokości głowy. Na świecie, od wielu lat prowadzonych jest wiele prac nad elektronicznymi urządzeniami wspomagającymi poruszanie się osób niewidomych [2]. Urządzenia te można podzielić na dwie kategorie: urządzenia do wykrywania przeszkód (ang. Obstacle Detectors, OD) i systemy nawigacji. Urządzenia OD są pomocne w tzw. mikro-nawigacji i służą do omijania przeszkód i orientacji w bezpośrednim otoczeniu [4]. Systemy nawigacji zaś są pomocne w tzw. makro-nawigacji, tj. są przeznaczone do określenia położenia geograficznego i jego zmian w trakcie przemieszczania się wzdłuż zadanej ścieżki. Technologie stosowane w więcej »

TRANSMISSION OF SIGNALS FROM THE ANALOG SOURCES: CRITERIONS IN DESIGN OF TOP PERFORMANCE ACS - DOI:10.15199/59.2015.4.68
Anatoliy Platonov 
The paper discusses difficulties in evaluation of performance of the local wireless communications systems (CS) transmitting the signals from analog sources (ACS). These systems can be considered as a special class of the remote measurement systems, and quality of transmission can be assessed by the mean square error (MSE) of the recovered signals. Currently, both the analog and digital signals are transmitted using digital technologies, and performance of digital CS (DCS) is assessed by the group of particular criterions. This makes impossible a development of the strict analytical approach to DCS optimization that can be done for ACS on the basis of MSE criterion. The latter one enables design of top performance ACS transmitting the signals with maximal energy-spectral efficiency.1 1. INTRODUCTION The most actual task in design of the battery supplied ACS is a reduction of their energy consumption. The not less important task is optimal utilization of the channel bandwidth, as well as a reduction of interchannel interference, security of the signals and data transmission, greater coverage, decrease of the complexity and cost of CS, and others. Nowadays, communications employ only digital technologies for the signals transmission. Apart from the basic criterions, quality of transmission and performance of DCS as a whole are assessed by a large number of additional criterions important for applications of the systems [1], (see also Sect. 2). All the criterions are mutually connected by plural tradeoffs [2]. This disables a development of the systematic analytical approach to the search of optimal balance between different demands to DCS, and makes impossible adequate comparison of their performance. The result is the lack of systematic approach to design of DCS optimally utilizing resources of their transmitters, receivers and channels, and most relevant to the aims and scenario of the suggested applications. In turn, re więcej »

UKŁADY EKSPOZYCYJNE PEM W BADANIACH BIOMEDYCZNYCH - DOI:10.15199/59.2015.4.100
Paweł Bieńkowski Paweł Cała Joanna Wyszkowska Bartłomiej Zubrzak 
W pracy przedstawiono analizę układów przeznaczonych do ekspozycji na pole elektromagnetyczne w badaniach bioelektromagnetycznych. Zaprezentowano układy do generacji pola magnetycznego niskich częstotliwości, antenę do układu ekspozycyjnego w zakresie częstotliwości stosowanych w telefonii komórkowej (pasmo 1800MHz) oraz propozycję układu do kompleksowej ekspozycji na promieniowanie radiotelefonów doręcznych. Przedstawiono metody wyznaczania wartości referencyjnej oraz niejednorodności PEM. Słowa kluczowe: PEM, układy ekspozycyjne, badania biomedyczne 1. WSTĘP Zainteresowanie naukowców oddziaływaniem pola elektromagnetycznego (PEM) na organizmy wynika z wciąż nie do końca wyjaśnionych mechanizmów i skutków interakcji PEM z materią biologiczną.. Doświadczenia i ich wyniki mogą przyczynić się do lepszej ochrony przed potencjalnymi skutkami negatywnymi lub pozwolić na wykorzystanie pozytywnych efektów tych oddziaływań w terapii. Jedną z metod takich badań są badania epidemiologiczne grup eksponowanych na PEM w miejscach zamieszkania lub środowisku pracy. Drugim rodzajem są badania laboratoryjne, w których obiekty poddaje się oddziaływaniu PEM w warunkach kontrolowanych. Mimo ogromnej liczby publikacji dotyczących biologicznych efektów ekspozycji w polu elektromagnetycznym, trudno jest na ich podstawie wyciągnąć jednoznaczne wnioski dotyczące efektów interakcji PEM z organizmami. Uzyskiwane wyniki często nie korespondują ze sobą lub są wręcz przeciwstawne. Jednym z powodów takiej sytuacji są niepowtarzalne warunki eksperymentów, co z kolei może wynikać z niepełnego opisu metodyki lub błędnej oceny warunków ekspozycji. W pracy przedstawiono analizę układów ekspozycyjnych na pole o dominującej składowej magnetycznej niskiej częstotliwości (częstotliwości przemysłowe) oraz PEM z zakresu mikrofal (pasma telefonii komórkowej). Zaproponowano również sposób i kryteria doboru i opisu stosowanych emiterów. 2. UKŁAD EKSPOZYCYJNY P więcej »

ULTRASZEROKOPASMOWY SYSTEM MONITOROWANIA RUCHU OÓB STARSZYCH - DOI:10.15199/59.2015.4.24
Magdalena Berezowska Jerzy Kołakowski 
W referacie przedstawiono opis systemu umożliwiającego gromadzenie i analiz; informacji o lokai- zacji i parametrach ruchu osóbstarszych. Pomiary są wy­konywane za pomocą czujników MEMS zainstalowanych w etykiecie noszonej przez osobę monitorowaną. Transmi­sja wyników jest dokonywana za pomocą modułu ultra- szerokopasmowego DWM1000.W referacie przedstawiono budowę etykiety oraz opisano wyniki badań łącza radiowe­go. Pozwalają one na ocenę zastosowanego w systemie modułu radiowego. 1. WSTĘP Projekt NITICS (Networked InfrasTructure for n- novative home Care Solutions), realizowany w Instyu- cie Radioelektroniki ma na celu opracowanie systemu wspomagającego opiekę nad osobami starszymi i niepsł- nosprawnymi. Jednym z elementów systemu jest ultraszerokoa- smowy system lokalizacyjny umożliwiający gromadze­nie informacji o lokalizacji oraz parametrach ruchuosób starszych. Analiza tych danych pozwala na wykrycie zdarzeń zagrażających zdrowiu lub będących przejawem problemów zdrowotnych osoby starsze[1]. Ponieważ osoby starsze mają tendencję do powta­rzania codziennych czynności, zbudowany przez lata "wzorzec aktywności" może być wykorzystany dc wy­krycia zachowań nietypowych. Informacja lokalizacyjna oraz parametry ruchu pozwalają określić cz więcej »

URZĄDZENIA NOWYCH TECHNOLOGII W ŻYCIU MIESZKAŃCA WIELKIEGO MIASTA - DOI:10.15199/59.2015.4.101
Magda Mariańska Halina Aniołczyk Paweł Mamrot 
Stale rosnący poziom intensywności PEM RF powszechnie występujących w środowisku życia współczesnego człowieka (o tendencji rosnącej) powinien być okresowo kontrolowany zarówno ze względów technicznych jak i ekologicznych oraz ochrony zdrowia populacji. Przeprowadzono badanie ankietowe w 110 gospodarstwach domowych. Najczęściej stosowany był telefon komórkowy -93%, 68% badanych korzystało z laptopów połączonych z siecią bezprzewodową a 66% korzystało z kuchenki mikrofalowej. 1. WSTĘP Pola elektromagnetyczne (PEM) są dzisiaj wszechobecne w życiu współczesnego człowieka a poziom natężenia tych pól ma tendencję rosnącą. Jeszcze do niedawna w zakresie częstotliwości radiowych (RF) najbardziej powszechne były telefony komórkowe. Obecnie, na skutek rosnącego zapotrzebowania na nowe usługi, zwłaszcza szybką transmisję danych oraz przesyłanie obrazów wzrasta zainteresowanie ww. usługami, zwłaszcza teleinformatycznymi. Zwiększa się więc liczba "osieciowanych" mieszkań w celu korzystania z urządzeń nowych technologii, takich jak: sieci dostępu bezprzewodowego WLAN (Wireless Local Area Network) np. typu WiFi (obecnie kartę WiFi posiada urządzenie zewnętrzne PC i laptopy), WiMAX, Bluetooth (stosowany w ponad 500 różnych technologiach) oraz tzw. usług nietelekomunikacyjnych (jak na przykład śledzenie ludzi starszych, chorych, więźniów w areszcie domowym, pilnowanie dzieci). Część mieszkańców korzysta z telefonów bezprzewodowych, np. w sieci DECT (Digital Enhanced Cordless Telecommunication). Wytwarzane przez ww. urządzenia PEM RF występuje więc w stosunkowo bliskim otoczeniu człowieka. Stąd też pytanie dotyczące bezpieczeństwa urządzeń elektrycznych i elektronicznych (EMC) jak i bezpieczeństwa i ochrony zdrowia człowieka przed potencjalnymi skutkami dla zdrowia rosnącego poziomu ekspozycji przewlekłejna PEM w środowiska życia. Międzynarodowa Komisja ds. Ochrony Przed Promieniowaniem Niejonizującym (International Commission on No więcej »

URZĄDZENIA RADIOKOMUNIKACJI I RADIODYFUZJI W ŚWIETLE NOWEJ DYREKTYWY O OCHRONIE ZDROWIA I BEZPIECZEŃSTWA PRACOWNIKÓW - DOI:10.15199/59.2015.4.23
Halina Aniołczyk Magda Mariańska 
Opublikowana w 2013 roku dyrektywa 2013/35/UE nałożyła obowiązek transpozycji przepisów UE do prawa krajowego. Celem pracy jest ocena aktualnego stanu zagrożeń na pola elektromagnetyczne (PEM) od urządzeń stosowanych w radiokomunikacji i radiodyfuzji i wskazanie urządzeń oraz miejsc pracy o najwyższym ryzyku zagrożenia zdrowia i bezpieczeństwa pracowników. Najwyższe poziomy natężenia pola elektrycznego stwierdzono w realnych warunkach środowiska pracy dla pracowników technicznych grup masztowych. 1. WSTĘP Pola elektromagnetyczne (PEM) jako czynnik fizyczny występujący w środowisku pracy i mogący wpływać negatywnie na zdrowie pracowników, podlegają w Polsce obowiązkowej kontroli [1]. Ekspozycja zawodowa na PEM występuje wówczas, gdy człowiek znajduje się w tych polach podczas stosowania urządzeń, które je wytwarzają ale również podczas ich testowania, konserwacji, naprawy czy kontroli. Ekspozycja zawodowa na PEM może osiągać w szczególnych warunkach ekstremalne wartości. Istnieje cały system zabezpieczeń oraz działań kontrolno - profilaktycznych, którego celem jest obniżenie stopnia tej ekspozycji a nawet całkowite jej wyeliminowanie. W Polsce od blisko 45 lat funkcjonuje system kontroli ekspozycji na PEM w środowisku pracy, którego podstawą jest Kodeks Pracy [2] i przepisy wykonawcze do niego: W konsekwencji, rezultatem funkcjonującego systemu jest istotne podniesienie poziomu rzeczywistej ochrony pracowników i znaczące obniżenie ekspozycji na PEM wybranych grup zawodowo eksponowanych na PEM a nawet wyeliminowanie tej ekspozycji. Sprzyjał temu w znacznym stopniu równoczesny postęp techniczny i rozwój elektroniki, w wyniku którego zastąpiono stare urządzenia nowoczesnymi, szczególnie w radiodyfuzji (cyfryzacja telewizji), teletransmisji i łączności. Duża część urządzeń pracuje obecnie bezobsługowo ale jednocześnie powstały nowe grupy zawodowe, w tym również i takie o nierozpoznanej ekspozycji, nieuświadomionej, nieuwzgl więcej »

Vehicular communication: state-of-the-art and remaining challenges Komunikacja między pojazdami: stan obecny i nowe wyzwania - DOI:10.15199/59.2015.4.2
Erik G. Ström 
Wireless technologies are heavily used in today's vehicles and transport system. Wireless system are quite diverse, ranging from radar to navigation to communication, from short-range applications (Bluetooth, wireless keys, NFC) to long-range satellite communication (SDAR, GNSS ), from high-data rate 4G and Wi-Fi communications for infotainment to 802.11p systems for lowlatency, high reliability vehicle-to-vehicle and vehicle-to-roadside communication for traffic safety and efficiency applications. An emerging application is to connect on-board vehicle sensors with wireless systems, e.g., based on IEEE 802.15.4. As an example, a modern car is equipped with close to 40 antennas for wireless systems operating at frequencies from about 125 kHz to close to 100 GHz, some 100 electronic control units (computers), and 2 km of wiring. The reason for this is simple: wireless enables very useful applications for the customer (infotainment, convenience, driver support, safety, automatic driving), vehicular OEMs (fleet management, software upgrades), and society (traffic efficiency). This trend will continue in the future: new applications will require higher performance from wireless systems (pull) and better wireless systems will enable new applications (push). An important class of applications are those enabled by cooperative intelligent transport systems (C-ITS), i.e., systems in which vehicles exchange messages wirelessly to increase the awareness horizon of the driver beyond what can today be achieved with in-vehicle line-of-sight technologies such as radars and camera systems. Hence, C-ITS services are enabled by vehicle-to-vehicle (V2V) and vehicle-to-roadside-infrastructure (V2I) wireless communication. This communication, collectively referred t więcej »

VHF Data Exchange System - zintegrowany system wymiany danych w morskim paśmie VHF - DOI:10.15199/59.2015.4.69
Marcin Waraksa Jerzy Żurek 
Z uwagi na rosnącą liczbę transmitowanych w systemie Automatycznej Identyfikacji Statków (AIS) wiadomości binarnych (dedykowanych poszczególnym aplikacjom) oraz wiążącym się z tym obciążeniu interfejsu radiowego systemu AIS konieczne jest stworzenie systemu wymiany danych w morskim paśmie VHF. W prezentowanej publikacji autorzy przedstawiają koncepcję takiego systemu - VHF Data Exchange System - oraz bieżący status prac. 1. WSTĘP System Automatycznej Identyfikacji Statków (AIS) jest od kilku lat uznanym i efektywnym narzędziem zapewnienia bezpieczeństwa żeglugi oraz jej monitorowania przez autoryzowane instytucje, wymaganym stosownym ustawodawstwem międzynarodowym jako obowiązkowe wyposażenie konwencyjnych jednostek morskich (podlegających konwencji SOLAS). Wraz z rosnącą rolą systemu AIS oraz nowymi wymaganiami stawianymi głównie przez administracje morskie, straże przybrzeżne oraz marynarki wojenne krajów posiadających własną infrastrukturę do agregacji i przetwarzania danych AIS na przestrzeni lat rozbudowano podstawowe funkcjonalności systemu AIS o nowe usługi. Można do nich zaliczyć wprowadzenie transponderów klasy B instalowanych na jednostkach pozakonwencyjnch (jednostki konwencyjne obowiązkowo wyposażone są w transpondery klasy A), monitoring rzeczywistego oznakowania nawigacyjnego (AtoN - Aids to Navigation), wdrożenie wirtualnego oznakowania nawigacyjnego, wyposażenie radiopław EPIRB (Emergency Position-Indicating Radio Beacon) w nadajniki AIS (EPIRB-AIS) oraz zdefiniowanie transponderów AIS-SART. Wprowadzenia AIS-SART i propozycji wdrożenia EPIRB-AIS dokonano w celu dokładnej i szybkiej lokalizacji rozbitków na morzu. Innym, ważnym aspektem rozwoju systemu AIS stała się lawinowo rosnąca liczba binarnych wiadomości dedykowanych ASM (Application Specific Messages)[5] nie związanych bezpośrednio z podstawową funkcjonalnością systemu definiowaną w [1, 2]. Powyższe urządzenia i wiadomości doprowadziły do znaczneg więcej »

WPŁYW ODLEGŁOŚCI POMIĘDZY ANTENAMI URZĄDZENIA NA PRZEPUSTOWOŚĆ SIECI IEEE 802.11N/AC W ŚRODOWISKU WEWNĄTRZBUDYNKOWYM - DOI:10.15199/59.2015.4.81
Michał Kowal 
W artykule zawarto krótką charakterystykę sieci bezprzewodowych, zgodnych z zaleceniami technicznymi IEEE 802.11n oraz IEEE 802.11ac. Zaprezentowano również porównanie przepustowości tych sieci w typowym środowisku biurowym. Dodatkowo określono wpływ zastosowania różnych odległości pomiędzy antenami, zarówno po stronie nadawczej jak i odbiorczej, na przepustowość sieci. 1. WSTĘP W ostatnich latach można zaobserwować ogromny wzrost popularności szerokopasmowych usług sieciowych, świadczonych przy użyciu różnych technologii bezprzewodowych. Jeszcze dziesięć lat temu bezprzewodowy dostęp do Internetu budził zainteresowanie - dzisiaj jest czymś normalnym, a jego brak budzi zdziwienie. Młodzi ludzie nie wyobrażają sobie życia bez nieprzerwanego dostępu do Internetu - dostęp do globalnej sieci stał się dobrem powszechnym. Nie dziwi zatem fakt ciągłego rozwoju technologii bezprzewodowej transmisji danych, a w szczególności lokalnych sieci bezprzewodowych WLAN (Wireless Local Area Network). Wzrost popularności usług sieciowych pociąga za sobą zwiększenie wymagań stawianych bezprzewodowym urządzeniom sieciowym, używanym do budowy sieci WLAN, nie tylko jeśli chodzi o szybkość przesyłania danych, ale również niezawodność oraz łatwość obsługi i konfiguracji. Systemy WLAN pojawiły się na rynku konsumenckim w 1997 roku, czyli prawie 20 lat temu. Pierwsze rozwiązania oferowały szybkości transmisji do 2 Mbit/s. W krótkim czasie zostały zastąpione przez znacznie szybsze sieci IEEE 802.11b oraz IEEE 802.11a, oferujące odpowiednio 11 Mbit/s oraz 54 Mbit/s. Te ostatnie nie zdobyły wówczas popularności ze względu na pracę w mało popularnym na owe czasy paśmie 5 GHz. Dlatego też w 2003 roku pojawiło się kolejne rozwiązanie, IEEE 802.11g, które było jego odpowiednikiem z tą różnicą, że do pracy wykorzystywało pasmo 2,4 GHz. Przełom nastąpił sześć lat później, gdy na rynku pojawiły się urządzenia zgodne z IEEE 802.11n. Pozwalają one uzyskać s więcej »

WPŁYW ŚRODOWISKA NA KĄTOWĄ DYSPERSJĘ ODBIERANEGO SYGNAŁU - DOI:10.15199/59.2015.4.94
Cezary Ziółkowski Jan M. Kelner 
Problematyka artykułu dotyczy oceny wpływu środowiska na kątową dyspersję odbieranych sygnałów. Przedstawione podstawowe charakterystyki, są podstawą dla liczbowej oceny intensywności kątowego rozproszenia sygnałów. Na podstawie danych literaturowych dokonano oceny zróżnicowania rozproszenia mocy odbieranych sygnałów, jako funkcji typu środowiska charakteryzowanego przez rms rozmycia opóźnienia. Uzyskane wyniki analizy pokazują, że założenia modelu Clarke’a istotnie odbiegają od warunków występujących w rzeczywistym środowisku. 1. WSTĘP W systemach radiokomunikacji mobilnej rozkład kąta dotarcia do odbiornika składników wielodrogowej propagacji w istotnym stopniu wpływa zarówno na poziom jak i charakter zmian odbieranego sygnału. Sątd też, do statystycznego modelowania wpływu kanału na deformacje struktury czasowo-spektralnej transmitowanych sygnałów niezbędna jest znajomość probabilistycznych właściwości tego kąta. W większości bezprzewodowych systemów dostępowych wykorzystywane anteny to anteny dookólne bądź sektorowe w płaszczyźnie azymutu. Natomiast w płaszczyźnie elewacji szerokości charakterystyk promieniowania anten wynoszą od kilku do kilkunastu stopni. Oznacza to, że dominujący wpływ na kształtowanie struktury odbieranego sygnału maąj zjawiska propagacyjne występujące w płaszczyźnie azymutu. Dlatego, prezentowane w literaturze [1],[2] analizy teoretyczne korelacji i widma odbieranych ysgnałów bazują przede wszystkim na statystycznych właściwościach kąta odbioru (ang. angle of arrival, AOA) w płaszczyźnie azymutu. Jednym z podstawowych modeli kanałów dla środowisk zurbanizowanych, który opisuje właściwości korelacyjne i widmowe sygnałów, jest dwuwymiarowy izotropowy model Clarke’a. Równomierność rozkładu kąta dotarcia sygnału do odbiornika jest jednym z podstawowych założeń, którego skutkiem jest charakterystyczny kształt widma w postaci litery U. Widmo tego modelu nosi nazwę widma Jakesa. Przyjęte więcej »

WPŁYW WYBORU METODY OBLICZENIOWEJ NA WYZNACZANIE CZĘSTOTLIWOŚCIOWEJ CHARAKTERYSTYKI SKUTECZNOŚCI EKRANOWANIA OBUDOWY ZE SZCZELINĄ - DOI:10.15199/59.2015.4.97
Andrzej Rusiecki 
Przedstawiono wpływ wyboru metody analizy na rezultaty wyznaczania częstotliwościowej charakterystyki skuteczności ekranowania (SE) obudowy ze szczeliną. Charakterystyki uzyskane metodami numerycznymi zostały porównane z wynikami pomiarów na stanowisku z komorą GTEM. Wskazane zostały zakresy zgodności charakterystyk uzyskanych numerycznie z wynikami pomiarów. 1. WSTĘP Skuteczność Ekranowania (SE) obudowy jest miarą określającą tak stopień ochrony zabudowanego w jej wnętrzu urządzenia, jak i redukcji poziomu zaburzeń elektromagnetycznych wprowadzanych przez nie do otoczenia. SE prezentowana jest zwykle w postaci częstotliwościowej charakterystyki przedstawiającej w skali logarytmicznej poziom redukcji natężenia pola dla poszczególnych częstotliwości. Kształt tej charakterystyki zależy w znacznej mierze od konstrukcji obudowy ekranującej [14]. W oderwaniu od informacji o sposobie jej uzyskania, charakterystyka taka w przypadku małogabarytowych obudów urządzeń elektronicznych, dla których nie istnieją znormalizowane metody pomiarowe, nie pozwala na jej praktyczne wykorzystanie. Sposób wykonywania pomiaru lub analizy numerycznej SE obudowy ma istotny wpływ na wynikowy kształt uzyskanej częstotliwościowej charakterystyki skuteczności ekranowania [6-8]. W niniejszej pracy przedstawione zostały wyniki analizy numerycznej SE obliczone z wykorzystaniem kilku wybranych metod takich jak analiza natężenia pola w wybranych punktach strefy bliskiej, uśredniona wartość natężenia pola w objętości obudowy jak również całkowita moc promieniowana przez zabudowane źródło. Wyniki obliczeń zestawione zostały z wynikami pomiarów wykonanych na stanowisku z komorą GTEM. 2. METODY ANALIZY SKUTECZNOŚCI EKRANOWANIA OBUDÓW W numerycznej analizie SE obudów, stosuje się zarówno metody polegające na oświetlaniu badanego modelu obudowy falą płaską o znanym natężeniu, jak również wykorzystujące umieszczane wewnątrz obudowy źródła pola [1, 2, 4, 9-10, więcej »

WYKORZYSTANIE MODELI MARKOWA DO PREDYKCJI STANU KANAŁU W RADIU KOGNITYWNYM - DOI:10.15199/59.2015.4.27
Wojciech Bednarczyk Piotr Gajewski 
Predykcja stanu kanału, czyli oszacowanie prawdopodobieństwa, czy kanał będzie wolny, czy zajęty, pozwala na skuteczniejsze zarządzanie widmem w sieciach radia kognitywnego. W artykule przedstawiono ocenę zastosowania dwustanowego modelu Markowa do predykcji stanu kanału radiowego. Ukryte modele Markowa stanowią narzędzie modelowania statystycznego wykorzystywane do analizy i przewidywania zjawisk o charakterze sekwencji zdarzeń. Aby model Markowa mógł z powodzeniem zostać zastosowany w praktyce, konieczne jest określenie jego topologii i wyznaczenie wartości jego parametrów. Uzyskane prawdopodobieństwo predykcji stanu kanału potwierdza potencjalne możliwości modelu dla sieci radia kognitywnego z oportunistycznym dostępem do widma. 1. WSTĘP Wzrastające zainteresowanie bezprzewodowym dostępem do szerokopasmowych usług telekomunikacyjnych powoduje wzrost zapotrzebowania na ograniczone zasoby widmowe. Dynamiczne zarządzanie widmem stwarza możliwość efektywniejszego wykorzystania tych zasobów poprzez sterowane lub oportunistyczne wykorzystanie częstotliwości pasm zarówno licencjonowanych, jak i nielicencjonowanych.1 Technologie radia kognitywnego, wiążące zaawansowane metody monitorowania widma z technikami sztucznej inteligencji wykorzystywanymi w procesie decyzyjnym, stwarzają warunki harmonijnej koegzystencji użytkowników pierwotnych - PU (licencjonowanych) i wtórnych SU w określonym środowisku elektromagnetycznym [1]. Naczelnym zagadnieniem jest szybkie zwalnianie pasma przez SU w momencie zajmowania zasobów przez PU. SU powinien mieć zdolność do przewidywania i uczenia zachowania PU. W referacie zaprezentowano możliwości wykorzystania ukrytych modeli Markowa do predykcji stanu kanału radiowego na podstawie obserwacji jego zajętości jako ciąg zdarzeń. Modele Markowa ze względu na bogatą strukturę matematyczną, mogą stanowić bazę teoretyczną w szerokim zakresie zastosowań, a użyte we właściwy sposób, dają bardzo dobre więcej »

WYKORZYSTANIE MODULACJI CPM W SYSTEMIE Z WIELODOSTĘPEM SC-FDMA - DOI:10.15199/59.2015.4.67
Piotr Remlein Michał Kryściak 
W artykule przedstawiono opis realizacji transmisji bezprzewodowej dla wielu użytkowników z wykorzystaniem wielodostępu SC-FDMA w połączeniu z tzw. pragmatyczną modulacją CPM (P-CPM). Zaproponowano wykorzystanie metody wielodostępu SC-FDMA, która w połączeniu z modulacją o stałej obwiedni, umożliwia znaczącą redukcję stosunku wartości szczytowej do średniej transmitowanego sygnału - redukcję współczynnika PAPR. W artykule przedstawiono wyniki bitowej stopy błędów (BER) uzyskiwane w systemie P-CPM-SC-FDMA dla dwóch różnych metod redukcji współczynnika PAPR. Zbadano również wpływ nieliniowości wzmacniacza mocy na osiąganą stopę błędów. 1. WPROWADZENIE We współczesnych bezprzewodowych systemach telekomunikacyjnych dużą popularnością ze względu na swoje niewątpliwe zalety cieszy się wielodostęp OFDMA (ang. Orthogonal Frequency Division Multiple Access). Jednak sygnał OFDM charakteryzuje się dużymi wahaniami obwiedni, czego rezultatem jest duża wartość stosunku mocy szczytowej sygnału do mocy średniej (ang. peak-to-average power ratio - PAPR) [1]. Wysoki poziom współczynnika PAPR może prowadzić do nieliniowych zniekształceń wzmacnianego sygnału. Zniekształceń tych można uniknąć, poprzez stosowanie wzmacniaczy mocy (ang. high power amplifier HPA) wysokiej klasy o liniowej charakterystyce lub poprzez redukcję poziomu mocy nadawanego sygnału, tak aby wzmacniacz nie pracował w stanie nasycenia. Rozwiązania te są nieakceptowane w transmisji w łączu w górę. Pierwsze z nich ze względu na koszty związane z zastosowaniem drogich wzmacniaczy mocy o liniowej charakterystyce w terminalach użytkowników. Drugie prowadzi do zwiększenia strat energii, pogorszenia jakości transmisji lub jej zasięgu. Wad związanych z dużymi wartościami współczynnika PAPR pozbawiony jest wielodostęp SC-FDMA (ang. Single Carrier-Frequency Division Multiple Access). Istotnym aspektem we współczesnych systemach łączności bezprzewodowej jest efektywne wykorzysta więcej »

WYNIKI TESTÓW POMIAROWYCH ANTEN AKTYWNYCH W STACJACH BAZOWYCH SIECI ŁĄCZNOŚCI RUCHOMEJ UMTS - STUDIUM PRZYPADKU - DOI:10.15199/59.2015.4.54
Roman Łapszow 
W artykule przedstawiono wybrane wyniki testów rozwiązań wykorzystujących funkcjonalność anten aktywnych: wertykalnego podziału komórki, wertykalnego czterodrogowego odbioru zbiorczego oraz selektywnego pochylenia wiązek nadawczych i odbiorczych. Testy przeprowadzono na komercyjnej instalacji w klastrze siedmiu sektorów, w trzech lokalizacjach stacji UMTS w paśmie 2100 MHz w sieci Orange Polska. Wykorzystując rzeczywisty ruch sieci zweryfikowano dotychczasowe wyniki symulacji i wpływ badanych rozwiązań na kluczowe parametry funkcjonalne sieci. 1. WSTĘP Zaspokojenie rosnącego zapotrzebowania na zwiększenie przepustowości sieci makro sieci komórkowych jest możliwe w oparciu o wkraczające do komercyjnych zastosowań technologie antenowe zapewniające selekcję przestrzenną sygnałów i programowalne kształtowanie wiązek. Studium przypadku obejmuje testy produktów UMTS pracujących w paśmie 2100 MHz. W celu weryfikacji wyników symulacji i dotychczasowych analiz [2, 3] w pierwszej połowie 2014 roku zainstalowano anteny aktywne w sieci Orange. Testy przeprowadzono na obszarze Mińska Mazowieckiego na trzech lokalizacjach w centrum miasta. Rozmieszczenie poszczególnych nadajników przedstawiono na rys.1. Rys. 1. Plan testowanego klastra trzech stacji bazowych Zastosowane anteny aktywne umożliwiają podział dotychczasowego sektora na dwa: wewnętrzny i zewnętrzny oraz niezależną transmisję i odbiór w nowo powstałych komórkach. Funkcjonalność ta umożliwiła zaimplementowanie trzech testowanych rozwiązań: wertykalnego podziału komórki (vertical cell split - VCS), odbioru zbiorczego przez cztery nieskorelowane drogi (V4RxDiv) realizowanego przez każdą z dwóch wertykalnych wiązek w dwóch polaryzacjach ±45o. Ostatnią z funkcjonalności była niezależna adaptacja pochylenia wiązki nadawczej i odbiorczej będąca alternatywą do pozostałych rozwiązań. Budowa zastosowanych anten aktywnych oparta została na schemacie analogicznym do prezentowane więcej »

ZASTOSOWANIE ALGORYTMÓW DETEKCJI SEKWENCJI DO WYZNACZANIA POŁOŻENIA OBIEKTU PORUSZAJĄCEGO SIĘ WEWNĄTRZ BUDYNKU - DOI:10.15199/59.2015.4.46
Piotr Wawrzyniak Sławomir Hausman Piotr Korbel 
W artykule przedstawiono nowy algorytm wyznaczania położenia użytkownika poruszającego się wewnątrz budynku oparty na metodzie detekcji sekwencji. Metoda wykorzystuje bieżące pomiary mocy sygnału odebranego i dane referencyjne zgromadzone w czasie uczenia systemu do wyznaczania położenia użytkownika. W odróżnieniu od większości spotykanych rozwiązań, minimalizowana jest metryka związana z trajektorią ruchu użytkownika, a nie metryką dla pojedynczego punktu. W artykule omówiono założenia zaproponowanej metody, omówiono etapy jej działania oraz przedstawiono wyniki weryfikacji. Przeprowadzone eksperymenty dowodzą wyższej skuteczności opracowanej metody w stosunku do klasycznych klasyfikatorów wykorzystujących sztuczne sieci neuronowe. 1. WSTĘP Systemy pozwalające na uzyskanie dokładnych informacji na temat lokalizacji użytkownika znajdują wiele zastosowań i są przedmiotem licznych projektów badawczych. Istotnym zagadnieniem podejmowanym przez badaczy jest wyznaczanie położenia użytkownika we wnętrzu budynku. Jednym z możliwych rozwiązań problemu nawigacji we wnętrzu budynku jest wykorzystanie metod opierających się na pomiarach parametrów sygnałów radiowych pochodzących od zainstalowanych w tym budynku nadajników sieci komunikacji bezprzewodowej. Wśród parametrów sygnałów wykorzystywanych do wyznaczania położenia terminala sieci bezprzewodowej można wyróżnić moc sygnału odebranego, informacje o kierunku nadejścia sygnału, czy o wartościach czasów propagacji [1]. Ze względu na łatwość implementacji, znaczna część opisywanych w literaturze rozwiązań wykorzystuje pomiary mocy odebranej. W artykule przedstawiono nowy algorytm wyznaczania położenia terminali, bazujący na metodzie detekcji sekwencji. Metody zwiększania dokładności wyznaczania położenia terminala dla pojedynczych punktów są przedmiotem wielu publikacji i nie są przedmiotem tego artykułu. Obszerny przegląd takich metod można znaleźć np. w [2][3][4][5]. Detekcja więcej »

ZASTOSOWANIE METOD WG ZALECEŃ ITU-R P. 528 i P.1546 DO PREDYKCJI NATĘŻENIA POLA DLA SŁUŻB LOTNICZYCH - DOI:10.15199/59.2015.4.63
Fryderyk Lewicki Bartłomiej Kocot Andrzej Ługowski Władysław Budynkiewicz Grzegorz Zagórda 
W referacie porównano wyniki pomiarów tłumienia propagacyjnego, na trasie z stacji naziemnej do samolotu, z wynikami predykcji przeprowadzonymi zgodnie z zaleceniami ITU-R P.528 i P.1546. W chwili obecnej w ITU-R SG3 trwają prace nad nowym zaleceniem dotyczącym predykcji tłumienia propagacyjnego na trasie stacja naziemna - samolot i dlatego wyniki tego typu pomiarów są bardzo potrzebne do celów walidacji. Dotychczas przeprowadzone pomiary były pomiarami wstępnymi i będą kontynuowane w bieżącym roku. 1. WSTĘP Pomiary tłumienia propagacyjnego na trasie pomiędzy samolotem pomiarowym a naziemną stacją radiokomunikacyjną przeprowadziła Polska Agencja Żeglugi Powietrznej (PAŻP). Wyniki pomiarów porównano z wynikami predykcji uzyskanymi metodami według zaleceń ITU-R P.528 [2] i P.1546 [3]. Zalecenie P.528 jest dedykowane do prognozowania tłumienia propagacyjnego na trasie z samolotu na ziemię. Bazuje ono na modelu IF-77, który do dzisiaj jest wykorzystywany do tego celu. Zalecenie P.528 wykorzystuje jednak tylko 5 parametrów (odległość, wysokości anten nadawczej i odbiorczej, procent czasu i częstotliwość) z 23 parametrów obecnych w modelu IF-77. Dodatkowo w modelu ITU-R P.528 nie jest uwzględniany wpływ morfologii terenu w otoczeniu anteny stacji naziemnej, ale jest uwzględniana krzywi więcej »

Zastosowanie programu Remcom XFdtd i środowiska Octave do optymalizacji anten - DOI:10.15199/59.2015.4.7
Paolo Di Barba Sławomir Hausman Łukasz Januszkiewicz 
Projektowanie takich anten, dla których nie istnieją proste wzory obliczeniowe, jest przeważnie złożonym zadaniem optymalizacyjnym. Obejmuje ono zarówno wybór kształtu (typu) anteny, jak i dobór wartości parametrów geometrycznych oraz materiałowych, tak aby zostały spełnione wymagania specyfikacji, np. odpowiednio ukształtowana charakterystyka promieniowania, dopasowanie impedancyjne. W procesie optymalizacji wykorzystuje się programy komputerowe z zakresu elektrodynamiki obliczeniowej, służące do wyznaczenia funkcji celu, która jest pochodną parametrów anteny. W przypadku anten, których projektowanie wymaga wyznaczenia wartości wielu parametrów geometrycznych czy materiałowych, jednym z teoretycznie możliwych podejść jest przeprowadzenie optymalizacji metodą wyczerpującego przeszukiwania. Polega ona na symulacji właściwości anteny dla wszystkich kombinacji wartości parametrów w ich zdyskretyzowanej przestrzeni i wyborze wariantu optymalizującego wartość funkcji celu. Już przy stosunkowo niewielkiej liczbie parametrów jest to zwykle zadanie bardzo (lub wręcz zaporowo) czasochłonne, co wynika z dużego nakładu obliczeniowego potrzebnego do wielokrotnego wykonania symulacji elektrodynamicznych. Proces projektowania może zostać znacznie skrócony, dzięki rezygnacji z tego algorytmu na rzecz heurystycznych metod optymalizacji. Nie dają one gwarancji znalezienia rozwiązania optymalnego, ale umożliwiają znacznie szybsze przeszukiwanie przestrzeni parametrów. Zapewniają one duże prawdopodobieństwo znalezienia w rozsądnym czasie rozwiązania, które jest akceptowalne z punktu widzenia przyjętych założeń projektowych. Dotychczas opracowano i stosowano wiele algorytmów optymalizacji anten, co świadczy ogólnie o skuteczności takiego podejścia do projektowania [2 - 4]. Dodatkowo w ostatnich latach, dzięki rozwojowi technologii komputerowej skutkującej znacznym przyspieszeniem obliczeń, możliwe było wykorzystanie w praktyce projektowej meto więcej »

ZASTOSOWANIE TECHNOLOGII ROZPYLANIA MAGNETRONOWEGO DO WYTWARZANIA ANTEN TEKSTYLNYCH - DOI:10.15199/59.2015.4.84
Łukasz Januszkiewicz Iwona Nowak 
W artykule opisano wyniki badań poświęconych ocenie możliwości zastosowania technologii rozpylania magnetronowego do wytwarzania anten tekstylnych. Przedstawiono wyniki weryfikacji pomiarowej anteny dipolowej oraz szczelinowej wykonanej tą techniką na podłożu tekstylnym. Otrzymane rezultaty świadczą o przydatności tej technologii do wytwarzania anten tekstylnych. 1. WSTĘP W ostatnim dziesięcioleciu można zaobserwować rosnące zainteresowanie naukowców antenami tekstylnymi, które zaowocowało pojawieniem się wielu nowych konstrukcji wykorzystujących technologie tekstylne [1-2]. Anteny tego typu wykonane są z materiałów tekstylnych takich jak tkaniny lub włókniny, wymagając zastosowania zarówno materiałów o właściwościach elektro-izolujących (podłoże, osłona anteny) jak i elektro przewodzących (promiennik, linia zasilająca). Tekstylne materiały elektroizolujące to głównie materiały wytworzone na bazie włókien syntetycznych (polimerowych) dzięki czemu posiadają one oprócz dużej rezystywności także niewielką stratność dielektryczną, pożądaną w przypadku anten pracujących w zakresie mikrofalowym. Tekstylne materiały elektroprzewodzące powinny posiadać jak najmniejsza rezystywność umożliwiającą wykonanie anteny o stosunkowo małych stratach (dużej sprawności). Opracowanie materiałów tekstylnych o dużej przewodności jest zadaniem trudnym. Z tego powodu, w wielu przypadkach promienniki anten tekstylnych wykonywane były z folii metalowej umieszczanej na podłożu tekstylnym [3-4]. Innym rozwiązaniem jest wykorzystanie włókien elektroprzewodzących stanowiących promiennik [5] lub tkanin wykonanych z włókien elektroprzewodzących [6]. Promiennik anteny na podłożu tekstylnym można uzyskać również dokonując modyfikacji powierzchniowej materiału elektroizolujacego polegającej na nadaniu mu właściwości elektroprzewodzących. W kontekście anten tekstylnych stosowana może być w tym celu technika druku umożliwiająca nanoszenie cienkich warstw więcej »

ZMODYFIKOWANA METODA LOKALIZACJI NADAJNIKA Z WYKORZYSTANIEM TECHNIKI RSS - DOI:10.15199/59.2015.4.45
Anna Badawika Jerzy Kołakowski 
W referacie zamieszczono opis algorytmu umożliwiającego określenie położenia osoby z wykorzystaniem techniki RSS (Received Signal Strength). Podstawowy algorytm min-max rozszerzono o iteracyjną procedurę minimalizacji błędu lokalizacji. Dodatkowo dla celów lokalizacji osób w różnych pomieszczeniach do algorytmu dodano metodę kalibracyjną pozwalającą skompensować wpływ warunków propagacji. Zaproponowane rozwiązanie przebadano eksperymentalnie w wykorzystaniem systemu opracowanego w ramach projektu NITICS. 1. WSTĘP Najbardziej popularną techniką określania położenia wykorzystywaną w systemach lokalizacyjnych jest technika RSS (Received Signal Strength). Jej popularność wynika z łatwości jej implementacji. Praktycznie każdy moduł pracujący w sieci transmisji danych (np. WiFi, ZigBee, Bluetooth ) może dostarczyć informacje o poziomie sygnału odbieranego. Implementacja systemu lokalizacyjnego polega na odpowiednim zgromadzeniu i przetworzeniu tych danych. Pomimo niewielkiej dokładności określania położenia techniki lokalizacyjne oparte na wynikach pomiaru poziomu sygnału znajdują liczne zastosowania, zarówno do lokalizacji osób i przedmiotów, jak i nawigacji (np. wewnątrz budynków) [2, 4]. Informacje lokalizacyjne pełnią istotną rolę w modelowaniu zachowań osób starszych. Realizowany w Instytucie Radioelektroniki projekt NITICS zakłada opracowanie modeli ruchu i zachowań osób starszych oraz mechanizmów pozwalających na detekcję zachowań nietypowych. Zachowanie osób starszych i wykonywane przez nie czynności są zgodne z kształtowanymi przez lata wzorcami. Odstępstwo od tych wzorców może świadczyć o kłopotach zdrowotnych. Przykładem miary pozwalającej na ocenę zachowań jest czas przebywania i liczba wizyt w poszczególnych pomieszczeniach mieszkania osoby starszej. System lokalizacyjny jest w stanie dostarczyć informacje pozwalające na dość łatwe określenie tych miar. Tematyka referatu dotyczy realizacji systemu monitorowania więcej »

ZWIĘKSZANIE DOKŁADNOŚCI ESTYMACJI POŁOŻENIA OBIEKTÓW W SYSTEMIE NAWIGACJI INERCYJNEJ POPRZEZ WYKORZYSTANIE RADIOWYCH POMIARÓW ODLEGŁOŚCI - DOI:10.15199/59.2015.4.58
Piotr Rajchowski 
W artykule przedstawiono budowę oraz działanie opracowywanego systemu nawigacji inercyjnej wspomaganej radiowymi pomiarami odległości. Przeprowadzone badania miały na celu zwiększenie dokładności estymacji położenia obiektów poprzez opracowanie własnych algorytmów hybrydowej nawigacji inercyjnej. Rozwiązanie jest przeznaczone do monitorowania poruszających się obiektów w środowiskach trudnych. 1. WSTĘP Nawigacja inercyjna jest sposobem lokalizowania ruchomych obiektów w zadanej przestrzeni na podstawie monitorowania parametrów ruchu takich jak przyspieszenia i prędkości kątowe. Potrzeba lokalizowania obiektów istnieje często w tzw. środowiskach trudnych, przy braku dostępu do zewnętrznych systemów radiolokalizacyjnych. Nawigacja inercyjna posiada tą zaletę, że nie wymaga żadnej infrastruktury zewnętrznej rozmieszczonej na obszarze po którym porusza się obiekt, poza jednostkami pomiarowymi rejestrującymi ruch obiektu. System nawigacji inercyjnej może pracować w czasie rzeczywistym, bądź jedynie rejestrować ruch obiektu. W artykule przedstawiono opracowywane rozwiązanie systemu hybrydowej nawigacji inercyjnej. W pierwszym etapie skupiono się na opracowaniu rozwiązania bazującego wyłącznie na pomiarze parametrów ruchu obiektu. Dalsze prace badawcze mają na celu połączenie opisanego rozwiązania z radiowymi pomiarami odległości. Opisana praca naukowo-badawcza została sfinansowana przez Narodowe Centrum Badań i Rozwoju w formie projektu nr DOBRBIO4/ 058/13045/2013 i przeprowadzana jest w Katedrze Systemów i Sieci Radiokomunikacyjnych Politechniki Gdańskiej. 2. NAWIGACJA INERCYJNA System nawigacji inercyjnej bazuje na parametrach ruchu, czyli przyspieszeniach i prędkościach kątowych poruszającego się obiektu. W celu zmniejszenia błędu wyznaczanego położenia obiektu dokonuje się również pomiaru składowych wektora natężenia ziemskiego pola magnetycznego oraz ciśnienia atmosferycznego. 2.1. Jednostka zbierająca dane Podstawow więcej »

ZWIĘKSZENIE DOKŁADNOŚCI LOKALIZACJI TERMINALI RADIOWYCH POPRZEZ POPRAWĘROZMIESZCZENIA REFERENCYJNYCH STACJI RADIOWYCH - DOI:10.15199/59.2015.4.89
Krzysztof Piwowarczyk Tomasz Kacprzak Piotr Korbel Piotr Wawrzyniak 
W artykule skupiono się na problemach związanych z prawidłowym rozmieszczeniem referencyjnych stacji radiowych w środowisku wewnątrz budynkowym, w celu poprawy dokładności lokalizacji terminali radiowych. Opisano czynniki wpływające na dokładność lokalizacji systemów wykorzystujących poziom mocy sygnału odebranego od referencyjnych nadajników radiowych. Przedstawiono sposoby oceny jakości rozmieszczenia stacji referencyjnych. Zaproponowano algorytm wykorzystujący zjawisko sprężystości oraz ruchów Browna do rozmieszczania stacji referencyjnych. Przeprowadzono symulację z wykorzystaniem opisanego oprogramowania komputerowego oraz zweryfikowano otrzymane wyniki w pomieszczeniach budynku uniwersyteckiego. 1. WSTĘP Jedną z najczęściej wykorzystywanych usług przez użytkowników terminal radiowych wykorzystującą informację o położeniu terminala jest możliwość orientacji w terenie oraz wyznaczania drogi do miejsca docelowego podróży. Coraz częściej użytkownicy terminali korzystają z pochodnych tej usługi tj. wspomagania poruszania osób z niepełnosprawnościami, możliwość szybkiego wezwania pomocy służb ratunkowych lub otrzymywaniu promocji od sklepów które chcą przyciągnąć klienta nowymi ofertami. Operatorzy systemów telekomunikacyjny oraz producenci terminali radiowych chcąc sprostać ciągle rosnącemu zapotrzebowaniu starają się oferować swoim klientom bardziej zaawansowane usługi. Jedną z takich z takich usług jest możliwość lokalizacji użytkowników terminali wewnątrz budynków. Jednak ze względu na duże tłumienie sygnałów satelitarnych GPS oraz telekomunikacyjnych stacji bazowych (GSM,UMTS) przez ściany, precyzyjne lokalizowanie terminali staje się niemożliwe. Aby temu sprostać, konieczne jest wykorzystanie już istniejącej infrastruktury wewnątrz budynkowej (np. istniejących punktów dostępowych Wi-Fi) lub zastosowanie dedykowanych sieci Bluetooth, ZigBee, RFID, UWB jako referencyjnych punktów radiowych. Większość wymienionych s więcej »

ŹRÓDŁO SYGNAŁU W ULTRASZEROKOPASMOWYM SYSTEMIE LOKALIZACYJNYM - DOI:10.15199/59.2015.4.56
Marcin Kołakowski Ryszard Michnowski 
W referacie przedstawiono koncepcję oraz wyniki symulacji i badań eksperymentalnych źródła sygnału w ultraszerokopasmowym systemie lokalizacyjnym pracującego w pasmie 6-8,5 GHz. Do konstrukcji układu wykorzystano diodę SRD, diodę Schottky’ego oraz linię transmisyjną opóźniającą. 1. WSTĘP W ostatnich latach można zaobserwować wzrost zapotrzebowania na usługi związane z lokalizacją wewnątrz pomieszczeń takich jak magazyny czy hale produkcyjne. Jedną z technik, którą z powodzeniem można wykorzystywać do lokalizacji wewnątrz budynków jest technika UWB (ang. Ultra-WideBand). Technika ta wykorzystuje sygnały o szerokim paśmie, które cechują się dużą odpornością na zakłócenia i wielodrogowość. Dodatkowo krótki czas trwania impulsów ultraszerokopasmowych pozwala na precyzyjne określenie czasu przybycia sygnału co pozwala na lokalizację obiektu z wysoką rozdzielczością rzędu kilkunastu centymetrów. 2. PROJEKT SYSTEMU LOKALIZACYJNEGO W projektowanym systemie lokalizacja będzie określana na podstawie pomiaru różnicy czasu przybycia (TDOA). W rozwiązaniu wykorzystano architekturę systemu unilateralnego, która przedstawiona została na rys. 1. Rys. 1 Architektura systemu unilateralnego System składa się z kilku zsynchronizowanych nadajników ultraszerokopasmowych stanowiących jego węzły. Okresowo nadawane sygnały impulsowe są odbierane przez etykietę (RX) i na podstawie czasów ich przybycia określana jest jej lokalizacja wewnątrz pomieszczenia. Schemat blokowy węzła nadawczego został umieszczony na rys. 2. Węzeł systemu składa się z dwóch części: generatora pakietów i źródła sygnału UWB. Generator pakietów po wyzwoleniu wytwarza sekwencję bitów, która zostaje wykorzystana do zmodulowania sygnału UWB wytwarzanego przez źródło. Przedmiotem tego referatu jest wyłącznie konstrukcja i badania źródła sygnału ultraszerokopasmowego. Rys. 2 Schemat blokowy węzła systemu Źródło sygnału może zostać zastosowane w systemie lokalizacyjn więcej »

  • Aktualnoś›ci
  • Bestsellery
2019-10-28

Program priorytetowy "Mój Prąd"»

2019-04-04

ZAKOŃCZENIE III KONGRESU ELEKTRYKI POLSKIEJ - KOMUNIKAT »

2019-04-01

Przygotowania do obchodów 100-lecia SEP»

2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

Przekładniki prądowe niskiego napięcia

ELEKTROINSTALATOR
(2019-8)»

Badanie bezpieczeństwa urządzeń elektrycznych

ELEKTROINSTALATOR
(2019-8)»

Aktualne zagrożenia mikrobiologiczne Listeria monocytogenes

PRZEMYSŁ SPOŻYWCZY
(2019-10)»

Linia brzegu w pracach geodezyjnych - stosowanie § 82a w geodezyjnych opracowaniach jednostkowych i w procedurze modernizacji ewidencji gruntów i budynków

PRZEGLĄD GEODEZYJNY
(2019-10)»

Jeszcze raz o granicach nieruchomości

PRZEGLĄD GEODEZYJNY
(2019-10)»

Ustalenie linii brzegu w trybie ustawy Prawo wodne i pomiaru sytuacyjnego linii brzegu opisanego w § 82a rozporządzenia egib

PRZEGLĄD GEODEZYJNY
(2019-11)»

Diagnostyka falownika i silnika elektrycznego w 5 krokach

ELEKTROINSTALATOR
(2019-9)»

Multimetr cęgowy małych prądów AC/DC CENTER 262

ELEKTROINSTALATOR
(2019-9)»

Narzędzia do obróbki kabli i przewodów

ELEKTROINSTALATOR
(2019-9)»

Zanim zjedziesz na nartach ze stoku, najpierw musisz na niego bezpiecznie wjechac. Kolejki linowe pod lupa dozoru technicznego

DOZÓR TECHNICZNY
(2019-5)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • POLISH TECHNICAL REVIEW
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

AURA żywność ekologiczna inżynieria materiałowa konserwanty suszenie przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol Przegląd Elektrotechniczny chleb ryby olej lniany pieczywo amarantus olej rzepakowy Jakość atest 7 KUKURYDZA czekolada gluten GMO antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik przemysl chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder przemysł spożywczy Problemy jakości żywność funkcjonalna Przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa WZBOGACANIE ŻYWNOŚCI antocyjany ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata ANALIZA SENSORYCZNA błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne aronia opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka czerwińska biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności wiadomości elektrotechniczne CELIAKIA salmonella przyprawy probiotyki piwo znakowanie
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software