• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • ODZIEŻ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 121782 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2018-6

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

METODA IDENTYFIKOWANIA INTERFEJSÓW SPRZĘTOWYCH (SEIM) W SYSTEMACH WSPÓŁMIEJSCOWYCH
(ang. IDENTIFYING HARDWARE INTERFACES METHOD (SEIM) IN CO-LOCATED SYSTEMS)

DOI:10.15199/59.2018.6.65
Marek Bugaj Marian Wnuk Rafał Przesmycki 
Streszczenie
W artykule przedstawiono sposób wyznaczania cech dystynktywnych dla współczesnego sprzętu informatycznego znajdującego się na rynku Unii Europejskiej na podstawie emisji promieniowanej. W artykule opisano metodę identyfikowania interfejsów sprzętowych urządzeń informatycznych wykorzystującą emisję promieniowaną. Ponadto w artykule przedstawiono wyniki analiz dotyczących procesu identyfikowania interfejsów sprzętowych urządzeń informatycznych. W artykule podjęto próbę weryfikacji, czy istnieje możliwość zidentyfikowania interfejsów sprzętowych urządzenia informatycznego powodujących wzrost poziomu emisyjności.
Słowa kluczowe: interfejs, identyfikacja, EMC, system współmiejscowy
Abstract
The article presents the method of determining the distinctive features for modern IT equipment located on the European Union market on the basis of radiated emission. The article describes the method of identifying hardware interfaces of IT devices using radiated emission. In addition, the article presents the results of analyzes regarding the process of identifying hardware interfaces of IT devices.
Keywords: interface, identyfications, EMC, co-located system.
1. WSTĘP System współmiejscowy jest to system będący systemem kompatybilnym wewnętrznie. Systemem takim możemy nazwać zbiór źródeł sygnałów elektromagnetycznych oraz relacji między nimi i ich atrybutami. Relację między źródłami reprezentują oddziaływanie ich między sobą (oddziaływanie wewnętrzne) oraz oddziaływanie względem otoczenia (oddziaływanie zewnętrzne). . Cechą dystynktywną pracy poszczególnych interfejsów jest jego częstotliwość pracy oraz poziom emisyjności pozwalające na identyfikację danego interfejsu sprzętowego. Kolejna z takich cech jest widmo emisji promieniowanej będące odwzorowaniem emisji zaburzeń promieniowanych. Cechy te są jedynymi wspólnymi cechami dla rozpatrywanych interfejsów sprzętowych. Biorąc pod uwagę powyższe istnieje możliwość zbudowania bazy danych zawierającej cechy dystynktywne interfejsów sprzętowych, która w łatwy sposób wspomoże proces identyfikacji poszczególnych interfejsów sprzętowych urządzenia informatycznego. Realizacja problemu identyfikacji poszczególnych interfejsów sprzętowych urządzenia informatycznego przyczyni się do usprawnienia prac prowadzonych w zakresie ochrony informacji przetwarzanych w systemach informatycznych oraz realizacji zadań regulowanych Ustawą o ochronie informacji niejawnych. Dodatkowo wykorzystując wiedzę o cechach dystynktywnych poszczególnych interfejsów sprzętowych możliwe jest ograniczenie na wyznaczonych częstotliwościach emisji promieniowanej przez producentów sprzętu informatycznego już na etapie projektowania tego sprzętu poprzez dodatkowe zabezpieczenia. 2. METODY OKREŚLANIA CECH DYSTYNKTYWNYCH W niniejszym rozdziale przedstawiono i omówiono trzy opracowane metody określania cech dystynktywnych interfejsów sprzętowych w urządzeniach informatycznych. Dzięki przedstawionym metodom możliwe jest również określenie wzorcowych widm częstotliwościowych dla poszczególnych urządzeń informatycznych, które mogą służyć do analizy możliwości identyfika [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji (format pdf): 6.00 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 1h: 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 4h: 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 12h: 73.80 zł
 DO KOSZYKA 
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486.00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437.40 zł *)
prenumerata papierowa roczna - 396.00 zł
prenumerata papierowa półroczna - 198.00 zł
prenumerata papierowa kwartalna - 99.00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »


Bibliografia

[1] Rafał Przesmycki Identyfikacja interfejsów sprzętowych w systemach współmiejscowych w oparciu o emisję promieniowaną, Przegląd Elektrotechniczny, ISSN 0033-2097, R. 90 NR 7/2014, str: 247-250,
[2] Rafał Przesmycki, Marian Wnuk Metoda pomiaru wycieków elektromagnetycznych w oparciu o emisję promieniowaną jednostek centralnych PC, Przegląd Elektrotechniczny, ISSN 0033-2097, R. 90 NR 7/2014, str: 251-254,
[3] Nowosielski, L. , Wnuk, M. , Ziółkowski, C. Interlaboratory tests in scope of measurement of radio disturbance, Conference Proceedings - 39th European Microwave Conference, EuMC 2009, Article number 5296286, Pages 288-291,
[4] R. Przesmycki, L. Nowosielski, M. Wnuk, M. Bugaj, K. Piwowarczyk Analiza stabilności poziomów emisyjności komputerów przenośnych, Przegląd Telekomunikacyjny 8-9/2012, str: 873-880, ISSN 1230-3496,
[5] Hwan Shim, Todd Hubing, T. Van Doren, R. DuBroff, J. Drewniak and D. PommerenkeExpert System Algorithms for Identifying Radiated Emission Problems in Printed Circuit Boards, 0-7803-8444-X/04/$20.00 (C) IEEE

Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

ALGORYTM SYNTEZY SAMONOŚNYCH STRUKTUR ANTEN LINIOWYCH - DOI:10.15199/59.2018.6.32
Katarzyna Jagodzińska 
1. WSTĘP Wszechobecne systemy komunikacji bezprzewodowej są nieodłącznym elementem szeroko rozumianej telekomunikacji z której człowiek korzysta w życiu codziennym. To od ich parametrów zależy jakość i efektywność przesyłania informacji pomiędzy nadawcą i odbiorcą. Integralnymi elementami takiego systemu są anteny nadawcze i odbiorcze, których projektowania wymaga obecnie poszukiwania metod pozwalających na wytworzenie małych, tanich i efektywnych struktur antenowych. Wyzwaniem tutaj staje się zwłaszcza rozmiar fizyczny anteny wynikający z faktu, iż antena jako przyrząd transformujący falę napięcia w falę radiową musi mieć rozmiar wynoszący co najmniej pół długości fali elektromagnetycznej aby wykonać ta zamianę efektywnie. Zatem projektowanie anten to sztuka kompromisu zwłaszcza biorąc pod uwagę jej pożądany niewielki rozmiar. Aby uczynić antenę kompaktową istnieje wiele metod takich jak zaginanie, skracanie czy ich ekranowanie. Dają one dobre rezultaty lecz skuteczniejszym sposobem jest zastosowanie metod opartych na algorytmach ewolucyjnych np. algorytmach genetycznych [1,2]. Algorytm genetyczny(AG) jest skutecznym narzędziem, które niestety posiada jedną niedogodność tzn. jest ślepy i ma tendencję do osiągania nie w pełni satysfakcjonującego rezultatu w określonym zbiorze dopuszczalnych rozwiązań. Innymi słowy AG możne po prostu ominąć inne, może lepsze, rozwiązanie. Aby poprawić ten mankament proponujemy wspieranie algorytmu genetycznego innym algorytmem, który po zakończeniu pracy klasycznego AG wprowadza dodatkowe, niewielkie zmiany w genach chromosomów. Działanie tego dodatkowego algorytmu można porównać do procesu tuningowania (rasowania) samochodu, stąd też nazwa algorytmu czyli RAG (rasowany algorytm genetyczny). Zasada działania RAG jest prosta. Gdy klasyczny AG działając zgodnie z przyjętymi założeniami projektowymi odnajdzie struktury antenowe, to do pracy przystępuje RAG. Algor więcej »

ANALIZA DOKŁADNOŚCI LOKALIZACJI OPERATORA DLA BEZZAŁOGOWYCH PLATFORM LĄDOWYCH Z WYKORZYSTANIEM TECHNIKI ULTRASZEROKOPASMOWEJ - DOI:10.15199/59.2018.6.72
Krzysztof Malon Jerzy Łopatka 
1. WSTĘP Wykorzystanie bezzałogowych platform lądowych UGV (ang. Unmanned Ground Vehicle) staje się obecnie coraz bardziej powszechne. Istotnym czynnikiem, umożliwiającym poprawną pracę takich platform, jest zdolność do określenia własnej lokalizacji oraz świadomość otoczenia. Jednym z ważnych aspektów jest wyznaczenie względnego położenia operatora, które może być wykorzystane np. w systemie podążania za przewodnikiem [1]. W tym celu można stosować kilka różnych technik, począwszy od analizy sygnału z kamer [8], co wymaga jednak zastosowania złożonych i obliczeniochłonnych algorytmów, i zapewnienia bezpośredniej widoczności pomiędzy robotem a operatorem. Istotny jest również dobór kamer, zapewniających poprawną pracę przy różnym oświetleniu i warunkach atmosferycznych. Alternatywnym rozwiązaniem jest zastosowanie zestawu ultradźwiękowych czujników radarowych [2], jednakże ich zasięg jest ograniczony do kilku metrów. Wady tej nie posiadają systemy radiowe. Coraz powszechniejsze jest wykorzystywanie radarów krótkiego zasięgu [9], lecz umożliwiają one jedynie pomiar odległości do obiektu, ale bez możliwości jego identyfikacji. Dzięki transmisji danych pomiędzy robotem i operatorem z wykorzystaniem techniki ultraszerokopasmowej UWB (ang. UltraWideBand), możliwa jest zarówno identyfikacja operatora i pomiar odległości pomiędzy nadajnikiem i odbiornikiem. Przykład wykorzystania UWB do lokalizacji UAV (ang. Unmanned Aerial Vehicles) przedstawiono w [6]. Jednym z czynników decydujących o dokładności lokalizacji jest znajomość położenia czujników nieruchomych (kotwic), tworzących osnowę do obliczeń lokalizacji obiektu ruchomego. Co prawda w [5] zaproponowano metodę służącą do automatycznego określenia położenia kotwic, jednakże w przypadku lokalizacji operatora założyliśmy, że układ odniesienia jest ruchomy i zamontowany na stałe na robocie. Umożliwia to wyznaczanie położe więcej »

ANALIZA MOŻLIWOŚCI WYKORZYSTANIA TRANSFORMACJI FALKOWEJ DO DETEKCJI NIEZAJĘTYCH PASM CZĘSTOTLIWOŚCI - DOI:10.15199/59.2018.6.71
Krzysztof Bronk Dominik Rutkowski Błażej Wereszko Kacper Wereszko2 Krzysztof Żurek 
1. WSTĘP Technika radia kognitywnego jest jedną z interesujących i rozwijanych obecnie gałęzi radiokomunikacji. Od około 10 lat wzrasta też zainteresowanie wykorzystaniem transformacji falkowych (ang. Wavelet Transform - WT), które w odróżnieniu od transformacji Fouriera pozwalają nie tylko badać charakterystyki widmowe (globalne w odniesieniu do sygnału stacjonarnego i periodycznego), lecz także charakterystyki lokalne, które mogą być zmienne w czasie i nadają się do analizy sygnałów niestacjonarnych. Znane są publikacje i zastosowania związane z wykorzystaniem WT do analizy sygnałów w systemach badań sejsmicznych, sonarowych, w medycynie, w telekomunikacji (kompresja sygnałów mowy i obrazów, redukcja PAPR w systemach komórkowych) oraz w mechanice i elektrotechnice [2]. Niniejszy artykuł jest kontynuacją badań zaprezentowanych w [4, 9], skupiających uwagę na możliwościach zastosowania radia kognitywnego dla potrzeb e-nawigacji. W wymienionych pracach poddano analizie metody wykrywania widma częstotliwości (ang. spectrum sensing), bazujące na detekcji energii oraz detekcji cyklostacjonarności sygnału. Niniejszy etap pracy miał na celu skupienie uwagi na teorii transformacji falkowych, implementacji oprogramowania realizującego analizę falkową sygnałów radiowych, a następnie zbadanie możliwości jej wykorzystania do celów wykrywania niezajętych zasobów częstotliwości na potrzeby radia kognitywnego. 2. DETEKCJA NIEZAJĘTYCH PASM CZĘSTOTLIWOŚCI Z UŻYCIEM TRANSFORMACJI FALKOWEJ Rozważana detekcja polega na wyborze, na podstawie pomiarów i ich przetwarzania, jednej z dwóch hipotez, świadczącej o zajętości lub braku zajętości pasma radiowego, przy czym tylko jedna z nich może być w danej chwili prawdziwa [3]:  hipoteza ℋ0: 𝑥(𝑡) = 𝑤(𝑡), gdy w paśmie występuje wyłącznie szum,  hipoteza ℋ1: 𝑥(𝑡) = 𝑠(𝑡) + 𝑤(𝑡), gdy w paśmie więcej »

ANALIZA PORÓWNAWCZA SYMULACYJNYCH METOD OCENY WYDAJNOŚCI SIECI 5G WYKORZYSTUJĄCEJ ANTENY KIERUNKOWE ZE STEROWANĄ WIĄZKĄ - DOI:10.15199/59.2018.6.36
Kamil Bechta Marcin Rybakowski 
1. WSTĘP Międzynarodowe instytucje standaryzacyjne opracowują wymagania dla kolejnej generacji globalnego systemu radiokomunikacji ruchomej. Organizacja 3rd Generation Partnership Project (3GPP) w szybkim tempie przygotowuje specyfikację dla systemu New Radio (NR), którego pierwsza wersja została zatwierdzona w grudniu 2017 roku i weszła w skład tzw. Release-15. W tym samym czasie International Telecommunication Union (ITU) pracuje nad wymaganiami dla systemu International Mobile Telecommunications 2020 (IMT-2020), którego pierwsza wersja jest przewidziana na pierwszy kwartał 2020 roku. Zarówno NR, jak i IMT-2020 są odpowiednikami systemu, który znany jest, jako 5G. Jednymi z najważniejszych wyróżników systemu 5G są wykorzystanie anten kierunkowych o dużej i bardzo dużej kierunkowości oraz możliwość pracy w zakresie fal milimetrowych (30GHz-300GHz). Anteny o dużej kierunkowości wykorzystywane będą w zakresie fal milimetrowych oraz w niższych zakresach częstotliwości poniżej 6GHz w technice Massive MIMO. Technologie te wymagają nowego podejścia w modelowaniu symulacyjnym zjawisk propagacyjnych. Przede wszystkim konieczne jest użycie modelu kanału radiowego, który odzwierciedla parametry statystyczne rozchodzenia się fal milimetrowych w typowych środowiskach, a także właściwe zamodelowanie wpływu, jaki na te parametry mają charakterystyki anten kierunkowych oraz zastosowana technika sterowania wiązką (beamforming). O ile pierwszy z czynników, czyli model kanału np. [1] lub [6], a właściwie jego część odpowiadająca za tłumienie mocy sygnału radiowego, jest uwzględniony w większości przeprowadzanych badań symulacyjnych, o tyle wpływ charakterystyk antenowych jest modelowany tylko częściowo. To częściowe modelowanie polega na uwzględnieniu wyłącznie zysku mocy sygnału radiowego wprowadzanego przez charakterystykę antenową na kierunku między nadajnikiem a odbiornikiem. W dalszej części artykułu przedstawione są wyniki badań więcej »

ANALIZA PROPAGACYJNA DLA KOMUNIKACJI TYPU V2X - DOI:10.15199/59.2018.6.12
Małgorzata Gajewska 
1. WSTĘP W obecnych czasach ogromnego tempa rozwoju nabierają systemy V2X (ang. Vehicle-to-Everything) czyli tzw. automobilowej komunikacji pojazdu z dowolnym elementem infrastruktury. Do roku 2024 [4] są planowane do wdrożenia różne typy tego rodzaju komunikacji radiowej, w tym szczególnie komunikacja typu V2V (ang. Vehicleto- Vehicle) oraz V2I (ang. Vehicle-to-Infrastructure). Przy czym komunikacja V2V oznacza radiową wymianę informacji bezpośrednio między pojazdami, a V2I to wykorzystanie możliwości wymiany informacji między przemieszczającymi się samochodami a otaczającą je infrastrukturą. Na progu procedury wdrażania systemów 5G już wiadomo, że w tych systemach niezwykle istotna będzie m. in. bezpośrednia transmisja danych między urządzeniami M2M (ang. Machine to Machine), której klasycznym przykładem jest właśnie komunikacja typu V2X. Generalnie dąży się do wdrażania systemów sterowania pojazdów (wyposażonych w szereg różnych czujników i systemów sterujących) w taki sposób, aby zminimalizować ryzyko kolizji/wypadku i poprawić bezpieczeństwo ruchu. Proces wdrażania tego typu rozwiązań na pewno wymaga wykonania wielu badań, a później pomiarów i testów, gdyż od prawidłowości ich działania może zależeć życie ludzkie. W [2] zdefiniowano przykłady aplikacji, które mają być uruchamiane wraz z rozwojem systemów V2X. Kategorie tych aplikacji wraz z zakładanymi maksymalnymi dopuszczalnymi opóźnieniami, przedstawiono w tab. 1. Tab. 1. Kategorie aplikacji: przykłady i wymagania [2] Kategoria aplikacji Dopuszczalne opóźnienie Aplikacje związane z bezpieczeństwem drogowym (wyłącznie zasięg lokalny) - max. 50 ms przy transmisji sygnałów w przypadku wysyłania komunikatu o przedwypadkowym wykryciu ryzyka - 100 ms w przypadku wysyłania komunikatu z ostrzeżeniem o potencjalnym ryzyku kolizji Aplikacje pozwalające zwiększyć efektywność ruchu - max. 500 ms - tzn. informacje o natężeniu ruchu lub zalecanej trasie mogą być wysyłan więcej »

ANALIZA SYMULACYJNA METODY SYNCHRONIZACJI RAMKOWEJ OPARTEJ NA SYMBOLACH PILOTA NAŁOŻONYCH NA CIĄG INFORMACYJNY - DOI:10.15199/59.2018.6.70
Marek Sikora Wiesław Ludwin Jacek Wszołek 
1. WSTĘP W bezprzewodowych systemach akwizycji danych zazwyczaj przesyłane są bardzo krótkie, nieprzekraczające 256 bajtów, wiadomości. Tym samym, w tego typu systemach, moduły radiowe oferują zazwyczaj niewielkie przepływności, a nadawane ramki są wyposażone w preambułę pozwalającą osiągnąć w odbiorniku stan ustalony układów automatycznej regulacji wzmocnienia ARW/AGC (Automatic Gain Control) oraz synchronizację czasu próbkowania, częstotliwości nośnej CFO (Carrier Frequency Offset) i fazy. Preambuła, dzięki unikatowej sekwencji symboli, pozwala jednoznacznie określić początek ramki, w tym w szczególności początek jej nagłówka - zawierającego, na przykład, adres punktu pomiarowego - oraz pola z ładunkiem danych - przenoszącego informacje użytkowe. W przypadku sieci sensorowej złożonej z wielu setek czujników, rozmieszczonych na bardzo małym obszarze, tak jak, na przykład, ma to miejsce w sieciach monitorujących stan konstrukcji mechanicznych SHM (Structural Health Monitoring) czas zajętości kanału radiowego odgrywa bardzo istotną rolę. Stąd przesyłanie w tego typu systemach preambuły oraz unikatowej sekwencji symboli, identyfikującej początek ramki, znacząco niebezpiecznie wydłuża czas zajętości kanału i jest nie do przyjęcia. Zasadnym wydaje się więc rozważenie metod pozwalających na skrócenie tego czasu, nawet gdy miało się to odbyć kosztem niewielkiego pogorszenia sprawności energetycznej systemu teletransmisyjnego. W zaprezentowanym w niniejszej pracy rozwiązaniu preambułę oraz unikatową sekwencję symboli identyfikującą początek ramki postanowiono zastąpić unikatową sekwencją synchronizacyjną zsumowaną ze strumieniem danych - ciągiem symboli informacyjnych. Po raz pierwszy tego typu koncepcję synchronizacji nałożonej na dane przenoszące informacje użyteczne przedstawili Mak więcej »

ANALIZA UWARUNKOWAŃ PROPAGACYJNYCH W RADIOWYCH SIECIACH BAN Z PRZESTRZENNYM ODBIOREM ZBIORCZYM - DOI:10.15199/59.2018.6.27
Szymon Wiszniewski Sławomir J. Ambroziak 
1. WSTĘP Nowe możliwości, jakie możemy osiągnąć dzięki stale rozwijanej miniaturyzacji urządzeń elektronicznych, jak również zmniejszanie poboru energii przez te urządzenia wpływają na coraz powszechniejsze zastosowanie ich wokół ciała człowieka. Otwiera to nowe możliwości m.in. dla usług telemetrycznych w medycynie [1]. Obecnie radiowe sieci BAN (Body Area Network) są stale rozwijane, jednakże w literaturze przedmiotu nie ma zbyt wielu pozycji rozważających wpływ umiejscowienia anten na ciele człowieka na tłumienie systemowe z zastosowaniem odbioru zbiorczego przestrzennego [2-4]. W referacie przedstawiono analizę uwarunkowań propagacyjnych dla radiowych sieci BAN typu off-body w środowisku wewnątrzbudynkowym w paśmie częstotliwości 2,45 GHz. Dodatkowo w artykule zawarto krótki opis stanowiska pomiarowego oraz opis scenariuszy badawczych. 2. STANOWISKO POMIAROWE ORAZ SCENARIUSZE BADAWCZE Pomiary zostały przeprowadzone z użyciem stanowiska pomiarowego przedstawionego na rys. 1 i rys. 2., przy czym pomiary wykonano w jednym z pomieszczeń znajdujących się na Wydziale Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej. Rys.1. Schemat blokowy stanowiska badawczego do pomiaru tłumienia systemowego Rys. 2. Stanowisko badawcze do pomiaru tłumienia systemowego Generator R&S SMU200A Odbiornik szerokopasmowy R&S EM550 Odbiornik szerokopasmowy R&S EM550 Antena nadawcza Anteny odbiorcze sekcja TX nawcza sekcja RX nawcza Komputer klasy PC DOI: 10.15199/59.2018.6.27 PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK XCI - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXXVII - nr 6/2018 273 Sekcja nadawcza (TX) zawiera wektorowy generator sygnału Rohde & Schwartz SMU200A oraz ultra szerokopasm więcej »

ANALIZA WIELKOŚCI ZANIKÓW W JEDNOCZSTOTLIWOSCOWEJ SIECI DAB+ NA PRZYKŁADZE SIECI WE WROCŁAWIU - DOI:10.15199/59.2018.6.39
Ryszard J. ZIELIŃSKI 
1. WSTĘP Biorąc pod uwagę stale wzrastające zapotrzebowanie na częstotliwości oraz mozliwość stosowania do transmisji sygnałów ze zwielokrotniwniem OFDM pojawiła się możliwość budowania sieci nadajników pracujących na tej samej częstotliwości i zwiększenia efektywności wykorzystania widma elektromagnetycznego. Brak istotnych zakłóceń pomiędzy odbieranymi sygnałami uzależniony jest od spełnienia warunków na różnicę ich opóźnień, która nie może przkraczać czasu prefiksu cyklicznego. Opóźnienia te mogą wynikać zarówno z występujących odbić sygnału nadawanych przez jeden nadajnik jak również z różnicy czasów propagacji tego samego sygnału przez różne nadajniki. Analizę tych przypadków przedstawiono w [3]. Jednakże, w sieci jednoczęstotliwościowych nadajników należy się spodziewać zaników spowodowanych interferencją fal elektromagnetycznych (sygnałów) o tej samej częstotliwości.. O wielkości zaniku decydować będą poziomy natężenia pola e-m interferujących ze sobą fal w miejscu odbioru. W artykule przedstawiono analizę miejsc wystepowania głębokich zaników jak również określono ich poziomy. 2. MIEJSCA GEOMETRYCZNE WYSTĘPOWANIA GŁĘBOKICH ZANIKÓW Analizie poddano budowaną we Wrocławiu sieć jednoczęstotliwościową. Sieć ta składa się z trzech nadajników rozmieszczonych we wierzchołkach trójkąta w lokalizacjach Polskie Radio (PR), Instytut Łączności (IL) oraz Politechnika Wrocławska (PWr). Rozmiary boków trójkąta są następujące: 6070m (PR - PWr), 7410m ( (PWr - IL) oraz 8830m (PR - IL). Rozmieszczenie węzłów sieci pokazano na rys. 1. Założono idealną synchronizację nadajników zarówno częstotliwościową jak również fazową. Przy takim założeniu jedynym elementem powodującym brak współfazowości odbieranych sygnałów OFDM z nadajników SFN DAB+ jest różnica dróg propagacji. Będzie ona powodować, że w szerokopasmowym sygnale będą pojawiać się tzw. zaniki na określonych podnośnych. Ich lokalizacja w dziedzinie częstotliwości zależeć bę więcej »

ANALIZA WPŁYWU BŁĘDÓW MAP REFERENCYJNYCH NA DOKŁADNOŚĆ LOKALIZOWANIA TERMINALA Z WYKORZYSTANIEM RSSI I ALGORYTMU FILTRACJI CZĄSTECZKOWEJ - DOI:10.15199/59.2018.6.22
Robert Kawecki Piotr Korbel Sławomir Hausman 
1. WSTĘP W ostatnich latach można zaobserwować duże zainteresowanie rozwojem różnorodnych systemów lokalizacyjnych wykorzystujących punkty dostępowe lokalnych sieci bezprzewodowych (WLAN), bądź nadajniki małej mocy, tzw. znaczniki radiowe (ang. beacon), zgodne ze standardem BLE (ang. Bluetooth Low Energy) [2][3][6][8]. Rozwiązanie problemu lokalizowania terminala mobilnego we wnętrzach budynków, w których zwykle nie jest dostępny dostatecznej jakości sygnał pochodzący z nadajników systemów satelitarnych, pozwoliło na opracowanie różnorodnych aplikacji wymagających do poprawnego działania informacji o położeniu terminala użytkownika (LBS, z ang. Location Based Services). Można do nich zaliczyć np. całą gamę systemów umożliwiających dostarczanie kontekstowych treści reklamowych klientom centrów handlowo-usługowych. Większość współczesnych wewnątrzbudynkowych systemów lokalizacyjnych implementuje metody wykorzystujące pomiary poziomu mocy odebranej (RSS, ang. Received Signal Strength). Wskaźnik mocy odebranej RSSI (ang. Received Signal Strength Indicator) jest dostępny w większości dostępnych na rynku układów radiowych. Rozwiązania wykorzystujące pomiar czasu propagacji sygnału, np. systemy ultraszerokopasmowe (UWB), oferują znacznie lepszą dokładność niż te wykorzystujące RSS, ale są one znacznie droższe i wymagają dedykowanej infrastruktury [2][3][8], niekompatybilnej z interfejsami współczesnych terminali mobilnych (np. smartfonów). Do najczęściej stosowanych w wewnątrzbudynkowych systemach lokalizacyjnych wykorzystujących znaczniki BLE oraz odczyty RSSI, należą metody korelacyjne. Podstawowa zasada działania takich systemów zakłada ocenę podobieństwa parametrów sygnałów rejestrowanych przez terminal użytkownika z wzorcowymi wartościami przechowywanymi w referencyjnej bazie danych. Znając rozkład przestrzenny parametrów sygnałów nadawanych przez poszczególne nadajniki systemu lokalizacyjnego w obszarze, po którym porus więcej »

ANALIZA WYNIKÓW POMIARÓW ZASIĘGU I JAKOŚCI TRANSMISJI DANYCH W WARSTWIE FIZYCZNEJ SYSTEMU VDES - DOI:10.15199/59.2018.6.38
Krzysztof Bronk Patryk Koncicki Adam Lipka Rafał Niski 
1. WSTĘP W ramach projektu EfficienSea 2.01 [5], którego głównym celem jest rozwój morskiego systemu łączności radiowej, przeprowadzona została dwutygodniowa kampania pomiarowa na wodach Morza Bałtyckiego. Wynikiem jej było zebranie około 6 TB danych, które zostały następnie przetworzone w symulatorze odbiornika VDES (VHF Data Exchange System) stworzonym przez Instytut Łączności w Gdańsku [1]. Głównym celem tych prac było uzyskanie krzywych bitowej stopy błędu, na podstawie czego określono jakość transmisji danych w warstwie fizycznej systemu VDES oraz jego zasięgi i porównano je z wynikami teoretycznymi. Działania te przeprowadzono na potrzeby procesu standaryzacji VDES-a, który był jednym z głównych zadań Instytutu Łączności w projekcie. 2. METODOLOGIA POMIARÓW 2.1. Scenariusz pomiarowy Pomiary zostały przeprowadzone z wykorzystaniem jednego nadajnika VDES znajdującego się w porcie Gedser Havn oraz dwóch odbiorników, z których jeden zainstalowany był na pokładzie Scandlines Ferry M/F Berlin, zaś drugi na jego siostrzanym statku M/F Copenhagen. Scenariusz pomiarowy przedstawiono na rys. 1. Aby test uczynić możliwie najbardziej realistycz- 1 Projekt EfficienSea 2.0 - Getting Connected jest współfinansowany z programu Horyzont 2020 w ramach konkursu Mobility for Growth. nym i uzyskać rezultaty o wysokim stopniu wiarygodności, na pokładzie statków wykonano pełną instalację torów radiowych VHF. W celu analizy wpływu wysokości zawieszenia anten na propagację sygnału, anteny umieszczono na statkach na dwóch różnych wysokościach. Trasa żeglugi w jedną stronę wynosiła około 48 km. Warto wspomnieć, że gdy statki znajdowały się w największej możliwej odległości od nadajnika, zlokalizowane one były częściowo na terenie śródlądowym, co dodatkowo zwiększyło wartość pomiarów, ponieważ poziom zakłóceń był wyższy, a propagacja w tych warunkach trudniejsza. Rys. 1. Ogólna koncepcja kampanii pomiarowej 2.2. Sekwencja danych wykorzys więcej »

ANALYSIS OF ENERGY HARVESTING IN COGNITIVE FEMTOCELL RADIO NETWORK - DOI:10.15199/59.2018.6.58
Jerzy Martyna 
1. INTRODUCTION A cognitive radio (CR) [1] is a wireless device that senses the surrounding radio environment and opportunistically accesses the unutilised spectrum bands based on its assessment of the activities of the surrounding primary (licensed) network. Otherwise, CR is a system that senses its operational electromagnetic environment and can dynamically and autonomously adjust its radio operating parameters to modify system operation, such as maximise throughput, mitigate interference, etc. Cognitive radio networks (CRNs) are foreseen as the future of wireless communication. In CRN a secondary (unlicensed) user (SU) in the secondary network is allowed to access the spectrum that is originally allocated to the primary users (PUs) when the spectrum is not used by any PU. This secondary spectrum usage method is called opportunistic spectrum access [2]. In this way, the spectrum utilisation efficiency can be greatly improved. Moreover, this is a very crucial feature of CR networks which allow users to operate in licensed bands without a license. CR devices and femtocell system is a very promising technology for possible use in two-tier cognitive femtocell networks [3]. Then, a dynamic and opportunistic access to free frequencies is possible using the socalled holes. Two-tiered cognitive radio networks provide a high cell capacity at a low cost of construction [4]. Examples of such networks can be found among the various home hotspots and urban hot spots [5]. The femtocell radio range ranges from 10 to 50 m, while the radius of the macrocell reaches a value of from 300 to 2000 m [6]. Recently, it has been reported in the literature that harvesting energy can be achieved from other ambient sources such as wind, solar, vibration, etc. As presented in the paper by Vullers et al. [7] radio-frequency (RF) signals can power a network of low-power devices. Furthermore, the amount of energy harvested from the primary channel więcej »

ANTENY PROMIENIUJĄCE IMPULSY - DOI:10.15199/59.2018.6.78
Maciej Walkowiak 
1. WSTĘP Anteny szerokopasmowe utożsamiane są najczęściej z antenami pracującymi impulsowo. Choć można wskazać na wspólne cechy anten szerokopasmowych i impulsowych, to na gruncie fizycznym utożsamianie tych urządzeń nie jest poprawne. Szerokie pasmo przenoszenia anten szeroko- i ultra szerokopasmowych może być bowiem wykorzystywane do pracy ciągłej lub okresami ciągłej. Anteny impulsowe natomiast przeznaczone są do promieniowania krótkich impulsów, dlatego najważniejszą cechą takich anten muszą być właściwości związane z narastaniem i opadaniem zboczy impulsów. Anteny przeznaczone do pracy impulsowej można podzielić na trzy główne kategorie: anteny promieniujące pojedynczy impuls, anteny promieniujące repetycję pojedynczych impulsów oraz anteny promieniujące krótkie paczki monochromatyczne, obejmujące od kilku do kilkudziesięciu okresów sinusoidalnych. W przypadku anten promieniujących pojedyncze impulsy projektant skupia uwagę na przesłaniu energii możliwie wąską wiązką na potrzebną odległość. Interesujące są tutaj zwykle krótki czas narastania impulsu oraz wysłanie większości energii w przeznaczonym kierunku; zachowanie się anteny po wypromieniowaniu impulsu jest mniej ważne. Jeśli energia przekazywana w jednym impulsie jest za mała, można energię taką zwiększyć przez szybkie powtarzanie impulsów. Taka repetycja nakłada na antenę dodatkowe wymagania. Teraz jest ważne także to, aby antena po wypromieniowaniu pojedynczego impulsu szybko wróciła do stanu pierwotnego i była gotowa do transmisji kolejnego impulsu. Jeśli po wysłaniu pierwszego impulsu antena taka ciągnęłaby ogon zakłóceń, to wpływałoby to na promieniowanie kolejnego albo kolejnych impulsów. Anteny promieniujące paczki mono więcej »

Badania i analiza systemów radiolokalizacyjnych do zastosowań specjalnych - DOI:10.15199/59.2018.6.2
Od ponad stu lat właściwości propagacji fal radiowych są używane do określania wzajemnego rozmieszczenia nadajników i odbiorników radiowych, czyli do radiolokalizacji, a także do prowadzenia jednostek ruchomych po zadanych trasach, a więc do radionawigacji. Od początku stosowanie radiowych systemów określania położenia i/lub parametrów nawigacyjnych miało na celu poprawę bezpieczeństwa realizacji operacji morskich i powietrznych, przy raczej ograniczonych zastosowaniach lądowych. Ze względu na możliwość dostarczania informacji nawigacyjnych niemal niezależnie od pory dnia i warunków meteorologicznych, radiowe systemy nawigacyjne wkrótce znalazły się w obszarze zainteresowań wojska, przy czym w zastosowaniach wojskowych początkowo celem było zasadniczo uzyskanie przewagi na polu walki. Te dwa cele: bezpieczeństwo oraz przewaga taktyczna stanowiły główne czynniki rozwoju systemów radiolokalizacyjnych i radionawigacyjnych do lat 80. XX wieku. Postęp technologiczny w elektronice i telekomunikacji spowodował, że do dotychczasowych zastosowań technik lokalizacyjnych przybyło trzecie zastosowanie: komercyjne. Uzupełnienie informacji niemal dowolnego typu o dane dotyczące położenia w wielu przypadkach może zwiększyć wartość tych informacji, co ma bezpośredni lub pośredni wymiar ekonomiczny. W zastosowaniach komercyjnych niewątpliwie największym potencjałem cechują się systemy globalne, zunifikowane w skali światowej i o jak największej uniwersalności. W tym kontekście nie powinien więc dziwić szybki wzrost popularności systemów nawigacji satelitarnej GNSS (Global Navigation Satellite System), który stał się możliwy po udostępnieniu dla użytkowników cywilnych podstawowych usług systemu GPS (Global Positioning System) bez opłat i ograniczeń. Zbiegło się to czasowo z postępem technologicznym, który umożliw więcej »

BADANIE I ANALIZA EFEKTU CIENIA RADIOWEGO W SIECIACH WBAN TYPU OFF-BODY I BODY-TO-BODY - DOI:10.15199/59.2018.6.30
Sławomir J. Ambroziak Kenan Turbić Luís M. Correia 
1. WSTĘP Przewiduje się, że radiowe sieci BAN (ang. Body Area Networks), nazywane także sieciami WBAN (ang. Wireless Body Area Networks) w najbliższej przyszłości zrewolucjonizują wiele aspektów ludzkiego życia, np. opiekę medyczną, czy sposób dowodzenia żołnierzami na polu walki, oraz że całkowicie zmienią sposób komunikacji człowieka z komputerem [1]. W celu uzyskania jak największej wydajności tego rodzaju sieci, inżynierowie odpowiedzialni za ich projektowanie powinni mieć możliwość korzystania z dokładnych modeli kanału radiowego, przy czym dużą zaletą takich modeli jest ich prostota. Jednym z głównych zjawisk występujących w sieciach typu off-body i body-to-body (klasyfikacja sieci WBAN została przedstawiona na rys. 1.) jest efekt cienia radiowego, który ma miejsce w sytuacji, gdy linia bezpośredniej widoczności obu anten łącza radiowego jest zaburzona przez ciało użytkownika bądź użytkowników. WK Terminal zewnętrzny WN WW WN WN WN WW WK Sieć telekomunikacyjna Serwer Usługi sieciowe WW WN WK WW Koordynujący Nasobny Wszczepiony Węzły sieci in-body Łącza radiowe on-body body-to-body off-body Rys. 1. Klasyfikacja łączy radiowych w sieciach WBAN Mimo że tematyka dotycząca efektu cienia radiowego w sieciach WBAN typu off-body i body-to-body nie jest do tej pory licznie reprezentowana w literaturze, można jednak znaleźć kilka propozycji sposobów modelowania tego efektu. W najbardziej powszechnym podejściu tłumienie wynikające z efektu cienia radiowego jest uwzględniane przez model średniego tłumienia systemowego (w rozumieniu zalecenia [3]), którego parametry są określane dla różnych kątów orientacji użytkownika bądź użytkowników, lub dla różnych warunków propagacyjnych zależnych od ich orientacji [4, 5]. W [6] autorzy uzależniają parametry modelu średniego tłumienia systemowego od długości drogi propagacji przy użyciu funkcji odcinkowo liniowej. Z kolei w [7] autorzy stosują podejście statystyczne więcej »

BADANIE JAKOŚCI TRANSMISJI W SYSTEMACH RADIOFONII CYFROWEJ DAB I DAB+ - DOI:10.15199/59.2018.6.52
Przemysław Falkowski-Gilski 
1. WSTĘP Obecnie brakuje międzynarodowego porozumienia dotyczącego wprowadzenia jednego globalnego standardu dla radiofonii cyfrowej. Takie regulacje z pewnością przyczyniłyby się do wzrostu dostępności oraz popularności tego typu usług, a także spadku ceny odbiorników radiowych i powiązanych urządzeń konsumenckich. W efekcie różne kraje przyjęły odmienne systemy. Do najpopularniejszych należą standardy DAB oraz DAB+ (Digital Audio Broadcasting). W rekomendacji R 138 [1] Europejska Unia Nadawców EBU (European Broadcast Union) wymieniła korzyści wynikające z implementacji cyfrowej radiofonii i wskazała na DAB+ jako wiodący standard. Wybór standardu DAB+, oprócz wysokiej jakości transmisji sygnału fonii, oferuje szereg usług dodatkowych, w tym listę programów wraz z opisem audycji, programowalne nagrywanie, czy też informacje w postaci graficznej. Szczegółowe informacje dotyczące oczekiwań słuchaczy względem cyfrowej radiofonii DAB+ można znaleźć w [2]. 2. FORMOWANIE MULTIPLEKSU Strumienie danych w ramach pojedynczego multipleksu DAB/DAB+ grupowane są w usługi, np. Program 1, Program 2, Wiadomości, Sport, Journaline, itd. To poprzez te nazwy usługi udostępniane są słuchaczom. Wszystkie usługi formowane są w tzw. zbiór, określany angielskim terminem ensemble [3]. Strumienie danych zawierające sygnały audio oraz dane, które należą do jednej usługi, określane są mianem komponentów tej usługi. Co ważne różne usługi mogą dzielić i współdzielić komponenty oraz zasoby. Przykładową strukturę logiczną multipleksu DAB/DAB+ przedstawiono na rys. 1. Rys. 1. Struktura logiczna multipleksu DAB/DAB+. Zbiór (ensemble) o nazwie Cyfrowe Radio składa się z 4 usług: Program 1, Data 3, Program 21 oraz Program 22. Program 1 jest usługą obejmującą wyłącznie komponent audio. Taki program określany jest mianem normalnego lub typowego programu radiowego. Stanowi analogiczny odpowiednik usługi dostępnej w analogowej radiofonii FM. Program 21 tak więcej »

BADANIE WŁAŚCIWOŚCI ALGORYTMU KOMPRESJI ZMNIEJSZAJĄCEGO STOSUNEK MOCY SZCZYTOWEJ DO ŚREDNIEJ SYGNAŁU WIELOTONOWEGO - DOI:10.15199/59.2018.6.69
Krzysztof Wesołowski 
1. PRZEGLĄD METOD REDUKCJI PAPR Wysoka wartość mocy szczytowej do średniej sygnału (PAPR) wielotonowego OFDM jest jedną z jego istotnych wad. W ogólności można ją określić wzorem:   = 10 () ()   gdzie x(k) jest ciągiem próbek sygnału OFDM, zaś E[.] oznacza wartość oczekiwaną. Opracowano wiele algorytmów zmniejszających wartość PAPR. Sygnał OFDM jako suma wielu niezależnie zmodulowanych podnośnych jest sygnałem o dużej dynamice, więc z pewnym prawdopodobieństwem występują bardzo wysokie wartości amplitud, co stanowi problem dla wzmacniacza o ograniczonej liniowości charakterystyk oraz określonym poziomie nasycenia. Literatura na temat minimalizacji PAPR jest bogata. Artykuł [1] zawiera szeroki przegląd rozwiązań minimalizujących PAPR dla sygnałów OFDM. Najprostszą metodą minimalizacji PARR jest obcinanie szczytowych wartości sygnału w dziedzinie czasu (tzw. amplitude clipping) [2], jednak jest to równoznaczne z dodatkowymi zakłóceniami i skutkuje poszerzeniem widma sygnału OFDM. Pewnym remedium na wady tej metody jest zastosowanie filtracji po obcinaniu szczytowych wartości sygnału OFDM [3]. Obie procedury mogą być kilkakrotnie powtarzane [4]. Inna grupa metod redukcji PAPR jest powiązana z kodowaniem [5], [6]. Zamiast przesyłania czystych symboli danych na podnośnych OFDM, transmitowane są wybrane słowa kodowe, które skutkują niską wartością PAPR. W celu minimalizacji PAPR można zastosować tzw. komplementarne kody Golay’a, ale jest to ograniczone jedynie do modulacji PSK na podnośnych [1]. Z kolei w technice PTS (Partial Transmit Sequence) [7] blok danych OFDM jest podzielony na pewną liczbę rozłącznych podbloków, które uzupełnione o zera na nieużywanych pozycjach bloku są następnie przedmiotem operacji IFFT. Ostateczną sekwencją wygenerowanych próbek sygnału OFDM jest kombinacja liniowa próbek w dziedzinie czasu użytych podbloków z zastosowaniem współczynników wagowych o posta więcej »

BADANIE WŁAŚCIWOŚCI KODÓW KOREKCYJNYCH W ASPEKCIE ICH ZASTOSOWANIA W SYSTEMACH 5G - DOI:10.15199/59.2018.6.49
Michał Sybis Krzysztof Wesołowski 
1. WPROWADZENIE Kodowanie kanałowe realizowane za pomocą kodów korekcyjnych jest niezbędne w cyfrowych systemach radiowych ze względu na trudne warunki transmisyjne występujące w zasadniczej większości takich systemów. Jest to szczególnie istotne w przypadku transmisji danych. Kody korekcyjne są stosowane we wszystkich cyfrowych systemach komórkowych. W systemach 2G takich jak GSM/GPRS/EDGE zastosowano kody splotowe z dekoderami Viterbiego [1]. W systemach 3G UMTS/HSPA/ HSPA+ kody splotowe są stosowane w cyfrowej transmisji mowy, zaś turbokody [2], [3] w transmisji danych, w której opóźnienie nie jest krytyczne. W systemach LTE i LTE Advanced [4] również stosuje się turbokody. Po wynalezieniu turbokodów bazujących na systematycznych kodach splotowych, przeplocie i dekodowaniu iteracyjnym, opracowano także inne kody o jakości działania bliskiej granicy Shannona, takie jak kody LDPC (ang. Low-Density Parity Check) [5], [6]. Kody te zostały zastosowane w standardach takich systemów jak DVB-T2 [7], DVBS2 [8] czy WiMAX [9]. Kody LDPC również wymagają dekodowania iteracyjnego i podobnie jak w przypadku turbokodów, ich wymagania obliczeniowe zależą od liczby wykonanych iteracji. W 2009 roku Erdal Arikan zaproponował nową klasę kodów - kody polaryzacyjne [10], które osiągają asymptotycznie granicę Shannona wraz ze wzrostem ich długości, co ich wynalazca dowiódł teoretycznie. Systemy radiokomunikacyjne 5G są obecnie bliskie standaryzacji. Jak wiemy, można je podzielić pod względem typów oferowanych usług na następujące rodzaje: wzbogacony, mobilny dostęp szerokopasmowy (eMBB - ang. enhanced Mobile Broadband), komunikacja o bardzo wysokiej niezawodności i małym opóźnieniu (URLLC - ang. Ultra-Reliable Low Latency Communications) i masowa komunikacja pomiędzy maszynami i urządzeniami (mMTC - ang. massive Machine Type Communications). Każdy z typów systemów prezentuje zasadniczo inne wymagania pod względem kodowania korekcyjnego więcej »

BADANIE WPŁYWU POZIOMU ODBIERANEGO SYGNAŁU NA WYNIK POMIARU TDOA W UKŁADZIE DW1000 - DOI:10.15199/59.2018.6.23
Vitomir Djaja-Jośko Jerzy Kołakowski 
1. WSTĘP Ze względu na rosnące zapotrzebowanie na usługi wykorzystujące znajomość dokładnego położenia obiektów oraz osób wewnątrz budynków, ostatnimi czasy nastąpił dynamiczny rozwój systemów dostarczających informacje lokalizacyjne. Mogą one znaleźć zastosowanie w wielu obszarach, zaczynając od przemysłu, przez usługi oraz rozrywkę, na wspomaganiu osób w życiu codziennym kończąc. Znane są rozwiązania służące do lokalizacji wózków widłowych oraz narzędzi w fabrykach [7, 1]. Istnieją również systemy ułatwiające poruszanie się np. po lotniskach czy muzeach [3, 6]. Istotną grupę stanowią systemy do wspomagania osób starszych w miejscu ich zamieszkania [13]. W zależności od zastosowania, systemom lokalizacyjnym stawiane są różne wymagania dotyczące liczby lokalizowanych obiektów/osób, poboru prądu w wykorzystywanych urządzeniach, częstości wyznaczania lokalizacji obiektów/osób, czy też dokładności i precyzji wyznaczanych położeń. W systemach do lokalizacji wewnątrz pomieszczeń do wyznaczania położeń wykorzystywane są różne techniki radiowe. Najczęściej spotykane są rozwiązania oparte na technikach takich jak BLE (Bluetooth Low Energy), WiFi czy ostatnio UWB (Ultrawideband). W referacie skupiono się na technice ultraszerokopasmowej, która ostatnio zyskuje coraz większa popularność. Celem badań przedstawionych w referacie było sprawdzenie wpływu poziomu odbieranego sygnału na pomiary różnicy czasu przybycia sygnałów w modułach radiowych DW1000. Struktura referatu jest następująca. W rozdziale drugim pokrótce opisano aktualny stan wiedzy w kwestii systemów lokalizacyjnych, w rozdziale trzecim omówiono układ DW1000. W rozdziale czwartym przedstawiono testy laboratoryjne z użyciem tłumików, natomiast w rozdziale piątym umieszczono wyniki badań wpływu polaryzacji anten. Referat został podsumowany w rozdziale szóstym. 2. SYSTEMY LOKALIZACYJNE Zarówno techniki BLE, jak i WiFi cieszą się dużą popularnością ze względu na ich po więcej »

BEZSTRANA KOMPRESJA DANYCH AKUSTYCZNYCH Z WYKORZYSTANIEM ADAPTACYJNEGO KODU GOLOMBA - DOI:10.15199/59.2018.6.50
Cezary Wernik Grzegorz Ulacha 
1. WPROWADZENIE DO BEZSTRATNEJ KOMPRESJI DANYCH AKUSTYCZNYCH Minimalizacja kosztów przechowywania i transmisji danych jest jednym z ważnych zagadnień teleinformatycznych. Narzędziem ułatwiającym zmniejszenie tych kosztów jest kompresja danych. Istnieje wiele metod kompresji, a najskuteczniejsze są te, które są dostosowane do konkretnego typu danych. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się na tym drugim typie, ograniczając się do kodowania danych akustycznych. Do istotnych zastosowań bezstratnej kompresji dźwięku należy zaliczyć archiwizację nagrań, możliwość zapisu dźwięku wysokiej jakości na komercyjnych nośnikach (np. płytach DVD, Blu-Ray), a także sprzedaż utworów w internetowych sklepach muzycznych dla bardziej wymagających klientów, których nie zadowoli jakość formatu mp3 [6]. Ponadto często tryb bezstratny wymagany jest na etapie studyjnej obróbki muzyki, materiałów reklamowych oraz przy produkcji audycji radiowych i telewizyjnych, filmów (post-produkcja [1]) itp. W takiej sytuacji nie stosuje się kodowania stratnego, które przy każdej iteracji edycji dźwięku mogłoby wprowadzać dodatkowe, kumulujące się zniekształcenia. W pierwszych latach XXI wieku opracowano wiele efektywnych propozycji standardu MPEG-4 Lossless Audio Coding [5], ale nie można też pominąć faktu, iż w sposób niezależny rozwija się też gałąź niejako amatorskich rozwiązań, których algorytmy nie są w pełni prezentowane w publikacjach naukowych. Przykładowo OptimFrog [15] oraz Monkey’s Audio [16] należą do czołówki najwydajniejszych programów służących do bezstratnej kompresji danych akustycznych. W nowoczesnych metodach kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne, kodowanie Huffmana [12] i jego odmiany takie jak kod Golomba [4] i Rice’a [9]. W przypadku więcej »

EFEKTYWNOŚĆ WIDMOWA PA-BICM-ID W KANALE Z SELEKTYWNYMI ZANIKAMI RAYLEIGHA - DOI:10.15199/59.2018.6.48
Maciej Krasicki 
1. WSTĘP Modulacja BICM [3] znalazła zastosowanie w wielu systemach radiokomunikacyjnych; jako przykład można wymienić choćby sieci WLAN czy HSPA. W ostatnich latach atrakcyjnym kierunkiem badań nad zwiększeniem efektywności energetycznej i widmowej BICM jest iteracyjny odbiornik, w którym demodulator i miękkodecyzyjny dekoder pełnią rolę podobną do dekoderów składowych turbodekodera [2]. Jest to cecha charakterystyczna modulacji BICM-ID. Warunkiem koniecznym poprawy wiarygodności estymat danych w kolejnych iteracjach jest zastosowanie specyficznej reguły odwzorowania bloków binarnych (fragmentów ciągu kodowego) w sygnały elementarne, zwanej regułą optymalną, dalej w artykule oznaczanej przez (HR) dla uczczenia twórców BICM-ID: Huanga i Ritceya [8]. Sygnały powstałe w wyniku odwzorowania (HR) nie mogą być poprawnie zdekodowane przez odbiornik BICM, gdyż w systemach BICM stosuje się odwzorowanie Graya (dalej (G)). Wobec tego, zależnie od odbiornika, rodzaj odwzorowania bloków binarnych powinien być przedmiotem negocjacji parametrów transmisji typu punkt-punkt, podobnie jak wybór modulacji czy sprawności kodu protekcyjnego. Jednak w przypadku transmisji rozgłoszeniowej lub typu punkt-wielopunkt, obecność w sieci choćby jednego odbiornika BICM wymuszałaby zastosowanie odwzorowania (G)). Modulacja PA-BICM-ID [4], omówiona szerzej w kolejnym punkcie, została stworzona, aby umożliwić dekodowanie iteracyjne kompatybilnym odbiornikom, koegzystującym w systemie radiokomunikacyjnym ze starszymi urządzeniami, zgodnymi ze specyfikacją BICM. Do tej pory zbadano własności PA-BICM-ID w przypadku transmisji w wyidealizowanym kanale z quasi-stacjonarnymi zanikami Rayleigha [4] i porównano PA-BICM-ID z metodą domieszkowania modulacji [5]. Z kolei w pracach [6] i [7] zastosowano kanał z selektywnymi zanikami Rayleigha i w takich warunkach transmisji porównano efektywność widmową PABICM- ID i BICM, założywszy wykorzystanie OFDM do p więcej »

EFEKTYWNOŚĆ WYWŁASZCZANIA Z ZASOBÓW RADIOWYCH W SYSTEMIE LTE - DOI:10.15199/59.2018.6.46
Michał Wągrowsk Sylwia Curzytek Dawid Mieszczak  
1. WSTĘP Dobrze zaprojektowana i zwymiarowania sieć komórkowa powinna pracować stabilnie i bez przeciążeń. Natężenie i gęstość ruchu generowanego są jednak czynnikami zmiennymi w czasie i podatnymi na zdarzenia losowe, dlatego nawet jeśli planowanie sieci poprawnie uwzględnia dane statystyczne nt. ruchu oferowanego, to mogą zdarzyć się sytuacje, w których mimo wszystko dochodzi do wyczerpania dostępnych zasobów radiowych i sieć w pewnym obszarze zaczyna działać w warunkach przeciążenia. Na wypadek takiej sytuacji operator powinien dysponować odpowiednimi narzędziami do zapewnienia użytkownikom realizacji usług zgodnie z zawartymi umowami, które to z kolei mogą różnicować priorytety ważności zarówno użytkowników jak i samych usług. Operator może określić własną politykę obsługi różnych grup abonentów (np. VIP, biznes, służby, abonenci właśni i obcy) oraz nadawać priorytety usługom (np. połączenia alarmowe, usługi głosowe, transmisja danych o różnych wymaganiach jakościowych). Wg odpowiednio zdefiniowanej hierarchii ważności, w sytuacji przeciążenia, jakość odpowiednich usług może być ograniczana, a w wyjątkowych sytuacjach połączenia z najmniej znaczącymi użytkownikami mogą być zrywane na rzecz tych o znaczeniu kluczowym. W artykule przedstawiono typowe i rozszerzone możliwości systemu LTE w zakresie obsługi połączeń o różnych priorytetach, w sytuacji niewystarczających zasobów radiowych, na bazie implementacji oferowanej przez firmę Nokia. W rozdziale 2 opisano realizację wywłaszczania z zasobów oraz zestaw parametrów wykorzystywanych typowo do różnicowania użytkowników i usług. W rozdziale 3 przedstawiono specjalną funkcjonalność stacji bazowych, umożliwiającą nadawanie połączeniom priorytetów opartych dodatkowo na identyfikatorach sieci PLMN, umożliwiającą różnicowanie zasad dostępu do zasobów sieci w sytuacji współdzielenia infrastruktury dostępowej przez wielu operatorów. W rozdziale 4 scharakteryzowano środowisko więcej »

EMPIRYCZNY MODEL TŁUMIENIA SYSTEMOWEGO W ŁĄCZU RADIOWYM SIECI BAN PRACUJĄCEJ W ŚRODOWISKU PROMU PASAŻERSKIEGO - DOI:10.15199/59.2018.6.29
Paweł T. Kosz Sławomir J. Ambroziak Jacek Stefański Luis M. Correia Krzysztof K. Cwalina Kenan Turbic 
1. WSTĘP Radiowe sieci BAN (ang. Body Area Networks) pracujące bezpośrednio przy ciele człowieka lub w jego bliskim otoczeniu, dzięki możliwości integrowania rozmaitych nasobnych lub przenośnych urządzeń ze stałą infrastrukturą telekomunikacyjną, stanowią istotny kierunek rozwoju nowoczesnych systemów radiokomunikacyjnych [10], a zwłaszcza standardu 5G (ang. 5th Generation). Jednym z rodzajów komunikacji charakterystycznych dla radiowych sieci BAN jest komunikacja typu off-body, w której łączność radiowa realizowana jest pomiędzy grupą urządzeń nasobnych a urządzeniem umieszczonym w większej odległości (zwykle nie przekraczającej 6 m [4][5]) od ciała człowieka. W przypadku tego typu komunikacji, ciało człowieka oddziałuje na charakterystykę promieniowania i parametry anteny nasobnej tylko po jednej stronie łącza radiowego. Aktualnie, dynamiczny rozwój radiowych sieci BAN, a także mnogość ich zastosowań i swoboda aplikacji, wzbudza spore zainteresowanie nie tylko wśród instytucji świadczących usługi medyczne i opieki zdrowotnej, ale również coraz częściej wśród służb cywilnych i specjalnych mających na celu chęć zwiększenia ochrony życia i bezpieczeństwa swoich klientów oraz pracowników. W kręgu zainteresowanych są środowiska armatorów statków i promów pasażerskich, których zainteresowanie implementacją radiowych sieci BAN wynika z chęci zwiększenia komfortu i poczucia bezpieczeństwa pasażerów i pracowników podczas rejsu, poprzez możliwość monitorowania ich parametrów i funkcji życiowych. System radiokomunikacyjny, bazujący na sieciach BAN, pracowałby na pokładach statków lub promów pasażerskich, czyli w środowiskach trudnych i nietypowych pod względem rozchodzenia się fali elektromagnetycznej. Nietypowość tego typu środowisk wynika głównie z faktu, iż ściany, podłogi i sufity są wykonane zazwyczaj ze stali. Mając powyższe na względzie, aby zapewnić wysoką niezawodność projektowanych łączy radiowych sieci BAN w kontekśc więcej »

ESTYMACJA POŁOŻENIA WĘZŁÓW RUCHOMYCH W SIECI UWB SYNCHRONIZOWANEJ EMISJĄ Z WĘZŁA NIERUCHOMEGO - DOI:10.15199/59.2018.6.11
Krzysztof Cwalina Paweł Kosz Piotr Rajchowski Jarosław Sadowski Jacek Stefański 
1. WSTĘP Intensywny rozwój technik i technologii określania położenia terminali ruchomych w środowiskach wewnątrzbudynkowych pozwolił w ostatnich latach na wskazanie trzech najczęściej stosowanych metod pozyskiwania informacji pozycyjnych. Wśród metod nie powiązanych z emisją sygnałów radiowych, dużą popularność zyskały rozwiązania lokalizacyjne bazujące na estymacji parametrów ruchu (przemieszczenia) przy użyciu zestawu czujników inercyjnych, takich jak akcelerometry i czujniki prędkości kątowych. Natomiast określanie położenia metodami radiowymi jest realizowane zarówno przy użyciu bardzo prostych metod detekcji sąsiedztwa, np. z użyciem aktywnych znaczników BLE (Bluetooth Low Energy), jak też poprzez pomiary odległości pomiędzy lokalizowanym obiektem a zestawem nieruchomych węzłów odniesienia. W tym ostatnim przypadku dużą rozdzielczość i dokładność pomiarów odległości pomiędzy węzłami sieci radiolokalizacyjnej można uzyskać stosując ultraszerokopasmową technikę radia impulsowego IR UWB (Impulse Radio Ultra Wide Band), a postęp technologii wytwarzania układów scalonych pozwolił na seryjną produkcję modemów pracujących w technice IR UWB. Przykładem takich modemów są urządzenia DWM1000 firmy DecaWave, bazujące na układzie scalonym DW1000 tej samej firmy [2, 3, 4]. Modemy DWM1000 umożliwiają realizację pomiarów odległości przez pomiar czasu dwukierunkowej wymiany pakietów radiowych TWR (Two- Way Ranging), także w wariancie symetrycznym SDSTWR (Symmetrical Double Sided TWR), pozwalającym na redukcję wpływu odchyłek częstotliwości generatorów taktujących modemy biorące udział w pomiarze na wynik pomiaru odległości. Pomimo licznych zalet, w tym przede wszystkim wysokiej dokładności pomiarów odległości, modemy te mają kilka wad, z których jedna, tj. stosunkowo wysoki pobór prądu zarówno w trybie nadawania, odbioru jak i nasłuchu, była powodem przeprowadzenia badań, opisanych w niniejszym dokumencie. 2. ORGANIZACJA PRACY więcej »

Ewolucja czy rewolucja? Dwie dekady rozwoju metod kompresji wizji - DOI:10.15199/59.2018.6.6
Damian Karwowski 
Transmisja czy magazynowanie obrazu ruchomego w jego oryginalnej postaci wymagają operowania na olbrzymich wręcz zbiorach danych. W przypadku danych, które opisują sekwencję obrazów o wysokiej jakości (rozdzielczość przestrzenna obrazu równa 1920 x 1080 przy 60 obrazach na sekundę), związany z nimi strumień bitowy to aż 3 Gbit/s! Jest zatem oczywiste, że praca z tak potężnym strumieniem bitów byłaby w praktyce bardzo kosztowna, a w niektórych zastosowaniach po prostu technicznie niemożliwa. Obrazy sekwencji należy więc wcześniej poddać kompresji. To właśnie ona otwiera możliwość wydajnej transmisji i zapisu obrazu. Jej celem jest opisanie obrazów sekwencji w alternatywny, inny sposób, który nie wymaga aż tak dużych nakładów bitowych. Celem jest wielokrotna (w praktyce więcej niż sto razy) redukcja liczby bitów, które przedstawiają obrazy, przy zachowaniu ciągle zadowalającej ich jakości po kompresji i dekompresji. Ten cel przyświeca badaczom już od kilku dekad. Z punktu widzenia tego, jak dzisiaj opisywany jest obraz, szczególnie istotne są osiągnięcia ostatnich 2-3 dekad. W tym czasie rozwijano różne podejścia do wydajnej reprezentacji obrazu [1-7]. Jednak z perspektywy kompresji ruchomego obrazu największe znaczenie praktyczne zyskała jedna technika - kodowania hybrydowego z przewidywaniem treści obrazu [1-6]. W porównaniu z innymi technikami jej wydajność okazała się po prostu najlepsza. Z tego właśnie powodu technika kompresji hybrydowej była przez lata przedmiotem licznych ulepszeń oraz modyfikacji. Kolejne odsłony tej technologii zostały ujęte w koderach obrazu kolejnych generacji, które stały się przedmiotem wielu rynkowych wdrożeń [1-6]. W artykule podjęto próbę oceny stopnia rozwoju, jakiego w ciągu ostatnich dwóch dekad doświadczyły kodery ruchomego obrazu. Celem pracy było ponadto pokazanie różnicy w wybranych parametrach koderów kolejnych generacji. Co nas czeka w najbliższych latach? Podjęto próbę odpowiedzi ró więcej »

INERCYJNY SYSTEM DO LOKALIZACJI LUDZI W BUDYNKACH WYKORZYSTUJĄCY CZUJNIKI UMIESZCZONE W OBUWIU - DOI:10.15199/59.2018.6.25
Jarosław Kawecki Łukasz Januszkiewicz Sławomir Hausman 
1. WSTĘP Systemy wykorzystujące czujniki inercyjne są obecnie coraz częściej stosowane do lokalizacji ludzi [1]. Stosowane są one jako systemy autonomiczne lub jako systemy wspierające nawigację satelitarną, gdy tylko nastąpi utrata sygnału z satelitów, bądź sygnał jest na tyle słaby, że lokalizacja uważana jest za niedokładną. Nawigacje samochodowe wykorzystujące jedynie system GPS przestają funkcjonować, gdy nastąpi utrata sygnału. Może to stanowić problem dla kierowców w miejscach gdzie występuje kilkukilometrowy tunel m.in. w Sztokholmie, czy w Szwajcarii. Inercyjne systemy są również stosowane do nawigacji dronów umożliwiając im powrót do miejsca bazowego, w przypadku np. utraty sygnału sterującego. Kolejnym istotnym obszarem zastosowań systemów inercyjnych jest lokalizacja ludzi w miejscach stwarzających niebezpieczeństwo, gdzie niedostępny jest sygnał GPS. W artykule przedstawiony został system wykorzystujący czujniki inercyjne (akcelerometry oraz magnetometr), które zostały wszyte we wkładkę do butów, co ma umożliwić wyznaczanie położenia użytkownika w pomieszczeniach na podstawie analizy prędkości i kierunku ruchu. System implementuje również metodę estymacji długości kroku użytkownika, co wpływa na wzrost dokładności lokalizacji. Dane o położeniu obliczone przez mikrokontroler znajdujący się we wkładce przesyłane są bezprzewodowo do smarftona, po czym mogą być udostępnione w sieci, w celu dalszej analizy i prezentacji. Inspiracją realizacji tego typu systemu noszonego była dotychczas zebrana wiedza dotycząca systemów wbudowanych w obuwie [1] [2] [3] [4]. 2. STRUKTURA SYSTEMU Zaprezentowany na rysunku 1 system wykorzystujący czujniki inercyjne wykonany został w celu lokalizacji ludzi we wnętrzach budynków. System ten cechuje jego autonomiczność umożliwiająca funkcjonowanie bez jakiejkolwiek dodatkowej infrastruktury instalowanej w budynku. System składa się z czujnika inercyjnego (IMU ang. Inertial Measureme więcej »

INTERFEJS SATA W PROCESIE INFILTRACJI ELEKTROMAGNETYCZNEJ - DOI:10.15199/59.2018.6.64
Rafał Przesmycki Marian Wnuk 
Emisja pola elektromagnetycznego jest zjawiskiem nieodłącznie towarzyszącym przepływowi prądu elektrycznego, będącego z kolei podstawą działania wszelkich urządzeń elektronicznych i elektrycznych. Na podstawie zmian pola możliwe jest wnioskowanie na temat działania urządzeń będących jego źródłem. Co więcej, właściwości pola elektromagnetycznego pozwalają na jego zdalną rejestrację i analizę. Zjawisko powstawania fal elektromagnetycznych niosących informację o działaniu urządzeń elektrycznych i elektronicznych nazywane jest emisją ujawniającą lub ulotem elektromagnetycznym. Odkąd urządzenia elektryczne i elektroniczne zaczęły być używane do przetwarzania informacji, często o poufnym charakterze, występowanie emisji ujawniającej nabrało szczególnego znaczenia. Ochrona informacji przed przenikaniem elektro-magnetycznym urządzeń i systemów elektronicznych (informatycznych) ma bardzo duże znaczenie. Problem ten narasta z coraz to większym zastosowaniem urządzeń teleinformatycznych do przetwarzania i przekazywania informacji, które nie powinny wpaść w nie-powołane ręce. Wynika to stąd, że każde urządzenie elektroniczne jest źródłem niepożądanej (ubocznej) emisji energii elektromagnetycznej indukowanej w otaczającą przestrzeń i we wszelkich bliskich przewodach elektrycznych i konstrukcjach metalowych [1]. Kiedy sygnały emisji niepożądanej są skorelowane z nieutajnioną informacją, mogą być one wykorzystane do odtworzenia tej informacji przez służby wywiadu. Zjawisko takiej emisji niepożądanej nazywa się emisją ujawniającą, a jej wykorzystanie przez wywiad - penetracją lub infiltracją elektromagnetyczną. Przedsięwzięcia mające na celu utrudnianie rozpoznawania systemów na podstawie emisji ujawniającej nazywamy ochroną informacji przed przenikaniem elektromagnetycznych lub bezpieczeństwem emisji [1]. Emisje elektromagnetyczne mające charakter emisji ujawniającej mogą powstać na każdym etapie przetwarzania informacji kodowanej w p więcej »

INTERPOLATOR WYKORZYSTUJĄCY FILTR Z MASKOWANIEM CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWEJ - DOI:10.15199/59.2018.6.76
Marek Blok 
1. WSTĘP Efektywna numerycznie realizacja modulacji sygnałów telekomunikacyjnych wymaga stosowania interpolacji pozwalającej na wykonywanie przetwarzania na najmniejszej wymaganej na danym etapie szybkości próbkowania. Realizacja interpolacji sygnału cyfrowego o dużej krotności wymaga stosowania cyfrowych filtrów dolnoprzepustowych o bardzo wąskim paśmie. Wiąże się to z dużą długością odpowiedzi impulsowej tych filtrów, a co za tym idzie - dużą złożonością obliczeniową samego algorytmu interpolacji. Jedną z technik projektowania filtrów cyfrowych o bardzo wąskim paśmie jest metoda maskowania charakterystyki częstotliwościowej (Frequency Response Masking - FRM) [2], rozbijająca problem projektowania takiego filtru na projektowanie kilku filtrów o obniżonych wymaganiach projektowych. W rezultacie ogólna liczba niezerowych współczynników ulega zmniejszeniu, a więc obniżona zostaje również złożoność obliczeniowa jego implementacji. W pracy rozpatrzono zagadnienie projektowania filtrów FRM na potrzeby projektowania filtru interpolacyjnego L-krotnego interpolatora i zaproponowano nową strukturę interpolatora wykorzystującą filtr FRM. Omówiono projektowanie filtru FRM i pokazano, że jego użycie pozwala na obniżenie złożoności obliczeniowej realizacji interpolatora w porównaniu do realizacji polifazowej wykorzystującej filtr interpolacyjny projektowany bezpośrednio. 2. Klasyczny interpolator L-krotny Rys. 1 przestawia klasyczny interpolator 𝐿-krotny. Składa się on z układu 𝐿-krotnie zwiększającego szybkość próbkowania (𝐿 ↑) poprzez wstawianie pomiędzy każde dwie kolejne próbki wejściowe 𝐿 - 1 próbek zerowych (up-sampler) oraz następującego po nim dolnoprzepustowego 1/𝐿 pasmowego filtru 𝐻𝐿𝑃𝐹 (𝑧). Rys. 1. Klasyczny interpolator L-krotny Zaletą tego rozwiązania jest jego prostota, jednak gdy wymagana jest wysoka jakość konwersji szybkości próbkow więcej »

KOEGZYSTENCJA INTERFEJSÓW A-RoF ORAZ eCPRI W OPTYCZNEJ SIECI FRONTHAUL MOBILNYCH SYSTEMÓW 5G - DOI:10.15199/59.2018.6.13
Zbigniew Zakrzewski 
1. WSTĘP Powstające systemy mobilne 5G wywodzą się z ewolucji systemów i sieci 4G. Podstawowym elementem w ewolucji systemów mobilnych była rezygnacja z dalszego rozwijania domeny komutacji łączy, na rzecz szybszego i efektywniejszego rozwoju sieci teleinformatycznych. Sieci teleinformatyczne, znane także jako sieci pakietowe, posiadają wiele zalet polegających na dynamicznym i efektywnym wykorzystaniu fizycznych i logicznych zasobów. W momencie pojawienia się potrzeby świadczenia sieciowych usług o wysokich wymaganiach jakościowych, szczególnie w zakresie opóźnień, pojawiły się komplikacje, które mogą być wyeliminowane tylko poprzez wprowadzenie mechanizmów zarządzania sieciowym ruchem, który znamy z sieci bazujących na komutacji łączy. Parametrem nadrzędnym podczas świadczenia tzw. usługi czasu rzeczywistego jest niskie i jednocześnie stałe opóźnienie w dostarczaniu sygnałów od źródła do odbiornika. W radiowej domenie NG-RAN (Next Generation Radio Access Network) przyszłych systemów 5G będzie miała szerokie zastosowanie technika centralnego sterowania C-RAN dużym zbiorem stacji bazowych gNB, które będą funkcjonowały także w formatach rozproszonych. Rozproszona architektura stacji bazowej gNB umożliwia otoczenie terminala mobilnego ME i tym samych efektywniejsze zarządzanie przestrzennymi zasobami. Realizacja tego zadania jest możliwa poprzez zastosowanie szerokopasmowych oraz elastycznych sieci optycznych opartych na systemie DWDM z elastyczną siatką optycznych kanałów [10] lub nowych elastycznych rozwiązaniach UDWDM (Ultra-Dense Wavelength Division Multiplexing). Optyczna sieć jest na tyle uniwersalna, że może być wykorzystana do przesyłania informacji zarówno w obszarze sieci backhaul (BH), jak też dosyłowej sieci fronthaul (FH) przyszłych systemów 5G. Rys. 1 Architektura NG-RAN w rozwiązaniu opartym na rozproszonych stacjach bazowych gNB (A-DAS) Zadaniem sieci BH jest połączenie rdzenia NGC/5GC (Next Generation C więcej »

Komunikacja w nanoskali - DOI:10.15199/59.2018.6.3
Paweł Kułakowski 
Obecnie obserwuje się niezwykle intensywny rozwój w dziedzinie nanotechnologii. Jest to z jednej strony stymulowane rosnącymi gwałtownie możliwościami technologicznymi budowy nanomaszyn, również z wykorzystaniem grafenu. Z drugiej strony cały czas wzrasta liczba zastosowań nanotechnologii, począwszy od precyzyjnej produkcji przemysłowej, ochrony środowiska, budowy zminiaturyzowanych laboratoriów (labs-on-a-chip), aż do olbrzymiej liczby możliwości z dziedziny medycyny: nanochirurgii, stymulacji regeneracji tkanek czy rozprowadzania w ciele ludzkim leków i innych substancji aktywnych. Działania pojedynczych nanomaszyn, między innymi z powodu ich rozmiaru i możliwości energetycznych, są jednak bardzo ograniczone. Dalszy rozwój ich funkcjonalności wymaga kooperacji całych sieci nanomaszyn. Oznacza to konieczność opracowania mechanizmów komunikacji między nanomaszynami. Komunikacja w nanoskali konieczna jest również dla sterowania nanomaszynami i odbierania od nich informacji. Komunikacja w nanoskali, czyli nanokomunikacja, stanowi temat badań naukowców od około dekady. Dziedzina ta, regularnie wymieniana m.in. przez IEEE Communications Society jako jeden z najważniejszych tematów naukowych (hot topics, technology trends), rozwija się jednak dość powoli, ze względu na konieczność współpracy badaczy z obszarów telekomunikacji/ informatyki oraz biotechnologii/medycyny. Główna inicjatywa rozwoju nanokomunikacji pochodzi z międzynarodowego środowiska telekomunikacyjnego, jednak coraz częściej eksperymenty przeprowadzane są z wykorzystaniem wsparcia, sprzętu i doświadczenia grup biologów, biofizyków czy biotechnologów. Zasadniczo wszystkie prowadzone obecnie badania z zakresu nanokomunikacji należą wciąż do badań podstawowych. Prace skupiają się na określeniu właściwości medium, przepustowości kanału komunikacyjnego i bitowej stopy błędów, zdefiniowaniu odpowiednich modulacji, protokołów MAC i technik rutingu. Proponowane są archit więcej »

KONSTRUKCJA ZAGŁUSZARKI TRANSMISJI RADIOWEJ - DOI:10.15199/59.2018.6.75
Konrad Bożek Mikołaj Zarzycki Piotr Kociel Adam Afyka Mateusz Rajewski Witold Hołubowicz Rafał Renk Henryk Gierszal 
Rosnący poziom zagrożenia o charakterze przestępczym, a także terrorystycznym wymusza rozbudowę infrastruktury technicznej, która jest w stanie zapewnić ochronę ludzi i mienia, a także zmniejszyć ryzyko szkód o charakterze materialnym, gospodarczym czy biznesowym, związanych np. z wyciekiem informacji czy cyberatakami. Ochrona infrastruktury krytycznej, granic, ważnych obiektów, spotkań na wysokim szczeblu, a także imprez masowych jest zadaniem szeregu instytucji powołanych ustawowo do realizacji takich celów. Jednym z rodzajów urządzeń coraz częściej wykorzystywanych przez różne służby bezpieczeństwa publicznego są zagłuszarki radiowe. Wytwarzają one pole elektromagnetyczne o dużej mocy i szerokim widmie częstotliwości, aby poprzez zakłócenie odbiornika w urządzeniu (np. detonatorze ładunku wybuchowego) uniemożliwić w ten sposób sterowanie nim przez intruza. Zastosowanie urządzeń zagłuszających zwiększa szanse na skuteczne podjęcie ładunku i jego neutralizację, co przyczynia się do zwiększenia bezpieczeństwa pirotechników i innych osób znajdujących się w strefie zagrożenia. Proponowany system zagłuszania jest rozwiązaniem sprzętowo-programowym, w którym zastosowano nowoczesne rozwiązania z obszaru cyfrowego przetwarzania sygnałów, techniki w.cz. i techniki mikroprocesorowej, a także wiedzę z dziedziny inżynierii oprogramowania i inżynierii systemowej. Konstrukcja zagłuszarki jest przedmiotem projektu badawczo-rozwojowego pt. "Zakłócanie transmisji radiowej w wybranych obiektach Straży Granicznej" (umowa nr DOB-BIO7/15/04/2015) realizowanego na rzecz obronności i bezpieczeństwa państwa, współfinansowanego przez Narodowe Centrum Badań i Rozwoju (NCBiR) w ramach konkursu nr 7/2015. 2. KONCEPCJA Celem realizowanego projektu jest opracowanie oraz zbudowanie systemu zapewniającego zagłuszanie transmisji radiowej w szerokim zakresie częstotliwości. System ten ma zapewnić zabezpieczenie obiektów przed niepowołanym podsłuchem więcej »

KOOPERACYJNA LOKALIZACJA SDF W ŚRODOWISKU ZURBANIZOWANYM - DOI:10.15199/59.2018.6.8
Jan M. Kelner Cezary Ziółkowski 
1. WPROWADZENIE Postęp w mikroelektronice i technice mikrofalowej stworzył możliwości wykorzystania wyższych zakresów częstotliwości widma radiowego na potrzeby współczesnych systemów łączności bezprzewodowej. Na przełomie ostatnich trzydziestu lat, dostrzegamy dynamiczny rozwój tych systemów zwłaszcza na potrzeby rynku cywilnego. Efektem tego są m.in. powszechne na całym świecie bezprzewodowej sieci lokalne WiFi oraz systemy telefonii komórkowej drugiej i trzeciej generacji, a obecnie również coraz bardziej popularne systemy czwartej i nadchodzące systemy piątej generacji. Cechą charakterystyczną współczesnych systemów telekomunikacyjnych nie jest już tylko powszechny dostęp do podstawowych usług telekomunikacyjnych, takich jak telefonia czy transmisja danych. Jest nią zróżnicowany i otwarty rynek usług abonenckich. Przeprowadzone badania marketingowe wśród najmłodszych użytkowników telefonów komórkowych pokazują, że to pokolenie nie jest najbardziej zainteresowane korzystaniem z usług połączeń głosowych [10]. Stąd, można wnioskować, że udział i zróżnicowanie usług i aplikacji telekomunikacyjnych w przyszłym rynku telekomunikacyjnym będzie podlegać ciągłym zmianom. Jednym z takich współczesnych trendów jest wykorzystanie w coraz większej liczbie aplikacji mobilnych usług lokalizacyjnymi, które umożliwiają określenie położenia abonenta. Współczesne systemy łączności bezprzewodowej przyczyniły się w znacznej mierze do dynamicznego rozwoju istniejących oraz opracowywania nowych technik lokalizacyjnych. W okresie wcześniejszym, techniki te były wykorzystywane przede wszystkim na potrzeby radiolokacji i rozpoznania radiowego realizowanych przez siły zbrojne oraz systemów nawigacyjnych wykorzystywanych w transporcie lotniczym i morskim. Początki telefonii komórkowej wymusiły wprowadzenie usług lokalizacyjnych LCS (location services) do pozycjonowania abonentów na potrzeby zarządzania siecią. Z czasem, LCS wykorzystywane prz więcej »

KOREKCJA BŁĘDU NAMIERZANIA ŹRÓDEŁ EMISJI W WARUNKACH PROPAGACJI NLOS - DOI:10.15199/59.2018.6.73
Cezary Ziółkowski Jan M. Kelner 
1. WSTĘP Charakterystyczną cechą propagacji fal w obszarach zurbanizowanych jest występowanie zjawiska wielodrogowości. Zjawisko to w istotnym stopniu pogarsza dokładność procedur namierzania, gdyż jest przyczyną rozproszenia kąta odbioru (AOA) fal docierających do odbiornika. O wielkości rozproszenia AOA decyduje zarówno typ środowiska propagacji jak i szerokość oraz kierunek listka głównego charakterystyki promieniowania anteny nadajnika. Prezentowana w tym referacie ocena rozrzutu AOA wykorzystuje wyniki badań badaniach symulacyjnych, które uwzględniają szeroki zakres zjawisk propagacyjnych występujących w środowisku zurbanizowanym. Wykorzystana w badaniach procedura zapewnia generację zbioru kątów i mocy ścieżek propagacji docierających do odbiornika. Opracowana procedura uwzględnia wpływ charakterystyki promieniowania anteny nadajnika na rozkład mocy odbieranego sygnału. W literaturze jedynie uproszczone sposoby modelowania tych charakterystyk są prezentowane i w większości wykorzystują założenie o ich dookólnym charakterze. Prezentowana w tym referacie procedura ograniczona jest do zjawisk propagacyjnych, które dominują w płaszczyźnie azymutu. W praktyce oznacza to, że analiza dotyczy anteny nadawczej, której charakterystyka promieniowania jest wąska w płaszczyźnie elewacji (tj. kilka- lub kilkanaście stopni). Celem artykułu jest przedstawienie wpływ rozwartości i kierunku maksymalnego promieniowania charakterystyki anteny nadajnika na kątowe rozproszenie mocy odbieranego sygnału. Rozproszenie to determinuje dokładność procedury namierzania. Problem ten odgrywa istotne znaczenie w przypadku namierzania w środowisku zurbanizowanym. W przeprowadzonych badaniach symulacyjnych i analizie uzyskanych wyników wykorzystane zostały parametry rzeczywistych kanałów. W badaniach wykorzystano gaussowski model charakterystyki promieniowania anteny nadajnika w płaszczyźnie azymutu. Parametry kanału przyjęto na podstawie literatu więcej »

LOKALIZACJA OSÓB W HYBRYDOWYM SYSTEMIE BLE-UWB Z AUTOMATYCZNYM TWORZENIEM MAPY RADIOWEJ - DOI:10.15199/59.2018.6.26
Marcin Kołakowski 
1. WSTĘP W ostatnich latach obserwowany jest wzrost liczby urządzeń i systemów mających zwiększyć jakość życia i bezpieczeństwo osób starszych w ich miejscach zamieszkania. Szczególną grupę rozwiązań stanowią radiowe systemy lokalizacyjne przeznaczone dla osób z lekkimi zaburzeniami poznawczymi. Ich zadaniem, oprócz lokalizacji obiektów (np. kluczy) jest analiza ruchu osoby starszej i wykrycie sytuacji zagrażających jej zdrowiu i życiu (w szczególności wędrowania). W związku z tym systemy te powinny pozwalać na lokalizację osoby z niepewnością poniżej jednego metra. Dodatkowo, ważnym aspektem w przypadku osób z demencją jest zapewnienie możliwie długiej pracy noszonych urządzeń bez konieczności doładowywania akumulatorów. Powyższe wymagania trudno spełnić z wykorzystaniem jednej technologii radiowej. W związku z tym rozsądnym rozwiązaniem może być zastosowanie systemu hybrydowego łączącego dokładną technikę UWB z energooszczędną technologią Bluetooth Low Energy (BLE). W systemie takim lokalizacja przez większość czasu jest wyznaczana z wykorzystaniem podsystemu BLE, natomiast system UWB jest wykorzystywany sporadycznie jedynie w celu zwiększenia dokładności lokalizacji. Jedną z najpopularniejszych technik lokalizacji wykorzystywanych w systemach lokalizacyjnych opartych na BLE jest lokalizacja z wykorzystaniem mapy radiowej (ang. fingerprinting) [1]. Technika ta polega na pomiarze poziomów sygnałów odbieranych z poszczególnych węzłów systemu oraz określeniu położenia użytkownika poprzez porównanie ich z uprzednio utworzoną mapą radiową. Mapa radiowa jest bazą danych zawierającą informacje na temat parametrów (najczęściej poziomów) sygnałów radiowych w ściśle określonych punktach pomieszczenia (tzw. sygnatury radiowe). Powyższa technika jest niezwykle popularna ze względu na swoją prostotę oraz to, że zazwyczaj nie wymaga znajomości dokładnych pozycji węzłów systemu. Główną wadą tej techniki jest konieczność wcześniejsz więcej »

METAMATERIALS IN APPLICATION FOR IMPROVING THE PARAMETERS OF ANTENNAS - DOI:10.15199/59.2018.6.34
Thanh Nghia Cao Wojciech J. Krzysztofik 
1. INTRODUCTION In recent years, along with the development of wireless communication technology, the performance of the antennas in these systems demand must also in-crease. There are many methods for increase of the performance of the antenna have been using. One of them is using metamaterial structures for antenna design, which has been attracting the designers [1]. In recent decades, a study of metamaterials for application in the field of science and technology has achieved great success. Metamaterials have been applied effectively in life, one of which is the use of metamaterials structures for antenna design. In 1968, the scientist Vaselago [20] studied a material which had, simultaneously, negative permeability ( ) and permittivity ( ) on a certain frequency band. He termed this material such as media left-hand (LH) which r, magnetic field vectors, and phase propagation vectors [2]. However, these properties are not available in natural materials but only in artificial materials called metamaterials. Metamaterials (MTMs) are understood as an artificial material that is created by arranging homogeneous metal structures and having unusual properties that natural materials are not available. The size of an effective homogeneous structure to form a unit cell of metamaterials must be much smaller than the guided wavelength [3]. Metamaterials are designed by arranging microstructures that are called "cells". These "cells" can be made from electrical, non-electrical or dielectric materials. These structures may be symmetric or asymmetric, isotropic or anisotropic. The arrangement of atoms can be in an orderly or chaotic manner, the purpose of which is to create the desired macro characteristics for the metamaterial. On the other hand, different structures give different types of metamaterials and applications, which are classified based on the permittivity and permeability values created by those structures [4]. 2. CLA więcej »

METODY KODOWANIA KANAŁOWEGO W ŁĄCZU RADIOWYM DLA BEZZAŁOGOWYCH STATKÓW POWIETRZNYCH KRÓTKIEGO ZASIĘGU - DOI:10.15199/59.2018.6.67
Michał Sybis Rafał Krenz 
1. WSTĘP Od kilku lat obserwuje się zwiększone zainteresowanie wykorzystaniem bezzałogowych statków powietrznych (BSP) w wielu dziedzinach naszego życia. Szczególnie często spotykane są konstrukcje wielowirnikowe (pionowego startu i lądowania), głównie za względu na korzystny stosunek możliwości do ceny, łatwość obsługi i stosunkowo niewielkie wymiary. W zależności od zastosowania, mogą one być wyposażone w różnego rodzaju czujniki, kamery o wysokiej rozdzielczości, skanery laserowe czy też radary SAR (ang. Synthetic-Aperture Radar). Zbierane dane powinny być przesyłane w czasie rzeczywistym do stacji naziemnej, co wymaga użycia niezawodnych łączy radiowych o przepływności sięgającej dziesiątek Mbit/s. Projektując odpowiedni system łączności bezprzewodowej należy pamiętać o występujących w tym przypadku ograniczeniach, takich jak wielkość i masa modułu, pobór mocy, środowisko propagacyjne i inne. Dlatego niezmiernie ważnym zagadnieniem jest wybór odpowiednich technik transmisyjnych, a więc modulacji, kodowania kanałowego czy też sposobu transmisji wieloantenowej. Niniejsza praca poświęcona jest metodom kodowania kanałowego przeznaczonym do zaprojektowanego w Katedrze Radiokomunikacji Politechniki Poznańskiej łącza radiowego dla BSP krótkiego zasięgu. W rozdziale 2 zaprezentowano wymagania i parametry systemu. Rozdział 3 zawiera opis badanych metod kodowania kanałowego, natomiast analiza ich złożoności przedstawiona jest w rozdziale 4. Wyniki dotyczące jakości transmisji uzyskane z ich wykorzystaniem przedstawiono w rozdziale 5. Rozdział 6 stanowi podsumowanie i zawiera propozycje dalszych badań. 2. WYMAGANIA I PARAMETRY SYSTEMU Celem projektu realizowanego wspólnie z Wojskowymi Zakładami Lotniczymi nr 2 w Bydgoszczy było opracowanie systemu łączności bezprzewodowej dla wielowirnikowych BSP średniej wielkości (ok. 1 m rozpiętości, waga poniżej 15 kg) o zasięgu do 300 m, przeznaczonych do działania w terenie zabudowanym więcej »

MODEL SYSTEMU ANTENOWEGO MIKRO-SATELITY DO ODBIORU TELEKOMEND W PAŚMIE S - DOI:10.15199/59.2018.6.79
Piotr Klonowski Krzysztof Kurek 
1. WSTĘP Przemysł i technologie kosmiczne od ponad 50 lat rozwijają się bardzo dynamicznie. Praktycznie wszystkie obiekty wysyłane w przestrzeń kosmiczną, satelity, czy sondy kosmiczne, wymagają ciągłej lub tymczasowej komunikacji z naziemnymi stacjami kontrolnymi, która umożliwia przesyłanie na Ziemię danych telemetrycznych o stanie wszystkich systemów satelity oraz przesyłanie do satelity telekomend sterujących jego pracą. Dzięki temu zapewniona jest praca różnych podsystemów satelity, których prawidłowe działanie jest niezbędne podczas trwania misji. Dla zapewnienia takiej łączności, system antenowy na satelicie powinien umożliwiać odbieranie sygnałów dochodzących z Ziemi z każdego kierunku, czyli posiadać zbliżoną do dookólnej, charakterystykę kierunkową. Dzięki temu można bowiem realizować łączność niezależnie od orientacji satelity. Jest to o tyle istotne, iż po wyniesieniu satelity na orbitę okołoziemską, jest on umieszczony w losowym ustawieniu względem Ziemi. Aby właściwie zorientować satelitę lub zmienić jego orbitę, konieczna jest ciągła łączność z naziemną stacją kontrolną, co zapewnia wspomniana charakterystyka kierunkowa systemu antenowego. Aby zwiększyć skuteczność łączności satelity z Ziemią, często stosuje się po jednej stronie łącza radiowego antenę o polaryzacji eliptycznej, natomiast po drugiej stronie łącza antenę o polaryzacji liniowej. Prowadzi to do zmniejszenia mocy odbieranego sygnału radiowego o połowę, ale minimalizuje wpływ niedopasowania polaryzacyjnego, które może być spowodowane niekorzystną orientacją przestrzenną satelity na orbicie. Aby poszerzyć charakterystykę kierunkową systemu antenowego na satelicie można zastosować dwie lub więcej anten, umieszczonych na różnych ściankach satelity i zorientowanych w różnych kierunkach, które połączone są z modułami nadawczo- odbiorczymi satelity przez odpowiednią sieć doprowadzającą. W przypadku mikro-satelity, istotne są jego gabaryty. Większość więcej »

MODELOWANIE ELEKTROMAGNETYCZNE GIĘTKICH KOMPONENTÓW PASYWNYCH I ANTEN DLA BEZPRZEWODOWEJ KOMUNIKACJI OSOBISTEJ. - DOI:10.15199/59.2018.6.80
Adam Lamęcki Łukasz Balewski 
1. WSTĘP Rozwój technik komunikacji bezprzewodowej i satelitarnej jest nieodłącznie związany z metodami numerycznej symulacji zjawisk propagacji pola elektromagnetycznego. Pomimo wzrostu znaczenia technik cyfrowego przetwarzania sygnałów, prowadzącego w nowoczesnych systemach cyfrowych do praktycznej eliminacji niskoczęstotliwościowej części analogowej urządzeń, nadal ważnym i nieodłącznym składnikiem każdego systemu radiowego są komponenty analogowe wysokiej częstotliwości, takie jak tory transmisji sygnałów w.cz., układy podziału mocy i częstotliwości oraz anteny. Rosnące wymagania projektowe nakładane na pojemność i miniaturyzację nowoczesnych systemów komunikacji radiowej prowadzą równocześnie do wzrostu złożoności układów wysokiej częstotliwości. Z tego powodu techniki numerycznego modelowania pól elektromagnetycznych w aktualnie projektowanych systemach mają kluczowe znaczenie, gdyż często to właśnie te układy stanowią istotne ograniczenie w wydajności całego systemu. Z drugiej strony nowe, rewolucyjne technologie produkcji układów wysokiej częstotliwości, jak druk tuszem przewodzącym na papierze czy druk 3D dają inżynierom ogromną swobodę w projektowaniu i prototypowaniu takich układów [1,2]. Wyzwaniem jednak jest symulacja numeryczna układu o dowolnej, zadanej przez projektanta geometrii, której celem jest wyznaczenie parametrów elektrycznych i polowych projektowanego komponentu. Jest to wyzwanie podwójne: raz ze względu na trudność w modelowaniu 3D złożonych układów o dowolnej geometrii w klasycznych symulatorach elektromagnetycznych, a także ze względu na duży koszt numeryczny samej symulacji pełnofalowej. Obserwowanym trendem w ostatnich latach jest realizacja układów i anten wysokiej częstotliwoś więcej »

MODELOWANIE I OCENA ODDZIAŁYWANIA NA CZŁOWIEKA POLA ELEKTROMAGNETYCZNEGO EMITOWANEGO PRZEZ CZYTNIKI RFID HF - DOI:10.15199/59.2018.6.31
Patryk Zradziński Jolanta Karpowicz Krzysztof Gryz 
1. WSTĘP Identyfikacja z wykorzystaniem fal radiowych (RFID) jest najpowszechniejszą i najszybciej rozwijającą się bezprzewodową, automatyczną lub półautomatyczną technologią identyfikacji. Urządzenia systemów RFID charakteryzuje duża różnorodność zastosowania, parametrów technicznych, wymiarów, lokalizacji względem ludzi. Technologia ta jest wykorzystywana w takich obszarach jak: kontrola czasu w sporcie, oznakowanie zwierząt, kontrola dostępu do budynków, pomieszczeń czy mebli, kontrola czasu pobytu, w systemach opłat drogowych, w zbliżeniowych kartach płatniczych i kartach komunikacji miejskiej, aż po identyfikację materiałów niebezpiecznych i lokalizację kontenerów w systemach magazynowych, lokalizację narzędzi budowlanych, lokalizację maszyn górniczych, czy lokalizację oznakowanych obiektów w systemach przeciwkradzieżowych w placówkach handlowych. Technologia RFID jest również coraz częściej wykorzystywana w placówkach bibliotecznych do usprawniania procesów wypożyczania zbiorów i ich zwrotów, zautomatyzowania procesów inwentaryzacji i odszukiwania książek na regałach, kontroli poprawności ich składowania, a także alarmowania pracowników o próbie nieuprawnionego wyniesienia książki z biblioteki. Źródłem pola elektromagnetycznego (pola-EM) emitowanego przez systemy RFID są anteny stanowiące element czytników i znaczników [1]. W Polsce użytkowane są m.in. systemy RFID wykorzystujące pole-EM o częstotliwościach z zakresu HF (ang. High Frequency: (3 - 30) MHz, typowo 13,56 MHz). Maksymalny zasięg odczytu znaczników w tym systemie wynosi 1,5 m, a w czytnikach bliskiego zasięgu kilkanaście cm [1]. Pole-EM o takich częstotliwościach zaliczane jest przez prawo pracy do zakresu wielkiej częstotliwości ((0,1 - 300) MHz, oznaczanego PWCZ). Nieliczne opublikowane wyniki badań naukowych wskazują na występowanie bezpośrednio przy antenach czytników systemów RFID (HF) o ciągłej emisji pola-EM o poziomach przekraczających limity więcej »

MODELOWANIE STOCHASTYCZNEJ ODPOWIEDZI IMPULSOWEJ W NIEKTÓRYCH SIECIACH BEZPRZEWODOWYCH - DOI:10.15199/59.2018.6.21
Andrzej Borys Marta Mieczyńska 
1. WSTĘP W serii artykułów [1-4] został przedstawiony pewien sposób modelowania opóźnień pakietów transmitowanych w sieciach bezprzewodowych oraz opis analityczny funkcji gęstości prawdopodobieństwa tych opóźnień. Model przedstawiony w ww. pracach bazuje na wynikach wykonanych pomiarów i symulacji sieci ZigBee (standard IEEE 802.15.4). Stanowi on ich analityczną interpretację. Jednakże z podanego powyżej powodu nie może on rościć sobie pretensji do bycia modelem ogólnym, opisującym zagadnienia opóźnień w różnych sieciach bezprzewodowych. Przyjmuje się, że model jakiegoś systemu, podsystemu, urządzenia, zjawiska etc. można nazwać ogólnym [5], jeżeli wychodzi on z praw i zależności fizycznych i konstruuje zależności, których słuszność jest potwierdzana na drodze eksperymentalnej w jak najszerszym kontekście i dla jak największego zbioru sygnałów wejściowych. Niewątpliwie takimi cechami charakteryzuje się matematyczny model opisujący lokalny pomiar czasów opóźnienia cząstek w dwufazowym przepływie (strumieniu), który został opisany w pracy [6]. Jednym z celów tego artykułu jest pokazanie, że model ten można przenieść (oczywiście po dokonaniu reinterpretacji odpowiednich zmiennych i wielkości) na grunt modelowania czasów opóźnień pakietów w bezprzewodowych sieciach telekomunikacyjnych. W następnym rozdziale pracy pokazano, jak można otrzymać model odpowiedzi impulsowej dla systemów o stałym opóźnieniu z ogólnych zależności wyprowadzonych w [6] dla kanału pomiarowego w przepływach dwufazowych. Wyjaśniono również, jak reinterpretować we właściwy sposób wielkości i zmienne modelu z pracy [6] w odniesieniu do kanału bezprzewodowego. Materiał przedstawiony w rozdz. 3 jest kontynuacją tego ostatniego zagadnienia. Natomiast stochastyczna odpowiedź impulsowa kanału bezprzewodowego dla przypadku stacjonarnego została omówiona w następnym rozdziale, a jej ilustracja na przykładzie sieci ZigBee w rozdz. 5. Artykuł kończy się podsumo więcej »

MODELOWANIE TŁUMIENIA SYGNAŁU PRZY TRANSMISJI DO WNĘTRZA BUDYNKÓW - DOI:10.15199/59.2018.6.20
Fryderyk Lewicki Andrzej Ługowski Grzegorz Kinal Stanisław A. Lesiak Grzegorz Zagórda 
1. WSTĘP Od kilku ostatnich lat w różnych instytucjach międzynarodowych, trwają intensywne prace nad wprowadzeniem nowej generacji systemów ruchomych - 5G (IMT2020, New Generation). Jedną z podstawowych cech nowego systemu ma być zapewnienie dostępu do usług szerokopasmowych wszędzie i w każdym czasie, co oznacza konieczność prognozowania poziomu odbieranego sygnału również wewnątrz budynków (ang. Building Entry Loss - BEL). W ITU-R Study Group 3 "Radiowave Propagation" zadecydowano, że jednym z pilnych zadań jest opracowanie modelu BEL do analiz kompatybilności przyszłych systemów 5G. Model ten powinien być ogólny (ang. "path general"), a więc nie powinien szczegółowo rozpatrywać propagacji "od punktu do punktu" (ang. “site specific"). W odpowiedzi na zobowiązanie nałożone przez ITU-R Task Group 5/1, która w ramach ITU-R ma opracować pełną specyfikację systemu 5G, w ITU-R SG3 prowadzono intensywne prace w ramach Grupy Korespondencyjnej CG 3J-3K-3M-8-BEL. W referacie opisano wkład Wydziału Anten i EMC Orange Polska w prace nad modelem BEL, które doprowadziły do ustanowienia nowego Zalecenia ITU-R P.2109 "Prediction of building entry loss". 2. ZAŁOŻENIA I OBLICZENIA WSTĘPNE BEL pozwala ocenić wartość tłumienia będącego wynikiem propagacji sygnału z nadajnika na zewnątrz budynku do odbiornika umieszczonego wnętrz budynku. Zagadnienie takie jest ważne w planowaniu mobilnych systemów 5G, ponieważ użytkownik oczekuje zapewnienia ciągłej łączności w trakcie wchodzenia do budynku i w jego wnętrzu. Ważne jest zaproponowanie modelu, który więcej »

MORSKIE SYSTEMY LOKALIZACJI I ŚLEDZENIA STATKÓW - DOI:10.15199/59.2018.6.74
Karol Korcz 
1. WSTĘP Potrzeba stosowania w żegludze morskiej systemów identyfikacji, lokalizacji i śledzenia ruchu statków jest nie kwestionowana. Systemem, który jako pierwszy spełnił te oczekiwania jest System automatycznej identyfikacji statków morskich - AIS (Automatic Identification System), wprowadzony jako obowiązkowe wyposażenie statków podlegających Konwencji o bezpieczeństwie życia na morzu - Konwencji SOLAS (Safety Of Life At Sea) w 2002 roku [6]. System ten zaprojektowany przede wszystkim z myślą o zwiększeniu bezpieczeństwa żeglugi ma szczególne znaczenie w obszarach o dużym natężeniu ruchu statków, obszarach przybrzeżnych lub na trudnych nawigacyjnie akwenach. AIS jest ważnym elementem Systemu nadzoru ruchu statków - VTS (Vessel Traffic Services) działającego w obszarach portów, gdzie szczególnie wymagana jest ich lokalizacja i śledzenie. W odpowiedzi na wzrastające ogólnoświatowe zagrożenie terrorystyczne, w szczególności wydarzenia w Nowym Jorku z 11 września 2001r., międzynarodowa społeczność morska, poprzez Międzynarodową Organizacje Morską - IMO (International Maritime Organ ization), zdecydowała o stworzeniu systemu, którego celem jest globalna identyfikacja, lokalizacja i śledzenie statków. W ślad za zidentyfikowaną dostępną technologią, przyjętymi niezbędnymi globalnymi uwarunkowaniami prawnymi oraz osiągniętym politycznym konsensusem dotyczącym zbierania, dystrybucji i użycia danych, w grudniu 2006r. zatwierdzono kluczowe zalecenia powołujące do życia system Dalekosiężnej identyfikacji i śledzenia statków morskich - LRIT (Long Range Identification and Tracking of ships) [6]. Wskazane wyżej systemy stanowią podstawę stosowanych obecnie w żegludze morskiej sposobów radiowej lokalizacji i nadzoru ruchu statków. W artykule, uwzględniając prowadzone obecnie przez IMO prace projektowe, podjęto próbę porównania właściwości oraz określenia perspektyw obu systemów. 2. SYSTEM AUTOM ATYCZNEJ IDENTYF IKACJI S TATKÓ W więcej »

NARZĘDZIA WSPOMAGAJĄCE PROCES PLANOWANIA FALOWEGO W ZAKRESIE KF WERYFIKACJA EKSPERYMENTALNA - DOI:10.15199/59.2018.6.45
Robert Matyszkiel Bogusław Grochowina Marcin Wisniewski Rafał Namiotko Adam Dobkowski Grzegorz Pater 
1. WPROWADZENIE Opracowanie nowych sposobów kodowania i modulacji oraz opracowanie nowych waveformów wąskopasmowych pracujących w zakresie KF sprawiło, że transmisja danych może być realizowana z większą przepływnością niż w dotychczas eksploatowanych systemach łączności KF. Potencjalny wzrost przepływności nowo opracowanych urządzeń pracujących w zakresie KF pozwala na realizację nowych usług w tym usług opartych na protokole IP. Warunkiem koniecznym do prawidłowej pracy systemów KF jest prawidłowa konfiguracja warstwy fizycznej, a szczególnie dobór częstotliwości pracy. Gwałtowny wzrost zapotrzebowania na zasoby widmowe w zakresie łączności KF wymusza opracowanie specjalistycznego oprogramowania pozwalającego efektywnie wykorzystać dostępne zasoby widmowe oraz możliwości oferowane przez nowoczesne środki radiowe pracujące w zakresie KF. Opracowane oprogramowanie jest niezbędne dla osób odpowiedzialnych za organizację łączności radiowej w zakresie KF i z uwagi na modułowy charakter powstałego oprogramowania może stanowić jeden z modułów systemu zarządzania systemem łączności radiowej (KF, UKF). 2. ZALECENIA STANDARYZACYJNE Współczesne radiostacje pracujące w zakresie KF w celu zapewnienia prawidłowej pracy oraz uodpornienia radiostacji na zakłócenia własne i celowe muszą mieć zaimplementowane szereg zaleceń standaryzacyjnych. Tab. 1. Zalecenia standaryzacyjne - łączność KF Nazwa zalecenia standaryzacyjnego Opis zalecenia standaryzacyjnego STANAG 4285: 75-3600 bps Modem KF do pracy rozsiewczej STANAG 4529: 75-1800 bps Modem KF do pracy w radiostacjach o paśmie mniejszym niż 3kHz STANAG 4415: 75 bps Modem KF do pracy w silnie zakłóconym środowisku STANAG 4539: 75-12800 bps Modem KF do pracy w systemach ARQ MIL-STD-188- 110A/B/C: 75-19200bps Modem KF do pracy w systemach ARQ STANAG 4538: 75-4800 bps Modem KF do pracy w systemach ARQ ALE2G zgodny z MILSTD- 188-141B App. więcej »

NOWA METODA CHARAKTERYZACJI DIELEKTRYKÓW W PAŚMIE CZĘSTOTLIWOŚCI SUBTERAHERCOWYCH - DOI:10.15199/59.2018.6.81
Konrad Godziszewski Yevhen Yashchyshyn 
Dynamiczny rozwój badań w zakresie subterahercowym (30 GHz - 1 THz) spowodowany jest ogromnym zainteresowaniem tym pasmem ze strony świata nauki oraz przemysłu. Owo zainteresowanie wynika z unikatowych właściwości fal z tego zakresu, które mogą być wykorzystane do badań kosmosu, w medycynie, obrazowaniu, spektroskopii, do identyfikacji materiałów niebezpiecznych itd. [5]. Kolejnymi obszarami zastosowań są np. radiolokacja oraz radiokomunikacja. Aby możliwe było zaprojektowanie elementów składowych urządzeń radiowych (anteny, filtry, dipleksery, wzmacniacze itd.), niezbędna jest znajomość parametrów elektrycznych i magnetycznych materiału, na bazie którego są one wykonane. Co więcej, precyzyjna znajomość właściwości materiału przyczynia się do skrócenia czasu projektowania i zmniejszenia kosztów prototypowania. Brak dokładnej wiedzy na temat właściwości materiału może skutkować koniecznością wielokrotnych prób wykonywania danego podzespołu, zmieniając i weryfikując opracowany model symulacyjny. Z tych powodów dokładna charakteryzacja jest bardzo ważnym aspektem w obecnych czasach, kiedy dąży się do ciągłej minimalizacji czasu i kosztów projektowania, aby wyprodukować nowe urządzenie i nadążyć za szybko zmieniającymi się potrzebami współczesnych użytkowników. W literaturze opisano ogromną liczbę różnorodnych metod charakteryzacji - rezonansowych i nierezonansowych. Metody te wykorzystują otwarte i zamknięte wnęki pomiarowe, wnęki rezonansowe i rezonatory dielektryczne, linie transmisyjne, sondy pola bliskiego oraz techniki pomiaru w otwartej przestrzeni [1]. Niestety, zastosowanie większości z tych metod w zakresie częstotliwości sub-THz jest utrudnione lub niemożliwe. Z tego powodu najczęściej pomiary parametrów elektrycznych materiałów realizowane są za pomocą ostatniej z wymienionych grup technik [4]. W zakresie terahercowym powszechnie stosowana jest spektroskopia w dziedzinie czasu THz-TDS (ang. terahertz time-domain więcej »

NOWE MEDIA IMMERSYJNE - DOI:10.15199/59.2018.6.55
Olgierd Stankiewicz Krzysztof Wegner Tomasz Grajek Marek Domański 
1. WSTĘP Nazwa nowego rodzaju mediów, zwanych immersyjnymi (lub wszechogarniającymi), pochodzi od łacińskiego czasownika immergere, co oznacza zanurzenie się lub zanurzenie w czymś. W przypadku mediów cyfrowych jest to termin określający zdolność systemu technicznego do całkowitego "wchłonięcia" użytkownika w przedstawioną rzeczywistość. Multimedia immersyjne [1] mogą być związane zarówno z treścią naturalną, jak i generowaną komputerowo. W pracy skoncentrujemy się na treści naturalnej, która zastała zarejestrowana za pomocą kamer, mikrofonów i ewentualnie jest uzupełniana danymi z czujników dodatkowych, takich jak kamery głębi. Immersja ma różne aspekty, związane ze sposobami przekonywania naszych ludzkich zmysłów, że jesteśmy obecni w przedstawionej treści. W tym artykule koncentrujemy się na tych aspektach, związanych tylko z wizją. Przykładami mediów immersyjnych są rzeczywistość wirtualna, rzeczywistość mieszana i rzeczywistości rozszerzona, które ostatnimi czasy są bardzo dynamicznie rozwijane. Obecnie najbardziej obiecującymi urządzeniami do prezentacji obrazu, który pozwala na całkowite wchłonięcie widza są gogle VR (ang. Head Mounted Display), umieszczane na głowie i wyświetlające obraz bezpośrednio na wyświetlaczach umieszczonych wprost przed oczami widza. W ostatnich latach obserwuje się ciągły rozwój tego typu urządzeń w różnych skalach: od prostych opartych na smartfonach (Google Cardboard [2]) po dedykowane urządzenia współpracujące z komputerami PC (np. Oculus Rift) [3]. Rozwój i popularyzacja urządzeń umożliwiających immersję przyśpieszyły rozwój rynku i zintensyfikowały prowadzone badania. Obecnie trwają prace nad wieloma technologiami związanymi z immersją, z których każdy prezentuje różne poziomy/zakresy zanurzenia widza w prezentowany świat (realizm). Niektóre są bardzo ograniczone, np. pozwalają użytkownikowi zmienić tylko kierunek widzenia [4,5], podczas gdy inne są bardzo zaawansowane, np. pozwa więcej »

NOWE TECHNOLOGIE W SYSTEMACH RADIOWEJ ŁĄCZNOŚCI KOLEJOWEJ - DOI:10.15199/59.2018.6.59
Tomasz Kosiło Karol Radecki 
1. WSTĘP Łączność radiowa pociąg - infrastruktura jest bardzo istotnym elementem systemu kolejowego. Łączność tą można podzielić na łączność podstawową, zapewniającą sterowanie i bezpieczeństwo oraz łączność dodatkową zapewniającą dodatkowe usługi dla kolei oraz w coraz większym zakresie transmisję danych dla pasażerów. Ilustruje to Tab. 1. Łączność podstawowa jest obecnie realizowana w standardzie GSM - R. Wszelkie zmiany i modyfikacje standardu wymagają długotrwałych uzgodnień międzynarodowych pomiędzy wieloma podmiotami; dlatego standard GSM - R stał się przestarzały w porównaniu z komercyjnymi systemami mobilnymi (UMTS, LTE, a w perspektywie 5G). Dostrzega to Międzynarodowa Unia Kolejowa (UIC - International Union of Railways) i od kilku lat prowadzi prace nad przejściem z GSM-R do nowego systemu FRMCS (Future Rail Mobile Communications System) [1]. Systemy dodatkowe wykorzystują różnorodne technologie. Szybko powstają nowe rozwiązania, których głównym celem jest duża przepływność (np. kolejowe systemy satelitarne oraz naziemne). Innymi stosowanymi technologiami jest Radio over Fiber (transmisja radiowa z wykorzystaniem światłowodów), Radio Kognitywne oraz monitorowanie urządzeń i elementów taboru kolejowego w systemie Internetu rzeczy (IoT). Tab. 1 Kategorie łączności kolejowej 2. SYSTEMY ŁĄCZNOŚCI KOLEJOWEJ Różne systemy łączności kolejowej schematycznie przedstawiono na Rys. 1. Rys. 1. Systemy łączności kolejowej Stosowane są następujące technologie:  Pociąg - infrastruktura  Łączność podstawowa: GSM-R, transmisja głosu i danych ETCS L2 (European Train Control System); WiFI - IEEE 802.11; WiMax (IEEE 802.16.2)  Łączność dodatkowa: satelity GEO, WiFi, WiMax, kable promieniujące, RoF  Pomiędzy wagonami: radiowa, czasem światłowodowa. WiFi; WiMax; IEEE 802.11p; UWB (60GHz). Może retransmitować sygnały innego pociągu.  Wewnątrz wagonu.  Łączność służbowa. Od 1999r. więcej »

NOWY IMPULS ULTRA SZEROKOPASMOWY I JEGO WŁAŚCIWOŚCI - DOI:10.15199/59.2018.6.33
Anna Witenberg 
1. WSTĘP Technika ultra szerokopasmowej transmisji bezprzewodowej (UWB; ultra-wideband) jest nowoczesną i ciągle rozwijającą się techniką modulacji i bezprzewodowej transmisji bardzo dużych ilości informacji na krótkich dystansach. Dziedziny jej zastosowania to m.in. nauka, przemysł, medycyna, a także technika komputerowa i multimedia. Cechą charakterystyczną techniki UWB jest transmisja sekwencji setek milionów impulsów na odległość 2 - 3 metrów z szybkością nie mniejszą od 500 Mb na sekundę. Ze wzrostem odległości szybkość przesyłu maleje, co wynika z właściwości propagacji. Przy odległościach około 10 metrów nadal osiąga imponujące wartości sięgające 100 Mb na sekundę. UWB to również wykorzystanie tanich w produkcji i eksploatacji urządzeń konsumujących małe ilości energii elektrycznej. Długości transmitowanych sygnałów (najczęściej impulsów będących pochodnymi funkcji Gaussa) są rzędu ułamka nanosekundy i obejmują szeroki (zwykle kilka GHz) zakres częstotliwości [1, 2]. Jedną z fundamentalnych zasad techniki więcej »

OCENA JAKOŚCI POŁĄCZEŃ GŁOSOWYCH NA PODSTAWIE POMIARÓW URZĄDZENIEM SWISSQUAL DIVERSITY BENCHMARKER - DOI:10.15199/59.2018.6.37
Małgorzata Langer Politechnika Łódzka 
1. WSTĘP Usługi telekomunikacyjne są charakteryzowane przez wiele specyficznych parametrów, przy czym ogromną uwagę przykłada się w ostatnich latach do stanowiących największe wyzwanie wielkości związanych z usługami multimedialnymi i gamingowymi, przesyłem dużych strumieni danych. Nieco porzucony został temat tradycyjnie podstawowych usług telekomunikacji, jakimi są połączenia głosowe, których jakość stała się przedmiotem analizy w niniejszej publikacji. Kilkanaście lat temu istniało przekonanie, że metody badania jakości poprzez liczbowe parametry są wystarczające dla pełnego i jednoznacznego zobrazowania jakości usług (QoS). Jednakże w ciągu ostatnich lat stało się jasne, że równie istotne są oceny odbiorców (użytkowników), które nie zawsze są zgodne z pomierzonymi bezwzględnymi wartościami wybranych wielkości fizycznych. Optymalizacja świadczonych usług musi opierać się na jakości odczuwanej (QoE), często subiektywnej i zależnej od kontekstu. 2. OCENA JAKOŚCI Jakość usługi (QoS - Quality of Service) jest definiowana jako stopień zapewnienia satysfakcji klientowi z dostarczonej usługi. Szerszą definicję podano w [1]: "Wszystkie cechy charakterystyczne usługi telekomunikacyjnej, które wiążą się z możliwością zaspokojenia ustalonych i wnioskowanych potrzeb użytkownika usługi". Wiele podstawowych procedur i działań składa się na zbiorczy efekt oceny jakości i mimo, iż bierzemy pod uwagę specyficzne wielkości, związane z telekomunikacją, jakość i zarządzanie jakością pod więcej »

OGRANICZENIA PLANOWANIA ROZLEGŁYCH SIECI JEDNOCZĘSTOTLIWOŚCIOWYCH DVB-T2 - DOI:10.15199/59.2018.6.40
Dariusz Więcek Daniel Niewiadomski Marcin Mora Krzysztof Rzeźniczak Janusz Sobolewski 
1. WSTĘP W Polsce aktualnie emisja w naziemnej telewizji cyfrowej realizowana jest w systemie DVB-T [1] w wariancie kodowania wizji H.264/MPEG-4/AVC [2]. W związku z Decyzją Parlamentu i Rady Unii Europejskiej [3, 4] w najbliższych latach nastąpi zmiana przeznaczenia pasma 700 MHz (694-790 MHz) w krajach Unii i odbędzie się przekazanie tego zakresu częstotliwości (tzw. "drugą dywidendę cyfrową") w całości na potrzeby innych systemów, głównie systemów telefonii komórkowej 4G/5G w celu rozbudowy zasięgu (w związku z fizycznymi właściwościami tego pasma - tzw. "pasmo "pokryciowe") oraz częściowo także wzrostu przepływności dostępnej w sieciach operatorów komórkowych. Oznacza to wymóg przeplanowania istniejących sieci DVB-T/T2 wynikający ze zmiany przeznaczenia pasma 700 MHz. W wielu krajach europejskich analizuje i rozważa się możliwość zmiany przeznaczenia pasma 700 MHz połączonego równocześnie ze zmianą techniki nadawczej (z DVBT/ MPEG-2/MPEG-4 na DVB-T2/HEVC [5, 6]), modyfikację infrastruktury oraz zakładanej wymianie odbiorników przez społeczeństwo. Niektóre z nich (np. Niemcy) podjęły już taką decyzję i obecnie są w fazie migracji od emisji w DVB-T/MPEG-2 do DVB-T2/HEVC. Decyzje te wynikają z jednej strony z większej efektywności wykorzystania cennego widma radiowego możliwe do uzyskania w systemie DVB-T2 w stosunku do DVB-T (w sytuacji uszczuplania dostępnych dla telewizji naziemnej zasobów widma UHF), a z drugiej z możliwości uatrakcyjnienia i rozszerzenia oferty telewizji naziemnej. Można np. uruchomić dodatkowe programy telewizyjne, programy wysokiej rozdzielczości (HD) czy nawet w niektórych przypadkach programy ultra wysokiej rozdzielczości (UHD 4k) wymagające zastosowania najnowszych technik kompresji stosowanych obecnie w telewizji (tj. HEVC/H.265 [6]) oraz dużej pojemności multipleksu DVB-T2. Korzystne wartości parametrów symboli OFDM w przypadku DVB-T2 (znacznie większe wartości odstępów ochronnych - "guard więcej »

OPTYMALIZACJA EFEKTYWNO´SCI ENERGETYCZNEJ DLA SIECI POŁ ˛ ACZE´N RADIOWYCH Z PRZEKAZ´NIKAMI - DOI:10.15199/59.2018.6.42
Bartosz Bossy Hanna Bogucka 
1. WSTE˛P Wokresie ostatniej dekady badania zwia˛zane z efektywnos ´cia˛ energetyczna˛, jak równiez˙ z transmisja˛ wykorzystuja ˛ca˛przekaz´niki zyskały duz˙a˛popularnos´c´ [1,2,4,7, 8]. Efektywne energetycznie techniki transmisji pozwalaja ˛ na zmniejszenie zuz˙ywanej przez elementy sieci energii, a co za tym idzie na przedłuz˙enie z˙ywotnos´ci urza˛- dze´n oraz zmniejszenie emisji dwutlenku w˛egla. Dodatkowo u˙zycie przeka´zników pozwala powi˛ekszy´c zasi˛eg sieci, zwi˛ekszy´c przepustowo´s´c systemu czy te˙z zmniejszyc ´ moc transmisji. Wydaje sie˛ zatem, z˙e poła˛czenie obu technik stanowi idealna˛ pare˛ zwie˛kszaja˛ca˛ przepływnos ´c´ systemów radiokomunikacyjnych tym samym dbaja˛c o zuz˙ycie energii. Dodatkowo biora˛c pod uwage˛ rosna˛ca˛ liczbe˛ urza˛dzen´ bezprzewodowych zwia˛zana˛m.in. z nadchodza ˛ca˛ era˛ Internetu rzeczy (ang. Internet of Things - 1Praca powstała w ramach projektu "BioNets" finansowanego ze ´srodków Narodowego Centrum Nauki przyznanych na podstawie decyzji numer DEC-2016/23/B/ST7/03937. T = 1 podnośna:i T = 2 podnośna:j T = 1 podnośna:i' T = 2 podnośna:j' interferencja jeślij interferencja jeśli j n TX m RN Rys. 1. Przykład transmisji wykorzystuja˛cej te˛ sama˛ podnos ´na˛ przez nadajnik oraz we˛zeł pos´rednicza˛cy w drugiej szczelinie czasowej. IoT), która wymaga wysokiej efektywno´sci energetycznej mo˙zna przypuszcza´c, ˙ze wykorzystanie w˛ezłów sieci jako przekaz´ników be˛dzie szeroko stosowana˛ technika˛. Taka˛ hipoteze˛ potwierdza choc´by ludzki mózg, który mimo posiadania ogromnej liczby neuronów (w˛ezłów sieci) przekazuje impulsy zachowuja˛c wysoka˛ efektywnos´c´ energetyczna˛m.in. dzie˛ki przekazywaniu sygnału od z´ródła do celu przez wiele neuronów (we˛złów pos´rednicza˛- cych) [3]. Posiada on zdolno´s´c zło˙zonego przetwarzania i oblicze´n w czasie rzeczywistym pomimo stosunkowo wolno działaja˛cych i zaszumionych komponentów centralnego systemu nerwowego. Mózg ludzki jest więcej »

OPTYMALIZACJA PREDYKCJI MIEDZYOBRAZOWEJ W KODOWANIU DANYCH WIZYJNYCH - DOI:10.15199/59.2018.6.53
Maciej Trochimiuk 
1. WSTEP Telewizja analogowa w zastosowaniach konsumenckich została całkowicie wyparta rozwiazaniami cyfrowymi. Pozwoliły one przezwyciezyc główna niedoskonałosc analogowych technik telewizyjnych - powiazanie informacji z fizycznymi własciwosciami medium transmisyjnego. W epoce telewizji analogowej implikowało to problemy z zachowaniem wysokiej jakosci sygnału przy przekazywaniu go na duze odległosci, pogarszajaca sie z czasem jakoscia zarchiwizowanego materiału oraz ograniczonej pojemnosci widma elektromagnetycznego [1]. Poniewaz ilosc danych niesiona przez nieskompresowany sygnał telewizyjny jest olbrzymia, głównym czynnikiem, który umozliwił upowszechnienie sie telewizji cyfrowej, było opracowanie wydajnych algorytmów kompresji. Dla stosowanego obecnie w telewizji cyfrowej formatu 1080p1 i 30 ramek na sekunde godzina materiału zajmuje 1,4 TiB danych, a w przypadku rozpowszechniajacego sie standardu 4K2 - czterokrotnie wiecej. Operowanie na materiale o tak duzym rozmiarze znacznie przekracza mozliwosci zarówno współczesnych łaczy telekomunikacyjnych, jak tez nosników pamieci. Dzieki bardzo duzej nadmiarowosci, która charakteryzuja sie sekwencje obrazów, kompresja stratna pozwala na daleko idace zmniejszenie rozmiaru i przepływnosci danych przy zachowaniu bardzo wysokiej jakosci obrazu [2]. Niestety, wraz z rozwojem standardów kompresji danych wizyjnych, zwiekszanie efektywnosci odbywało sie kosztem coraz wiekszej komplikacji algorytmów oraz złozonosci obliczeniowej. Przy nieustannie rosnacych rozdzielczosciach obrazu, ciagle aktualnym problemem pozostaje opracowywanie algorytmów predykcji miedzyobrazowej, które odznaczałyby sie wysoka efektywnoscia przy zachowaniu rozsadnej złozonosci obliczeniowej. W niniejszej pracy omówiono opracowany algorytm predykcji miedzyobrazowej, który pozwala na kodowanie sekwencji w rozdzielczosci 4K i 30 ramkach na sekunde w czasie rzeczywistym z wykorzystaniem układów typu ASIC oraz więcej »

PLANOWANIE SIECI WLAN ZA POMOCĄ WIELOKRYTERIALNEGO ALGORTMU KUKUŁKI - DOI:10.15199/59.2018.6.43
Adam Pieprzycki Wiesław Ludwin 
W artykule przedstawiono zadanie optymalizacji wielokryterialnej MOO (Multi Objective Optimization), dotyczące planowania sieci WLAN z infrastrukturą standardu IEEE 802.11 b/g w środowisku wewnątrzbudynkowym. Zadanie rozwiązano za pomocą wielokryterialnego algorytmu kukułki MOCS (Multi Objective Cuckoo Search) [1], wykorzystując model propagacyjny MWM (Multi Wall Model) i model matematyczny przepustowości sieci [2]. Zaproponowano dwuetapową analizę zadania. Najpierw znaleziono rozwiązania niezdominowane, a następnie przeprowadzono normowanie zmiennych diagnostycznych Metodą Unitaryzacji Zerowanej MUZ i na tej podstawie zbudowano ranking rozwiązań. 2. ZADANIE OPTYMALIZACJI Na podstawie analizy wyników pomiarów parametrów sieci WLAN standardu IEEE 802.11 z infrastrukturą w wybranych pomieszczeniach PWSZ w Tarnowie (rys. 2) przy formułowaniu zadania optymalizacji wielokryterialnej, zdecydowano się wykorzystać:  modele propagacyjne MWM (Multi Wall Model) [3] [4] oraz One-Slope-Model o parametrach wyznaczonych empirycznie (tab. 1),  model matematyczny przepustowości sieci [5], uwzględniający początkowy rozmiar okna rywalizacji oraz maksymalną liczbę stanów procedury backoff, i ponowień transmisji pakietów,  transmisję UDP, opartą na pakietach o ładunku 1472 B i 1500-bajtowej jednostce MTU. Tab. 1. Parametry modeli propagacyjnych Model Wartości parametrów One-slope Model 𝐿0=45,92; 𝑛𝑝𝑟𝑜𝑝 1𝑆𝑀 =2,64 MWM 𝑛𝑝𝑟𝑜𝑝 𝑀𝑊𝑀=2,49; 𝐿𝑤=6,32; W zadaniu rozważono wewnątrzbudynkowe środowisko radiokomunikacyjne, w którym poszukiwano dla sieci WLAN z infrastrukturą standardu IEEE 802.11b/g (tab. 2) optymalnego rozmieszczenia 𝑁𝐴𝑃 = 3 punktów AP, pracujących w trzech niezakłócających się kanałach radiowych 𝑐ℎ𝑛𝑟 = 1, 6 i 11 pasm więcej »

PODSYSTEM REJESTRACJI I PREZENTACJI DANYCH DIAGNOSTYCZNYCH Z ULTRASZEROKOPASMOWEGO SYSTEMU LOKALIZACYJNEGO - DOI:10.15199/59.2018.6.7
Łukasz Klimowicz Jerzy Kołakowski 
Informacja o lokalizacji osób i przedmiotów coraz częściej jest wykorzystywana do realizacji usług, których celem jest wsparcie osób starszych. Przykładem rozwiązania, którego celem jest wsparcie osób z demencją jest system lokalizacyjny realizowany w ramach projektu IONIS [1]. System ten, instalowany w domu osoby z demencją, pozwala na wsparcie codziennych czynności poprzez ułatwienie lokalizacji przedmiotów, a także gromadzi informacje o lokalizacji abonenta i trasach jego przemieszczania się. Dane te pozwalają na określenie aktywności ruchowej osoby monitorowanej oraz na wykrycie "błądzenia"- typowego objawu demencji polegającego na cyklicznym przemieszczaniu się tą samą trasą [2]. Zapewnienie ciągłości i poprawności działania systemu lokalizacyjnego wymaga implementacji rozwiązania pozwalającego na monitorowanie stanu poszczególnych jego elementów. Informacja o stanie poszczególnych urządzeń, stopniu naładowania akumulatorów, napięciach baterii urządzeń noszonych czy też dane statystyczne opisujące liczbę wykonywanych pomiarów i aktywność poszczególnych etykiet pozwalają na ocenę działania systemu. Tematyka akwizycji i przetwarzania danych diagnostycznych dotyczących systemów lokalizacyjnych jest poruszana w literaturze niezwykle rzadko. Typowo funkcje diagnostyczne są integrowane z oprogramowaniem odpowiedzialnym za wyznaczanie i prezentację wyników lokalizacji [3]. W systemie IONIS [4] zdecydowano się na odseparowanie przetwarzania danych diagnostycznych i lokalizacyjnych. System IONIS został zaprojektowany zgodnie z zasadami VSD (Value Sensitive Design) [5,6] zakładającymi pełną kontrolę użytkownika nad miejscem i sposobem wykorzystania informacji lokalizacyjnych, a także sposobami ich zabezpieczenia. Z tego powodu przetwarzanie tych danych ma miejsce w komputerze zlokalizowanym w mieszkaniu osoby monitorowanej. Efektywne monitorowanie stanu urządzeń systemowych wymaga ciągłego dostępu do informacji diagnostycz więcej »

POMIAR ZAKRESU CZĘSTOTLIWOŚCI PRACY W PAŚMIE PODSTAWOWYM DLA TERMINALI SATELITARNYCH VSAT - DOI:10.15199/59.2018.6.63
Rafał Przesmycki Kazimierz Piwowarczyk Marian Wnuk 
1. WSTĘP Stacje VSAT (ang. Very Small Aperture Terminals) są małymi, tanimi naziemnymi stacjami satelitarnymi, które wyposażone są w niewielkie anteny (typowo od 1 m do 2 m), nadajniki RF małej mocy (typowo od 0,5 W do 2 W) oraz w modemy i przetworniki sygnałów, tworzące zwartą konstrukcję. Stacje mogą być bardzo łatwo instalowane na dachu, na ścianie lub na parkingu samochodowym przed biurowcem użytkownika, w którym są umieszczane urządzenia końcowe. Stacje mogą być wykorzystywane w sposób bardzo wygodny i ekonomiczny w celu połączenia urządzeń końcowych użytkowników z głównym komputerem, umieszczonym w odległym centrum przetwarzania danych. Stacje VSAT są zwykle wykorzystywane do przekazywania danych cyfrowych. Jednakże jest możliwe użycie ich do transmisji sygnałów dźwięku i/lub obrazu, wyposażając je w odpowiednie kodery/ dekodery dźwięku/obrazu lub odbiorniki TV. W celu demodulacji analogowych sygnałów FM TV [1]. Rys. 1. Sieć VSAT o konfiguracji gwiaździstej Stacje VSAT często pracują w sieci gwiaździstej, jak przedstawiono na rys. 1. Stacje VSAT komunikują się z dużą stacją naziemną, zwaną stacją centralną. W tym przypadku rodzaj modulacji, przepływność transmisyjna, kodowanie i metody dostępu dla kanału wychodzącego (od stacji centralnej do stacji VSAT) oraz dla kanału przychodzącego (od stacji VSAT do stacji centralnej) są zwykle zróżnicowane, w celu efektywnego wykorzystania kanału satelitarnego, przy zastosowaniu metod zwielokrotnionego dostępu. W tego typu sieciach VSAT dane użytkownika są zwykle przetwarzane przez stacje VSAT i stację centralną, tak aby efektywnie wspomagać różnorodne protokoły sieci komputerowej [1]. Rys. 2. Sieć VSAT o konfiguracji punkt - punkt Są także używane połączenia punkt - punkt między stacjami VSAT, jak pokazano na rys. 2. W tym przypadku rodzaj modulacji oraz format nadawanych i odbieranych przez stację VSAT sygnałów jest zwykle taki sam, a dane użytkownika przechodzą zwykle prz więcej »

POMIARY IMPULSOWYCH ZABURZEŃ ELEKTROMAGNETYCZNYCH O DUŻEJ ENERGII W SIECI ZASILANIA NISKIEGO NAPIĘCIA - DOI:10.15199/59.2018.6.62
Leszek Kachel 
1. WSTĘP Sieć energetyczna niskiego napięcia jest źródłem zasilania elektronicznych urządzeń domowego i profesjonalnego zastosowania. Od jakości dostarczanej energii zależy poprawność pracy aparatury elektronicznej. Głównym źródłem utrudniającym pracę aparatury są wszelkiego rodzaju zaburzenia elektromagnetyczne Do najistotniejszych zaburzeń elektromagnetycznych należą zaburzenia impulsowe o dużej energii określane mianem przepięć. Przepięcia mogą pochodzić z działania innych postronnych urządzeń oraz mogą występować w wyniku wyładowań atmosferycznych. Niezależnie od źródła pochodzenia zabezpieczenie się przed ich oddziaływaniem wymaga zastosowania odpowiednich środków zaradczych w postaci najczęściej stosowanych ograniczników przepięć. Prawidłowy dobór ograniczników przepięć i ich instalacja wymaga określenia amplitud występujących przepięć oraz ich częstotliwości występowania. W sieciach energetycznych niskiego napięcia występują zaburzenia elektromagnetycznego o różnorodnym charakterze. Głównymi przyczynami występujących zaburzeń elektromagnetycznych w energetycznej sieci zasilania są: dołączanie i odłączanie obciążeń, szczególnie o charakterze indukcyjnym, obciążenia o charakterze nieliniowym, przełączanie obwodów elektrycznych o dużym poborze mocy, stany nieustalone wynikające z uszkodzeń urządzeń podczas ich pracy, niepewne kontakty i łącza w linii energetycznej (zła jakość linii), wyładowania atmosferyczne. Zbadanie ilościowe występujących przepięć w danej sieci energetycznej wymaga zastosowania specjalistycznej aparatury i powinno być przeprowadzane w okresie, kiedy nie występują wyładowania atmosferyczne zaburzające rzeczywisty obraz pracy sieci energetycznej. 2. APARATURA POMIAROWA Pomiary amplitudy i częstotliwości występowania zaburzeń elektromagnetycznych objawiających się w formie przepięć wymagają zastosowania specjalistycznej aparatury, do których można zaliczyć np. oscylografy z pamięcią. Stosowanie więcej »

POMIARY KONTROLNE I MONITORING NATĘŻENIA POLA ELEKTROMAGNETYCZNEGO W ŚWIETLE POLSKICH PRZEPISÓW OCHRONY ŚRODOWISKA - DOI:10.15199/59.2018.6.66
Paweł Bieńkowski Joanna Podlaska 
1. WSTĘP Ochrona środowiska elektromagnetycznego jest tematem wciąż aktualnym, zwłaszcza w powiązaniu z coraz intensywniejszym rozwojem systemów komórkowych. Nowe technologie skutkują zwiększeniem liczby stacji bazowych bądź znaczącą rozbudową istniejących, obserwuje się także obniżenie wysokości zawieszenia anten, co w szczególności w obszarach gęstej zabudowy, może zwiększać ryzyko przekroczenia dopuszczalnych poziomów pola elektromagnetycznego (PEM) w środowisku. Ryzyko przekroczeń może być związane także z niedostateczną oceną tła elektromagnetycznego przy projektowaniu nowych czy modernizacji istniejących stacji bazowych. Powyższe może wynikać między innymi z braku jednolitych zasad katalogowania działających systemów radiokomunikacyjnych - zwłaszcza na poziomie niezbędnym do predykcji rozkładów natężenia pola na etapie planowania nowych stacji. Obowiązujące wymagania formalne na etapie przedinwestycyjnym nie dają gwarancji, że uruchomiona stacja bazowa spełni wymogi ustawy Prawo ochrony środowiska w zakresie przestrzegania dopuszczalnych poziomów pola elektromagnetycznego w miejscach dostępnych dla ludności. Kontrola takich sytuacji realizowana jest w ramach wymogu pomiarów natężenia pola bezpośrednio po uruchomieniu instalacji oraz po każdej zmianie mogącej wpłynąć na natężenie pola od tej instalacji. Warunki i metodyka takich pomiarów jest w ostatnich latach przedmiotem ożywionej dyskusji, a pewne uporządkowanie w tym zakresie miał stanowić dokument DAB-18 Polskiego Centrum Akredytacji jako zbiór zasad i wymagań dla akredytowanych laboratoriów badawczych realizujących takie pomiary. Niezależnie od pomiarów kontrolnych prowadzony jest państwowy monitoring środowiska, którego celem nie jest wykrywanie przekroczeń, ale długoterminowa analiza uśrednionego natężenia pola i trendy zmian. 2. POLE ELEKTROMAGNETYCZNE STACJI BAZOWYCH SYSTEMÓW KOMÓRKOWYCH Obecnie eksploatowane stacje bazowe systemów komórkowych są zwykl więcej »

PORÓWNANIE ALGORYTMÓW LOKALIZACJI WEWNĄTRZBUDYNKOWEJ BAZUJĄCYCH NA RADIOWYCH POMIARACH ODLEGŁOŚCI - DOI:10.15199/59.2018.6.24
Jarosław Magiera Wojciech Siwicki Agnieszka Czapiewska 
1. WSTĘP Badania i rozwój w dziedzinie nawigacji i systemów lokalizacyjnych aktualnie w dużej mierze skupiają się wokół problemu określania położenia obiektów w środowiskach zamkniętych. Na zewnątrz budynków powszechnie używa się odbiorników satelitarnych systemów nawigacyjnych GNSS, które, za sprawą coraz liczniejszych konstelacji satelitów, umożliwiają ustalenie pozycji z dokładnością nawet rzędu jednego metra. W przypadku systemów działających w środowiskach zamkniętych (budynki, tunele, kopalnie itp.) korzystanie z systemów GNSS jest niemożliwe z uwagi na zbyt silne tłumienie sygnałów pochodzących z satelitów. W związku z tym poszukiwane są alternatywne metody lokalizacji, wykorzystujące dane pomiarowe pochodzące z czujników różnego typu. Jedną z możliwości jest zastosowanie szerokopasmowych modułów radiowych, umożliwiających realizację dokładnych pomiarów czasu propagacji sygnału pomiędzy urządzeniami. W warunkach bezpośredniej widoczności anten, zmierzone czasy propagacji odpowiadają odległościom pomiędzy lokalizowanym obiektem a stacjami referencyjnymi. W oparciu o wyniki pomiarów odległości i znajomość pozycji stacji referencyjnych, określenie położenia obiektu jest możliwe przy użyciu metody trilateracji. Przy bezbłędnych pomiarach odległości, lokalizację obiektu wyznacza punkt przecięcia okręgów lub sfer o środkach określonych współrzędnymi stacji referencyjnych i promieniach równych zmierzonym odległościom. W przypadku lokalizacji dwuwymiarowej, dla każdej z N stacji referencyjnych można zapisać równanie w postaci: (𝑋𝑛 - 𝑥𝑜 )2 + (𝑌𝑛 - 𝑦𝑜 )2 = 𝑑𝑛 2 , (1) gdzie [Xn,Yn] to współrzędne n-tej stacji referencyjnej, [xo,yo] to poszukiwane położenie lokalizowanego węzła, a dn to odległość węzła od n-tej stacji. Określenie pozycji węzła na płaszczyźnie wymaga znajomości odległości od przynajmniej trzech stacji referencyjnych. W takim wypadk więcej »

PORÓWNANIE IMPLEMENTACJI MODULATORÓW SYGNAŁÓW CYFROWYCH ZA POMOCĄ UNIWERSALNEJ PLATFORMY SPRZĘTOWEJ - DOI:10.15199/59.2018.6.47
Grzegorz Debita Emil Barczyński Artur Palka 
1. WSTĘP Celem artykułu jest wykonanie porównania implementacji modulatorów do eksperymentalnych prac rozwojowych w ramach Innowacyjnego nadajnika sygnałów cyfrowych wykonanego w technologii SoC zgodnie z ideą otwartego sprzętu i Internetu Rzeczy - OpenIoTBC (nazywano dalej platformą sprzętową). Do tego celu wybrano jako bazowy modulator systemu DAB/DAB+, ze względu na dużą mnogość przykładów i implementacji tego standardu przy pomocy otwartego oprogramowania. Część implementacyjna związana jest z przetwarzaniem sygnału na procesorach o architekturze x64 i procesorach z rodziny ARM oraz układów programowalnych FPGA [1], [2]. Celem prac było dokonanie rozwoju platformy sprzętowej w taki sposób by można było integrować różne podejścia implementacyjne dla układu modulatora. Prezentowana w artykule Platforma sprzętowa w swoim założeniu posiada znacznie szersze możliwości niż tylko implementację modulatorów dla standardu DAB/DAB+ jednakże ze względu na ograniczenia czasowe autorzy nie są wstanie przeanalizować wszystkich standardów radiodyfuzji tj. FM, DRM, HDRadio, DVB w tym DVB-T, DVB-T2. Prace rozwojowe miały na celu przygotowanie środowiska bazowego dającego możliwość implementacji dowolnych modulatorów dla systemów radiodyfuzji a sprawdzenie polegało na implementacji modulatora OFDM stosowanego w standardzie DAB przy pomocy różnych podejść architektonicznych oraz języków implementacyjnych. 2. ZAŁOŻENIA PRZEPROWADZANIA EKSPERYMENTU Dla modulatora OFDM stosowanego w systemach radiofonii cyfrowej DAB/DAB+ została wykonana analiza architektury pod kątem technicznym, omawiająca szczegóły działania różnych zestawionych implementacji, jak również analiza wydajnościowa, na podstawie której będzie można dokonać wyboru rozwiązania zależnie od istniejących warunków architektonicznych oraz ilości zasobów platformy przetwarzającej sygnały cyfrowe. Na początku przedstawiono problem złożonego procesu jakim jest modulacja OFDM, oraz więcej »

Potrzeby kształcenia w zakresie bezpieczeństwa informacji i systemów teleinformatycznych - DOI:10.15199/59.2018.6.4
Marian Kowalewski 
Informacja to zasób biznesowy i strategiczny każdej organizacji oraz dobro współczesnego i dynamicznie rozwijającego się społeczeństwa. Niestety, powodując określone zagrożenia, informacja nie tylko sprzyja temu rozwojowi, ale także szkodzi. Z prowadzonych analiz oraz badań wynika, że obecnie i w bliższej perspektywie zagrożenia bezpieczeństwa informacji narastają i będą nadal narastać1) [1]÷[6]. Taki stan rzeczy wymaga zdecydowanego przeciwdziałania i ochrony informacji. Stosowane przedsięwzięcia organizacyjne, fizyczne i techniczne [2] [4] [5] nie rozwiązują w pełni oczekiwań w tym zakresie. Ważną rolę odgrywają także dzialania edukacyjne oraz rozpowszechniana w społeczeństwie informacyjnym na ten temat wiedza. Stosowanie tego typu rozwiązań w sposób równoległy stwarza warunki skutecznego zwalczania wymienionych zagrożeń. UWARUNKOWANIA KSZTAŁCENIA I SZKOLEŃ Społeczeństwo informacyjne powinno rozumieć znaczenie informacji, a jednocześnie odczuwać potrzebę zapewnienia jej bezpieczeństwa. Im większa wiedza o informacji i zasobach, w których jest ona przetwarzana, przesyłana i przechowywana, im większa wiedza o zagrożeniach w cyberprzestrzeni i metodach ochrony przed tymi zagrożeniami, tym bezpieczniejsze funkcjonowanie użytkowników systemów teleinformatycznych, organizacji czy społeczeństwa informacyjnego. Współcześnie, w obliczu występujących zagrożeń w cyberprzestrzeni, powstaje wiele pytań dotyczących stanu bezpieczeństwa informacji w Polsce, a wśród nich przede wszystkim:- czy informacja w cyberprzestrzeni Rzeczypospolitej Polskiej jest bezpieczna? - czy infrastruktura, za pomocą której informacja jest przetwarzana, przesyłana i przechowywana, jest bezpieczna i uodporniona na zagrożenia w cyberprzestrzeni? - czy my - zwykli użytkownicy - jesteśmy bezpieczni przetwarzając codziennie informacje? Pytań tego typu powstaje wiele. Już obecnie, uwzględniając zagrożenia informacji i jej skutki, coroczne raporty CERT2) o stanie więcej »

Problemy działania przyszłych systemów radiokomunikacyjnych w paśmie THF - DOI:10.15199/59.2018.6.1
Maciej J. Grzybkowski 
W Regulaminie Radiokomunikacyjnym Międzynarodowego Związku Telekomunikacyjnego (ITU - International Telecommunication Union) [1], który określa częstotliwości fal radiowych przyporządkowane różnym aplikacjom i systemom radiokomunikacyjnym w widmie radiowym (3 kHz do 3000 GHz), wyszczególniono dziewięć pasm częstotliwości ponumerowanych od 4 do 12. Zakresy częstotliwości każdego z tych pasm zawierają się pomiędzy 0,3 × 10N Hz a 3 × 10N Hz, gdzie N stanowi numer pasma. Pasma 4 -11 określone są przy tym symbolami nawiązującymi do "wysokości" częstotliwości (np. VLF - Very Low Frequencies, HF - High Frequencies czy SHF - Super High Frequencies), natomiast fale decymilimetrowe, obejmujące zakres 300 - 3000 GHz (pasmo 12), jako jedyne takiego symbolu w Regulaminie nie mają. W literaturze, np. [2, 3], utarło się jednak określenie symbolu pasma 12 jako THF (Tremendously High Frequencies) - niesamowicie wysokie częstotliwości. W niektórych publikacjach, w tym również w dokumentach ITU, jak np. [4, 5, 6], wyróżniane jest natomiast tzw. pasmo terahercowe (oznaczane jako THz), obejmujące zakres częstotliwości pomiędzy 0,1 THz a 10 THz. Położenie tych pasm w widmie fal elektromagnetycznych zilustrowano na rys. 1, który przedstawia odpowiedni wycinek widma. TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 6/2018 * Instytut Łączności - Państwowy Instytut Badawczy, Zakład Kompatybilności Elektromagnetycznej, e-mail: mag@il.wroc.pl Maciej J. Grzybkowski* Problemy działania przyszłych systemów radiokomunikacyjnych w paśmie THF Problems of operation of future radiocommunication systems in the THF band DOI: 10.15199/59.2018.6.1 W ciągu kilku lat ma nastąpić użytkowanie dolnej części pasma częstotliwości THF przez nowe systemy radiokomunikacyjne, które będą przenosić olbrzymie ilości danych. W artykule przedstawiono wstępne cechy, parametry i charakterystyki operacyjne tych systemów. Określon więcej »

Przegląd nowych metod kompresji obrazu wykorzystujących uczenie maszynowe ze szczególnym uwzględnieniem uczenia głębokiego - DOI:10.15199/59.2018.6.60
Przemysław Buczkowski Władysław Skarbek 
1. WSTĘP Ilość generowanych danych rośnie w zawrotnym tempie. Wynika to z rosnącej liczby systemów informatycznych, aktywności użytkowników oraz zwiększania dostępności Internetu. Raczkujący dopiero Internet Rzeczy może w dużym stopniu przyczynić się do zwiększenia ilości generowania nowych danych. Oprócz kosztu związanego z przechowywaniem tych danych, dodatkowy koszt pojawia się gdy dane trzeba przesłać. Według CISCO ruch IP w roku 2016 wynosił 96 tys. PB miesięcznie [4]. Raport ten wykazuje, że oprócz ilości przesyłanych danych wzrasta również samo tempo tego wzrostu. Dużą część omawianego transferu stanowią obrazy (grafika rastrowa ale też materiał wideo), które są wszechobecne na stronach internetowych czy usługach udostępniających przestrzeń w chmurze, a które w związku z rozwojem matryc wyświetlaczy (pośrednio) jak i rozwojem sensorów w aparatach i kamerach cyfrowych (bezpośrednio) zajmują coraz więcej przestrzeni dyskowej. Aby ograniczyć koszty związane z przechowywaniem i przesyłaniem danych oraz umożliwić wydajne funkcjonowanie systemów informatycznych stosowana jest kompresja. 2. KOMPRESJA Kompresja jest sposobem zapisu informacji tak, aby zmniejszyć wielkość zbioru danych. Zazwyczaj osiągane jest to poprzez zmniejszenie redundancji w danych. W skutek takiej operacji otrzymywany jest ten sam (lub zbliżony) zestaw informacji jednak zapisany na mniejszej liczbie bitów. Operacja odwrotna nosi nazwę dekompresji. Zestaw informacji po dekompresji może być identyczny z początkowym, lub przybliżony. Ze względu na ten fakt metody kompresji dzielą się na metody stratne i bezstratne. Metody bezstratne zmieniają tylko zapis (kodowanie) informacji jednak nie zmieniają jej treści. Metody stratne uzyskują znacząco wyższy stopień kompresji ponieważ są w stanie wybiórczo "zapomnieć" te części informacji, których brak nie dyskwalifikuje ich dalszego użytkowania. Ostatnim krokiem stratnych algorytmów kompresji jest zazwyczaj więcej »

PRZEPUSTOWO´S ´C SYSTEMÓWRADIOWYCH Z BLOKIEM RF PRACUJA˛CYM W TEMPERATURACH KRIOGENICZNYCH - DOI:10.15199/59.2018.6.51
Tomasz G. Markiewicz Krzysztof Wesołowski 
1. WSTE˛P Pasmo jest niezwykle cennym zasobem, którego bardziej efektywne wykorzystanie jest przedmiotem wielu prac i bada´n. Obecnie czołowe o´srodki badawcze i akademickie oraz operatorzy telekomunikacyjni pracuja˛ nad realizacja ˛ wymagan´ stawianych systemom pia˛tej generacji - 5G (ang. 5th generation). Wg. [5] sieci 5G be˛da˛ musiały sprostac´ obsłudze nawet ponad tysia˛ckrotnie wie˛kszego ruchu od (szacuje sie˛) przynajmniej stu miliardów urza˛- dzen´. Tak duz˙a liczba urza˛dzen´ wynika z realizacji komunikacji mie˛dzy urza˛dzeniami - MTC (ang. Machine Type Communication). Wiele z istnieja˛cych technologii be˛dzie pomocne w osia˛gnie˛ciu tych celów. Ws´ród nich jednymi z bardziej obiecuja˛cych sa˛ systemy massive MIMO (ang. Multiple- Input Multiple-Output), g˛este sieci komórkowe, komunikacja D2D (ang. Device-to-Device), nieortogonalne techniki dost˛epu, wykorzystanie fal milimetrowych, etc. ˙ Zad- 1Praca została z sfinansowana w ramach ´srodków na działalno´s´c statutowa ˛, nr 08/81/8121/DSPB. na z wy˙zej wymienionych technik nie jest jednak na tyle przełomowa, aby umo˙zliwi´c realizacj˛e tych ambitnych celów, aczkolwiek ich poła˛czenie byc´ moz˙e be˛dzie w stanie sprosta´c stawianym wymaganiom. W takim kontek´scie chcieliby´smy zaproponowa´c wykorzystanie chłodzenia kriogenicznego w cz˛e´sci RF urza˛dzen´ radiowych. Sa˛dzimy, iz˙ takie rozwia˛zanie be˛dzie mogło by´c wykorzystane w istotnych w˛ezłach przyszłych sieci telekomunikacyjnych. 2. KRÓTKIWSTE˛P DO KRIOGENIKI Pocza˛tki kriogeniki jako gałe˛zi nauk fizycznych wywodza˛ sie˛ ze staran´ maja˛cych na celu skroplenie gazów szlachetnych. Pocza˛tkiem fizyki niskich temperatur był z pewno- s´cia˛ moment otrzymania ciekłego helu [12]. Kriogenike˛, która zajmuje sie˛ studiowaniem procesów zachodza˛cych w niskich temperaturach, tj. poni˙zej 90K, oraz sposób ich osia˛gnie˛cia i utrzymania takich temperatur, moz˙na traktowac ´ jako dyscypline˛ znajduja˛ca˛ sie˛ na pog więcej »

RADAR SZUMOWY MIMO Z FALĄ CIĄGŁĄ - DOI:10.15199/59.2018.6.82
Łukasz Maślikowski 
1. WSTĘP W ostatnich latach idea radaru MIMO (ang. Multiple Input - Multiple Output) [3, 5] cieszy się dużym zainteresowaniem wśród naukowców zajmujących się radiolokacją. Radar taki charakteryzuje się możliwością transmisji różnych sygnałów z wielu miejsc (anten) i ich odbioru w taki sposób, aby w odbiornikach możliwe było rozróżnienie z którego nadajnika pochodzi dana składowa sygnału odebranego. Można wyróżnić dwa rodzaje radaru MIMO. Pierwszy to radar multistatyczny z antenami rozstawionymi na dużej przestrzeni, zwany radarem statystycznym MIMO bądź niekoherentnym MIMO [2]. Drugi, będący przedmiotem tej pracy, to radar koherentny MIMO, którego anteny rozmieszczone są blisko siebie i tworzą szyk fazowany umożliwiający koherentne formowanie wiązki antenowej [1]. Warunkiem koherencji jest obserwacja obiektu pod niemal tym samym kątem przez wszystkie elementy szyku antenowego, tak aby faza współczynnika odbicia obserwowanego obiektu byłą taka sama. Rozróżnienie sygnałów odebranych najprościej można uzyskać dzięki separacji w dziedzinie czasu lub częstotliwości. Możliwe też jest jednoczesne nadawanie w tym samym pasmie słabo skorelowanych sygnałów (odpowiednik CDMA w telekomunikacji), których iloczyn skalarny osiąga wartość zerową lub bliską zera za okres integracji. Z definicji sygnałami takimi są różne realizacje sygnału losowego o charakterze szumu pasmowego. Radar szumowy nadający sygnały losowe jest więc naturalną podstawą do budowy systemu MIMO. W niniejszej pracy opisany zostanie radar szumowy z falą ciągła, zapewniający dobrą rozróżnialność i jednoznaczność prędkościową, choć w ogólności możliwe są realizacje impulsowe. Definicja radaru MIMO sama z siebie nie określa jego potencjalnych zalet, zwłaszcza w porównaniu do klasycznego odpowiednika z szykiem fazowanym i elektronicznie sterowana wiązką. W zastosowaniach praktycznych zwiększona złożoność sprzętowa system MIMO oraz bardziej złożone algorytmy przetwarzani więcej »

Radiofonia cyfrowa - stan wdrożenia oraz aspekty techniczne (projekt LokalDAB) - DOI:10.15199/59.2018.6.5
Kamil STANIEC Mirosław OSTROWSKI Janusz SOBOLEWSKI Dariusz WIĘCEK Michał KOWAL Sławomir KUBAL Piotr PIOTROWSKI Krzysztof RZEŹNICZAK Daniel NIEWIADOMSKI 
RADIOFONIA CYFROWA - WIĘCEJ NIŻ RADIO Korzyści ekonomiczne cyfryzacji radiofonii.Aby odpowiedzieć na pytanie, czy radio cyfrowe jest tańsze od analogowego czy dystrybucji strumieniowej przez Internet, trzeba rzetelnie przyjrzeć się tym trzem drogom docierania z programem do słuchaczy. Warto oprzeć się na dogłębnej analizie poczynionej przez Marcello Lombardo, eksperta Europejskiej Unii Nadawców EBU (szczegółowy opis np. w [1]). Celem opracowania było określenie kosztów transmisji i słuchania radia oraz porównanie ich do trzech sposobów docierania do słuchaczy - za pomocą radia analogowego FM, radia cyfrowego DAB i strumieni internetowych. Do analizy przyjęto jako punkt odniesienia realne dane pochodzące z pięciu krajów (Francji, Niemiec, Włoch, Hiszpanii, Wielkiej Brytanii). Po stronie transmisji dokonano analizy kosztów nadawcy dystrybucji treści radiowych w FM, DAB i Internecie, a po stronie odbiorczej - analizy cen, jakie słuchacze płacą, aby słuchać radia w ruchu na ich ulubionej platformie. Podstawowe parametry analizy z punktu widzenia nadawcy to koszty dystrybucji sygnału (Opex), natomiast z perspektywy słuchacza to koszty odbioru.Koszty dystrybucji radiowej - definicja scenariuszy Za podstawę przyjęto pięć europejskich rynków zamieszkiwanych przez 321 milionów mieszkańców (60% populacji Unii Europejskiej). Przeanalizowano trzy scenariusze: radio o zasięgu ogólnokrajowym (o populacji liczącej 64,2 mln), radio o zasięgu regionalnym (o populacji: 5,4 mln) i radio lokalne o zasięgu obejmującym stolicę (4 mln). Do oszacowania liczby nadajników w celu zapewnienia zasięgów dla każdego scenariusza oparto się na nadawcach publicznych. Definicję kosztów podano w tabeli 1. Koszty dystrybucji radiowej - model FM Do oszacowania liczby nadajników zapewniających odpowiednie zasięgi dla każdego scenariusza przyjęto liczby i typy obiektów nadawczych nadawców publicznych z pięciu krajów: France Inter, Deutschlandradio, Radio RAI 1, R więcej »

REALIZACJA STEROWNIKA SYSTEMU LOKALIZACYJNEGO Z WYKORZYSTANIEM MINIKOMPUTERA RASPBERRY PI 3 - DOI:10.15199/59.2018.6.10
Ewa Woźny Jerzy Kołakowski 
1. WSTĘP Informacja o lokalizacji obiektów i osób wewnątrz pomieszczeń jest coraz częściej wykorzystywana w różnych sferach życia. Przykładem takich zastosowań są systemy wsparcia osób starszych. Pomagają one w odnajdywaniu przedmiotów oraz umożliwiają określanie parametrów i tras przemieszczania się osób. Informacje lokalizacyjne są wykorzystywane do oceny aktywności osób starszych oraz do diagnostyki osób z demencją. Określenie tras ruchu osób pozwala na detekcję i przerwanie błądzenia (cyklicznego przemieszczania się osoby po tej samej trasie), które jest jednym z objawów demencji. Przykładem takiego wykorzystania wyników lokalizacji jest system realizowany w ramach projektu IONIS [1][2]. Kluczowym elementem architektury systemu lokalizacyjnego jest sterownik, którego zadaniem jest organizacja pracy całego systemu a także wyznaczanie lokalizacji na podstawie wyników pomiarów dostarczanych przez węzły systemu. Ze względu na dużą ilość przetwarzanych informacji oraz potrzebę jej ochrony przed dostępem osób niepowołanych, w systemie IONIS założono lokalizację sterownika w mieszkaniu osoby monitorowanej. Takie rozwiązania sprawia, że istotne stają się niewielkie rozmiary urządzenia oraz jego mała energochłonność. W przypadku systemu IONIS, z założenia, liczba lokalizowanych obiektów jest relatywnie mała (nie przekracza 10). Powoduje to istotne ograniczenie wymaganej mocy obliczeniowej sterownika w porównaniu ze sterownikami systemów przetwarzających dane setek lub tysięcy obiektów. Postęp w dziedzinie mikrokontrolerów sprawia, że realizacja funkcji sterownika staje się możliwa w prostych układach minikomputerowych zbudowanych z wykorzystaniem mikroprocesorów ARM (np. Rasperry Pi czy BeagleBone). W rozwiązaniach komercyjnych oprogramowanie sterujące pracą systemu [3] jest zazwyczaj instalowane na komputerach klasy PC. W referacie przedstawiono sterownik systemu lokalizacyjnego zrealizowanego z wykorzystaniem modułu mi więcej »

SELEKTYWNA POLARYZACYJNIE I CZĘSTOTLIWOŚCIOWO PŁYTKA STREFOWA FRESNELA - DOI:10.15199/59.2018.6.19
Maurycy Brenner Paweł Bajurko 
1. WSTĘP Efekt skupienia wiązki promieniowania elektromagnetycznego w punkcie zwanym ogniskiem jest możliwy do uzyskania przy wykorzystaniu zjawiska odbicia fali, zjawiska refrakcji lub zjawiska dyfrakcji. Na tę ostatnią możliwość zwrócono uwagę w konsekwencji badań nad falową naturą światła. W piśmie datowanym na rok 1816 Augustin-Jean Fresnel zauważa, że promienie przechodzące po dwóch stronach nieprzeźroczystej przeszkody na skutek ugięcia na krawędziach po minięciu przeszkody mogą nałożyć się i zsumowane wzmacniać lub osłabiać się w zależności od różnicy przebytej drogi [1]. Rozwinięciem tej myśli jest koncepcja płytki strefowej, nazywanej też płytką strefową Fresnela. Jest to przyrząd optyczny złożony z koncentrycznych lub ekscentrycznych nieprzeźroczystych pierścieni, rozmieszczonych w taki sposób, aby promienie pochodzące z określonego źródła po przejściu przez obszary przeźroczyste ulegały konstruktywnej interferencji w wybranym punkcie, czyli w ognisku. Płytka strefowa doczekała się zastosowań niemal w całym zakresie widma promieniowania elektromagnetycznego, od promieniowania gamma [2] i X [3] przez światło widzialne [4] po fale milimetrowe [5] i mikrofale [6], a także w akustyce [7]. Niniejszy artykuł jest poświęcony badaniu właściwości płytki strefowej na fale milimetrowe, w której obszar nieprzeźroczysty zastąpiono filtrem powierzchniowym, czyli płaską periodyczną strukturą o właściwościach selektywnych częstotliwościowo. Koncepcja zastosowania filtra powierzchniowego w płytce strefowej Fresnela pojawiała się już w literaturze [8-11], natomiast według wiedzy autorów dotychczasowe publikacje nie podejmowały w wystarczającym stopniu tematu aberracji chromatycznej i indukcji polaryzacji skrośnej w tego typu strukturze. 2. KONWENCJONALNA PŁYTKA STREFOWA W niniejszej pracy rozpatrywana jest planarna płytka strefowa zawierająca koncentryczne strefy wykonane z przewodnika, posiadająca ognisko w odległości d i oś więcej »

SUBIEKTYWNA OCENA WPŁYWU SZYBKOŚCI BITOWEJ NA JAKOŚĆ SYGNAŁU MUZYCZNEGO KODOWANEGO W STANDARDZIE AAC - DOI:10.15199/59.2018.6.56
Stefan Brachmański 
1. WSTĘP Współczesne systemy telekomunikacyjne wykorzystują w procesie transmisji sygnałów mowy i muzyki różne techniki kompresji. Najbardziej popularną technika kompresji plików muzycznych jest format mp3 (MPEG-1 Layer 3), natomiast w emisji cyfrowego radia DAB używany jest format AAC (Advanced Audio Coding), natomiast w DAB+ - HE-AAC (High-Efficiency Advanced Audio Coding). Niniejszy artykuł jest kontynuacją badań dotyczących wpływu różnych technik kodowania na ocenę przez polskich słuchaczy jakości sygnału muzyki, w warunkach różnej szybkości bitowej. Celem tych badań było: 1. wyznaczenie minimalnej szybkości bitowej, od której słuchacze oceniają jakość jako bardzo dobrą, 2. stworzenie bazy wyników otrzymanych dla różnych technik kodowania, różnych szybkości bitowych i różnych gatunków muzyki, która to baza służyłaby do weryfikacji nowoopracowywanych metod obiektywnych oceny jakości. Testy jakościowe były i są prowadzone przez wiele instytucji różnymi metodami również z uwzględnieniem różnych gatunków muzyki [6], [7], [10], [11], [14], [17], [21]. Generalnie jakość kodowania zarówno mowy jak i muzyki można oceniać metodami obiektywnymi [1], [13], [16], [19] lub subiektywnymi [2], [4], [5], [6], [7], [8], [9], [10], [11], [14], [15], [17], [18], [20]. Niniejszy artykuł prezentuje wyniki otrzymane subiektywną metodą Absolute Category Rating (ACR) zalecaną przez International Telecommunication Union do oceny jakości mowy [18] i muzyki [15]. Ocenę jakości sygnału muzycznego poddanego kodowaniu AAC z różną szybkością bitową wykonano z wykorzystaniem pięciostopniowej skali ocen jakości [15] 2. EKSPERYMENT W ramach prezentowanych badań określono wpływ szybkości bitowej na jakość sygnału fonicznego (muz więcej »

SYSTEM DYNAMICZNEGO DOSTĘPU DO WIDMA WYKORZYSTUJĄCY MAPY ŚRODOWISKA RADIOWEGO - DOI:10.15199/59.2018.6.14
Łukasz Kułacz Adrian Kliks 
1. WSTĘP Na terenie Polski można zaobserwować bardzo słabe wykorzystanie pasma telewizyjnego [1]. W wielu miejscach zajętych jest jedynie kilka z dostępnych 49 kanałów telewizyjnych, tzn. w danej lokalizacji odbiór sygnału DVB-T (ang. Digital Video Broadcasting - Terrestrial) o mocy wystarczającej do poprawnego zdekodowania sygnału jest możliwy tylko w kilku kanałach. W tym kontekście można rozważyć zastosowanie technologii radia kognitywnego celem wykorzystania tego pasma (tzw. białych przestrzeni telewizyjnych, z ang. TV White Spaces, TVWS) do innych potrzeb. Jedną z możliwości jest użycie pasma telewizyjnego wewnątrz budynków w celu świadczenia usług np. dostępu do szerokopasmowego Internetu. Prowadzić to może nie tylko do lepszego wykorzystania pasma telewizyjnego, ale też do odciążenia lokalnych sieci WLAN. Jedną z technologii pozwalających wdrożyć powyższy pomysł w życie jest system dynamicznego przydziału i dostępu do zasobów (ang. Dynamic Spectrum Access, DSA) [2] oparty na bazach danych kontekstowych, np. na bazach środowiska radiowego (ang. Radio Environment Maps, REM) [3][4][5]. Taki system może przechowywać różne dane na temat otoczenia, dzięki którym optymalizuje użycie pasma. Do najważniejszych informacji przechowywanych w takim systemie należą np. położenie nadajników telewizyjnych, aktualne użycie pasma, historia przydziału zasobów, a także rozkład mocy, interferencji, tłumienia i wskaźniki jakości usług. W celu zapewnienia aktualności i poprawności tych wpisów w bazie danych konieczne jest monitorowanie stanu tych parametrów. Z punktu widzenia współdzielenia pasma i jednoczesnej ochrony użytkowników licencjonowanych jedną z kluczowych informacji, potrzebną do poprawnego działania systemu DSA, jest odbierana moc sygnału chronionego. Z przyczyn technicznych, finansowych oraz prawnych nie są możliwe dokładne jej pomiary w dowolnym położeniu, dlatego trzeba zmniejszyć zakres pomiarów a wartości w pozostały więcej »

SZYBKA SYNTEZA WIDOKÓW WIRTUALNYCH DLA SYSTEMÓW TELEWIZJI SWOBODNEGO PUNKTU WIDZENIA - DOI:10.15199/59.2018.6.41
Adrian Dziembowski Jakub Stankowski 
1. WSTĘP Głównym założeniem telewizji swobodnego punktu widzenia (FTV - free-viewpoint television) jest udostepnienie użytkownikowi możliwości płynnej zmiany punktu i kierunku widzenia [5], [15]. W przypadku wyboru punktu widzenia, którego położenie nie pokrywa się z położeniem którejkolwiek z kamer, konieczna jest synteza widoku wirtualnego (rys. 1). W związku z powyższym, opracowanie szybkiego i wydajnego algorytmu syntezy widoków wirtualnych jest kluczowe dla systemów telewizji swobodnego punktu widzenia. Rys. 1. Widok wirtualny względem widoków rzeczywistych 2. OPIS ALGORYTMU W celu uzyskania najwyższej możliwej jakości syntezowanych widoków wirtualnych, w zaproponowanym algorytmie użyto hybrydowej metody syntezy, łączącej zalety syntezy w przód (forward synthesis) [3] i wstecz (backward synthesis) [4], [7] Synteza wstecz pozwala na przefiltrowanie głębi widoku wirtualnego przed rzutowaniem informacji o kolorze, redukując tym samym wpływ niepoprawnie wyznaczonych, niespójnych map głębi. Wymaga ona jednak dwukrotnego rzutowania punktów - raz z widoków rzeczywistych na widok wirtualny i raz w stronę przeciwną. Synteza w przód wymaga wyłącznie jednego rzutowania każdego punktu, przez co jest operacją szybszą. W zaproponowanym hybrydowym podejściu punkty rzutowane są wyłącznie raz, a dzięki zapamiętaniu dokładnych pozycji, z których były one rzutowane możliwe jest uzyskanie podobnego efektu, jaki dałaby filtracja mapy głębi widoku wirtualnego. 2.1. Rzutowanie i łączenie głębi Każdy punkt w dowolnym widoku rzeczywistym może być reprezentowany poprzez wektor m=[x y z 1], gdzie x i y wyrażają pozycję danego punktu w widoku rzeczywistym, a z stanowi odpowiadającą mu wartość głębi. Podczas rzutowania głębi każdy punkt widoku rzeczywistego jest rzutowany do widoku wirtualnego zgodnie ze wzorem: 𝐦𝐕 = 𝐦 ⋅ 𝐏𝐕 ⋅ 𝐏𝐑 -1 , (1) gdzie mV = [xv yv zv 1] jest wektor więcej »

TRANSMISJA KOOPERACYJNA W SIECIACH 4G I 5G - DOI:10.15199/59.2018.6.15
Andrzej Marczak 
1. WSTĘP Transmisja kooperacyjna umożliwia efektywne wykorzystanie zasobów komunikacyjnych, pozwalając węzłom lub terminalom w sieci komunikacyjnej współpracować ze sobą w czasie transmisji informacji. Jest to obiecująca technika dla obecnych i przyszłych systemów komunikacji. Transmisja kooperacyjna umożliwia terminalom w sieci wspomaganie wzajemnej transmisji informacji, wykorzystując charakter transmisji bezprzewodowej. Może być stosowana do poprawy jakości połączeń zwiększenia mocy i wydajności widmowej oraz poprawy niezawodności komunikacji. Co więcej, w porównaniu do innych nowych technik, które mogłyby osiągnąć podobne korzyści w zakresie wydajności, takie jak technika MIMO (ang. multiple input multiple output), komunikacja kooperacyjna zapewnia lepszą elastyczność podczas wdrażania i uruchamiania na urządzeniach [3]. Idea kooperacyjnej komunikacji wywodzi się z lat siedemdziesiątych. Począwszy od wczesnych lat 2000, szybki rozwój komunikacji bezprzewodowej, spowodował że techniki komunikacji kooperacyjnej przyciągnęły szerokie zainteresowanie zarówno badaniami naukowymi, jak i zastosowaniami przemysłowymi. Opracowano różne metody współpracy w celu poprawy wydajności sieci bezprzewodowych. W wersji dziesiątej standardu LTE (ang. Long Term Evolution Release 10) zastosowano komunikację kooperacyjną, która ma się stać jedną z kluczowych technologii komercyjnych systemów komunikacji bezprzewodowej. Możliwe sposoby realizacji współpracy obejmują wykorzystanie dodatkowych węzłów przekaźnikowych RN (ang. Relay Nodes) w celu ułatwienia komunikacji pomiędzy źródłami sygnału i węzłami docelowymi i/lub umożliwienie węzłom komunikacyjnym w sieci wzajemnej pomocy w komunikowaniu się z odpowiednimi węzłami docelowymi. Przedstawiona w literaturze wizja przyszłych sieci piątej generacji uznaje, że transmisja kooperacyjna w przyszłych mobilnych sieciach bezprzewodowych 5G nie będzie ograniczona tylko do wspomagania transmisji inf więcej »

UWARUNKOWANIA PROPAGACYJNE W ULTRASZEROKOPASMOWEJ KOMUNIKACJI TYPU OFF-BODY W ŚRODOWISKU TRUDNYM - DOI:10.15199/59.2018.6.28
Krzysztof K. Cwalina Sławomir J. Ambroziak Piotr Rajchowski Luis M. Correia 
1. WSTĘP Większość aktualnie projektowanych radiowych sieci WBAN (Wireless Body Area Networks) jest używana w środowiskach zamkniętych, w których propagacja fal radiowych jest utrudniona w porównaniu do środowisk otwartych, głównie przez występujący efekt propagacji wielodrogowej. W szczególności popularność zyskały sieci wykorzystujące interfejs ultraszerokopasmowy UWB (Ultra-Wide Band), który oferuje megabitowe przepływności, stosunkowo niski pobór energii i odporność na zjawisko propagacji wielodrogowej. Mając powyższe na uwadze, zdecydowano przeprowadzić badania pomiarowe w środowisku promu pasażerskiego, które jest środowiskiem trudnym pod względem propagacji fal radiowych i ze względu na swoją metalową konstrukcję nie może być traktowany jako typowe środowisko wewnątrzbudynkowe [6, 7, 10, 12]. Sieci WBAN można sklasyfikować ze względu na rodzaj łącza radiowego pomiędzy węzłami, tj. komunikację typu in-body, on-body oraz off-body. Na rys. 1 przedstawiono koncepcję sieci WBAN z zaznaczonymi typami łącza radiowego działającymi w obrębie ludzkiego ciała oraz ich przykładowymi zastosowaniami. Rys. 1. Koncepcja sieci WBAN z zaznaczonymi typami łącza radiowego [3] Komunikacja typu in-body realizowana jest pomiędzy węzłami, przy czym przynajmniej jeden z nich jest umieszczony wewnątrz ciała ludzkiego. Licznie prowadzone badania kanałów radiowych w takich sieciach uwzględniają m.in. wpływ wewnętrznej struktury ciała ludzkiego na propagację fali radiowej, czy też zjawiska wnikania fali radiowej w ludzkie ciało. Sieć WBAN typu on-body uwzględnia komunikację pomiędzy węzłami nasobnymi znajdującymi się blisko powierzchni ludzkiego ciała, przy czym węzły te znajdują się na tym samym ciele. Przeprowadzone badania skupiono jednak wokół komunikacji typu off-body, gdzie ciało ludzkie oddziałuje na jedną stronę łącza radiowego, a drugi węzeł jest umieszczony w większej odległości. Jest to jeden z rodzajów komunikacji typu out-of-b więcej »

WIARYGODNE I ENERGOOSZCZĘDNE METODY DETEKCJI ZAJĘTOŚCI ZASOBÓW WIDMOWYCH W SYSTEMACH RADIA KOGNITYWNEGO - DOI:10.15199/59.2018.6.16
Krzysztof Cichoń 
1. WSTĘP W ostatnim czasie obserwuje się gwałtowny wzrost ilości przesyłanych danych w systemach radiokomunikacji. Nieustanny wzrost zapotrzebowania na coraz wyższe przepustowości przesyłanych danych są zasadniczą motywacją do prowadzenia prac nad nowymi metodami zarządzania brakującymi zasobami widmowymi. Chociaż liczba dostępnych pasm częstotliwości, które mogą zostać użyte dla potrzeb nowych systemów, jest niewielka, to pomiary wykonane w różnych miejscach świata wykazały, że pasma częstotliwości przypisane tym systemom są znacząco niewykorzystane. Ta obserwacja jest podstawową motywacją koncepcji znanej jako radio kognitywne, zaproponowanej przez J. Mitolę III. Technologia radia kognitywnego została zaproponowana w istocie jako rozwiązanie zwiększające efektywność wykorzystania widma, umożliwia bowiem oportunistyczny dostęp do tymczasowo nieużywanych pasm częstotliwości, pod warunkiem, że obecność tzw. użytkownika pierwotnego zostanie wykluczona. Ten cel jest obecnie realizowany na dwa sposoby: i) na podstawie wiedzy o aktywności użytkownika pierwotnego (przechowywanej na przykład w bazach danych), ii) na podstawie pomiarów obecności użytkownika pierwotnego, prowadzonych w czasie rzeczywistym, znanych jako detekcja zajętości zasobów widmowych. Drugie rozwiązanie zostało wstępnie ujęte w systemach radia kognitywnego jako wiodące, jednak z uwagi na przedłużające się nierozwiązane kwestie w implementacji metod detekcji, zainteresowanie bazami danych przybrało na znaczeniu. Badania nad detekcją widma są ciągle niezbędne z uwagi na potrzebę posiadania aktualnych informacji, szczególnie w sytuacjach gdy niepewność pojawienia się sygnału licencjonowanego jest duża, np. gdy występują mikrofony bezprzewodowe. Zainteresowanie detekcją zajętości zasobów widmowych może być obserwowane w prowadzonych działaniach standaryzacyjnych. Na przykład grupa robocza IEEE 1900.6 zajmuje się standaryzacją użytkowania informacji uzyskanych więcej »

WIELOKROTNE WYKORZYSTANIE CZĘSTOTLIWOŚCI W SIECI WIRTUALNEJ SLICED CLOUD-RAN 5G - DOI:10.15199/59.2018.6.57
Sławomir Gajewski 
System radiokomunikacyjny piątej generacji (5G) można zdefiniować jako globalny system albo zbiór systemów dostępu bezprzewodowego, umożliwiający przesyłanie danych pomiędzy osobami, osobami i urządzeniami, jak również między urządzeniami - bez udziału człowieka (ang. machine-to-machine - M2M), z uwzględnieniem komunikacji w ramach globalnego Internetu Rzeczy (ang. Internet of Things - IoT) oraz powszechnej komunikacji między pojazdami, zwłaszcza na potrzeby aplikacji w zakresie bezpieczeństwa w ruchu drogowym, z bardzo dużymi szybkościami transmisji, dużą stabilnością i niezawodnością połączeń oraz osiąganych szybkości transmisji, jak również z bardzo małym opóźnieniem oraz zużyciem energii. System 5G ma funkcjonować tak, aby transmisja mogła być realizowana bez żadnych przeszkód w czasie quasirzeczywistym, z wykorzystaniem wirtualnej sieci szkieletowej, wirtualnej sieci dostępu radiowego, wirtualnych warstw programowych sieci (ang. network slices), wirtualnych zasobów i funkcji zarządzania tymi zasobami oraz innych funkcji sieciowych, a jednocześnie system ma dostarczać usług dla obsługi bardzo dużej liczby terminali na jednostkę powierzchni. Tak sformułowana definicja systemu pokazuje, że w istocie głównym celem jego impementacji jest zapewnienie dostępu radiowego i zagwarantowanie szybkości transmisji, tak aby nie była ona żadną barierą dla wdrożenia i użytkowania praktycznie dowolnej usługi. Realizacja tego celu wymaga opracowania nowej architektury oraz zasad działania praktycznie wszystkich elementów sieci radiokomunikacyjnej, a w tym do zdefiniowania architektury sieci szkieletowej i dostępowej, z uwzględnieniem ogromnego znaczenia problemu wirtualizacji. W niniejszym referacie przedstawiono wyniki badań symulacyjnych efektywności wybranych metod przydziału pasma w komórkach sieci 5G (ang. frequency reuse - FR), wykonane za pomocą modelu symulacyjnego do badania sieci Cloud-RAN (ang. Cloud - Radio Access Networ więcej »

WPŁYW CHARAKTERYSTYKI NIELINIOWEJ WZMACNIACZA NA PRZEPŁYWNO´S ´C SYSTEMU UZ˙YWAJA˛CEGO TECHNIKI OFDM - DOI:10.15199/59.2018.6.68
Paweł Kryszkiewicz 
1. WSTE˛P Technika OFDM (ang. Orthoonal Frequency Division Multiplexing) jest powszechnie u˙zywana we współczesnej komunikacji radiowej zarówno rozsiewczej (np. w standardzie cyfrowej telewizji naziemnej DVB-T) jak i na ła˛czach punkt-punkt (np. w standardzie LTE). Popularno ´s´c zawdzi˛ecza łatwo´sci generacji sygnału z u˙zyciem szybkiej odwrotnej transformaty Fouriera IFFT (ang. Inverse Fast Fourier Transform) i niskiej zło˙zono´sci korektora kanałowego. Problemem jest natomiast du˙za zmienno ´s´c amplitudy sygnału w czasie. Efekt ten mierzony jest 1Praca finansowana ze ´srodków przyznanych przez Ministerstwo Nauki i Szkolnictwa Wyz˙szego na działalnos´c´ statutowa˛ DSMK/81/8125. Autor jest stypendysta˛ korzystaja˛cym ze wsparcia finansowego Fundacji na rzecz Nauki Polskiej (FNP). cz˛esto przez metryk˛e PAPR (ang. Peak-to-Average Power Ratio) [9]. Wzmacniacze u˙zywane w nadajnikach radiowych cze˛sto charakteryzuja˛ sie˛ nieliniowym wzmocnieniem powoduja˛cym zniekształcenie sygnału OFDM zarówno w pasmie jak i poza pasmem podno´snych danych. Jedna˛ z metod obniz˙enia mocy zniekształcen´ jest linearyzacja wzmacniacza [5]. W najlepszym przypadku efektywne wzmocnienie poła˛czenia wzmacniacza i układu linearyzuja ˛cego jest stałe az˙ do osia˛gnie˛cia mocy maksymalnej. Próbka wej´sciowa, która przekracza moc maksymalna ˛ ustalana jest na moc maksymalna˛ (tzn. odcie˛cie). Aby ograniczyc´ udział próbek przekraczaja˛cych tak zdefiniowany próg odci˛ecia stosuje si˛e szereg algorytmów modyfikuja ˛cych własnos´ci sygnału OFDM, cze˛sto poprzez obni˙zenie warto´sci PAPR [2]. Do´s´c popularna jest metoda podno´snych zastrze˙zonych TR (ang. Tone Reservation), która zast˛epuje cz˛e´s´c symboli danych przez symbole optymalizuja ˛ce funkcje˛ celu np. minimalizuja˛c moc próbki maksymalnej [1] czy maksymalizuja˛c stosunek mocy sygnału do mocy zniekształce´n nieliniowych [3]. Zaproponowano równiez˙ metode˛ minimalizuja˛ca moc zniekształcen ´ więcej »

WPŁYW ROZRZUTU WYMIARÓW GEOMETRYCZNYCH NA PARAMETRY SZYKU ANTENOWEGO WYKONANEGO W TECHNOLOGII LTCC - DOI:10.15199/59.2018.6.35
Jakub Gawlik Yevhen Yashchyshyn 
1. WSTĘP Przedmiotem badań opisanych w niniejszym artykule jest mikropaskowy szyk antenowy pracujący na częstotliwości 24 GHz, przeznaczony do wykonania w technologii LTCC (ceramiki współwypalanej niskotemperaturowo). Do tej pory najczęściej tego typu anteny wytwarzane były w technice obwodów drukowanych PCB. Zarówno jedna jak i druga metoda dostarcza możliwość integrowania w jednym module anteny wraz z układem radiowym, lecz główną zaletą LTCC jest wielowarstwowość, czyli możliwość tworzenia przestrzennych trójwymiarowych modułów. Ponadto podłoże LTCC jest stabilne w szerokim zakresie częstotliwości oraz charakteryzuje się niską stratnością [1], co jest szczególnie ważne w zakresie fal milimetrowych, w tym na częstotliwości 24 GHz. Zakres częstotliwości wokół 24 GHz jest powszechnie wykorzystywany w radarowych systemach samochodowych bliskiego zasięgu [4]. Został on także przeznaczony na nielicencjonowane pasmo ISM, głównie ze względu na lokalne maksimum tłumienia fali elektromagnetycznej w atmosferze. Mimo wszystko komunikacja na tej częstotliwości jest możliwa zarówno w środowisku miejskim, jak i wewnątrz budynku. Projektanci systemu 5G rozważają wykorzystania pasma wokół 24 GHz [5], [6] i jest wielce prawdopodobne, że w przyszłości zwiększy się zapotrzebowanie na niewielkie, tanie urządzenia pracujące w tym zakresie. Do wytworzenia elementów promieniujących na podłożu LTCC wykorzystuje się klasyczną metodę sitodruku. Minimalna szerokość ścieżek ograniczona jest zwykle do około 100 μm [3] i w trakcie procesu technologicznego może być wykonana z pewną niedokładnością. Poprzez dodatkową obróbkę otrzymanej struktury za pomocą lasera możliwe jest osiągnięcie bardziej precyzyjnych wymiarów ścieżek. Kolejnym aspektem komplikującym uzyskanie pożądanej struktury jest występujący w czasie wypalania skurcz foli LTCC [2], więcej »

WPŁYW WARUNKÓW PROPAGACYJNYCH NA POMIAR ODLEGŁOŚCI METODĄ TDOA - DOI:10.15199/59.2018.6.18
Paweł Oleksy Łukasz Januszkiewicz 
1. WSTĘP Projektowanie systemów radiowych pracujących zwłaszcza we wnętrzu budynku, gdzie dodatkowo w kanale transmisyjnym mogą znajdować się ludzie wymaga uwzględnienia zarówno warunków propagacyjnych w danym środowisku jak również wpływu cała człowieka na fale radiowe. Ciało człowieka dla sygnałów o częstotliwości kilku GHz wprowadza silne tłumienie, przez co znacząco wpływa na charakterystykę promieniowania anteny umieszczonej w pobliżu ciała [3,6]. W systemach UWB powszechnie wykorzystywaną metodą lokalizacji jest metoda TDOA. Polega ona na pomiarze czasu propagacji sygnału z etykiety umieszczonej na lokalizowanym obiekcie do poszczególnych węzłów systemu. Na podstawie znanych współrzędnych poszczególnych węzłów możliwe jest określenie położenia etykiety w przestrzeni. W przypadku braku synchronizacji czasowej pomiędzy modułami systemu mierzony jest czas propagacji sygnału w dwie strony - od etykiety i z powrotem [5,7]. Zjawiska propagacyjne wpływają na działanie systemów TDOA. W systemach bazujących na tej metodzie fala przechodząca przez ciało człowieka ulega skróceniu co wprowadza błąd w pomiarze odległości, gdyż wydłuża się czas jej propagacji. Kolejnym aspektem wpływającym na dokładność pomiaru jest opóźnienie propagacji sygnału w funkcji kąta obrotu anteny. O ile dla systemów wykorzystywanych do pomiaru odległości rzędu kilkunastu metrów błąd ten będzie pomijalnie mały o tyle w przypadku znacznie krótszych dystansów wynik będzie obarczony dodatkowym błędem na poziomie kilkunastu a nawet kilkudziesięciu procent. W pomieszczeniach, zwłaszcza w warunkach braku widzialności optycznej NLOS (ang. Non Line of Sight) - sygnał dociera do odbiornika wieloma ścieżkami z tego względu ważnym parametrem opisującym odbiornik jest jego czułość na składową bezpośrednią. Jest ona definiowana jako minimalna moc sygnału składowej bezpośredniej jaka jest wymagana aby mógł on być poprawnie wykryty [1]. Ciało człowieka wprowadzaj więcej »

WYBÓR MODELU PROPAGACJI DO KONSTRUKCJI MAP ŚRODOWISKA RADIOWEGO - DOI:10.15199/59.2018.6.17
Wojciech Bednarczyk Piotr Gajewski Rafał Michniewicz 
1. WSTĘP Mapa środowiska radiowego (ang. Radio Environment Map - REM) jest jednym z podstawowych źródeł informacji wspomagającej procedury zarządzania widmem i to zarówno w aspekcie gospodarki widmowej, która ma charakter statyczny, jak i dynamicznego zarządzania zasobami widmowymi (ang. Dynamic Spectrum Management - DSM), którego podstawowym celem jest zwiększenie efektywności wykorzystania widma w stale wzrastającym strumieniu danych przesyłanych drogą bezprzewodową. Dane REM wykorzystywane są tak w systemie scentralizowanego zarządzania, wykorzystującego broker częstotliwości, jak i zdecentralizowanego, oportunistycznego dostępu do medium (ang. Opportunistic Spectrum Access - OSA), w którym decyzje podejmowane są indywidualnie przez węzły realizujące funkcje radia kognitywnego (ang. Cognitive Radio - CR) [1], [2]. REM może być używany w procedurach zasobami radiowymi, alokacji widma, minimalizacji interferencji oraz planowania i optymalizacji sieci radiowych. W rzeczywistości REM jest scentralizowanym lub rozproszonym procesem informacyjnym łączącym 4 podstawowe elementy [3]: źródła danych - MCD (ang. Measurement Capable Device), procesy akwizycji i pamięci - REM SA (ang. storage and acquisition), zarządcy REM i użytkownika REM. Baza danych REM (Rys. 1) zawiera powiązanie różnych informacji o elementach radiowych: odbiornikach sensingu, nadajnikach i odbiornikach radiowych, ich parametrach, lokalizacji, mobilności, sposobów działania, o elementach tworzących scenę radiową takich jak: sieci, operatorzy, użytkownicy, usługi i aplikacje, ale też polityki i uwarunkowania ekonomiczne, reguły dostępu i bezpieczeństwa, o środowisku: informacje geograficzne (mapy cyfrowe, cyfrowe modele wysokościowe terenu, pokrycie, zabudowa, interferencje radiowe, oraz modele propagacyjne. Te ostatnie są wykorzystywane przy konstruowaniu tzw. map radiowych - RF-REM. Rys. 1 Dane REM [3] Problem konstruowania map radiowych jest złożony zar więcej »

WYDAJNOŚĆ SIECI BEZPRZEWODOWEJ DLA TOPOLOGII WIELOSKOKOWEJ - DOI:10.15199/59.2018.6.77
Jakub Harasymowicz Tomasz Hardy Sławomir Kubal Piotr Piotrowski 
Sieci bezprzewodowe zazwyczaj budowane są w topologii gwiazdy bądź rozszerzonej gwiazdy. Takie podejście zakłada z góry narzuconą hierarchiczność sieci i ścisły podział na urządzenia nadrzędne, które pełną rolę dostępową do sieci oraz na urządzenia klienckie. Budowane w ten sposób sieci mają jednak dość poważną wadę - ograniczony zasięg. Możliwości rozbudowy takich sieci ograniczają się do dołączenia kolejnego urządzenia dostępowego, co wymaga zazwyczaj doprowadzenia infrastruktury kablowej do punktu dostępowego. Jednym ze sposobów na rozbudowę sieci bezprzewodowej bez konieczności doprowadzenia kabla jest budowanie sieci w topologii wieloskokowej. Przykładami takich topologii są topologie kraty czy łańcucha. W tej pierwszej urządzenia komunikują się każdy z każdym, a droga do urządzenia, lub urządzeń, granicznych jest wybierana na podstawie określonych w protokole routingu metryk. Sieci w topologii kraty charakteryzują się dużą odpornością na uszkodzenia oraz zdolnością samo naprawy po awariach węzłów. Topologia łańcucha jest odmianą topologii wieloskokowej, w której każde z urządzeń sieciowych połączone jest do jednego urządzenia, które świadczy dostęp do sieci i ewentualnie do kolejnego, któremu samo świadczy usługę dostępu. W ten sposób kolejno dołączane urządzenia budują łańcuch począwszy od urządzenia granicznego na skraju sieci. Zaletą takiego rozwiązania jest prosty routing na zewnątrz sieci (ruch zawsze odbywa się wzdłuż łańcucha) oraz zwiększenie zasięgu sieci względem pojedynczego urządzenia dostępowego. Niestety taka topologia jest bardzo podatna na awarie ze względu na brak redundancji w połączeniach. Do obsługi sieci o topologii wieloskokowej konieczne jest zastosowanie specjalnych protokołów routingu. W artykule omówiono dwa takie protokoły oraz zaprezentowano wyniki badań wydajności mierzonej jako przepustowość sieci względem liczby węzłów pośredniczących. 2. OPIS STANDARDU 802.11s 802.11s to standard, k więcej »

WYKORZYSTANIE GŁĘBOKICH SIECI NEURONOWYCH W AUTOMATYCZNEJ KOLORYZACJI SEKWENCJI WIZYJNYCH - DOI:10.15199/59.2018.6.54
Rafał Protasiuk 
Kolorowanie klasycznych czarno-białych filmów jest tematem wielu kontrowersji [2], ze względu na ingerencję w wizję artystyczną autora, co częściowo wyjaśnia fakt, że do tej pory niewiele z tych filmów zostało pokolorowanych. Jednak wciąż istnieje ogromna liczba archiwalnych, czarno-białych filmów oraz programów telewizyjnych, które ze względu na potencjalnie wysokie zyski finansowe można poddać koloryzacji, a kontrowersje artystyczne stracą na znaczeniu. Poważna trudność związana z koloryzacją sekwencji wizyjnych polega jednak na tym, że jest to kosztowny i czasochłonny proces. Na przykład w celu koloryzacji jednego nieruchomego obrazu artysta zazwyczaj rozpoczyna pracę od segmentowania obrazu na regiony, a następnie przechodzi do przypisywania koloru do każdego regionu. Niestety, standardowe algorytmy automatycznej segmentacji często nie potrafią w sposób idealny prawidłowo zidentyfikować rozmytych lub złożonych granic regionu np. takich jak granica między włosami a twarzą. W ten sposób artysta często ma również za zadanie ręcznego wyznaczania tych granic. Kolorowanie sekwencji wizyjnych wymaga dodatkowo śledzenia w czasie wyznaczonych regionów w kadrze danego ujęcia. Standardowe algorytmy śledzenia obiektów zazwyczaj nie potrafią dobrze śledzić niesztywnych regionów, co dodatkowo wymaga znaczącej interwencji użytkownika w całym procesie koloryzacji danej sekwencji wizyjnej. Główną rolą koloru w obrazie jest przenoszenie emocji (poprzez odpowiednie motywy kolorystyczne), tymczasem nawet idealna koloryzacja z wykorzystaniem niepożądanego koloru czasami jest mniej przydatna niż jej brak, nawet jeśli jest poprawna semantycznie. Dlatego automatyczna koloryzacja uwzględniająca zarówno semantykę, jak i emocje jest niewątpliwie wyzwaniem, któremu trudno było sprostać dotychczasowym "klasycznym" rozwiązaniom. Z roku na rok znacząco rośnie liczba doniesień naukowych o kolejnych sukcesach technik głębokich sieci neuronowych w więcej »

WYZNACZANIE POKRYCIA LUDNOŚCIOWEGO SYGNAŁEM RADIOWYM Z WYKORZYSTANIEM DANYCH DEMOGRAFICZNYCH EUROSTATU - DOI:10.15199/59.2018.6.44
Jacek W. Wroński 
1. WSTĘP Wyznaczenie liczby ludności na danym obszarze, znajdujących się w zasięgu sygnału radiowego, wymaga znajomości danych demograficznych związanych z tym obszarem. W Polsce dane takie udostępniane są przez Główny Urząd Statystyczny. Dostępne są one w podziale na obszary administracyjne, z których najmniejszą jednostką jest gmina. Państwowe dane granic i powierzchni jednostek podziałów terytorialnych kraju udostępniane były do końca roku 2017 przez Centralny Ośrodek Dokumentacji Geodezyjnej i Kartograficznej (CODGiK). Aktualnie ośrodek jest w stanie likwidacji. Dysponując konturem obszaru gminy, liczbą jej ludności, oraz konturem obszaru sygnału radiowego, można wyznaczyć liczbę ludności znajdującej się w obszarze pokrycia sygnałem radiowym. Takie podejście jest pewnym uproszczeniem, gdyż zakłada się, że ludność rozmieszczona jest równomiernie na całym obszarze gminy. W rzeczywistości, znaczną część obszarów gmin wiejskich oraz miejsko-wiejskich zajmują pola uprawne, obszary leśne, nieużytki rolne, a w przypadku gmin miejskich dochodzą obszary przemysłowe i biurowe. Prowadzi to do niedoszacowania lub przeszacowania liczby ludności na części wspólnej obszaru pokrycia sygnałem i obszaru gminy. Większą dokładność obliczeń uzyskać można z zastosowaniem danych demograficznych w podziale mniejszym niż podział administracyjny. Dane takie zostały opracowane i opublikowane przez Eurostat, w ramach łączenia danych statystycznych z informacją geoprzestrzenną w państwach członkowskich Unii Europejskiej [1], na podstawie wyników przeprowadzonego w Polsce w roku 2011 Narodowego Spisu Powszechnego Ludności i Mieszkań,. Dane te, po przetworzeniu i połączeniu z danymi granic, powierzchni oraz ludności dla gmin, wykorzystano do wyznaczania liczby ludności znajdującej się w obszarze pokrycia użytecznym sygnałem radiowym. 2. OPRACOWANIE DANYCH 2.1. Konwersja danych źródłowych Dane demograficzne w siatce kilometrowej dostępne są na więcej »

ZASTOSOWANIE DOLNEJ GRANICY CRAMERA – RAO DO ANALIZY GRANICZNEJ DOKŁADNOŚCI ESTYMACJI POŁOŻENIA W HYBRYDOWYM SYSTEMIE LOKALIZACYJNYM - DOI:10.15199/59.2018.6.9
Piotr Rajchowski Jarosław Sadowski Jacek Stefański 
1. WSTĘP Każda ze znanych metod lokalizacyjnych cechuje się pewnym minimalnym błędem średniokwadratowym wyznaczanych estymat położenia, wynikającym z różnych przyczyn, np. z zastosowanej linearyzacji nieliniowych równań pozycyjnych. Możliwe jest określenie teoretycznej granicy uzyskiwanej dokładności danego rozwiązania w zależności od analizowanych parametrów wejściowych. Kluczowe jest, iż granicy tej nie można przekroczyć w rzeczywistych rozwiązaniach, niezależnie od sposobu implementacji danej metody do obliczania estymat położenia. Na drodze prowadzonych badań nad wewnątrzbudynkowym hybrydowym systemem lokalizacyjnym [7] zaproponowano metodę wyznaczania estymat położenia znajdującą zastosowanie w przypadku niespełnienia warunku możliwości realizacji radiowych pomiarów odległości do co najmniej trzech punktów odniesienia, zwanych również węzłami referencyjnymi. Przypadek ten określany jest mianem zredukowanej liczby węzłów referencyjnych. W niniejszym artykule przedstawiono analizę granicznej dokładności estymacji położenia zaproponowanej metody wyznaczając granicę Cramera - Rao. Analizę przeprowadzono również dla jednej z metod znanej z literatury. Podczas badań symulacyjnych oparto się na wynikach rzeczywistych pomiarów między innymi w zakresie przyjęcia normalnego rozkładu błędów odległości wyznaczonej na podstawie czasu propagacji sygnału radiowego [1, 3, 6, 13]. 2. ANALIZOWANE METODY WYZNACZANIA POŁOŻENIA Przed wyjaśnieniem sposobu wyznaczania granicy Cramera - Rao w niniejszym rozdziale pokrótce przytoczono opis analizowanych metod wyznaczania położenia bazujących na wynikach radiowych pomiarów odległości. Wybór opisywanych metod podyktowany był kontynuacją rozważań szerzej opisanych w publikacjach [2, 7, 8, 9, 10], które dotyczyły wewnątrzbudynkowych hybrydowych systemów lokalizacyjnych łączących dwie niezależne metody wyznaczania położenia poruszającej się osoby: nawigację inercyjną oraz radiolokalizację. więcej »

ZERO-POLE APPROACH IN MICROWAVE PASSIVE CIRCUIT DESIGN - DOI:10.15199/59.2018.6.61
Natalia Leszczynska 
1. INTRODUCTION Over the past two decades, the technique for designing microwave components using computer-aided-design (CAD) tools have developed significantly. The computer has become an indispensable device at every stage of designing circuits. Dedicated CAD techniques allow accurate analysis including the real behavior of an analyzed circuit. Moreover, usage of computer tools allow to reduce the number of time-consuming and expensive experimental steps, including those for design, fabrication, testing and tuning. This is extremely important in the case of the design and production of microwave circuits, because of the limited possibilities for changing the dimensions and manual tuning of the fabricated components. Computer simulations yield well-defined values of circuit elements and allow the performance of given components to be verified before manufacturing [1]. What is more, the cost of prototyping has been reduced by cutting the amount of labor and material used for experimental verification of prototypes. The design of microwave components consists of sequence of steps. In the first step, the design specification must be introduced based on circuit application. Next, designers choose the topology of the circuit, based on their experience. Then, the initial design is carried out. At, this stage, a designer can verify the concept and consider alternative solutions. Next, the structural analysis can be performed using a computer with appropriate software. This yields a circuit response that can be compared with requirements, so called design specification. If a simulated solution meets the design specification, the design process is complete and an engineering prototype can be built and tested (measured). Otherwise, optimization is performed in order to obtain a new design and subsequently a prototype [2]. The optimization of a microwave circuit is a process of searching for the set of geometrical parameters that więcej »

  • Aktualnoś›ci
  • Bestsellery
2019-10-28

Program priorytetowy "Mój Prąd"»

2019-04-04

ZAKOŃCZENIE III KONGRESU ELEKTRYKI POLSKIEJ - KOMUNIKAT »

2019-04-01

Przygotowania do obchodów 100-lecia SEP»

2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

Przekaźniki rezystancyjne

ELEKTROINSTALATOR
(2019-9)»

Diagnostyka falownika i silnika elektrycznego w 5 krokach

ELEKTROINSTALATOR
(2019-9)»

Sterowanie napędami rolet

ELEKTROINSTALATOR
(2019-9)»

Lokalizacja przewodów i kabli

ELEKTROINSTALATOR
(2019-9)»

Narzędzia do obróbki kabli i przewodów

ELEKTROINSTALATOR
(2019-9)»

Zioła i przyprawy najczęstsze zagrożenia mikrobiologiczne

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Związki bioaktywne w przyprawach i ich rola w dietoterapii

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Opakowanie jako "znak"?

OPAKOWANIE
(2019-11)»

Ustalenie linii brzegu w trybie ustawy Prawo wodne i pomiaru sytuacyjnego linii brzegu opisanego w § 82a rozporządzenia egib

PRZEGLĄD GEODEZYJNY
(2019-11)»

Wpływ modyfikacji chitozanu na jego strukturę i powierzchnię właściwą

GAZ, WODA I TECHNIKA SANITARNA
(2019-11)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • POLISH TECHNICAL REVIEW
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

AURA żywność ekologiczna inżynieria materiałowa konserwanty suszenie przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol Przegląd Elektrotechniczny chleb ryby olej lniany pieczywo amarantus olej rzepakowy Jakość atest 7 KUKURYDZA czekolada gluten GMO antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik przemysl chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder przemysł spożywczy Problemy jakości żywność funkcjonalna Przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa WZBOGACANIE ŻYWNOŚCI antocyjany ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata ANALIZA SENSORYCZNA błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne aronia opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka czerwińska biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności wiadomości elektrotechniczne CELIAKIA salmonella przyprawy probiotyki piwo znakowanie
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software