• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • ODZIEŻ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 121782 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2015-8-9

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

MODELOWANIE MECHANIZMÓW RÓWNOWAŻENIA OBCIĄŻENIA W SAMOOPTYMALIZUJĄCYCH SIE˛ SIECIACH KOMÓRKOWYCH 4G

DOI:10.15199/59.2015.8-9.71
Mariusz Głąbowski Sławomir Hanczewski Damian Kmiecik 
W artykule przedstawiono przybli˙zony model grupy komórek sieci LTE z zaimplementowanym mechanizmem równowaz ˙enia obcia˛z˙enia. Do modelowania grupy komórek zaproponowano wykorzystanie odpowiednio zmodyfikowanego modelu wia˛zki niepełnodoste˛pnej (Erlang’s Ideal Grading). Opracowane rozwia˛zanie umoz˙liwia wyznaczenie podstawowych charakterystyk ruchowych w rozwa˙zanym systemie, tj. rozkładu zaj˛eto´sci oraz prawdopodobie´nstwa blokady/strat. Ze wzgl˛edu na przybli˙zony charakter proponowanego modelu, rezultaty uzyskane na jego podstawie zostały porównane z wynikami symulacji cyfrowej. 1. WPROWADZENIE Wcelu efektywnego wykorzystania zasobów sieci komórkowych, w tym w szczególno´sci sieci wielousługowych 4G, konieczne stało si˛e opracowanie mechanizmów umoz˙liwiaja˛cych optymalizacje˛ rozpływu ruchu mie˛dzy sa˛siaduja˛cymi ze soba˛ komórkami. W wyniku badan´ prowadzonych m.in. przez organizacje 3rd Generation Parntership Project (3GPP) [1] oraz Next Generation Mobile Networks [2], opracowano koncepcj˛e samoorganizuja ˛cych (samooptymalizuja˛cych, samokonfiguruja˛cych) sie˛ sieci, w których kluczowym elementem jest równowa˙zanie obcia˛z˙enie poszczególnych komórek sieci komórkowych. Opracowana koncepcja równowaz˙enia obcia˛z˙enia umoz˙liwia uwzgle˛dnienie zmieniaja˛cego sie˛ w czasie obcia˛z˙enia poszczególnych komórek - wynikaja˛cego m.in. mobilnos´ci uz˙ytkowników - i polega na przenoszeniu poła˛czen´ (ruchu) z komórek o wysokim obcia˛z˙eniu do sa˛sia˛duja˛cych (choc´ nie zawsze - [3]) komórek o mniejszym obcia˛z˙eniu. Tak optymalizowany rozpływ ruchu w sieciach komórkowych umo˙zliwia zarówno lepsze wykorzystanie zasobów sieci, jak i poprawienie parametrów jako´sci obsługi (qualiy of service, quality of experience) strumieni ruchu wielousługowego, generowanego przez u˙zytkowników ko´ncowych. Efektywne działanie mechanizmu równowaz˙enia obcia˛z˙enia wymaga w pełni zautomatyzowanego procesu dynamicznej zmiany parame [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji (format pdf): 6.00 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 1h: 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 4h: 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 12h: 73.80 zł
 DO KOSZYKA 
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486.00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437.40 zł *)
prenumerata papierowa roczna - 396.00 zł
prenumerata papierowa półroczna - 198.00 zł
prenumerata papierowa kwartalna - 99.00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »
Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

"ZRÓB TO SAM" - KOMPUTEROWY ODBIORNIK RTL-SDR RADIA CYFROWEGO DAB+ - DOI:10.15199/59.2015.8-9.101
J. Bułat T. P. Zieliński M. Babiuch E. Biela S. Dąbrowski P. Jaglarz A. Karbowiak S. Leśniak R. Palej K. Patro M. Rybczyński D. Rymarczyk M. Rzepka K. Szczęsny W. Szmyd P. Szulc J. Twardowski Ł. Wysogląd K. Zych 
Taniejącą technologię radia zdefiniowanego programowo (Software-Defined Radio) można obecnie z powodzeniem wykorzystać do nauczania podstaw telekomunikacji cyfrowej według scenariusza "zrób to sam". W artykule opisano algorytm dekodera radia cyfrowego DAB+ (Digital Audio Broadcasting), które jest obecnie wprowadzane w Polsce, oraz przestawiono jego implementację programową w języku C++ (bez użycia biblioteki GNU Radio), działającą na komputerze PC z systemem operacyjnym Linux. Implementacja ta została stworzona przez studentów teleinformatyki w ramach projektu "Radio programowalne w praktyce". Przetwarzane są dane IQ, pobierane bezpośrednio z przetwornika A/C tunera DVB-T RTL2832U firmy Realtek, pracującego na złączu USB 2.0. 1. WSTĘP Ponieważ technologia radia zdefiniowanego programowo SDR (and. Software Defined Radio) ostatnio znacznie potaniała, możliwe staje się jej szerokie wykorzystanie, w tym także do nauczania podstaw telekomunikacji cyfrowej według scenariusza "zrób to sam". W artykule opisano algorytm dekodera radia cyfrowego DAB+, które jest obecnie wprowadzane w Polsce, oraz przedstawiono jego implementację programową w języku C++, stworzoną w ramach wieloosobowego projektu studentów kierunku Teleinformatyka AGH, zatytułowanego "Radio programowalne w praktyce". Co ważne, w projekcie tym nie wykorzystywano funkcji z bardzo popularnej biblioteki GNU Radio, zdecydowaną większość kodu napisano samodzielnie (poza funkcjami algorytmów: FFT, dekodera Reeda-Salomona oraz dekodera HE-AAC v2 sygnału audio), Program działa w czasie rzeczywistym na komputerze PC z systemem operacyjnym Linux i przetwarza dane IQ, pobierane bezpośrednio z przetwornika A/C tunera DVB-T RTL2832U firmy Realtek (koszt około 50 złotych). Jego kod można pobrać ze strony: sdr.kt.agh.edu.pl. W literaturze polskiej technologia SDR jest omówiona w książce [1], ale głównie w aspekcie istniejących drogich platform sprzętowych, umożliwiających jej i więcej »

ADAPTACJA MECHANIZMU DRM DO OCHRONY DOKUMENTÓW NIEPUBLICZNYCH - DOI:10.15199/59.2015.8-9.36
Adam Kozakiewicz Krzysztof Lasota 
Artykuł prezentuje sposób dostosowania mechanizmu zarządzania prawami cyfrowymi do pracy w trybach lokalnym oraz offline, bez dostępu do centralnych serwerów, znajdujących się w globalnej sieci Internet. Głównym celem adaptacji jest ochrona niepublicznych dokumentów przed nieupoważnionym dostępem. Zabezpieczenie przed nielegalnym kopiowaniem jest poza zakresem artykułu. Zakładamy, iż każda kopia jest zgodna z prawem i może być dostępna tak długo jak tożsamość użytkownika oraz prawa dostępu mogą być poprawnie zweryfikowane. 1. WSTĘP Obecny trend w rozwoju oprogramowania zakłada stałą łączność z siecią Internetem. Poprzez WiFi, LTE lub wykorzystanie innych rozwiązań oczekuje się, że nowoczesny komputer powinien być zawsze online. Osobiste doświadczenia większości użytkowników dowodzą, że takie podejście nie zawsze jest prawidłowe. Sieci teleinformatyczne nie są bezawaryjne i nawet dostęp do sieci lokalnej nie gwarantuje dostępu do żadnego konkretnego serwera w Internecie. Technologia DRM (ang. Digital Rights Management) jest wykorzystywana do ochrony praw autorskich właścicieli treści. Zastosowanie mechanizmu sprawia jednak, iż uprawnieni użytkownicy muszą sprostać różnym problemom technicznym, które nie występują w nielegalnych kopiach. Innym, lecz nie mniej ważnym zastosowaniem technologii DRM jest ochrona dokumentów z ograniczonym dostępem. Jednakże w tym przypadku główny nacisk jest położony na weryfikację tożsamości użytkownika i związanych z nią praw dostępu do ograniczonej treści. W odróżnieniu od zastosowań komercyjnych autentyczność nośnika nie ma znaczenia - ochrona ma na celu przeciwdziałanie nieuprawnionemu dostępowi. Artykuł koncentruje się na zabezpieczeniu wrażliwych danych przed nieupoważnionym dostępem, jednocześnie umożliwiając uprawnionym użytkownikom dostęp do danych w różnych środowiskach. W podstawowym przypadku użycia zakładany jest dostęp do zaufanej sieci lokalnej, jednakże artykuł rozpatruje ró więcej »

ALGORYTM ROUTINGU WYKORZYSTUJĄCY MOBILNOŚĆ WĘZŁÓW W SIECIACH NIESPÓJNYCH DTN - DOI:10.15199/59.2015.8-9.34
Marcin Kawecki 
Referat przedstawia algorytm routingu oparty na wykorzystaniu mobilności węzłów w sieciach niespójnych DTN. Sieci niespójne DTN (ang. Delay and Disruptive Tolerant Network - DTN) są to sieci charakteryzujące się czasowym lub trwałym brakiem istnienia ciągłej ścieżki między węzłem źródłowym, a docelowym. W niniejszej pracy zaprezentowano nowy algorytm routingu dla sieci niespójnych DTN wykorzystujący własności naturalnej mobilności węzłów oraz możliwości wykorzystania kontaktów między węzłami. W pracy przedstawiono wyniki symulacji zaproponowanego algorytmu oraz porównanie ich z uznanymi algorytmami routingu dla sieci DTN. 1. WSTĘP Sieć internetowa na przestrzeni ostatnich kilkunastu lat odniosła ogromny sukces dotyczący komunikacji między urządzeniami na całym świecie. stało się to możliwe dzięki użyciu jednolitych zbiorów protokołów przez wszystkich użytkowników tej sieci. wszystkie urządzenia połączone w sieci internet używają protokołów należących do stosu TCP/IP. Użyteczność komunikacji w sieci internetowej oparta jest na kilku założeniach. podstawowym jest istnienie stałej, dwukierunkowej ścieżki łączącej węzeł źródłowy oraz docelowy w celu umożliwienia komunikacji między węzłem źródłowym i docelowym. Pomimo dużego sukcesu działania tych sieci, nie mogą one być zaadoptowane w każdym środowisku z uwagi m.in. na koszty związane z potrzebną infrastrukturą, oraz specyfikę środowiska. Nietypowe warunki mogą wymagać od sieci tolerancji na duże opóźnienia, przerwy w transmisji. Sieć niespójna DTN [1] to sieć, w której podstawową cechą charakterystyczną jest jej brak spójności, tj. brak możliwości utworzenia ścieżki między dowolną parą węzłów. W sieciach DTN komunikacja prowadzona jest poprzez wykorzystanie paradygmatu składowania przenoszenia i przekazywania wiadomości (ang. storecarry- forward). W tym celu wykorzystywane są węzły fizycznie przenoszące wiadomości, które nazywane są nośnikami lub mułami danych (ang. messa więcej »

ALGORYTMY HEURYSTYCZNE W SYSTEMACH WYKRYWANIA ZAGROŻEŃ SIECIOWYCH - DOI:10.15199/59.2015.8-9.75
Michał Jakubski Marcin Niemiec 
Artykuł porusza problematykę heurystycznych metod wykrywania zagrożeń i ataków w środowisku sieciowym. Autorzy zaproponowali przykładowy algorytm heurystyczny oraz przedstawili jego implementację w popularnym środowisku Snort. Opracowany algorytm umożliwia detekcję potencjalnych zagrożeń na podstawie analizy nagłówków IP. Przeprowadzone testy potwierdzają iż odpowiednio opracowane algorytmy heurystyczne pozwalają na wykrywanie zagrożeń z większym prawdopodobieństwem niż robią to statyczne sygnatury. 1. WSTĘP Rosnąca w szybkim tempie liczba zagrożeń sieciowych to ogromny problem zarówno dla użytkowników indywidualnych, jak i firm tworzących oprogramowanie antywirusowe. Coraz częściej można usłyszeć o nielegalnych włamaniach, które skutkują utratą poufności danych, przejęciem zasobów czy poważnymi stratami finansowymi. Na szczęście na rynku dostępnych jest wiele płatnych oraz darmowych rozwiązań, które zabezpieczają stacje klientów przed szkodliwym oprogramowaniem. Obecnie, najpopularniejszym rozwiązaniem tego typu są programy antywirusowe. Jednak na uwagę użytkowników końcowych zasługują również systemy wykrywania zagrożeń sieciowych, które po prawidłowej konfiguracji mogą wykrywać oraz blokować ataki w czasie rzeczywistym. Oba wspomniane rozwiązania wspierają różne mechanizmy wykrywania zagrożeń - najczęściej bazujące na porównywaniu sygnatur oraz wykrywaniu anomalii. Jednak obecnie coraz bardziej popularnym mechanizmem detekcji zagrożeń staje się heurystyka. Niniejszy artykuł składa się z siedmiu rozdziałów. Początkowe rozdziały opisują współczesne systemy wykrywania zagrożeń, heurystyczne podejście do detekcji ataków oraz popularne środowisko Snort, w którym wykonano praktyczne testy. Następnie opisano opracowany i zaimplementowany algorytm heurystyczny. Wykonane testy algorytmu pozwoliły zweryfikować poprawność działania algorytmu oraz ocenić jego zdolności detekcji zagrożeń. W celach testowych wykorzystano ataki więcej »

ANALIZA ATAKÓW NA GENERATORY CIĄGÓW KLUCZA WYKORZYSTUJĄCE NAPRZEMIENNE TAKTOWANIE REJESTRÓW PRZESUWNYCH ZE SPRZĘŻENIEM ZWROTNYM - DOI:10.15199/59.2015.8-9.39
Robert Wicik 
Nieregularne, w tym naprzemienne taktowanie rejestrów przesuwnych ze sprzężeniem zwrotnym jest popularną metodą na podniesienie złożoności liniowej ciągów klucza wytwarzanych do szyfrowania strumieniowego. W odpowiedzi na znane ataki kryptoanalityczne, zaproponowaliśmy rozbudowę tego typu generatorów o rejestry z nieliniowym sprzężeniem zwrotnym i nieliniowe funkcje filtrujące wyjścia z rejestrów. W niniejszym artykule podamy minimalne parametry tych generatorów i oszacujemy złożoności obliczeniowe ataków na nie. 1. WSTĘP Era nowoczesnych szyfrów strumieniowych zaczęła się wraz z rozwojem telegrafu. Pierwszy, powszechnie używany, zautomatyzowany system utajniania, działający na potrzeby ochrony informacji przesyłanych liniami łączności telegraficznej został opracowany w 1917 r. i opatentowany w 1919 r. pod nazwą "SECRET SIGNALING SYSTEM" przez amerykańskiego inżyniera Gilberta Vernama. Ciąg transmitowanych znaków wiadomości, zapisanych w kodzie Baudota1 był sumowany ze znakami ciągu klucza przy pomocy operacji, której odpowiednikiem jest XOR. Niestety taśma z kluczem mogła się powtarzać, co mogło umożliwiać kryptoanalizę zaszyfrowanych wiadomości. W tym samym czasie amerykański oficer korpusu łączności Joseph Mauborgne zaproponował, aby ciąg klucza był losowy i niepowtarzalny. Claude Shannon w publikacji [1] z 1949 r. ujawnił część wyników swoich prac z początku lat czterdziestych, gdzie wykazał wykorzystując teorię informacji, że tego typu system szyfrowania (ang. onetime pad) jest odporny na wszelkie ataki brutalne (ang. perfect secrecy), jeśli zachowany w tajemnicy ciąg klucza ma idealne właściwości losowe, długość równą długości wiadomości i jest wykorzystany tylko raz do szyfrowania. Ostatnio okazało się, że dużo wcześniej, bo już w 1882 r., metodę kodowania transmisji telegraficznej opisał amerykański bankier Frank Miller. Dowód na bezwarunkowe bezpieczeństwo szyfru z kluczem jednorazowym podał także radziecki na więcej »

ANALIZA CECH DYSTYNKTYWNYCH I KONCEPCJA BAZY DANYCH DLA INTERFEJSÓW SPRZĘTOWYCH URZĄDZEŃ INFORMATYCZNYCH W PROCESIE ICH IDENTYFIKACJI NA BAZIE EMISJI PROMIENIOWANEJ - DOI:10.15199/59.2015.8-9.69
Rafał Przesmycki Marian Wnuk 
W artykule przedstawiono cechy dystynktywne dla współczesnego sprzętu informatycznego znajdującego się na rynku Unii Europejskiej bazując na emisji promieniowanej. W artykule opisano koncepcję budowy bazy danych dla interfejsów sprzętowych urządzeń informatycznych w procesie ich identyfikacji na bazie emisji promieniowanej. Ponadto w artykule przedstawiono miary podobieństwa emisji promieniowanej dla poszczególnych interfejsów sprzętowych urządzenia informatycznego. 1. WSTĘP Energia emitowana (ε ) przez dowolne źródło, ogólnie biorąc, może zależeć od częstotliwości (f), czasu (t) i kierunku ().Wielkość ε można uważać za operator opisujący przekształcenie energii wyzwalanej w źródle (która zależy tylko od częstotliwości i czasu) w przestrzenno- czasowo-częstotliwościowy rozkład energii w ośrodku otaczającym źródło. Jeżeli właściwości kierunkowe, częstotliwościowe i czasowe źródła są niezależne od siebie, to jego zdolność emisyjna ε może być przedstawiona w postaci iloczynu trzech funkcji, reprezentujących oddzielne charakterystyki opisujące selektywność (wybiórczość) częstotliwościową, kierunkową i czasową źródła. Przy dużej ilości źródeł emisji działających jednocześnie wypadkowy proces zawiera dominujące dyskretne składowe o szczególnie dużej intensywności oraz tło elektromagnetyczne, zbliżone do szumu. Intensywność emisji zamierzonej w zasadzie można oszacować na podstawie rozmieszczenia przestrzenno-czasowoczęstotliwościowego źródeł, promieniowanej mocy i innych znamionowych parametrów wchodzących w grę urządzeń. Natomiast emisja niezamierzona jest znacznie trudniejsza do oceny ilościowej. Takim przykładem jest system współmiejscowy, w którym jednocześnie znajduje się kilka źródeł emisji elektromagnetycznej. Na podstawie prowadzonych badań i uzyskanych wyników pomiarowych można stwierdzić, że istnieje możliwość zidentyfikowania interfejsów sprzętowych urządzenia informatycznego powodujące wzros więcej »

Analiza i charakterystyka mechanizmów zarządzania i konfiguracji inteligentnych urządzeń w sieci Internetu Rzeczy - DOI:10.15199/59.2015.8-9.30
Grzegorz Debita Jarosław Szumega Mateusz Juźwiak Artur Palka Emil Barczyński Patryk Pham Quoc Patryk Schauer 
Artykuł przedstawia przykład implementacji sprzętowej dla systemu Internetu Rzeczy zrealizowanego przy pomocy SoC Zynq firmy Xilinx. Została przedstawiona architektura systemu do zarządzania rekonfiguracją układu programowalnego oraz aplikacji po stronie systemu operacyjnego. Demonstracja ma na celu pokazanie zastosowania SoC jako platformy sprzętowej dla urządzeń Internetu Rzeczy, które będą zgodne z ideą SMART. 1. WSTĘP Internet Rzeczy (IoT) jest nazywany nową koncepcją współdzielenia informacji pomiędzy obiektami w dzisiejszym świecie teleinformatyki [1] - [6]. Na temat Internetu Rzeczy powstała ogromna liczba prac w zakresie jego architektury, zastosowań, protokołów. Mało jest jednak w literaturze światowej pozycji opisujące problematykę realizacji sprzętowej dla urządzeń Internetu Rzeczy [1]-[6]. Należy tutaj nadmienić, że obecnie dynamiczny rozwój techniki cyfrowej związanej z wysoce zaawansowanym rozwojem układów scalonych pozwala na fizyczną realizację urządzeń Internetu Rzeczy zgodnie z ideą SoC (System on Chip). Idea ta związana jest z wbudowaniem całej funkcjonalności sprzętowej do jednegoukładu scalonego[7]-[9]. Obecnie SoC coraz częściej składają się nie tylko z procesora, ale także dodatkowo z programowalnej logiki. Przykładowymi układami implementującymi ta ideę są rozwiązania firmy Xilinx o nazwie Zynq lub Kintex. Na temat ich zastosowań można się dowiedzieć z prac [10], [11]. Powyższe układy mają szerokie zastosowanie związane z budowaniem sprzętowych aplikacji przeznaczonych do przetwarzania sygnałów cyfrowych. Jednym z wielu zastosowań układów SoC jest technologia SDR (Software-Defined Radio). Układy SoC pozwalają na sprzętową implementację modulatorów i koderów warstwy fizycznej systemów radiokomunikacyjnych i radiodyfuzyjnych [12]-[14]. SoC posiadające na swoim pokładzie procesory i programowalne macierze bramek logicznych FPGA (Field-programmable gate array) dają praktycznie nieograniczone możliw więcej »

Analiza pojemności bufora i skali czasu autokorelacji ruchu - DOI:10.15199/59.2015.8-9.8
Krzysztof Rusek Zdzisław Papir 
Ruch w sieci pakietowej ma bardzo złożoną strukturę korelacyjną. Odstępy pomiędzy pakietami i długości pakietów wykazują silną autokorelację. Często są one też między sobą skorelowane. Badania z ostatnich trzydziestu lat pokazują, że autokorelacja odstępów czasu pomiędzy pakietami w ruchu sieciowym ma bardzo duży wpływ na charakterystyki buforów. Proces Poissona już dawno przestał się sprawdzać jako model matematyczny ruchu w sieci pakietowej, ponieważ wyniki z niego otrzymywane były o całe rzędy wielkości błędne [1]. Opracowane zostały nowoczesne modele, które są w stanie modelować różne cechy ruchu, takie jak samopodobieństwo [2] lub długookresowa korelacja LRD (Long Range Depence) [2]. Procesy markowowskie, będące uogólnieniem procesu Poissona, też są powszechnie stosowane w modelowaniu ruchu ze względu na możliwość analitycznego wyznaczania charakterystyk kolejkowania. Inna przydatna cecha tych procesów to zdolność modelowania statystyk ruchu rzędu pierwszego i drugiego dla dowolnej skali czasu. Skala czasu jest tutaj rozumiana jako rząd wielkości czasu mierzonego w średnich odstępach pomiędzy pakietami. W takim podejściu nigdy nie otrzymuje się w pełni samopodobnego ruchu, jednak często dokładność na kilku skalach czasu jest wystarczająca z inżynierskiego punktu widzenia [3]. To właśnie dokładność modelowania systemu kolejkowego jest głównym tematem niniejszego artykułu. W badaniach teoretycznych bardzo często analizuje się uproszczone modele o nieskończonych buforach. Oczywiście w praktyce takie systemy są niemożliwe do zrealizowania, jednak analiza pokazuje wpływ różnych czynników na charakterystyki kolejek [4]. W niniejszym artykule rozważana jest dokładność modeli dla skończonych buforów, analizowany jest wpływ pojemności bufora na dokładności modelu. Postawiono tezę, że mniejszy bufor wymaga mniejszej dokładności dopasowania funkcji autokorelacji niż duży bufor, przy takiej samej dokładności modelowania systemu. więcej »

ANALIZA PORÓWNAWCZA WYKORZYSTANIA SPRZĘTOWYCH ORAZ PROGRAMOWYCH MODUŁÓW KRYPTOGRAFICZNYCH - DOI:10.15199/59.2015.8-9.118
Marcin Jękot 
Kryptologia powszechnie uchodzi za jedną z najistotniejszych zagadnień dzisiejszej telekomunikacji. W bezpieczeństwie komputerowym kryptografia, jako metoda zabezpieczenia danych przed niepowołanym dostępem, stanowi często podstawę całej architektury bezpieczeństwa systemu. Wykorzystując wiedzę z pogranicza informatyki, telekomunikacji oraz teorii zarządzania ryzykiem dokonaliśmy w tej pracy analizy porównawczej pomiędzy dwiema metodami przechowywania kluczy kryptograficznych. Zrealizowaliśmy analizę zagrożeń i podatności dla każdej z technik, dzięki czemu jesteśmy w stanie określić przypadki, w których każdą z nich należałoby wdrożyć dla maksymalizacji bezpieczeństwa przy minimalizacji kosztów. 1. WSTĘP "Kryptografia - z gr. więcej »

ANALIZA PROTOKOŁU MPTCP W SIECIACH HETEROGENICZNYCH - DOI:10.15199/59.2015.8-9.11
Robert R. Chodorek Agnieszka Chodorek 
DOI: 10.15199/59.2015.8-9.11 PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK LXXXVIII - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXxIV - nr 8-9/2015 747 Jednym z takich rozwiązań, stosowanych obecnie w wielu systemach operacyjnych pracujących w urządzeniach końcowych, jest - wykorzystywany wcześniej w urządzeniach pośredniczących (ruterach) - mechanizm równoważenia obciążenia (Load Balancing). Mechanizm ten pozwala na przesyłanie różnych strumieni danych przez różne interfejsy, dostępne w systemie końcowym. Dzięki zastosowaniu mechanizmu równoważenia obciążenia możliwe stało się rozdzielanie połączeń pomiędzy interfejsy sieciowe urządzenia końcowego. W rozwiązaniu tym, jedno połączenie sieciowe zawsze wykorzystuje jeden interfejs, przy czym każde nowe połączenie (do nowego systemu końcowego) jest kierowane na kolejny interfejs sieciowy. Jeżeli lista dostępnych interfejsów się wyczerpie, wybierany jest pierwszy z interfejsów. Mechanizm taki stosowany jest m.in. w systemach Windows firmy Microsoft, poczynając od systemu Windows Vista [6], [11]. Opisany mechanizm zwiększa ogólną wydajność i niezawodność połączeń sieciowych. Nie zwiększa jednak w sposób znaczący wydajności i niezawodności pojedynczego połączenia sieciowego. W wielu obecnie oferowanych aplikacjach, do transmisji danych masowych stosowana jest technika zestawiania wielu połączeń pomiędzy dwoma systemami końcowymi tak, aby za pomocą zwiększonej liczby połączeń zwiększyć szybkość transmisji danych masowych [12]. Takie rozwiązanie jest dosyć skuteczne. Również i dlatego, że pozwala ominąć ograniczania na maksymalną wydajność pojedynczego połączenia TCP, jakie są w stosowane w wielu systemach operacyjnych (np. brak załączonej opcji skalowania okna TCP). Rozwiązanie takie może jednak zwiększyć w sposób niekontrolowany opóźnienia i spowodować nierównomierny podział zasobów sieciowych w łączach stanowiących wąskie gardło [12]. Dodatkowo wymaga nowych protokołów lub mechanizmów więcej »

ANALIZA SYMULACYJNA SIECI STANDARDU IEEE 802.11AA W ZASZUMIONYCH KANAŁACH TRANSMISYJNYCH - DOI:10.15199/59.2015.8-9.74
Marta Ząbkowicz Marek Natkaniec Łukasz Prasnal 
Artykuł zawiera analizę symulacyjną sieci standardu IEEE 802.11aa w kanałach radiowych, w których występują straty związane z interferencjami oraz spadkiem poziomu mocy odbieranego sygnału. Badania obejmowały wpływ pogorszenia jakości kanału radiowego przez zwiększenie bitowej stopy błędów BER (Bit Error Rate) na uzyskiwane przepływności, średnie opóźnienie transmisji, wariancję opóźnienia (jitter) oraz straty pakietów. Analiza została wykonana dla dwóch scenariuszy, różniących się między sobą całkowitą liczbą stacji biorących udział w transmisji. W artykule przedstawiono wyniki symulacji ilustrujące wpływ zmian ruchu oferowanego w ramach każdej ze zdefiniowanych w standardzie IEEE 802.11aa klas ruchu na uzyskiwane wartości ruchu realizowanego. 1. WSTĘP Sieci pracujące w standardzie IEEE 802.11aa, stanowiące przedmiot badań niniejszego artykułu to sieci bezprzewodowe, które zapewniają odpowiednią jakość świadczenia usług QoS (Quality of Service) ze szczególnym uwzględnieniem polepszenia transmisji strumieni dźwiękowych i wideo. Do zapewnienia jakość obsługi stosowane są określone mechanizmy jak np. kształtowanie i ograniczanie przepustowości, zapewnienie sprawiedliwego dostępu do zasobów, nadawanie odpowiednich priorytetów poszczególnym ramkom przesyłanym w sieci czy zarządzanie opóźnieniami w przesyłaniu danych. Poprzednikiem standardu IEEE 802.11aa, który również zapewnia odpowiedni poziom QoS jest IEEE 802.11e. Standard IEEE 802.11e [1], [2] definiuje mechanizm przypisywania różnych priorytetów strumieniom danych w sieciach bezprzewodowych poprzez cztery określone klasy ruchu: głosową (Voice - VO), wideo (Video - VI), uprzywilejowaną (Best Effort - BE) i ruchu tła (Background - BK). Określone w standardzie IEEE 802.11e mechanizmy priorytetyzacji umożliwiają świadczenie ruchu w ramach każdej z klas zgodnie ze specyficznymi wymaganiami transmisji. W standardzie IEEE 802.11aa dodano dwie dodatkowe klasy ruchu (Rys. 1): więcej »

Analysis of data aquisition requirements for shm system in aircraft - DOI:10.15199/59.2015.8-9.10
Michał Wągrowski Marek Sikora Janusz Gozdecki Krzysztof Łoziak Wiesław Ludwin Jacek Wszołek 
The purpose of ASTYANAX (Aircraft fuselage crack monitoring system and prognosis through on-board expert sensor network) project [1] is the definition of a reliable, on-board Structural Health Monitoring (SHM) system performing integrity assessment of the fuselage structure in various loading situations. Two peculiar scenarios of aeronautical applications are considered in the project: fatigue and landing impact damages. SHM systems are designed and tested on a M i-8/17 helicopter. Those systems are entitled to monitor the presence of damages into the fuselage. Two different loads are considered, those coming from unusual landing operations, and those coming from flight manoeuvres and vibrations. During the work, two separated activities were carried out: first, a drop test of the entire helicopter, and second, a crack propagation inside one hot spot of the tail boom. Experimental activities permit to validate numerical models and to test the designed SHM equipment [2] [3]. This paper provides some recommendations on the measurement- setup configuration including the required sampling frequency and the number of bits per sample for the tested strain gauges and accelerometers. They were formulated based on the analysis of data gathered during drop tests performed in Poland on April 2014. The paper is organized as follows. In Section 2 we present objectives and motivation for this work, Section 3 addresses the analyzed sensors and their functional characteristics, in Section 4 we focus on the methodology for signal processing, next, showing results and giving recommendations in Sections 5 and 6. OBJECTIVES AND MOTIVATION The motivation to employ the abovementioned optimisation procedure comes from the observation that using the measurements with the maximum available frequency of sampling and coding a single sample with the maximum number of bits produces a huge amount of data. This might be very challenging and even can prod więcej »

Applicability of MIMO deployment in HSPA networks - DOI:10.15199/59.2015.8-9.116
Jakub Borkowski Lilia Husikyan Jacek Wszołek 
MIMO is an attractive enhancement to 3G HSPA networks, although it has not been widely deployed. The objective of this paper is to discuss an applicability of MIMO technique in HSPA networks with supplementary use of VAM feature enabling smooth coexistence with non-MIMO HSDPA users. Observations performed on live network show that MIMO deployment costs can be reduced with gradual rollout prioritizing cells with upgraded PA to 2x20W and re-utilizing antenna lines. 1. MOTIVATION According to GSA (Global mobile Supplier Association) nearly 70% of 3G operators have launched HSPA+ (High Speed Packet Access) with DC-HSPA (Dual Cell- HSPA) as a 3G evolution mainstream [1]. At the same time market research indicate that MIMO (Multiple Input Multiple Output) technique despite of being one of the key technologies for LTE (Long Term Evolution) and WiMax networks, it has not been widely deployed in HSPA+ networks [2] . This fact has been often commented as an unavailability of HSPA MIMO-capable terminals on a mass market, need for the second pilot SCPICH (Secondary-Common Pilot Channel) reducing code and power performance, and considerable roll out CAPEX (Capital Expenditure). Moreover, some reports indicate that transmit diversity transmission mode - STTD (Space Time Transmit Diversity) in 3G [3], may degrade performance of regular non-MIMO HSPA users [4],[5]. In this paper, HSPA RAN (Radio Access Network) enhancement through MIMO introduction together with VAM (Virtual Antenna Mapping) is studied, and accordingly, an applicability is analyzed based on audit performed on a commercial 3G network. 2. MIMO in HSPA MIMO 2x2 (i.e. with two transmit and receive antennas) for HSDPA has been introduced in Rel. 7 3GPP (Third Generation Partnership project) specification [6],[7]. Two MIMO transmission modes have been defined - a single (also called as transmit diversity) and a dual layer (also called spatial multiplexing) mode. With a s więcej »

AUDYT INFORMATYCZNY JAKO PROCEDURA OCENY POZIOMU BEZPIECZEŃSTWA INFRASTRUKTURY IT - DOI:10.15199/59.2015.8-9.121
Henryk Gierszal Jakub Radziulis Piotr Bojanowski Krystyna Urbańska Rafał Renk 
Artykuł przedstawia zakres prac realizowanych w ramach audytu bezpieczeństwa infrastruktury informatycznej, które pozwalają identyfikować podatności, a na tej podstawie oceniać poziom bezpieczeństwa sieci, jak i przetwarzanych w niej danych. 1. WSTĘP Problematyka bezpieczeństwa jest naglącym zagadnieniem, które wymaga ciągłego doskonalenia procesów i narzędzi zdolnych do identyfikacji podatności, ale także bieżącego wykrywania niepożądanych zachowań w sieci. Wprowadzana ochrona może dotyczyć organizacji, jak i oczywiście wykorzystywanych rozwiązań technicznych. Bezpieczeństwo informacji to proces, który musi pozwalać na ocenę podatności, ich unikania oraz weryfikację skuteczności zmian wprowadzanych w organizacji czy infrastrukturze sieciowej. Bezpieczeństwo to problem biznesowy. Bezpieczeństwo informacji można także postrzegać jako ważny element przewagi konkurencyjnej [1]. Odpowiedzialność za utrzymanie odpowiednio wysokiego poziomu bezpieczeństwa leży w gestii całej organizacji. Celem jest uzyskanie odporności organizacji, co odbywa się poprzez zarządzanie ryzykiem. W artykule skupiono się na bezpieczeństwie technicznym w odniesieniu do infrastruktury IT. W rozdz. 2 przedstawiono zakres audytu informatycznego charakteryzując także możliwe do zrealizowania formy testów bezpieczeństwa. Listę podstawowych kompleksowych narzędzi do badań podatności zestawiono w rozdz. 2.6. Rozdz. 4 stanowi podsumowanie. 2. ZAKRES AUDYTU INFORMATYCZNEGO Typowy zakres audytu informatycznego obejmuje: 1. testy penetracyjne z zewnątrz sieci, w tym portalu www (World Wide Web), 2. testy penetracyjne z wewnątrz sieci, 3. ocenę bezpieczeństwa sieci informatycznej, 4. analizę bezpieczeństwa systemów i aplikacji, w tym bazodanowych, 5. ocenę procedur ochrony danych, 6. analizę zabezpieczenia fizycznego serwerowni. Niezależnie od powyższych działań, audyt rozpoczyna się przeglądem istniejącej dokumentacji dotyczącej infrastruktury IT, aby zident więcej »

AUTONOMICZNY MECHANIZM UWIERZYTELNIANIA WĘZŁÓW SIECI MANET OSADZONY W WARSTWIE ŁĄCZA DANYCH - DOI:10.15199/59.2015.8-9.109
Krzysztof Parobczak Grzegorz Różański Jacek Jarmakiewicz Krzysztof Maślanka 
W artykule przedstawiono autorski mechanizm bezpieczeństwa i spójności komunikacji osadzony w warstwie łącza danych, i przeznaczony dla środowiska mobilnych sieci ad-hoc. Zaproponowano funkcję uwierzytelniania węzłów sieci doraźnie organizowanej w sposób niezależny od mechanizmów bezpieczeństwa stosowanych w warstwach wyższych. W implementacji wykorzystano kryptografię symetryczną, bez scentralizowanego systemu zarządzania, w celu zminimalizowania wprowadzanych narzutów informacyjnych oraz optymalizacji wykorzystania zasobów energetycznych węzłów. 1. WSTĘP Środowisko mobilnych sieci typu ad-hoc ze względu specyfikę medium transmisyjnego i metod dostępu do kanału cechuje się szczególną podatnością na różnego typu ataki. Atakujący ma możliwość stosunkowo łatwego wstrzykiwania i analizowania przechwyconych jednostek danych wymienianych w sieci. Istotną rolę dla skuteczności mechanizmów bezpieczeństwa sieci bezprzewodowych odgrywa usługa uwierzytelniania węzłów. Ogólny poziom narażenia systemu na ataki zależy w dużym stopniu od skuteczności zastosowanego mechanizmu uwierzytelnienia elementów sieci. Gruntowna analiza literatury w zakresie opracowanych, zaimplementowanych i stosowanych koncepcji i mechanizmów wykorzystywanych w istniejących systemach uwierzytelniania dedykowanych sieciom typu MANET (ang. Mobile Ad-Hoc NETwork) przeprowadzona w [1] wskazuje na brak rozwiązań zapewniających jednocześnie: - zdecentralizowany charakter działania (brak konieczności stosowania serwerów, centrów autoryzacji, węzłów uprzywilejowanych, itp.); - minimalizację wykorzystania zasobów obliczeniowych i energetycznych węzłów; - minimalizację wprowadzanych narzutów, obniżających efektywną przepustowość użytkową; - odporność lub ograniczanie efektów ataku typu odmowy usługi (DoS, ang. Denial of Service); - niezależność od stosowanych protokołów warstw wyższych, w szczególności protokołu routingu oraz mechanizmów bezpieczeństwa warstw wyższ więcej »

BADANIA SYMULACYJNE PRZETWARZANIA RÓŻNICOWEGO Z ADAPTACJĄ KROKU KWANTYZACJI I CZĘSTOTLIWOŚCI PRÓBKOWANIA - DOI:10.15199/59.2015.8-9.103
Ryszard Golański Mateusz Nowak Juliusz Godek Jacek Kołodziej Jacek Stępień 
Symulacje komputerowe modulacji NS-DM i ANS-DM umożliwiają dobór optymalnych zestawów parametrów wewnętrznych i uzyskanie założonych parametrów wyjściowych. W pracy przedstawiono zmiany kształtu histogramów przy zmianach parametrów wewnętrznych. Stwierdzono, że przy prawidłowym doborze parametrów histogram zmian odstępu próbkowania w funkcji mocy sygnału wejściowego ma rozkład zbliżony do równomiernego. Analiza kształtu histogramów i charakterystyk SNR = f(Swej) i BRavg=g(Swej) przedstawiona w pracy pozwala zaproponować nowy algorytm przetwarzania ANS-DM, w którym wzrastałaby liczba kroków kwantyzacji wraz ze wzrostem poziomu mocy sygnału wejściowego. Poprawę kształtu histogramów daje także zwiększanie parametru P przy wzroście poziomu mocy sygnału wejściowego. Realizacja tych koncepcji wymaga monitorowania poziomu mocy sygnału wejściowego lub wyjściowego. Słowa kluczowe: modulacja delta, adaptacja, nierównomierne próbkowanie, przetwarzanie. 1. WSTĘP 1-bitowe przetworniki delta jako systemy kodowania mowy były stosowane już na pierwszych promach kosmicznych. Zostały wybrane przez NASA dzięki dużej odporności metod 1-bitowych na zakłócenia, znacznie przewyższającej odporność metod PCM. W chwili obecnej modemy delta oparte na algorytmie sylabicznym znajdują powszechne zastosowanie w transmisyjnych i komutacyjnych systemach militarnych zarówno bez- jak i przewodowych. Spotyka się je w wielu komercyjnych systemach radiokomunikacyjnych (telefony cyfrowe). Standard technologii BluetoothTM zaleca stosowanie do kodowania mowy 64-kbit/s sylabicznego przetwornika delta z adaptacją. Tradycyjną aplikacją, w której stosuje się adaptacyjne kodery delta są rozruszniki serca. Ich układy czujników rytmu oparte na koderach adaptacyjnych delta były wielokrotnie patentowane. Zasady kodowania i algorytmy 1-bitowych modulacji delta z nierównomiernym próbkowaniem (NS-DM i ANS-DM) zostały przedstawione w opracowaniach [1, 2, 3, 6]. Najistotn więcej »

BADANIA WIELOUSŁUGOWYCH PÓL KOMUTACYJNYCH ZŁĄCZAMI PRZELEWOWYMI I ADAPTACYJNYMI MECHANIZMAMI PROGOWYMI - DOI:10.15199/59.2015.8-9.73
Mariusz Głąbowski Michał Stasiak 
W artykule przedstawiono rezultaty badań symulacyjnych wielousługowych pól komutacyjnych z łączami przelewowymi i mechanizmami progowymi. Mechanizmy te wykorzystano do sterowania prawdopodobieństwem blokady klas ruchu czasu rzeczywistego, dla których nie jest możliwe zwiększenie czasu ich obsługi. Ł􀄅cza przelewowe wykorzystano do obsługi klas ruchu czasu rzeczywistego dla których nie można zmniejszyć wielkości żądanych zasobów, natomiast mechanizmy progowe - do obsługi klas ruchu czasu rzeczywistego, dla których możliwe jest zmniejszenie wielkości przydzielanych zasobów. Badania potwierdziły efektywność zastosowanych mechanizmów do kształtowania prawdopodobieństwa blokady w wielousługowych polach komutacyjnych. 1. WPROWADZENIE Działanie współczesnych sieci teleinformatycznych zależy w dużej mierze od parametrów urządzeń przełączających, stosowanych w węzłach sieciowych. Podstawą takich urządzeń są wielousługowe pola komutacyjne, tj. pola obsługujące mieszaninę wielu klas ruchu o zróżnicowanych przepływnościach [1]. Zakłada się, że w takich polach będą zaimplementowane odpowiednie mechanizmy kształtowania ruchu [2][3][4], tzw. mechanizmy progowe [3][4][5]. Mechanizmy te mogą - po przekroczeniu określonego progu obciążenia systemu - ograniczyć wielkość zasobów przydzielanych przyjmowanym określonym strumieniom ruchu, przy jednoczesnym utrzymaniu czasu obsługi (strumienie ruchu adaptacyjnego) lub jego wydłużeniu (strumienie ruchu elastycznego). Mechanizmy progowe wymagają wprowadzenia do systemu pojedynczego progu w systemach jednoprogowych (ang. STS - Single Threshold System) [3][4][5] lub kilku progów w systemach wieloprogowych (ang. MTS - Multi Threshold System) [3][4][6][7]. Możliwość zastosowania mechanizmów progowych w wielousługowych polach komutacyjnych była analizowana w pracach [8][9][10]. Uzyskane rezultaty badań wskazują na możliwość znacznego obniżenia prawdopodobieństwa blokady z więcej »

BADANIE I ANALIZA ALGORYTMÓW CYFROWEGO PRZETWARZANIA SYGNAŁÓW W SYSTEMIE NAWIGACJI INERCYJNEJ - DOI:10.15199/59.2015.8-9.87
Piotr Rajchowski Krzysztof Cwalina 
W artykule przedstawiono badania i analizę cyfrowego przetwarzania sygnałów w opracowanym systemie nawigacji inercyjnej. Zadaniem systemu jest lokalizowanie poruszających się osób w środowisku wewnątrzbudynkowym. Podczas prowadzonych prac badawczych została wykonana jednostka pomiarowa do rejestrowania parametrów ruchu osoby oraz opracowano własne algorytmy nawigacji inercyjnej. 1. WSTĘP Nawigacja inercyjna jest odpowiedzią na problem lokalizowania poruszających się obiektów w środowiskach wewnątrzbudynkowych. Źródłem danych nawigacyjnych są uniwersalne moduły inercyjne, które mogą dokonywać wstępnej obróbki wartości parametrów ruchu obiektu. Należy mieć jednak świadomość, że uzyskiwane dane z modułu inercyjnego są wartościami względnymi, które wymagają zorientowania w rzeczywistym układzie przestrzennym. Prezentowany w artykule system nawigacji inercyjnej, opracowany w laboratorium Katedry Systemów i Sieci Radiokomunikacyjnych Politechniki Gdańskiej, nie jest jedynie układem rejestrującym dane z czujników, ale również je przetwarzającym i interpretującym. W artykule przedstawiono wyniki wpływu różnych sposobów obróbki danych wejściowych algorytmu nawigacyjnego, zarówno dla 64-bitowego komputerowego środowiska symulacyjnego MATLAB, jak również dla samodzielnie wykonanej jednostki pomiarowej opartej na mikrokontrolerze o architekturze 32-bitowej z rodziny UC3C firmy ATMEL. Opisano także opracowany autorski algorytm minimalizujący błędy związane z obliczeniami zmiennoprzecinkowymi pojedynczej precyzji wykonywanymi przez mikrokontroler. Wykonano również aplikację wizualizującą, w czasie rzeczywistym, przebytą przez obiekt trasę. Opracowany scenariusz testów pozwala zweryfikować poprawność działania algorytmów nawigacji inercyjnej poprzez m.in. wyznaczenie różnicy odległości punktu końcowego względem punktu startowego, jak i błędu średniokwadratowego wyznaczonego przemieszczenia. Zbadano także wpływ długości trasy na pro więcej »

BENEFITS FROM BREAKING UP WITH LINUX NATIVE PACKET PROCESSING WHILE USING INTEL DPDK LIBRARIES - DOI:10.15199/59.2015.8-9.72
Maciej Wieczerzycki Marek Landowski Sylwester Kaczmarek 
The Intel Data Plane Development Kit (DPDK) is a set of libraries and drivers for fast packet processing in Linux. It is a dedicated framework for building efficient high-speed data plane applications supporting QoS features with poll mode drivers which are supporting virtual and physical NIC's so environment can be used to build efficient data plane applications for packet networks. The results of test on Quality of Service Metering Sample Application are presented. 1. INTRODUCTION Intel DPDK is dedicated framework for building efficient high-speed data plane applications supporting QoS features. Poll Mode Drivers (PMD) are supporting virtual and physical NIC’s so environment can be used to build efficient data plane applications for physical and virtual network. Also Kernel NIC Interface can be used for interaction with virtual machines and Linux network components. With the transition to Software Defined Networks (SDNs) and network functions virtualization (NFV), network infrastructures require solutions with the flexibility to scale across multiple deployment models while also providing exceptional performance [1]. For packet flow with the rate 10G packets per second the time of single packet arrival for typical network infrastructure (64 bytes) is 67,2 ns. That means if processing unit has 3 GHz clock only 201 cycles can be consumed for single packet processing [1]. This problem statement gives a huge challenge for server hardware and software as well. We have achieved point where traditional solutions stops being enough. Here with help comes Intel DPDK providing complete framework designed for fast and efficient packet processing. Framework includes set of libraries for environment through the creation of Environment Abstraction Layer (EAL) which can be specific for operating system, platform, architecture (32-bit or 64-bit), Linux User Space and its compilers. Once EAL is created user is allowed to l więcej »

BEZPIECZEŃSTWO I INTEGRALNOŚĆ DANYCH W NOWOCZESNYCH SIECIACH KOMÓRKOWYCH - DOI:10.15199/59.2015.8-9.18
Mateusz Winiarski Michał Wągrowski 
W niniejszym artykule poddano analizie rozwiązania zastosowane w systemach komórkowych kolejnych generacji, mające zapewnić użytkownikom bezpieczny dostęp do zasobów sieci i wiarygodną transmisję. Szczególną uwagę poświęcono procedurom autoryzacji i szyfrowania w systemie LTE. Przedstawiono również syntetyczną ocenę zabezpieczeń, na którą składają się zarówno aspekty techniczne jak i formalno-organizacyjne. 1. WSTĘP Ogromna popularność korzystania z usług teleinformatycznych za pomocą urządzeń mobilnych generuje wzrost potencjału zagrożeń i potrzebę ochrony przed nimi. W systemach komórkowych kolejnych generacji można zaobserwować rozwój mechanizmów zabezpieczeń, mających sprostać rosnącym wymaganiom. Zapewnienie bezpieczeństwa użytkownikom sieci komórkowych obejmuje nie tylko procedury autoryzacji i szyfrowania transmisji, ale również utrzymanie poufności na temat lokalizacji użytkowników, korzystających z medium radiowego, które w zasadzie każdy może nasłuchiwać. Powszechność korzystania z sieci komórkowych oraz popularyzacja usług operujących na danych wrażliwych, generuje potrzebę zwrócenia uwagi nie tylko na aspekty techniczne (np. kryptograficzne) ale również proceduralne, związane z obsługą abonentów na poziomie biznesowym. W rozdziale 2 przedstawiono pokrótce mechanizmy bezpieczeństwa zastosowane w systemach starszych generacji (1G, 2G i 3G). Rozdział 3 poświęcono najnowszym rozwiązaniom implementowanym w systemie LTE. Rozważania teoretyczne uzupełniono w rozdziale 4 opisem metodyki testowania tych rozwiązań w środowisku laboratoryjnym oraz zilustrowano wybranymi wynikami przeprowadzonych badań. W rozdziale 5 opisano typowe ataki na zabezpieczenia systemów komórkowych i wskazano rolę czynnika ludzkiego w podatności całego systemu. Podsumowanie, ocenę zagrożeń i metod ochrony, jak również perspektywy rozwoju tej tematyki w systemach 5G zawarto w rozdziale 6. 2. ZABEZPIECZENIA W SYSTEMACH 1G, 2G I 3G W kolejny więcej »

BOTNETOWE DOMENY DGA: KLASYFIKACJA METOD WYKRYCIA NA PRZYKŁADZIE NAJWAŻNIEJSZYCH ROZWIĄZAŃ - DOI:10.15199/59.2015.8-9.126
Piotr Białczak Małgorzata Dębska  
W wyniku wprowadzenia mechanizmu algorytmicznego generowania domen do botnetów powstało wiele propozycji metod detekcji jego użycia. Różnią się one między sobą m.in. rodzajem badanych anomalii czy wykorzystywanym ruchem sieciowym. W niniejszym artykule przedstawiamy propozycję ich klasyfikacji. Na jej bazie dokonujemy przeglądu najważniejszych przykładów metod detekcji, a także opisujemy zalety i wady poszczególnych klas rozwiązań. 1. WSTĘP Według raportu CERT Polska za rok 2014, każdej doby średnio 280 tysięcy komputerów w Polsce zostaje zainfekowane [1]. Stają się one częścią różnych rodzin botnetów, czyli sieci komputerów - botów kontrolowanych przez przestępców bez zgody ich prawowitych właścicieli. Botnety wykorzystywane są m.in. do wykradania informacji użytkowników z zainfekowanych komputerów, wysyłania niechcianych wiadomości e-mail czy ataków sieciowych. Właściciel botnetu (zwany też botmasterem) kontroluje boty przez kanał Command and Control (C&C). W najprostszym scenariuszu działania, zainfekowane komputery kontaktują się tym kanałem z swoim serwerem, aby móc odbierać rozkazy oraz wysłać dane interesujące botmastera, np. hasła do systemu bankowego. Każdy przejęty przez botnet komputer musi znać aktualny adres serwera C&C. Najczęściej adres IP lub nazwa domeny zdefiniowana jest w kodzie bota. Ich statyczny charakter powoduje, że można je łatwo zablokować lub przejąć tym samym odcinając zainfekowane maszyny od botmastera. Z tego powodu twórcy botnetów starają się wprowadzać mechanizmy, które przeciwdziałają wykryciu kanałów C&C oraz możliwości przejęcia nad nimi kontroli. Jednym z takich mechanizmów jest IP fast flux. Polega on na dynamicznej zmianie adresów IP przypisanych do konkretnej domeny, przez co o wiele trudniej jest je zablokować [2]. Innym sposobem na przeciwdziałanie wykryciu i przejęciu botnetu jest wykorzystanie algorytmów generowania domen (Domain Generation Algorithm - DGA). Algorytmy te twor więcej »

CYFROWY INTERFEJS GRAFICZNY HDMI W PROCESIE INFILTRACJI ELEKTROMAGNETYCZNEJ - DOI:10.15199/59.2015.8-9.67
Rafał Przesmycki Marian Wnuk 
Artykuł dotyczy problemów związanych z kompatybilnością elektromagnetyczną oraz emisją ujawniającą czyli bezpieczeństwem informacji. W artykule przedstawiono kanały elektromagnetycznego przenikania informacji, a następnie skupiono się na cyfrowym interfejsie graficznym HDMI dla którego przedstawiono sygnały wymuszeń używanych podczas pomiarów emisji ujawniającej oraz omówiono wyniki pomiarów emisji ujawniającej pochodzącej od interfejsu HDMI. Ponadto w artykule omówiono stanowisko pomiarowe do pomiaru emisji ujawniających. 1. WSTĘP Emisja pola elektromagnetycznego jest zjawiskiem nieodłącznie towarzyszącym przepływowi prądu elektrycznego, będącego z kolei podstawą działania wszelkich urządzeń elektronicznych i elektrycznych. Na podstawie zmian pola możliwe jest wnioskowanie na temat działania urządzeń będących jego źródłem. Co więcej, właściwości pola elektromagnetycznego pozwalają na jego zdalną rejestrację i analizę. Zjawisko powstawania fal elektromagnetycznych niosących informację o działaniu urządzeń elektrycznych i elektronicznych nazywane jest emisją ujawniającą lub ulotem elektromagnetycznym. Odkąd urządzenia elektryczne i elektroniczne zaczęły być używane do przetwarzania informacji, często o poufnym charakterze, występowanie emisji ujawniającej nabrało szczególnego znaczenia. Ochrona informacji przed przenikaniem elektromagnetycznym urządzeń i systemów elektronicznych (informatycznych) ma bardzo duże znaczenie. Problem ten narasta z coraz to większym zastosowaniem urządzeń teleinformatycznych do przetwarzania i przekazywania informacji, które nie powinny wpaść w niepowołane ręce. Wynika to stąd, że każde urządzenie elektroniczne jest źródłem niepożądanej (ubocznej) emisji energii elektromagnetycznej indukowanej w otaczającą przestrzeń i we wszelkich bliskich przewodach elektrycznych i konstrukcjach metalowych. Kiedy sygnały emisji niepożądanej są skorelowane z nieutajnioną informacją, mogą być one wykorzystan więcej »

DEREGULACJA WYBRANYCH DETALICZNYCH RYNKÓW WŁASCIWYCH W POLSCE - DOI:10.15199/59.2015.8-9.79
Sebastian Kazmierczak Jerzy Kubasik 
W artykule przedstawiono historie regulacji detalicznych rynków połaczen krajowych i miedzynarodowych w sieciach telefonii stacjonarnej w Polsce w latach 2004-2015 zakonczona wydaniem decyzji deregulacyjnych. Uwzgledniono zmiany jakie zachodziły w tym okresie w sposobie prowadzenia analiz rynkowych oraz w stanie konkurencji na tych rynkach. Omówiono obowiazki regulacyjne, zwiazane z regulacja cen, nałoone w 2007 roku na przedsiebiorce o znaczacej pozycji rynkowej. 1. WSTEP 29 kwietnia 2015 r. Prezes Urzedu Komunikacji Elektronicznej wydał cztery decyzje znoszace obowiazki regulacyjne wobec Orange Polska S.A. na detalicznych rynkach swiadczenia usług krajowych i miedzynarodowych połaczen telefonicznych w stacjonarnej publicznej sieci telefonicznej dla konsumentów (klientów indywidualnych, mieszkaniowych) i uytkowników, z wyłaczeniem konsumentów, zwanych potocznie klientami biznesowymi lub instytucjonalnymi (rynki 3-6), uznajac, e na rynkach tych wystepuje skuteczna konkurencja [13], [14], [15], [16]. Od 2007 roku na rynkach 3-6 obowiazki regulacyjne obciaały Orange Polska S.A. (wczesniej Telekomunikacje Polska S.A.1). Na podstawie przeprowadzonych w latach 2013-14 analiz, Prezes UKE uznał, e spółka utraciła znaczaca pozycje rynkowa na detalicznych rynkach 3-6. Kwietniowe decyzje Prezesa UKE stanowia wany krok na drodze uwalniania rynków detalicznych oraz, w szerszym znaczeniu, w zastepowaniu sektorowych regulacji ex ante przez ogólne prawo konkurencji stosowane ex post. Dostosowuja one polski reim regulacyjny do aktualnych realiów rynkowych jednoczesnie nawiazujac do trendu deregulacji telekomunikacyjnych rynków detalicznych w całej Unii Europejskiej. W artykule, w oparciu o akty prawne i decyzje regulacyjne Prezesa UKE, przedstawiona zostanie historia regulacji rynków 3-6 w latach 2004-2015 zakonczona wydaniem decyzji deregulacyjnych. Uwzglednione zostana zmiany jakie zachodziły w sposobie prowadzenia analiz r więcej »

DOPASOWANIE CHARAKTERYSTYKI DYNAMIKI DŹWIĘKU DO PREFERENCJI SŁUCHOWYCH UŻYTKOWNIKA URZĄDZEŃ MOBILNYCH - DOI:10.15199/59.2015.8-9.97
Piotr Suchomski Bożena Kostek 
W celu określenia preferowanej charakterystyki dynamiki generowanych dźwięków należy uzyskać informację, w jaki sposób użytkownik postrzega głośność dźwięków o różnym poziomie dźwięku. Poruszany problem należy rozpatrywać oddzielnie dla dwóch grup użytkowników - osób słyszących prawidłowo oraz osób z ubytkiem słuchu. W pierwszym przypadku należy zadbać o to, aby wyznaczona charakterystyka dynamiki właściwie przetwarzała dźwięki o poziomach ocenianych odpowiednio jako za ciche, komfortowe i za głośne. W przypadku drugiej grupy użytkowników należy wyznaczyć charakterystykę dynamiki, która pozwoli dopasować szeroką dynamikę odtwarzanych dźwięków do zawężonej dynamiki uszkodzonego słuchu. W obu przypadkach do oceny wrażenia głośności można wykorzystać odpowiednio dopasowany test skalowania głośności. W niniejszym referacie zaprezentowano metody określenia charakterystyki dynamiki dźwięku dla obu wymienionych grup użytkowników z wykorzystaniem zaproponowanej metody szybkiej oceny wrażenia głośności. 1. WSTĘP Urządzenia mobilne takie jak notebooki, ultrabooki, tablety czy smartfony wykorzystywane są obecnie zarówno do pracy, jak również do użytku osobistego, np. do słuchania muzyki. Niezależnie od sposobu użycia tych urządzeń, ważnym aspektem jest jakość dźwięku. Niestety ograniczenia konstrukcji tego typu urządzeń wpływają negatywnie na jakość generowanego przez te urządzenia dźwięku, dotyczy to głównie wielkości głośników, ich jakości, pasma przenoszenia, itd. Dlatego oczekiwania użytkowników w kwestii poprawy jakości dźwięku odtwarzanego przez urządzenia mobilne ciągle rosną. Jednym z aspektów szeroko rozumianej poprawy jakości dźwięku w urządzeniach mobilnych jest dopasowanie dynamiki generowanego dźwięku do preferencji słuchowych użytkownika. Paradoksalnie można zauważyć tendencję słuchania dźwięków o mniejszej dynamice, ale dających wrażenie dźwięków głośniejszych, znacznie silniejszych. W kontekście przetwarzania dyna więcej »

Dynamiczny dobór kanałów radiowych w kognitywnych hierarchicznych sieciach bezprzewodowych - DOI:10.15199/59.2015.8-9.23
Krzysztof Malon Jerzy Łopatka 
Artykuł dotyczy aktualnych zagadnień związanych z technologią radia kognitywnego. Poruszany problem obejmuje kwestie dynamicznego dostępu do widma w celu jego efektywniejszego wykorzystania. Proponowany algorytm przedstawiono na przykładzie sieci klastrowej, w której poszczególne węzły realizują proces kooperacyjnego monitorowania widma oraz kontroli jakości połączenia. Informacje te agregowane są w węźle nadrzędnym klastra, który podejmuje decyzje, dotyczące zmian kanału pracy. 1. WSTĘP W nowoczesnych systemach łączności radiowej coraz powszechniej sięga się po technologię radia inteligentnego, zwanego również radiem kognitywnym (CR - Cognitive Radio). Literatura dotycząca tego zagadnienia jest obszerna i obejmuje wiele aspektów. Główna idea tego rozwiązania bazuje na cyklu kognitywnym zaproponowanym przez J. Mitolę [1]. Zgodnie z pierwszym etapem tego cyklu - obserwacją, węzeł radiowy musi być świadomy otaczającego go środowiska. Następnie w fazie orientacji definiowane są priorytety, które określają ważność i znaczenie odebranych informacji oraz warunkują dalsze działanie. W kolejnym etapie następuje planowanie poprzez generowanie możliwych do wykonania działań, a następnie podjęcie decyzji o wyborze konkretnego rozwiązania i wykonanie wybranych działań. Dopełnieniem całego cyklu, a zarazem elementem wyróżniającym radia CR spośród tradycyjnych rozwiązań jest zdolność do uczenia. Dzięki tej funkcjonalności, radio może wykorzystywać obserwacje i podejmowane akcje w celu poprawy swojego działania. Przegląd rozwoju, najważniejszych osiągnieć i wyzwań w dziedzinie radia kognitywnego przedstawiono m.in. w [2] oraz, ze szczególnym naciskiem na proces podejmowania decyzji i uczenie, w [3]. W dalszej części artykułu przedstawiono krótki wstęp do metod dynamicznego dostępu do widma, następnie środowisko symulacyjne oraz algorytm proponowanego rozwiązania bazującego na kooperacyjnym monitorowaniu widma. W kolejnym rozdziale z więcej »

EFEKTYWNOSC PROTOKOŁU OLSR Z MECHANIZMEM OCENY ZASOBÓW WEZŁÓW I ADAPTACYJNYM WYBOREM TRASY - DOI:10.15199/59.2015.8-9.61
Janusz Romanik Adam Krasniewski Szymon Kacik Edward Golan 
W artykule dokonano oceny wydajnosci mechanizmu routingu bazujacego na zasobach wezłów sieci MANET, nazywanego RESA-OLSR (ang. RESources Aware OLSR). Mechanizm wykorzystuje metryki okreslajace stan baterii i obciaenie wezła ruchem do wyznaczenia metryki globalnej wezła, odwzorowanej na wartosc parametru Willingness. Badania symulacyjne potwierdzaja skutecznosc mechanizmu oceniana na podstawie wydłuenia czasu pracy sieci oraz wzrostu liczby dostarczonych pakietów. 1. WSTEP Mobilne sieci organizowane doraznie, nazywane w literaturze sieciami MANET (ang. Mobile Ad-hoc NETwork), składaja sie z równorzednych, mobilnych wezłów, komunikujacych sie ze soba za pomoca wieloskokowych łaczy bezprzewodowych. Sieci te sa pozbawione hierarchicznosci i centralnych jednostek zarzadzajacych czy wezłów-koordynatorów. Ze wzgledu na fakt, e wezły te moga poruszac sie i formowac odpowiednie sieci w dowolny sposób, siec taka ma tendencje do dynamicznych zmian swojej topologii. W zwiazku z tym spełnienie wymagan dotyczacych mobilnosci i zdolnosci do dynamicznej rekonfiguracji wymaga wbudowania odpowiedniej logiki bezposrednio w wezły [1]. Wydajnosc mobilnych sieci ad-hoc zaley w głównej mierze od efektywnosci zastosowanego mechanizmu routingu. Powszechnie uwaa sie, e standardowe protokoły routingu opracowane dla sieci stacjonarnych sa mało wydajne w sieciach MANET [3]. Swobodne i losowe przemieszczanie sie wezłów powoduje, e topologia sieci nie jest stała ale dynamicznie sie zmienia. W takich sieciach z koniecznosci jest generowany dodatkowy ruch zwiazany z odkrywaniem wezłów sasiednich. Skutkuje to poszukiwaniem takich rozwiazan, które ze wzgledu na ograniczona przepustowosc sieci radiowych generuja moliwie niewielki ruch zwiazany z odkrywaniem otoczenia i aktualizacja informacji o wezłach sasiednich. Jednym z najbardziej popularnych protokołów routingowych stosowanych w sieciach bezprzewodowych jest OLSR (ang. Optimized Link State więcej »

EFFECTIVE POWER ALLOCATION FOR OFDM-BASED GREEN COGNITIVE RADIO NETWORKS WITH RATE LOSS CONSTRAINTS - DOI:10.15199/59.2015.8-9.22
Jerzy Martyna 
In this paper, we study a new power allocation scheme for OFDM-based green cognitive radio networks (CRNs). Due to the secondary transmission, the primary users (PUs) and the secondary users (SUs) cause mutual interference. Instead of using the conventional interference power constraint (IPC) to protect the PUs in the primary system, we propose a criterion in the form of an upper bound on the rate loss of PU due the SU transmission. Under the suggested constraints along with the SUs transmission constraint, the effective power allocation scheme in green CRN for the SU to maximise its transmission rate is given. 1. INTRODUCTION A cognitive radio (CR) is a new concept for the wireless communication system. The idea of CR was first presented by J. Mitola III and G.Q. Maquire [1]. Later S. Haykin [2] treated CR as brain-empowered wireless communications. The main goal of CR is to improve the utilisation of a natural resource: the radio electromagnetic spectrum. CR is considered as a future radio technology that should be aware of its surrounding environment and internal state. Moreover, the CR system may be deployed and distributed in network, ad hoc, and mesh architectures. Thus, it serves both - licensed (primary users, PUs) and unlicensed users (secondary users, SUs). On the other hand, the CR network should be capable of using bands assigned to unlicensed users and utilising the licensed part of a radio spectrum without harmful interference. In CR, the secondary users need to sense the idle channel. Once an idle channel is sensed, the secondary system will access this channel. Recently, SUs are allowed to transmit their data with the PU over the same spectrum band simultaneously on condition that the resultant interference at the PU receiver is below tolerable interference threshold. This kind of architecture is referred to as spectrum underlay [3]. Otherwise, in this approach simultaneous cognitive and non cognitive więcej »

Elastic optical networks - a new approach for effective provisioning of cloud computing and content-oriented services - DOI:10.15199/59.2015.8-9.2
Krzysztof Walkowiak Michał Aibin 
In last few years, the Internet has evolved from a simple and best effort network towards a complex system offering many advanced services like cloud computing, Content Delivery Network (CDN), Internet of Things, machine-to-machine communication, etc. Many of these new services are highly bandwidth demanding, what triggers the need to update the existing backbone optical networks to avoid network congestion problems [1]- [3]. Moreover, the new services are mostly offered by specialized data centers what changes the network traffic patterns from classical unicast transmissions defined as one-to-one to anycast transmissions defined as one-to-one-of-many. To meet the arising challenges, recently a new technology has been deployed in backbone networks, namely, Elastic Optical Network. The key idea of EONs is to use an optical-orthogonal frequency division multiplexing (OFDM) that enables to accommodate such high bandwidth demand applications. Another important innovation offered in EONs is a flexible frequency grid allowing better utilization of optical spectrum, advanced transmission and modulation techniques enabling distance adaptive transmissions and new protection techniques based on the bandwidth squeezing [4]- [7]. The main contribution of this paper is twofold. First, we describe the concept of Elastic Optical Networks in the context of provisioning of cloud computing and content oriented services in optical transport networks. Second, we discuss issues related to dynamic routing of joint unicast and anycast traffic in EONs. The reminder of the paper is organized as follows. Section 2 includes a brief discussion on cloud computing and content oriented services. In Section 3, we present main issues related to EONs. Section 4 focuses on problems of dynamic routing in EONs. In Section 5, we introduce algorithms for dynamic routing and Section 6 reports the obtained results. Finally, in Section 7 we conclude our work. NEW S więcej »

ELLIPTIC CURVE CRYPTOGRAPHY SYSTEMS AND THEIR HARDWARE IMPLEMENTATIONS IN WIRELESS AD HOC AND SENSOR NETWORKS - DOI:10.15199/59.2015.8-9.111
Jerzy Martyna 
Elliptic curve cryptography (ECC) is a complex computational method and before its implementation some parameters have to be selected. Several software implementations of ECC systems have been realised. Nevertheless, the most popular in the wireless ad hoc and sensor networks are demands in the hardware implementations. Most of them are implemented on Application Specific Integrated Circuits (ASIC) and only two were implemented on Field Programmable Gate Array (FPGA). This paper surveys the ECC systems and investigates different implementations on wireless ad hoc and sensor networks. 1. INTRODUCTION Ad hoc networks have received their name due to the fact that there is no predefined structure or infrastructure of communication, but they consist of nodes that relay information to their neighbours possibly on behalf of other neighbours. Typical ad hoc networks are composed of heterogeneous mobile devices, such as cellular phones, PDAs, laptops, etc. and fixed equipment (base stations, access points, etc.). Wireless sensor networks (WSNs) are a particular type of ad hoc networks, in which the nodes are equipped with sensing facilities (thermometer, sensing device, etc.). A necessary component of wireless ad hoc and sensor networks is the ability to reliably authenticate the communication between the nodes and other network entities. The provision of security services such as authentication, confidentiality, integrity is critical in order to deploy the wireless ad hoc and wireless sensor networks in commercial or military environments. Some traditional security mechanisms, such as authentication protocols, digital signature and encryption are used in the ad hoc networks [1]. However, these mechanisms are not sufficient by themselves. Security requirements are mainly satisfied in WSNs through a symmetric key cryptography [2, 3]. These protocols are based on the keys concept. However, due to the limitation on memory resources więcej »

EWOLUCJA KONCEPCJI SIECI W KIERUNKU SIECI ZORIENTOWANYCH NA PRZEPŁYWY - DOI:10.15199/59.2015.8-9.14
Krzysztof Wajda Grzegorz Rzym Jerzy Domżał Robert Wójcik 
Artykuł przedstawia w zwarty sposób koncepcję przepływów (ang. flows), która stanowi obecnie popularne podejście do sterowania i monitorowania w sieciach rozwijane w różnych rozwiązaniach od 20 lat. W zakresie monitorowania i pomiarów opisano architekturę i działanie protokołu NetFlow, ilustrując opis wynikami reprezentatywnymi przy identyfikacji ruchu dla popularnych sieci społecznościowych. W zakresie sterowania zaprezentowano technikę FAN (ang. Flow-Aware Networking), stanowiącą nowatorskie podejście do zapewnienia jakości usług w sieciach IP oraz SDN (ang. Software Defined Network). Rozwiązania stosujące przepływy stanowią ilustrację ewolucji sieci w kierunku pozornie uproszczonego podejścia uznającego przepływy jako podstawowy obiekt reprezentujący ruch w sieciach komputerowych, w opozycji do wcześniejszego podejścia zorientowanego na pakiety. 1. WPROWADZENIE Współczesne sieci są głównie rozwijane jako sieci pakietowe. Ta tendencja - a nawet paradygmat konstrukcji sieci - obowiązuje od samego początku realizacji sieci opartych na protokole IP. Zaletą sieci pakietowych jest przede wszystkim elastyczność transmisji i dopasowanie do transmisji ruchu nierównomiernego. Natomiast należy nadmienić, że sieci pakietowe wykazują także wady, których znaczenie jest systematycznie zmniejszane. Wadami sieci pakietowych jest statystyczny charakter gwarancji jakości transmisji (lub nawet best effort) oraz zależność od protokołów (transportu, sieciowych, itd.). Skuteczna obsługa ruchu pakietowego oznacza realizację obciążających (intensywnych) procedur trasowania oraz aktywnej obsługi ruchu w węzłach sieci (ruterach). Sytuacja ta prowadzi do budowy wydajnych ruterów o nieblokowalnej strukturze i przepustowościach rzędu Tbit/s . Rozwój sieci pakietowych doprowadził do realizacji prac mających na celu uproszczenie metod akceptacji ruchu, obsługi w węzłach i ogólnie: planowania transportu. W takim przypadku, naturalne jest zaintereso więcej »

Filtracja antyaliasingowa w koderach delta z nierównomiernym próbkowaniem - DOI:10.15199/59.2015.8-9.104
Jacek Kołodziej Jacek Stępień Ryszard Golański Juliusz Godek Jacek Ostrowski 
W artykule przedstawiono analizę zjawiska aliasingu i naturę szumu kwantyzacji w koderach delta z nierównomiernym próbkowaniem. Skoncentrowano się na poszukiwaniu odpowiedzi na pytanie: jakie efekty powoduje próbkowanie sygnału przez modulator NS-DM (ang. Nonuniform Sampling - Deta Modulation)? 1. WSTĘP Jednymi z najważniejszych elementów wchodzących w skład toru przetwarzania analogowo-cyfrowego i cyfrowo-analogowego są: wejściowy filtr antyaliasingowy oraz wyjściowy filtr wygładzający. Podstawowym celem tego pierwszego jest ograniczenie pasma sygnału, wynikające z twierdzenia o próbkowaniu. Ponadto, jeżeli to konieczne, wykonać korekcję zniekształceń aperturowych oraz interpolację pierwszego rzędu sygnału odtwarzanego. Modulatory delta, pracując ze znacznym nadpróbkowaniem, stwarzają możliwość eliminacji lub znacznego ograniczenia niektórych wymienionych efektów. Nadpróbkowanie umożliwia uproszczenie konstrukcji filtra antyaliasingowego, a także uproszczenie budowy filtra wygładzającego, na skutek redukcji zniekształceń typu sin(x)/x [1]. Zastosowanie w układzie dekodera bloku predyktora z interpolacją pierwszego rzędu, z uwagi na łagodny przebieg zmian sygnału wyjściowego, pozwala także na zmniejszenie rzędu filtra wygładzającego. W artykule przedstawiono analizę zjawiska aliasingu, ocenę zniekształceń aperturowych oraz naturę szumu kwantyzacji w koderach delta z nierównomiernym próbkowaniem (NS-DM). Skoncentrowano się na poszukiwaniu odpowiedzi na pytanie: na ile nierównomierne próbkowanie w koderach delta może uprościć konstrukcję filtrów analogowych? 2. MODULACJE DELTA Z NIERÓWNOMIERNYM PRÓBKOWANIEM Modulatory NS-DM (ang. Nonuniform Sampling - Delta Modulation) i ANS-DM (ang. Adaptive NS-DM) [3], to przetworniki różnicowe 1-bitowe z adaptacją zarówno kroku kwantyzacji jak i częstotliwości próbkowania. Dzięki jednoczesnemu zmniejszaniu okresu próbkowania i zwiększaniu kroku kwantyzacji q algorytm ANS-DM charak więcej »

FUNKCJA KOHERENCJI ŁĄCZNIE OKRESOWO NIESTACJONARNYCH SYGNAŁÓW LOSOWYCH - DOI:10.15199/59.2015.8-9.102
Igor Jaworski Roman Juzefowycz Zbigniew Zakrzewski Jacek Majewski 
Przeanalizowano funkcję koherencji opisują- cą stopień skorelowania harmonicznych składowych sygna- łów losowych, które są łącznie okresowo niestacjonarne. Wykazano, że wprowadzona funkcja koherencji nie zmie- nia się przy liniowych przekształceniach sygnałów. Omó- wiono jej własności dla przypadków amplitudowo i fazowo zmodulowanych sygnałów. 1. WPROWADZENIE Przeprowadzenie wzajemnej analizy kowariancyjnej i widmowej jest niezbędne przy badaniu zarówno jedno- jak i wielokanałowych układów teletransmisyjnych, identyfikacji właściwości torów przenoszących sygnały, lokalizacji i oceny ich źródeł itp. [1-3]. Do analizy powiązań łącznie stochastycznych stacjonarnych sygnałów losowych więcej »

GENERACJA ZABURZEŃ RADIOELEKTRYCZNYCH W RUCHOMYM ZESTYKU ŚLIZGOWYM - DOI:10.15199/59.2015.8-9.70
Leszek Kachel Jan Kelner 
W artykule omówiono problematykę przepływu prądu elektrycznego oraz generowanie zaburzeń radioelektrycznych w ruchomym nierozłącznym zestyku ślizgowym. Ma to zastosowanie w maszynach elektrycznych, tramwajowej trakcji elektrycznej oraz trakcji kolejowej. Przepływowi prądu elektrycznego przez taki zestyk towarzyszy jednocześnie występowanie niepożądanej energii wielkiej częstotliwości w postaci zaburzeń radioelektrycznych. Przebieg charakterystyki widma zaburzeń radioelektrycznych w funkcji częstotliwości nie dla wszystkich urządzeń elektrycznych wyposażonych w zestyk ślizgowy ma podobny charakter. Podczas przypadkowego przerywania obwodu z ruchomym zestykiem ślizgowym generowana energia wielkiej częstotliwości może występować w formie przepięć rozprzestrzeniających się w obwodzie zasilania. 1. WSTĘP Pomimo coraz częstszego stosowania różnego rodzaju kluczy elektronicznych urządzenia przełączające z ruchomym zestykiem rozłącznym i nierozłącznym są nadal stosowane, szczególnie w urządzeniach dużej mocy. Typowym przykładem ruchomego zestyku ślizgowego nierozłącznego jest współpraca szczotki z komutatorem w maszynie elektrycznej nakładek ślizgacza z przewodem jezdnym w pantografowym odbieraku prądu zarówno w trakcji tramwajowej oraz kolejowej. Wzajemne współdziałanie stykających się powierzchni odbywa się przy udziale tarcia zewnętrznego w wyniku istnienia siły dociskającej normalnej oraz siły stycznej powodującej przemieszczanie się powierzchni względem siebie. W tarciu biorą udział warstwy powierzchniowe, podpowierzchniowe i środowisko, w którym ono przebiega. Rzeczywista styczność trących się elementów nie występuje na całej geometrycznej powierzchni, lecz na bardzo małych fragmentach przenoszących całe obciążenie. W trakcie przemieszczania się stykających się powierzchni ze sobą pod wpływem siły dociskowej, następuje zgniatanie nierówności i tworzą się mikro powierzchnie zestyku mechanicznego, które są rozłożone przyp więcej »

GIGABIT WiFi - CZY ZMIANY OZNACZAJĄ "CZAS NA ZMIANĘ" - DOI:10.15199/59.2015.8-9.82
Mariusz BEDNARCZYK 
Celem artykułu jest próba odpowiedzi na pytanie jak szybko nowe rozwiązanie IEEE 802.11ac zainteresuje przeciętnego użytkownika. Czy powinien on już zastanawiać się nad nowym produktem czy może jeszcze pozostać przy standardzie 802.11n? Warto być "trendy" i wybiec w przyszłość, czy może jeszcze trochę poczekać? 1. WSTĘP W obserwowanym od wielu lat wyścigu przy wdrażaniu nowych technologii w dziedzinie telekomunikacji szczególnie duży postęp daje się obserwować w obszarze sieci bezprzewodowych. O prymat w dziedzinie bezprzewodowej transmisji danych walczą dziś trzy technologie: UMTS, LTE i WiFi. Co zaskakuje, w roku 2004 nikt nie miał wątpliwości, że to z kolei technologia WiMAX stanie się technologią dominującą, która usunie w cień WiFi. W roku 2006 nie było to już tak pewne, a w 2009 okazało się, że jego rozwój skutecznie został przyhamował przez operatorów telefonii komórkowej, oferujących dostęp do Internetu za pośrednictwem HSUPA (High Speed Uplink Packet Access), HSDPA (High Speed Downlink Packet Access), a obecnie LTE (Long-Term Evolution). Wydaje się, że technologia jutra w przypadku dużych obszarów, to technologia 4G. W sieciach lokalnych natomiast na dobre przyjął się standard IEEE 802.11, którego nowe rozszerzenie umożliwia obecnie uzyskanie przepustowości rzędu Gb/s. Wśród głównych argumentów, decydujących o atrakcyjności sieci WiFi, w pierwszej kolejności wymienia się: wsparcie dla mobilności użytkowników, elastyczność w konfigurowaniu sieci i skalowalność. Równie ważne są także szybkość i prostota instalacji, zwłaszcza w kontekście częstych rekonfiguracji. Czynniki te spowodowały, że uzyskały one szeroką akceptację różnych grup użytkowników, zarówno domowych, biurowych, jak i biznesowych. Standard 802.11ac znany również jako "Gigabit WiFi" to kolejna, piąta już generacja sieci bezprzewodowych. Zaproponowane tu rozwiązania czynią go technologią bardzo zaawansowaną, ale i mocno złożoną. Biorąc pod uwagę tem więcej »

HIERARCHICZNY SYSTEM ZABEZPIECZANIA PLIKÓW DŹWIĘKOWYCH - DOI:10.15199/59.2015.8-9.86
Przemysław Dymarski Robert Markiewicz 
Pełne zabezpieczenie pliku z sygnałem fonicznym przed nielegalnym kopiowaniem wymaga wstawienia odrębnego znaku wodnego do każdej kopii utworu. Taki znak wodny (odcisk palca, ang. fingerprint) powinien umożliwić identyfikację nabywcy lub grupy nabywców, którzy, posługując się legalnie nabytymi kopiami utworu dokonali zatarcia znaku wodnego w celu osiągania zysku z nielegalnego rozpowszechniania. W niniejszej pracy zaproponowano algorytmy umożliwiające oznakowanie dużej liczby kopii i wykrycie sprawców ataku. 1. WSTĘP Szybko rozwijające się obecnie społeczeństwo informacyjne oparte na wymianie dużej ilości treści (przeważnie mało wartościowych poznawczo) staje się bardzo często ofiarą przestępców naruszających prawa autorskie właścicieli tych treści. Łamane są prawa autorskie twórców sekwencji wideo, ale także (a może głównie) właścicieli utworów muzycznych. Bronią się oni przed atakami, stosując np. techniki znakowania wodnego (ang. watermarking). Znak wodny dodawany do sygnałów fonicznych powinien być niesłyszalny dla użytkownika oraz powinien umożliwiać identyfikację jego nabywcy. Taki znak wodny określany jest często mianem "odcisku palca" (ang. fingerprint) [1]. Powinien on być trudny do usunięcia lub zatarcia bez wyraźnego obniżenia jakości przekazu. Z drugiej strony, doskonalone są techniki przeprowadzania ataku na znak wodny, w celu jego zatarcia lub stłumienia. Najczęściej stosują techniki desynchronizacji polegające np. na obniżeniu częstotliwości próbkowania o kilka lub kilkadziesiąt Hz, usuwaniu krótkich fragmentów pliku oraz zaszumianie przy użyciu np. kodera MP3. Najtrudniejsze do wykrycia są ataki przeprowadzane z wykorzystaniem kilku legalnie nabytych kopii utworu, różniących się znakami wodnymi. Ataki takie określa się terminem koluzja (ang. collusion), gdyż wymagają one zmowy kilku nieuczciwych nabywców pliku [2]. Właściciel praw autorskich do plików muzycznych dysponujący oryginalnym, nieoznakowanym n więcej »

IMPLEMENTACJA I TESTOWANIE MOBILNEJ APLIKACJI DO ZOBRAZOWANIA PRZEPUSTOWOŚCI W SIECIACH 2G/3G/4G - DOI:10.15199/59.2015.8-9.98
Agata Białkowska Piotr Łubkowski 
Rozwój technologii komórkowych pozwala na uruchomienie dostępu do zaawansowanych usług multimedialnych dla szerokiego grona abonentów wyposażonych w terminale danych zwane popularnie smartfonami. Zapewnienie odpowiedniej przepustowości jest kluczowym parametrem warunkującym właściwą jakość świadczonych usług i gwarantującym satysfakcję użytkownika. W artykule przedstawiono problemy implementacji i testowania mobilnej aplikacji umożliwiającej bieżący pomiar dostępnej szybkości transmisji dla łącza w górę oraz w dół dla różnych standardów systemów sieci komórkowych. Zaproponowane rozwiązanie umożliwia ocenę zasobów systemu pod kątem transmisji danych multimedialnych i stanowi część platformy wykorzystywanej w ramach systemu monitoringu i akwizycji danych [1, 2]. 1. WSTĘP Wraz z rozwojem rynku telekomunikacyjnego obserwuje się coraz większe zainteresowanie dostępem do zaawansowanych usług multimedialnych. Postęp w tym obszarze można zaobserwować nie tylko w obszarze operatorów sieci przewodowych, ale także, a może przede wszystkim, wśród operatorów sieci komórkowych. Świadczenie usług multimedialnych stanowi obecnie jeden z głównych nurtów działalności operatorów telekomunikacyjnych, a usługi takie jak strumieniowanie audio/wideo, usługi wideofoniczne i wideokonferencyjne czy interaktywne usługi transakcyjne stanowią podstawę dostępnej oferty. Niestety, w porównaniu do tradycyjnych sieci przewodowych, sieci bezprzewodowe (komórkowe) charakteryzują się zdecydowanie mniejszą wydajnością, niezawodnością a przede wszystkim jakością. Zdecydowanie mniejsze są także oferowane przepustowości. Nadmienić należy także, że kanał transmisyjny charakteryzuje się ponadto występowaniem zniekształceń niespotykanych w sieciach przewodowych. Prowadzi to do oczywistego wniosku, że oferowanie usług multimedialnych charakteryzujących się poziomem jakości zadowalającym użytkownika końcowego nie jest zagadnieniem prostym w realizacji. Stąd też, więcej »

IMPLEMENTACJA NARZĘDZI WSPÓŁPRACY INTELIGENTNYCH SYSTEMÓW TRANSPORTOWYCH (ITS) - DOI:10.15199/59.2015.8-9.32
Marian Kowalewski Andrzej Pękalski 
Istotą ITS jest korzystanie z komunikacji w środowisku dynamicznie zmieniającym się w czasie i przestrzeni, jak np.: zmiana położenia komponentów ITS, zmiana parametrów ruchu, zmiany w składzie tych komponentów, wpływ na nie warunków zewnętrznych, wykorzystanie automatyzacji itp. Udogodnienia w modelu komunikacji ITS są użytecznym narzędziem do realizacji usług współpracujących systemów. Implementacja ich znormalizowanych rozwiązań powinna zapewnić oczekiwane funkcje oraz interoperacyjność usług ITS. 1. WSTĘP Komunikacja ma fundamentalne znaczenie w przypadku systemów transportowych wykorzystujących rozwiązania teleinformatyczne i działających w sposób zautomatyzowany lub automatyczny. Można stwierdzić, że odpowiednio sprawna i skuteczna komunikacja jest kluczem do funkcjonowania inteligentnych, współpracujących ze sobą systemów transportowych (ang. cooperative ITS - C-ITS). C-ITS stawiają rozwiązaniom komunikacji generalnie wymagania podobne jak inne aplikacje wymieniające informacje: pojemność, szybkość, czasy reakcji, niezawodność,... Jednak w pewnych przypadkach są to wymagania szczególne, a niejednokrotnie krytyczne, z punktu widzenia celów i warunków działania systemu transportowego. Do tych szczególnych wymagań może należeć: znajomość lokalnych warunków i adaptacja do nich, szybkość i pewność działania itp. Od nich może zależeć realizacja aplikacji odpowiedzialnych za bezpieczeństwo czy automatyczne reakcje na okoliczności środowiska (np. warunki atmosferyczne, stan infrastruktury, awarie, zachowanie innych podmiotów transportu,...). Ma to miejsce zwłaszcza w przypadku aplikacji w pojazdach, które współpracują z aplikacjami w innych pojazdach (relacja pojazd-pojazd, ang. vehicle to vehicle - V2V) lub z aplikacjami zlokalizowanymi w infrastrukturze transportowej (relacja pojazd-infrastruktura, ang. vehicle to infrastructure- V2I albo relacja infrastruktura - pojazd, ang. infrastructure to vehicle - I2V) lub ogóln więcej »

IMPLEMENTACJA NOWYCH METOD ZARZĄDZANIA RUCHEM DANYCH W SIECIACH NAKŁADKOWYCH ORAZ ŚRODOWISKACH CHMUROWYCH - DOI:10.15199/59.2015.8-9.46
Krzysztof Wajda Rafał Stankiewicz Grzegorz Rzym Piotr Wydrych Zbigniew Duliński Roman Łapacz Łukasz Łopatowski Jakub Gutkowski 
Artykuł zawiera opis specyfikacji oraz implementacji nowych metod zarządzania ruchem w rozproszonym systemie realizacji usług uruchomionym i przetestowanym w latach 2012-2015 w projekcie FP7 SmartenIT. Przedstawiono założenia projektu, scenariusze oraz przypadki użycia wybrane do realizacji. Opracowane rozwiązania uwzględniają uwarunkowania działań interesariuszy, ich relacje między sobą oraz możliwe modele biznesowe. Projekt skupia się na dwóch scenariuszach zarządzania ruchem: na poziomie operatorskim ISP (Internet Service Providers) oraz w obszarze sieci dostępowej, obejmującym transmisje do i z terminala końcowego użytkownika. Artykuł przedstawia architekturę, w ramach której zaimplementowano metody zarządzania ruchem oraz sposoby integracji ze środowiskami operatorów systemów chmurowych, operatorów ISP, właścicieli rozproszonych aplikacji oraz użytkownikami. 1. WSTĘP Szybki rozwój sieci Internet napędzany jest obecnie m.in. przez wzrost znaczenia systemów chmur obliczeniowych oraz zwiększoną i elastyczną ofertę usług oferowanych dla użytkowników. Istotny udział w tym procesie mają powszechnie wykorzystywane sieci społecznościowe OSN (Online Social Networks) typu Facebook lub Linkedin, działające na bazie rozproszonych zasobów obliczeniowych, dyskowych i sieciowych. Sieci te są platformami wymiany oraz gromadzenia danych, które generują wiedzę cenną dla rynku reklamowego ale także dla mechanizmów zarządzania ruchem w sieciach komputerowych. Znaczące zmiany zachodzą również na poziomie infrastruktury sieciowej. Operatorzy stale zwiększają zakres zastosowania sieci definiowanych programowo SDN (Software Defined Networks) uzupełnianych przez wirtualizację funkcji sieciowych NFV (Network Functions Virtualization). W ostatnich kilku latach nastąpiła poważna zmiana technicznych środków realizujących funkcje sieciowe, a także sposobu definicji usług oraz dostępu do nich. Analiza tych procesów nie jest łatwa, ale wnioski o więcej »

IMPLEMENTATION OF CONTENT-BASED PROTECTION AND RELEASE IN SOFTWARE-DEFINED NETWORKS - DOI:10.15199/59.2015.8-9.57
Sebastian Szwaczyk Konrad Wrona Sander Oudkerk 
Future civilian and military communications and information systems require a new method for more dynamic and fine-grained control of access to information. A Content-based Protection and Release (CPR) model has been proposed to address the challenges introduced by future military operations. In this paper we present how the CPR concept can be applied to software-defined networks (SDN) in order to provide integrated protection of information in transit. In particular, we provide an indepth discussion of a proof-of-concept implementation of CPR enforcement in SDNs. 1. INTRODUCTION An important current research and development topic in military and civilian communications and information systems (CIS) is the design of a new method for more dynamic and fine-grained control of access to information. Such a new approach must not only effectively support need-to-know and responsibility-toshare requirements in military operations, but also enable cross-layer enforcement of security policies. The enforced security policies should cover all three dimensions of security - confidentiality, integrity and availability. This is in strong contrast to the situation in a traditional military CIS environment, in which enforcement of security policies is focused mostly on confidentiality and access control mechanisms. One of the proposals made to address the above requirements is the Content-based Protection and Release (CPR) model [1] developed by the NATO Communications and Information Agency, specifically to address the challenges related to implementation of Federated Mission Networking (FMN) [2] and future NATO operations. At the same time Protected Core Networking [3] (PCN) has been proposed as a paradigm for the implementation of a flexible and secure communication infrastructure for a federated military environment. Software-defined networks (SDN) [4] are emerging as a popular approach to network operation and management in the c więcej »

INTEROPERACYJNOŚĆ KOMPONENTÓW SYSTEMÓW W INTELIGENTNYCH SIECIACH ELEKTROENERGETYCZNYCH W ŚWIETLE EUROPEJSKICH PRAC NORMALIZACYJNYCH - DOI:10.15199/59.2015.8-9.94
Jacek Świderski 
Zdolność do współpracy, zwana interoperacyjnością, komponentów systemów wdrażanych w elektroenergetycznych sieciach inteligentnych, jest kluczowym zagadnieniem, jakie staje przed projektantami i dostawcami tych systemów. W referacie są podane zasady opisu i analizy systemów z perspektywy pożądanej interoperacyjności, a także wskazówki związane z ich projektowaniem zapewniającym wymaganą interoperacyjność. Przeprowadzone rozważania nawiązują do raportów opracowanych ostatnio przez Wspólną Grupę Koordynacyjną do zagadnień sieci inteligentnych, złożoną z europejskich organizacji normalizacyjnych CEN, CENELEC i ETSI. 1. WSTĘP Inteligentne sieci elektroenergetyczne to sieci elektroenergetyczne, które są w stanie efektywnie integrować zachowanie i działanie wszystkich dołączonych do nich użytkowników - wytwórców, konsumentów (odbiorców) i użytkowników będących zarówno wytwórcami, jak i konsumentami energii elektrycznej (zwanych prosumentami) - w celu stworzenia oszczędnego pod względem gospodarczym i zgodnego z zasadami zrównoważonego rozwoju systemu energetycznego, charakteryzującego się niskim poziomem strat oraz wysoką jakością i bezpieczeństwem dostaw. Taką definicję sformułowała, powołana przez Komisję Europejską, grupa zadaniowa do spraw elektroenergetycznych sieci inteligentnych (Smart Grids Task Force) [1]. Spełnienie oczekiwań wymienionych w podanej definicji w odniesieniu do sieci, czy systemów elektroenergetycznych, nieodłącznie wiąże się z potrzebą wykorzystywania najnowszych zdobyczy techniki w obszarze szeroko rozumianej elektroniki, informatyki i telekomunikacji, ze szczególnym uwzględnieniem teleinformatyki (ang. Information and Communication Technologies - ICT). Taka potrzeba wynika z tego, że szeroki zakres rozwiązań technicznych z dziedziny elektrotechniki, stosowanych i przewidywanych do stosowania w systemach elektroenergetycznych, implikuje konieczność wykorzystywania różnorodnych urządzeń i systemów z więcej »

KEYSTONE - JAKO PROCES AUTORYZACYJNY SYSTEMU OPENSTACK - DOI:10.15199/59.2015.8-9.125
Radosław Czaja Marek M. Landowski Sylwester Kaczmarek 
Niniejszy artykuł ma na celu ukazanie funkcjonowania serwisu Keystone odpowiedzialnego za uwierzytelnianie użytkowników w architekturze OpenStack. Stanowi on front-end tego systemu, sprawując kontrolę nad dostępem do zasobów zapewnia scentralizowaną politykę bezpieczeństwa. Komunikacja z serwisem odbywa się na zasadzie klient-serwer, gdzie Keystone obsługuje żądania wysyłane do jego API, w zamian generując klucze dostępowe dla określonych użytkowników w systemie. W artykule przedstawiono testy funkcjonalne i wyniki badań wydajnościowych serwisu Keystone. 1. WSTĘP Ogromny postęp w przeciągu ostatnich 20 lat w dziedzinach związanych z sieciami i systemami przechowującymi dane zaowocował powstaniem struktur o wysokiej funkcjonalności tzw. chmur obliczeniowych. Są to rozwiązania, które przewyższyły swoimi możliwościami swoich poprzedników skupiających się na przechowywaniu danych w ramach serwera. Nowoczesne podejście, jakim są chmury, bazują na różnych modelach zwanych "jako usługa" (ang. aaS), oferując użytkownikom gotowe rozwiązania po stronie infrastruktury, które zapewnia dostawca. Takie systemy mogą składać się z elementów rozproszonych geograficznie po całym świecie. Fakt ten nie będzie miał wpływu na dostępność do zasobów, a w zależności od odległości pomiędzy elementami będzie zmieniała się jedynie wartość opóźnienia. Niniejsza praca prezentuje moduł odpowiedzialny za uwierzytelnianie jednej z takich chmur o nazwie Open- Stack - Keystone. System OpenStack [1], którego Keystone jest elementem, to rozwiązanie z dziedziny chmur obliczeniowych zdolne do przechowywania, przetwarzania oraz modyfikowania danych. Jest to projekt open source napisany w języku Python, który jest w pełni kompatybilny z głównymi dystrybucjami Linuxa, co umożliwia zbudowanie środowiska w łatwy i przyjazny sposób. Zarządzanie systemem odbywa się za pomocą interfejsu graficznego poprzez dostęp z poziomu przeglądarki internetowej lub za pomocą R więcej »

KOEGZYSTENCJA SYSTEMU LTE 2600 MHZ Z SYSTEMAMI RADAROWYMI PRACUJĄCYMI POWYŻEJ 2700 MHZ - POTENCJALNE ZAGROŻENIA - DOI:10.15199/59.2015.8-9.119
Michał Kowal Sławomir Kubal Piotr Piotrowski Ryszard J. Zieliński 
W artykule przedstawiono wstępną fazę analizy kompatybilności pomiędzy systemem LTE pracującycm w zakresie 2600 MHz a systemami radarowymi pracującymi w zakresie 2700 MHz. Analizy tego typu muszą być prowadzone przed wdrożeniem danego systemu do pracy w nowym zakresie częstotliwości, by sprecyzować warunki pracy systemów, które umożliwią ich współistnienie na danym obszarze. Podstawą takich analiz jest zebranie niezbędnych do modelowania danych o systemach zawartych w ich specyfikacjach, uwzględnienie odpowiednich norm ITU i ETSI oraz wybór właściwych modeli propagacyjnych 1. WSTĘP Głównym tematem opracowania jest wskazanie konieczności przeprowadzenia analizy kompatybilności elektromagnetycznej pomiędzy radarami pracującymi w paśmie 2700 MHz a systemem LTE pracującym w zakresie 2600 MHz oraz wskazanie warunków ich kompatybilnego współistnienia. Przypisane wymienionym systemom pasma częstotliwości przedstawiono na rys. 1. Rys. 1 Wykorzystanie pasma 2500-2900 MHz [1] System LTE (Long Term Evolution) jest następcą systemu GSM I UMTS, nastawionym głównie na szybką transmisję danych. W tym obszarze ma on zastąpić system II generacji GSM-GPRS oraz system III generacji UMTS. Architektura systemu LTE jest podobna do architektury systemu UMTS i stosuje w komunikacji z terminalami stacje bazowe eNodeB. System LTE nazywany systemem IV generacji jest nadal rozwijany. Kolejne wersje stosują w interfejsie radiowym technikę ortogonalnego częstotliwościowego zwielokrotnienia kanału radiowego OFDM (Orthogonat Frequency Division Multiplexing) w kanale do terminali i technikę częstotliwościowego zwielokrotnienia dostępu na pojedynczej nośnej SC-FDMA w kierunku do stacji bazowej. System LTE może pracować w różnych zakresach częstotliwości, np. w Europie w zakresach 800, 1800 czy też 2600 MHz. Z tego względu problem współistnienia związany z kompatybilnością elektromagnetyczną w stosunku do radarów pracujących w paśmie 2700 MHz jest aktua więcej »

Koncepcja trasowania ze zmiennym kosztem dla sieci o sterowaniu rozproszonym - DOI:10.15199/59.2015.8-9.7
Dariusz Żelasko Krzysztof Cetnarowicz Krzysztof Wajda 
Współczesne sieci gwarantują wydajne i skuteczne przesyłanie informacji pomiędzy różnego rodzaju użytkownikami - od indywidualnych do korporacyjnych. Od wielu lat prowadzi się prace nad zdefiniowaniem i realizacją mechanizmów oraz architektur, które zapewniłyby różnicowanie jakości usług transmisji danych oraz dodatkowo możliwość definiowania i dokonywania transmisji zgodnie z określonymi parametrami jakościowymi QoS (Quality of Service). Dostawcy usług pobierają zazwyczaj opłatę, opierając się na maksymalnej możliwej do uzyskania wartości przepływności (wydajności) łącza. Niestety, w rzeczywistości przepływność ta rzadko kiedy jest dostępna głównie ze względu na chwilowe obciążenie poszczególnych węzłów i łączy w sieci. Chwilowa przepływność jest określona przez najmniej wydajne ogniwo w transmisji pomiędzy nadawcą a odbiorcą. Zdefiniowane zostały różnego rodzaju metody i architektury umożliwiające zarządzanie ruchem sieciowym, korzystające z różnych podejść do koncepcji typów usług, priorytetów i kategorii przesyłanych informacji. Dla klasycznych sieci IP zaproponowano modele usług IntServ i DiffServ, dla sieci wielousługowych zdefiniowano kompletną technikę ATM (Asynchronous Transfer Mode), wypieraną przez MPLS (Multiprotocol Label Switching). Współcześnie powstają nowatorskie koncepcje, takie jak Software-Defined Networking (SDN), w której założono separację warstwy transportowej od sterowania, uzyskując w ten sposób większą wydajność sieci. W przypadku SDN przyjęto, iż zarządzanie jest realizowane centralnie - tzn. istnieje centralne repozytorium przechowujące reguły niezbędne do zarządzania siecią, a stworzone na podstawie informacji zebranych z całej sieci. Centralizacja nie zawsze wydaje się dobrym rozwiązaniem ze względu na problemy związane z wydajnością (skalowalnością rozwiązania), bezpieczeństwem zbieranej i przechowywanej informacji (jeden węzeł gromadzący informacje). Do realizacji systemu zdecentralizowanego więcej »

KONTEKSTOWA USŁUGA NIEZAPRZECZALNOŚCI OPARTA O MODEL ADAPTACYJNYCH USŁUG BEZPIECZEŃSTWA - DOI:10.15199/59.2015.8-9.113
Marcin Alan Tunia 
Ochrona systemów IT przed intruzami często jest kosztowna lub pochłania dużą część ograniczonych zasobów. Istnieje zatem uzasadniona konieczność optymalizacji wykorzystania zasobów przez mechanizmy bezpieczeństwa przy jednoczesnym zachowaniu akceptowalnego poziomu ochrony przez cały czas działania usługi IT. Odpowiedzią na ten problem mogą być adaptacyjne kontekstowe usługi bezpieczeństwa, które uwzględniając kontekst użytkowników i systemu pozwalają na dobór odpowiednich parametrów zabezpieczeń. W niniejszej pracy został przedstawiony model takiej usługi oraz projekt usługi niezaprzeczalności wykonany w oparciu o ten model. 1. WSTĘP Obecne systemy przetwarzania danych są bardzo zróżnicowane, mają różne przeznaczenie, konfigurację sprzętową i możliwości obliczeniowe, począwszy od urządzeń M2M, a skończywszy na usługach biznesowych opartych o zintegrowane środowiska umiejscowione w wielkich centrach obliczeniowych. W bardzo wielu przypadkach istnieje konieczność ochrony przetwarzanych zasobów przed udostępnieniem ich niepowołanym podmiotom. Przykładem mogą być dane osobowe, dane medyczne pacjentów lub informacje objęte państwowymi klauzulami tajności. W standardowym modelu bezpieczeństwa parametry zabezpieczeń dobierane są w oparciu o najsilniejszy model atakującego, jaki został opracowany podczas analizy ryzyka dla danej usługi IT. Stosowana jest zatem zasada maksymalnej ochrony, dostosowanej do najgorszej sytuacji. Zasoby sprzętowe, takie jak pamięć i moc obliczeniowa, we wcześniej wspomnianych systemach przetwarzania danych są limitowane z uwagi na ograniczenia konstrukcyjne (np. rozwiązania M2M) lub obsługę wielu użytkowników jednocześnie (np. komercyjne usługi sieciowe). Istnieje zatem uzasadniona potrzeba optymalizacji wykorzystywanych zasobów. Takiej optymalizacji można poddać także zabezpieczenia systemów. Należy jednak pamiętać o potrzebie zachowania odpowiedniej jakości ochrony podczas całego cyklu życia usług więcej »

KONTEKSTOWE ZARZĄDZANIE AUTORYZACJĄ OFFLINE TRANSAKCJI REALIZOWANYCH PRZY WYKORZYSTANIU STYKOWYCH KART MIKROPROCESOROWYCH - DOI:10.15199/59.2015.8-9.38
Albert Sitek Zbigniew Kotulski 
Od kilkunastu lat liczba transakcji elektronicznych w Polsce i na świecie sukcesywnie rośnie. Najważniejszymi cechami charakteryzującymi takie transakcje są: wygoda użytkownika, wysokie bezpieczeństwo oraz krótki czas przetwarzania transakcji. Niniejszy artykuł prezentuje nowatorską metodę kontekstowego zarządzania parametrami przeprowadzenia transakcji elektronicznych redukującą średni czas ich przetwarzania i zachowującą przy tym dostateczny poziom bezpieczeństwa. 1. WSTĘP Od początku lat dwutysięcznych na całym świecie trwa sukcesywna migracja systemów transakcyjnych z obsługi kart z paskiem magnetycznym (ang. Magstripe) do wykorzystania kart mikroprocesorowych EMV (skrót od Europay Visa Mastercard). Obecny stan migracji systemów płatniczych na świecie przedstawia Tab. 1. Karty mikroprocesorowe z terminalem płatniczym mogą komunikować się stykowo (ang. Contact EMV), lub zbliżeniowo (ang. Contactless EMV). Migracja do kart mikroprocesorowych pozwala znacznie podnieść poziom bezpieczeństwa przeprowadzanych transakcji, lecz w przypadku kart Contact EMV nieznacznie wydłuża czas ich przetwarzania. Tab. 1. Stan migracji systemów płatniczych do kart EMV na koniec 2014 r. [2] 2014 Region Liczba kart EMV Stopień migracji Kanada, Ameryka Łacińska, Karaiby 544 mld 59,5% Azja 1676 mld 25,4% Afryka i Bliski Wschód 116 mld 50,5% Europa Strefa 1 833 mld 83,5% Europa Strefa 2 154 mld 40,4% USA 101 mld 7,3% Według raportu Narodowego Banku Polskiego na czwarty kwartał 2014 roku, liczba kart płatniczych będących w obiegu wynosiła 36,1 mln, z czego tylko niecałe 1,8 mln kart nie posiadała mikroprocesora. Z kolei liczba transakcji bezgotówkowych wyniosła ponad 550 mln na łączną kwotę niespełna 44,5 mld PLN [1]. Jak łatwo zauważyć, przy tak dużej liczbie transakcji bardzo ważnym czynnikiem, zarówno ekonomicznym jak i wpływającym na wygodę i zadowolenie posiadacza karty, jest czas przetwarzania transakcji. Jest to doskonale wido więcej »

LABORATORIUMMOBILNYCH TECHNIK BEZPRZEWODOWYCH - DOI:10.15199/59.2015.8-9.62
Krzysztof Gierłowski Michał Hoeft Wojciech Gumiński 
W dobie powszechnej obecności mobilnych urządzeń aktywnie wykorzystujących dostęp do sieci Internet, wyraźnie widoczne jest, zarówno w pracach badawczych jak i wdrożeniowych, dążenie do realizacji postulatu powszechności dostępu sieciowego poprzez rozwój bezprzewodowych technik. Jednakże praktyka wykazuje, iż badania heterogenicznego środowiska dostępowego wymagają często testów w rzeczywistym środowisku sieciowym. Artykuł opisuje założenia oraz koncepcję realizacji takiego środowiska - Laboratorium mobilnych technik bezprzewodowych. 1. WSTĘP Rozwój zróżnicowanych, efektywnych technik komunikacji bezprzewodowej, przeznaczonych do wykorzystania zarówno w nielicencjonowanych pasmach ISM (Industrial, Scientific, Medial) jak i w przedziałach pasma wymagających licencji, doprowadził do powszechnej obecności tego rodzaju rozwiązań - w szczególności nie wyobrażamy sobie dziś urządzeń mobilnych pozbawionych możliwości komunikacji bezprzewodowej i to przy wykorzystaniu kilku zróżnicowanych metod. Obecność tak szerokiego grona odbiorców powoduje z kolei gwałtowny rozwój infrastruktury oraz usług przeznaczonych dla powyższego użytkownika, a także zainteresowanie rozwojem nowych mechanizmów i architektur przeznaczonych dla złożonych systemów bezprzewodowych. Dobrym przykładem może tu być rozwój standardów IEEE 802.11 [1] oraz sieci komórkowych (3G, 4G, 5G). Biorąc pod uwagę powyższy trend, prace dotyczące tematyki sieci bezprzewodowych i urządzeń mobilnych jawią się jako szczególnie ważny obszar badawczy. Jednocześnie jednak praktyka wskazuje, iż zróżnicowana specyfika środowiska radiowego musi znajdować wyraźne odzwierciedlenie w opracowanych rozwiązaniach i mechanizmach. Jako przykład mogą tu posłużyć przedstawione dalej prace dotyczące sieci samoorganizujących o transmisji wieloskokowej (Wireless Mesh Networks) czy obsługi mobilności w bezprzewodowych systemach IP (na potrzeby rozwiązań np. 4G/5G). Powyższa cecha, w połączeniu więcej »

LABORATORYJNA SIEĆ WIRTUALNYCH RUTERÓW OSPF I BGP - DOI:10.15199/59.2015.8-9.108
Marek Michalski Kamil Cieślak Maciej Polak 
Artykuł prezentuje system zbudowany z wielu wirtualnych maszyn poła˛czonych w funkcjonalna˛ całos´c´. Zadaniem systemu jest emulacja du˙zych sieci komputerowych zbudowanych z ruterów realizuja˛cych róz˙ne protokoły rutingu, głównie OSPF i BGP. Elementami wykonawczymi sa˛wirtualne kontenery linuxowe (LXC), moga˛ one byc´ uruchomione na róz˙nych serwerach. Elementy systemu sa˛ poła˛czone sieciami VLAN/VPN, a wszystko jest zarza˛dzane z poziomu wygodnego GUI przygotowanego w C# i uruchomianego na komputerze z systemem operacyjnymWindows. 1. WPROWADZENIE Współczesne sieci IP sa˛ bardzo szybkie, nowoczesne rutery i przeła˛czniki stanowia˛ bardzo wysokowydajne w˛ezły sieciowe. Ich konfiguracja mo˙ze by´c bardzo rozbudowana i złoz˙ona, gdyz˙ cze˛sto realizuja˛ one wre˛cz wyrafinowane mechanizmy sieciowe. Bardzo wa˙zne jest, aby administrator sieciowy nie tylko potrafił wdro˙zy´c, uruchomi ´c i nadzorowa´c dany mechanizm, ale równie˙z miał ´swiadomo´s´c jego niedoskonało´sci, słabo´sci oraz zagro˙ze´n z nimi zwia˛zanych. Bez pełnego panowania nad siecia˛ nie moz˙na wykluczyc´ ryzyka powaz˙nej utraty ła˛cznos´ci w sieci [1], poufno´sci danych lub nawet pieni˛edzy [2]. Znane sa˛ sytuacje, gdzie nieprawidłowe uz˙ycie standardowych mechanizmów protokołów rutingu doprowadziło do zachwiania stabilno´sci i niedost˛epno´sci du˙zej cz˛e´sci Internetu [3] lub te˙z niefrasobliwo´s´c administratorów ułatwiła przeprowadzenie powa˙znych ataków na bezpiecze´nstwo danych [4]. Nie ma wa˛tpliwos´ci, z˙e s´wiat IT jeszcze nigdy nie był tak skomplikowany jak współcze´snie. Praktycznie niemo˙zliwe jest bycie ekspertem nawet w kilku niezbli˙zonych dziedzinach, obok aktualnej wiedzy wymagana jest bardzo wa˛ska specjalizacja. Bardzo trudno posiadac´ pełna ˛ i aktualna˛ wiedze˛, jeszcze trudniej ja˛ przekazywac´ i gwarantowa´c kompletno´s´c. Aby ułatwi´c sobie przyswajanie tej wiedzy i przekazywanie jej innym, został opracowany i przygotowany system rute więcej »

Maszynowa generacja oprogramowania dla dwumikrokontrolerowych węzłów Internetu Rzeczy - DOI:10.15199/59.2015.8-9.26
Aleksander Pruszkowski 
W referacie przedstawiono konstrukcję węzłów Internetu Rzeczy wykorzystującą dwa współpracuje ze sobą mikrokontrolery, połączone za pomocą niezawodnej magistrali komunikacyjnej. Aby wesprzeć proces tworzenia oprogramowania dla takich węzłów, zaproponowano protokół zdalnego wywoływania procedur nanoRPC oraz praktyczną metodę automatycznego tworzenia oprogramowania tego protokołu, który umożliwia ich właściwą współpracę. więcej »

MECHANIZMY ADAPTACYJNEJ SIECI ADHOC WSPARCIA DZIAŁAN SIECIOCENTRYCZNYCH - WYNIKI BADAN SYMULACYJNYCH - DOI:10.15199/59.2015.8-9.83
Rafał Brys Krzysztof Zubel Szymon Kącik 
W artykule przedstawiono koncepcje budowy adaptacyjnych sieci Adhoc zdolnych do działan doraznych w zmiennych warunkach, opracowana na podstawie analiz wymagan współczesnych działan słub odpowiedzialnych za bezpieczenstwo panstwa oraz moliwosci technologii bezprzewodowych w zakresie mechanizmów identyfikacji i uwierzytelniania, autokonfiguracji oraz wymiany danych. Przedstawiona została równie koncepcja badan symulacyjnych uwzgledniajacych scenariusze operacyjne zastosowania sieci (działania w terenie zurbanizowanym, otwartym, trudnodostepnym oraz wsparcia działan kryzysowych) oraz wyniki badan symulacyjnych. 1. WSTEP Niniejszy artykuł przedstawia wyniki prac realizowanych w Wojskowym Instytucie Łacznosci w projekcie: "Opracowanie koncepcji platformy komunikacyjnej dla adaptacyjnych sieci AdHoc wspierajacych działania sieciocentryczne w zakresie identyfikacji, autoryzacji, autokonfiguracji oraz wymiany danych". W ramach projektu opracowana została koncepcja budowy adaptacyjnych sieci AdHoc przeznaczonych do wsparcia działan sieciocentrycznych. Celem niniejszego artykułu jest przedstawienie koncepcji budowy adaptacyjnych sieci AdHoc wsparcia działan sieciocentrycznych oraz mechanizmów dodatkowych, niezbednych do własciwego jej funkcjonowania. Ponadto przedstawione zostały moliwe warianty zastosowania (scenariusze). Zgodnie z analizami przeprowadzonymi w ramach projektu, sieci AdHoc sprawdzaja sie wszedzie tam, gdzie wymagana jest dua dynamika działan, szybkie zestawienie sieci, mobilnosc uytkowników oraz stosunkowo niewielki zasieg działania. Przykładem tego typu operacji moga byc działania w terenie zurbanizowanym oddziałów specjalnych, operujacych w niewielkich grupach bojowych na obszarze budynku, czy obszarze miasta. Załoona adaptacyjnosc takich sieci pozwala na zminimalizowanie czasu i zasobów niezbednych do przygotowania sieci do działania oraz rekonfiguracji w przypadku nagłych, nieprzewidywalnych zmian więcej »

METODA ROZWIA˛ZYWANIA ZADANIA k-PODZIELNEGO PRZEPŁYWUWIELOTOWAROWEGO Z OGRANICZENIAMI DOLNYMI NA PRZEPŁYW WS´CIEZ˙CE OPARTA O RANDOMIZOWANE ZAOKRA˛GLANIE - DOI:10.15199/59.2015.8-9.48
Paweł M. Białoń 
Opisano metode˛ rozwia˛zywania zadania przepływu wielotowarowego z praktyki zarza˛dzania siecia˛ z komutacja ˛ strumieni danych, o specyficznych cechach strukturalnych, jak k-podzielno´s´c przepływu, ograniczenia dolne na przepływ w ´scie˙zce, specyficzna funkcja celu. Rozwia ˛zanie rozszerza technike˛ randomizowanego zaokra˛glania Raghavana-Thompsona dla wymienionych cech strukturalych i zawiera mechanizm zmniejszania bł˛edu kwantyzacji przy zaokra˛glaniu. Podano wyniki eksperymentalnego badania metody. 1. WSTE˛P Przedstawione tu specyficzne zadanie przepływu wielotowarowego pojawiło si˛e w trakcie prac nad modułem zarza ˛dzania sterowanej programowo sieci z komutacja˛ strumieni danych RI-KSD. Sie´c ta, prezentowana [7] równolegle z niniejsza˛ praca˛, powstała w ramach działalnos´ci statutowej Instytutu Ła˛cznos´ci [3] jako rozwinie˛cie jednego z równoległych internetów w projekcie In˙zynieria Internetu Przyszłos´ci [4], którego idea˛ było umoz˙liwienie koegzystencji ró˙znych technik sieciowych (komutacja pakietów, komutacja ´scie˙zek, dostarczanie zawarto- ´sci w sieciach ´swiadomych tre´sci itd.) na zwirtualizowanej platformie sprze˛towej. Siec´ ta jest siecia˛ sterowana˛ programowo. Wykorzystuje ona protokół Open Flow, co dało duz˙a˛ strukturalna˛ elastycznos´c´ przy projektowaniu sterowania ruchem w sieci. W sieci przyj˛eto dwuetapowe obliczanie ´scie˙zek. Dla ka˙zdej relacji w˛ezeł brzegowywe ˛zeł brzegowy płaszczyzna zarza˛dzania moz˙e predefiniowa ´c wiele ´scie˙zek, które umieszcza w bazie danych. Zestawiaja˛c na z˙a˛danie aplikacji kolejne poła˛czenia, moduł Call Admission Control z płaszczyzny strerowania wybiera jedna˛ z moz˙liwych s´ciez˙ek w danej relacji, kieruja ˛c sie˛ biez˙a˛ca˛ zaje˛tos´cia˛ s´ciez˙ek. Przy wielu poła˛czen´ w danej relacji tworzy to moz˙liwos´c´ balansowania obcia˛- ˙ze´n ´scie˙zek i - efektywnie - przesyła´c ruch w danej relacji wieloma ´scie˙zkami. Zadanie przepływu wielotowarowego b więcej »

Metoda szybkiego wyznaczania par węzłowo-rozłącznych tras dla ochrony transmisji unicast - DOI:10.15199/59.2015.8-9.6
Kanstantsin Myslitski Jacek Rak 
Ochrona transmisji informacji przed awarią elementów sieci (węzłów/łączy) jest możliwa dzięki wykorzystaniu dodatkowych tras, zwanych trasami zabezpieczającymi (alternatywnymi) [4], [5], [8]. W przypadku ochrony przed awarią pojedynczego węzła/ łącza wystarczające jest wykorzystanie dwóch tras (odpowiednio: podstawowej i zabezpieczającej), spełniających warunek rozłączności węzłowej/łączowej [2], [9]. Rozłączność węzłowa spełnia również funkcję rozłączności łączowej [5], lecz stwierdzenie odwrotne jest nieprawdziwe. Istotną charakterystyką algorytmów doboru tras jest ich efektywność pod względem czasu obliczeń [10]. Z tego powodu w niniejszej publikacji skoncentrowano się na nowym podejściu - algorytmie map komórkowych (AMK) opartym na przetwarzaniu zbioru parametrów sieci (zwykle przedstawianego w postaci grafu) do postaci metastruktury (metagrafu) sieci, dla którego możliwe jest istotne skrócenie czasu obliczenia tras. Opisane zostały podstawy podejścia, a w szczególności zasady tworzenia omawianych metastruktur. Przedstawiono przykład tworzenia tychże struktur wykorzystanych następnie do wykrywania pary węzłowo-rozłącznych tras. Opisano nowy algorytm doboru rozłącznych tras (AMK) działający na podstawie zaproponowanej struktury - wraz z przykładem jego działania. Przedstawiono następnie analizę porównawczą wyników symulacji (dla sieci szkieletowej PIONIER [7]) algorytmu AMK z charakterystyką powszechnego algorytmu doboru węzłowo-rozłącznych tras - algorytmu Bhandariego [1]. Wyniki badań wykazały istotną przewagę algorytmu AMK nad algorytmem referencyjnym o ponad 20% pod względem czasu obliczeń. PODSTAWY TWORZENIA METASTRUKTUR Do rozwiązywania zadań doboru tras w sieciach teleinformatycznych powszechnie wykorzystywane są podejścia znane z teorii grafów. W szczególności sieć modelowana jest w postaci grafu G = {V, E}, gdzie V to zbiór wierzchołków grafu (V= {v1, v2,...., vn}) utożsamianych z węzłami sieci, a E - zbiór kra więcej »

METODY IDENTYFIKACJI I DOSTĘPU DO OBIEKTÓW I USŁUG W ŚRODOWISKU INTERNETU RZECZY - DOI:10.15199/59.2015.8-9.27
Piotr Krawiec Mariusz Gajewski 
Artykuł zawiera przegląd metod identyfikacji obiektów oraz oferowanych przez nie usług wykorzystywanych bądź proponowanych do wykorzystania w Internecie Rzeczy. Przegląd ten obejmuje zarówno systemy identyfikacji które mają już praktyczne zastosowanie w wybranych obszarach Internetu Rzeczy, takich jak systemy logistyczne czy inteligentne systemy zarządzania energią, jak również rozwiązania opracowane w ramach projektów naukowo-badawczych, których potencjalne wdrożenie może nastąpić dopiero w perspektywie kilkuletniej. 1. WSTĘP Internet Rzeczy (ang. Internet of Things - IoT) rozpatrywany jest jako znaczący etap cyfrowej rewolucji, prowadzącej do dalszego rozwoju tzw. społeczeństwa informacyjnego. Wpięcie w jedną sieć wszystkich otaczających nas urządzeń i obiektów może mieć kolosalny wpływ na każdy aspekt życia człowieka, od systemów transportu miejskiego, poprzez opiekę medyczną, do automatyzacji sterowaniem urządzeniami gospodarstwa domowego. W celu wykorzystania wszystkich potencjalnych możliwości, jakie niesie wdrożenie Internetu Rzeczy, musi on zapewnić mechanizmy pozwalające na łatwe wyszukiwanie, identyfikację oraz dostęp do tworzących go obiektów oraz oferowanych przez nie usług. Przez wzgląd na ogromną różnorodność świata Internetu Rzeczy, ustalenie zasad jednoznacznej identyfikacji obiektów oraz ich usług jest jednym z większych wyzwań stojących na drodze ku globalnemu środowisku IoT. Należy mieć na uwadze, iż osiągalność tych obiektów poprzez sieć Internet jest uzależniona od typu obiektu oraz jego przeznaczenia. Uwzględnić również trzeba fakt, że w wielu przypadkach obiekty IoT to urządzenia o ograniczonej funkcjonalności i niewielkich możliwościach sprzętowych (zasilanie bateryjne, mała pojemność pamięci itp.). W niniejszym artykule zaprezentowano przegląd metod identyfikacji i adresacji proponowanych dla IoT, zarówno funkcjonujących w postaci standardów i mających już praktyczne zastosowanie, jak i będący więcej »

METODY REALIZAJI USŁUGI REJESTRU TREŚCI DLA SIECI ICN/CAN - DOI:10.15199/59.2015.8-9.53
Konrad Karolewicz Andrzej Bęben 
Rejestr treści jest jednym z kluczowych elementów sieci ICN/CAN, który przechowuje informacje o wszystkich opublikowanych materiałach i lokalizacjach dostępnych replik, a także udostępnia te informacje w procesie obsługi żądania pobrania treści. Ze względu na ogromną liczbę dostępnych materiałów, opracowanie efektywnej realizacji usługi rejestru treści jest ważnym zadaniem projektantów sieci ICN/CAN. W artykule zaproponowano i przebadano nowe rozwiązania dla realizacji usługi rejestru treści bazujące na architekturach DONA (Data Oriented Network Architecture) oraz DHT (Distributed Hash Tables), w których dodatkowo wykorzystano pamięć podręczną. Przeprowadzone badania symulacyjne pozwoliły ocenić cechy proponowanych rozwiązań oraz porównać ich efektywność. 1. WPROWADZENIE W ostatnich latach w sieci Internet obserwujemy znaczący wzrost ruchu (nawet do 70%) związanego z przekazem treści multimedialnych, tj. filmy wideo, muzyka. Główną przyczyną tego wzrostu jest rozwój dedykowanych systemów dystrybucji treści, tj. CDN, NetFlix, jak również usług udostępniania treści, tj. You- Tube, Facebook, które umożliwiają użytkownikom publikowanie w sieci własnych materiałów multimedialnych [1]. Jednakże, sieć Internet nie była projektowana dla zapewnienia efektywnego przekazu takiego ruch. Z tego względu, rozpoczęto prace badawcze nad nowymi rozwiązaniami, które są nazywane sieciami zorientowanymi na przekaz informacji ICN (Information Centric Networks) [2] lub treści CAN (Content Aware Networks) [3]. Zasadniczym celem sieci ICN/CAN jest: i) zaoferowanie użytkownikom jednolitego dostępu do opublikowanych materiałów, który będzie niezależny od fizycznej lokalizacji replik treści; ii) zapewnienie efektywnego dostarczenia żądanej przez użytkownika treści biorąc pod uwagę wymagania dotyczące jakości przekazu oraz efektywnego wykorzystania zasobów sieci i serwerów treści. Jednym z kluczowych elementów sieci ICN/CAN jest rejestr treści, k więcej »

Metody zapewniania bezpieczeństwa komunikacji pomiędzy przełącznikami i kontrolerami OpenFlow - DOI:10.15199/59.2015.8-9.124
Dominik Samociuk 
W artykule dyskutujemy możliwości zastosowania protokołów związanych z uwierzytelnianiem i kontrolą dostępu w celu utworzenia bezpiecznego kanału pomiędzy przełącznikami i kontrolerami w sieci programowalnej, komunikującymi się przy pomocy protokołu OpenFlow. W zaproponowanych rozwiązaniach analizujemy użyteczność, zalety, wady i możliwości wdrożenia trzech protokołów: TLS (ang. Transport Layer Security), IPSec i SSH (ang. Secure Shell). Słowa kluczowe: sieci programowalne; bezpieczeństwo sieci; OpenFlow; Software Defined Network. 1. WSTĘP Protokół OpenFlow [1] wzbudził zainteresowanie zarówno w społeczności akademickiej, jak i w przemyśle ze względu na funkcje, jakie oferuje dla architektów i twórców sieci programowalnych - ang. Software Defined Networks (SDN). Dzięki stworzeniu ustandaryzowanego interfejsu do łączenia przełączników z kontrolerami, logika płaszczyzny sterowania została przeniesiona do scentralizowanego kontrolera (lub grupy kontrolerów). Jednakże specyfikacja [2] OpenFlow nie wymusza użycia bezpiecznego kanału komunikacji między przełącznikiem a kontrolerem. Mianowicie, wpis dotyczący użycia szyfrowanego kanału został wprowadzony w specyfikacji OpenFlow a następnie modyfikowany. W najnowszej wersji jego wykorzystanie jest jedynie zaleceniem (nie jest to wymóg). W najnowszej specyfikacji przełącznika OpenFlow ver. 1.5.0 (z przełomu 2014 i 2015 roku) w s. 6.3.3. czytamy: "switch i kontroler mogą komunikować się za pomocą połączenia TLS" i dalej "możliwe jest także wykorzystanie innych protokołów szyfrujących np. IPSec". Względem poprzedniej wersji dodany został wpis o możliwości użycia innych protokołów, jednak specyfikacja nie analizuje tych metod. W chwili obecnej wielu producentów urządzeń sieciowych nie wdrożyło tego zalecenia. Ten fakt i problemy z integracją TLS w sieciach programowalnych otworzyły drogę dla napastników do infiltracji sieci OpenFlow przy pomocy potencjalnych ataków na architekturę więcej »

MOBILE MPLS-TP - WSPARCIE MOBILNOŚCI URZĄDZEŃ KOŃCOWYCH Z WYKORZYSTANIEM KANAŁÓW OAM - DOI:10.15199/59.2015.8-9.35
Marcin Pijanka Grzegorz Różański 
Technika MPLS oraz architektura MPLSTP dla sieci transportowych, odgrywają istotną rolę w ewolucji sieci następnej generacji, w szczególności w zakresie gwarancji ciągłości komunikacji "end-to-end" poprzez różne heterogeniczne segmenty sieci telekomunikacyjnej. W artykule przedstawiono koncepcję Mobile MPLS-TP i wykorzystanie kanałów OAM dla wsparcia mobilności użytkowników oraz optymalizacji procedury "handoff" w hierarchicznej topologii sieci. 1. WSTĘP Wzrost wykorzystania trybu komutacji pakietów (protokół IP) dla różnych rodzajów usług, także szerokopasmowych, zamiast klasycznych rozwiązań bazujących na komutacji kanałów, ma istotny wpływ na rozwój sieci telekomunikacyjnych. Ewolucja technik komunikacyjnych w tzw. sieciach następnej generacji wynikająca z poszerzania zakresu świadczonych przez operatorów usług w odpowiedzi na rosnące wymagania klientów, wymaga również ciągłego rozwijania mechanizmów zapewniających odpowiednią jakość usług oraz ich mobilność. Tendencje te szczególnie są widoczne w przypadku usług w sieciach bezprzewodowych, np. pojawienie się standardów VoLTE (Voice over LTE) pokazuje jak istotną rolę stanowi zapewnienie gwarancji komunikacji typu End-to-End, w tym odpowiedniej jakości QoS (Quality of Service), przy transmisji danych pakietowych (w szczególności dla usług głosowych jak i wideo). Jest wiele sposobów transmisji danych z wykorzystaniem protokołu IP w sieciach telekomunikacyjnych. Jednym z rozwiązań spełniających powyższe oczekiwania jest technika MPLS (Multiprotocol Label Switching), w której trasowanie pakietów zostało zastąpione przez tzw. przełączanie etykiet. Ponadto funkcjonalność techniki MPLS odgrywa istotną rolę, np. procedurach rezerwacja wymaganego pasma, gwarancje QoS, czy też wykrywania błędów i uszkodzeń w sieci oraz zapobiegania ich negatywnym skutkom (wykorzystanie mechanizmów OAM), i.t.d. MPLS został opracowany przez grupę IETF (Internet Engineering Task Force) głównie więcej »

MODEL KOLEJKOWY SYSTEMU DOSTE˛POWEGO DLA SIECI PAKIETOWEJ - DOI:10.15199/59.2015.8-9.115
Sławomir Hanczewski Maciej Stasiak Piotr Zwierzykowski 
W artykule zaproponowano nowy wielowymiarowy model idealnej wia˛zki niepełnodoste˛pnej (Erlang’s Ideal Grading - EIG) z kolejkami, uwzgle˛dniaja˛cy klasy zgłoszen´ o zróz˙- nicowanym dost˛epie do zasobów. Model został wykorzystany do wyznaczania opó´znie ´n i prawdopodobie´nstw strat pakietów w systemie doste˛powym składaja˛cym sie˛ z we˛zła sieci operatorskiej oraz kilku u˙zytkowników. Uzyskane wyniki analityczne zostały porównane z rezultatami symulacji, które potwierdziły zadowalaja˛ca˛ dokładnos´c´ proponowanego modelu. Opracowany model mo˙zna wykorzysta´c do analizy, projektowania i optymalizacji nowoczesnych sieci operatorskich. 1. WPROWADZENIE W ostatnich kilkudziesi˛eciu latach mo˙zna zaobserwowa ´c dynamiczny rozwój technologii ethernetowych [1], [2]. Współczesne sieci operatorskie coraz cz˛e´sciej budowane sa˛ w oparciu o takie technologie [2]. Sieci operatorskie wykorzystuja˛ hierarchiczna˛ wirtualizacje˛ zasobów sieciowych. Oznacza to, z˙e sieci wirtualne tworzone sa˛ zarówno na poziomie lokalnych sieci dostawców i firm korzystaja˛- cych z usług danego operatora, jak i na poziomie szkieletu sieci. Takie podej´scie zapewnia separacj˛e ruchu wprowadzonego do sieci operatorskiej przez poszczególnych dostawców lub firmy. Umo˙zliwia tak˙ze rozró˙znienie ramek zwia˛zanych z róz˙nymi usługami s´wiadczonymi w poszczególnych sieciach. W konsekwencji mo˙zliwa jest konstrukcja logicznej struktury na poziomie szkieletu sieci dla okre- ´slonych rodzajów usług ´swiadczonych u˙zytkownikom ko´ncowym [3]. Działanie takiej struktury opiera si˛e na odpowiednich standardach pozwalajacych na wielostopniowe, hierarchiczne, schematy znakowania ramek [4]. Hierarchiczne znakowanie ramek zostało wykorzystane m.in. do opracowania architektury operatorskiej sieci etherent znanej pod nazwa˛Carrier lub Metro Ethernet [5], [6], [7], [8]. Zasady współpracy pomi˛edzy operatorami sieci i uz˙ytkownikami zawarte sa˛ w SLA (Service Level Agr więcej »

MODEL ZASOBÓW I FUNKCJI SIECI TELEKOMUNIKACYJNEJ - DOI:10.15199/59.2015.8-9.110
Michał Jarociński 
Przedstawiono model sieci telekomunikacyjnej obejmujący zarówno hierarchiczną strukturę wykorzystywanych zasobów komunikacyjnych (transportowych), jak i warstwową organizację realizowanych funkcji komunikacyjnych. Model porządkuje wykorzystanie opisu funkcjonalnego opartego na modelach OSI-BRM lub TCP/IP - nie odrzucając ich, a jedynie reinterpretując - oraz integruje opis struktury funkcji komunikacyjnych z opisem struktury zasobów komunikacyjnych. Dzięki proponowanemu modelowi uzyskuje się jednolity opisu funkcji i zasobów sieci nawet w złożonych sytuacjach implementacyjnych powstających w wyniku wielokrotnej wirtualizacji zasobów. 1. “OSI REVISITED" W 1978 roku w Międzynarodowej Organizacji Normalizacyjnej ISO opracowana została koncepcja [1] wkrótce przekształcona w standard "Reference Model for Open System Interconnection" (model odniesienia OSI/ISO) [2], w którym została opisana architektura sieci służącej do utrzymywania komunikacji między dowolnymi urządzeniami. Model OSI wszedł do kanonu Telekomunikacji, jednocześnie stając przedmiotem niechęci niektórych innych środowisk... Niemniej i te drugie nierzadko czerpią z "dorobku OSI", choć niekiedy dramatycznie go wykoślawiają. 1.1. "Dorobek OSI" Na ów "dorobek OSI" składają się trzy elementy:  Architektura OSI  Model odniesienia OSI (OSI RM)  Stos protokołów OSI Nie miejsce tu na przypominanie szczegółów obszernego standardu, zwróćmy jednak uwagę na niektóre zapominane jego cechy. Istotą Architektury OSI jest zaproponowany sposób dekompozycji funkcji komunikujących się systemów ("Systemów otwartych"). Pierwszym krokiem dekompozycji jest wydzielenie funkcji komunikacyjnych spośród wielu innych funkcji realizowanych przez system. Pozostałe funkcje systemu - w szczególności te, których realizowanie jest celem stosowania (istnienia) systemu - nazwane zostały aplikacją (zastosowaniem). Dla prowadzenia komunikacji konieczny jest dostęp do więcej »

MONITORING OF XDSL CPE TYPE FROM DSLAM SIDE - DOI:10.15199/59.2015.8-9.49
Piotr Zych Piotr Szymon Obrycki Joanna Ewa Obrycka Sławomir Kula Marcin Zych  
Paper describes two different types of monitoring options for xDSL CPE (Customer Premises Equipment) detection from DSLAM (Digital Subscriber Line Access Multiplexer) side. Authors firstly present general idea of solution, particularise it for a specific application and then analyse impact of it on network devices and telco management network. The analysis focuses mainly on performance and reliability of each option for a business application, which is migration of services from ADSL/2/2+ to VDSL2 technology. Presented in the paper results and experience are based on the real telco network. 1. INTRODUCTION Copper subscriber line based digital communication is a mature technology. First ISDN specification was proposed in 1984 by the CCITT (from French: Comité Consultatif International Téléphonique et Télégraphique, now ITU-T) and now over thirty years later the ADSL/2/2+ (Asymmetric Digital Subscriber Line/2/2+) and VDSL2 (Very High Speed Digital Subscriber Line 2) following developed technologies are widely used. These ADSL family and VDSL2 techniques always coexist in one telco network. In this one telco network as well always operate few telco operators: one incumbent and alternatives ones. If we connect it with the fact that G.FAST (Fast Access to Subscriber Terminals) [1, 2] - new technique specification was released last year and continues to grow, we could be sure CPE detection is one of the most important telco technical process (specially for incumbents providing Bit-Stream Access). It is discussed in [3] that CPE type detection is one of the key issue for services migration between not compatible ATM (Asynchronous Transfer Mode) over ADSL/2/2+ and PTM (Packet Transfer Mode) over VDSL2 techniques. This migration process must take place because service bitrate required by customers is constantly growing, so currently the most suitable solution for copper lines is VDSL2, which could provide downstream bitrates u więcej »

MOŻLIWOŚCI ZASTOSOWANIA ENERGII SKIEROWANEJ DO NISZCZENIA URZĄDZEŃ INFORMATYCZNYCH - DOI:10.15199/59.2015.8-9.68
Rafał Przesmycki 
Artykuł dotyczy problemów związanych z wysokoenergetycznym środowiskiem elektromagnetycznym. W artykule scharakteryzowano impuls elektromagnetyczny wielkiej mocy oraz omówiono stanowisko do generowania takich impulsów. Ponadto w artykule przedstawiono analizę możliwości kształtowania widma generowanych impulsów dla potrzeb niszczenia urządzeń informatycznych oraz zamieszczono wyniki pomiarów. 1. WSTĘP Infrastruktura informatyczna (IT) oraz komputery osobiste (w szczególności PC) są integralną częścią naszej działalności i życia codziennego. W przypadku używania urządzeń informatycznych w infrastrukturze krytycznej lub dla zachowania bezpieczeństwa teleinformatycznego nie jest dopuszczalne wystąpienie jakichkolwiek zakłóceń w środowisku elektromagnetycznym. W środowisku elektromagnetycznym dużej mocy źródła mikrofalowe stanowią stosunkowo nowy rodzaj zagrożenia zarówno dla systemów wojskowych, jak i cywilnych. Działanie z wykorzystaniem tego rodzaju źródła jest zazwyczaj określane jako celowe zaburzenie elektromagnetyczne. Środowisko promieniowane HPEM (ang. High Power Electromagnetic), które jest z natury szkodliwe, może również występować przy częstotliwościach nawet do kilkudziesięciu MHz. Wygenerowanie impulsu elektromagnetycznego o bardzo dużej mocy w kierunku danego układu elektronicznego powoduje, że na układach elektronicznych odkłada się bardzo duże napięcie. Takie zjawisko powoduje uszkodzenie elementów obwodu co czyni urządzenie niezdatnym do dalszego funkcjonowania. W przypadku celowego oddziaływania takim impulsem bardzo istotne jest pod względem jego skuteczności aby wygenerować odpowiednio silny impuls na żądanej częstotliwości. 2. IMPULS ELEKTROMAGNETYCZNY WIELKIEJ MOCY Impuls elektromagnetyczny wielkiej mocy określany jako HPEM jest to impuls o bardzo krótkim czasie trwania (rzędu nanosekund) i o wielkiej mocy (rzędu kilkudziesięciu gigawatów). Impuls HPEM często nazywany jest również bombą E ze wzglę więcej »

NOWA STRATEGIA REALIZACJI POŁ ˛ ACZE´N ROZGŁOSZENIOWYCH W POLACH TYPU BANYAN - DOI:10.15199/59.2015.8-9.13
Marcin Dziuba Grzegorz Danilewicz 
Do tej pory w literaturze przedmiotu znany był algorytm realizuja˛cy poła˛czenia typu punkt-punkt, w polach log2(N; 0; p) składaja˛cych sie˛ z komutatorów 2  2. Głównym załoz˙eniem tego algorytmu było zestawianie poła˛czen´ w płaszczyznach, w których zestawiane poła˛czenie be˛dzie blokowało najmniejsza˛ liczbe˛ przyszłych poła˛czen´ . W tym artykule zaprezentowano nowy algorytm dla pól log2(N; 0; p), który swoje działanie opiera na nowej strategii realizacji poła ˛czen´ rozgłoszeniowych. Nowy algorytm wykorzystuje koncepcje ˛ okien blokowania do dzielenia poła˛czen´ rozgłoszeniowych na podpoła˛czenia, oraz koncepcje˛ zestawiania poła˛- czen´ w płaszczyz´nie, w której zestawiane poła˛czenie zablokuje najmnieja˛ liczbe˛ przyszłych poła˛czen´ . Proponowany w artykule algorytm nie zmienia warunków nieblokowalno´sci w szerokim sensie (ang. wide-sense nonblocking - WSNB) dla wielopłaszczyznowych pól typu banyan, ale w znacza˛cy sposób poprawia wydajno´s´c blokowalnych pól komutacyjnych. Do tej pory Autorzy porównali skuteczno´s´c algorytmów znanych z literatury (losowy (R), kolejno´sciowy (S), pseudoprzypadkowy (RR), Beneš’a (B), odwrócony Beneš’a (RB), okienny (BWA)) w wielopłaszczyznowych polach typu banyan [1], [2]. Badania dowiodły, ˙ze najlepsze wyniki (najni˙zszy współczynnik strat) w blokowalnych polach typu banyan, osia˛gał algorytm bazuja˛cy na koncepcji okien blokowania o zmiennym rozmiarze [3]. W tym artykule przedstawiono wyniki symulacji które dowodza˛, z˙e nowa strategia daje lepsze rezultaty niz˙ najlepsze rozwia˛zanie znane do tej pory z literatury przedmiotu. 1. WPROWADZENIE Pola komutacyjne sa˛ najwaz˙niejszym elementem we˛- złów w dzisiejszej infrastrukturze sieciowej. Mo˙zna implementowac ´ je w routerach, przeła˛cznikach, procesorach sieciowych, krotnicach optycznych i wielu innych urza˛dzeniach sieciowych. Pole komutacyjne jest wykorzystywane do zestawiania poła˛czen´ pomie˛dzy wejs´ciami we˛zł więcej »

OCENA POZIOMU ZABURZEŃ RADIOELEKTRYCZNYCH GENEROWANYCH PRZEZ URZĄDZENIA ELEKTRONICZNE W ASPEKCIE WYMAGAŃ ZAWARTYCH W NORMACH EUROPEJSKICH I OBRONNYCH - DOI:10.15199/59.2015.8-9.66
Leszek Kachel Jan Kelner 
W artykule przedstawiono ogólną metodykę pomiaru emisji zaburzeń radioelektrycznych przewodzonych i promieniowanych w świetle norm europejskich i obronnych. Z przeprowadzonej analizy wynika, że nie porównywanie między sobą wyników pomiarów uzyskanych według zaleceń norm europejskich z wynikami uzyskanymi według zaleceń norm obronnych jest niecelowe. Wynika to z odmienności parametrów stosowanej aparatury, zakresu częstotliwości pomiarowych, jak również z przyjętych metod badań w obu typach norm. 1. WSTĘP Coraz więcej różnorodnego sprzętu elektronicznego trafia do obiektów o charakterze obronnym. Wiadomo, że wymagania dla sprzętu obronnego w dziedzinie emisji elektromagnetycznej musza być zaostrzone. Zakłócenie pracy sprzętu o charakterze obronnym może powodować konsekwencje trudne niekiedy do przewidzenia, jak choćby przekłamanie przesyłanych informacji lub ich nie dotarcie do adresata. Od roku 1996 roku wszystkie wyroby dopuszczone do obrotu na rynku europejskim powinny spełniać wymagania Dyrektywy Rady Europy nr 89/336 EEC dotyczące kompatybilności elektromagnetycznej. Zgodnie z wymaganiami dyrektywy urządzenie powinno być tak zbudowane, aby po jego poprawnym zainstalowaniu i w trakcie eksploatacji zgodnej z przeznaczeniem nie wytwarzało zaburzeń elektromagnetycznych przekraczających dopuszczalne poziomy. Zgodnie z wymienioną dyrektywą pojęcie urządzenia obejmuje swym zakresem samodzielne urządzenia, systemy oraz instalacje rozumiane, jako połączenie kilku np. systemów współpracujących ze sobą. W celu zezwolenia na eksploatację urządzeń dokonywane są pomiary poziomu emisji zaburzeń radioelektrycznych pochodzących od tych urządzeń zgodnie z normami przedmiotowymi. Urządzenia elektroniczne i radioelektroniczne instalowane są zarówno w obiektach cywilnych jak i wojskowych i stanowią one niejednokrotnie części składowe systemów łączności przeznaczonych do celów obronnych. Z chwilą instalowania tych urządzeń na terenie więcej »

ODTWARZANIE STANU PROTOKOŁU TCP NA PODSTAWIE PASYWNYCH POMIARÓW RUCHU SIECIOWEGO - DOI:10.15199/59.2015.8-9.51
Andrzej Bąk Piotr Gajowniczek 
Protokół TCP jest od lat podstawą większości aplikacji sieciowych i pozostaje jednym z najważniejszych tematów badawczych w obszarze technik Internetu. Niniejszy artykuł przedstawia praktyczne aspekty emulacji stanu zmiennych związanych z mechanizmem congestion control w procesie nadawczym protokołu TCP. Jego odtworzenie jest kluczowe dla analizy wydajności protokołu TCP na podstawie pomiarów dokonanych w sieci przy pomocy sond pasywnych. 1. WSTĘP Od zarania sieci Internet, większość danych jest przesyłana przy użyciu protokołu TCP (ang. Transmission Control Protocol). Korzystają z niego zarówno “tradycyjne" usługi internetowe: przeglądanie stron www, email, transfer plików itp., jak i relatywnie nowe usługi, na przykład adaptacyjny streaming HTTP, który staje się standardem w zakresie transmisji strumieni wideo w Internecie. Z tego powodu analiza wydajności protokołu TCP pozostaje od lat istotnym tematem badawczym. Wydajność protokołu TCP można badać posługując się danymi pomiarowymi uzyskanymi z sond pasywnych, przechwytujących ruch na interfejsach sieciowych. Niektóre dane, wymagane do analizy wydajności protokołu TCP i poszukiwania przyczyn problemów można odczytać bezpośrednio z nagłówków segmentów zarejestrowanych przez systemy pomiarowe. Są jednak też dane, przede wszystkim określone zmienne stanu utrzymywane przez proces nadawczy protokołu TCP, których wartości można oszacować tylko przez odtworzenie (emulację) działania odpowiednich mechanizmów protokołu TCP na podstawie zapisów ruchu pakietowego wymienianego między nadawcą a odbiorcą. W niniejszym artykule omówione zostały praktyczne aspekty związane z odtwarzaniem stanu protokołu TCP na podstawie pasywnych pomiarów ruchu sieciowego. Dotyczy to w szczególności szacowania wartości okna nadawczego, która w istotny sposób wpływa na przepływność uzyskiwaną w połączeniach TCP. 2. ANALIZA WYDAJNOŚCI PROTOKOŁU TCP Od czasu upowszechnienia się protokołu TCP ni więcej »

Optyczne bezprzewodowe łącze LED w sieci Ethernet - DOI:10.15199/59.2015.8-9.45
Łukasz Maksymiuk Piotr Zwierko 
W referacie przedstawiono opis bezprzewodowego łącza LED, pozwalającego ma transmisję pakietów sieci Ethernet. Zaproponowano i wykonano układy nadajników i odbiorników pozwalające na przesyłanie sygnałów w standardzie 10BASE-T i 100Base-T poprzez łącze bezprzewodowe optyczne. Opublikowano wyniki pomiarów. 1. WSTĘP Bezprzewodowa transmisja danych oparta na modulacji światła widzialnego (Visible Light Communications - VLC) jest szybko rozwijającą się alternatywą dla radiowej transmisji bezprzewodowej (Wi-Fi), szczególnie wewnątrz pomieszczeń [1], [2]. Szczególną zaletą jest łatwość kontrolowania zasięgu emisji, potencjalnie znacznie większa przepływność oraz zwolnienie zasobów radiowych (pasma). Najbardziej atrakcyjnym rozwiązaniem jest wykorzystanie światła białych diod LED, używanych coraz powszechniej do celów oświetlenia jako nośnika dla bezprzewodowej transmisji danych. W białych diodach LED strumień światła niebieskiego pobudza warstwę luminoforu do świecenia światłem o widmie zbliżonym do światła białego. Niestety proces konwersji cechuje duża bezwładność, prowadząca do zniekształcenia modulacji w świetle białym. Z tego względu do wykorzystania w odbiorniku nadaje się tylko resztkowy komponent niebieski (rys. 1), zaś składnik biały musi być usunięty przez odpowiedni filtr optyczny [1], [2]. W niniejszym referacie przedstawiono opis i uzyskane praktyczne rezultaty implementacji dupleksowego łącza optycznego, wykorzystującego w transmisji sygnały standardu Ethernet 10Base-T i 100Base-T, które są zwykle używane w połączeniach kablowych. Celem projektu było opracowanie układu pozwalającego na transmisje poprzez łącze optyczne sygnału Ethernet bez ingerencji w ten sygnał 2. KONCEPCJA ROZWIĄZANIA 2.1. Ogólne założenia Założono wykorzystanie symetrycznego łącza optycznego opartego o światło widzialne, przy czym dla osiągnięcia separacji pomiędzy kierunkami transmisji (down-link i up-link) zostały zastosowane różne dług więcej »

OPTYMALIZACJA ZIELONYCH SIECI SZKIELETOWYCH ODPORNYCH NA RYZ - DOI:10.15199/59.2015.8-9.92
Piotr Jaglarz Piotr Chołda 
Artykuł prezentuje koncepcję poszukiwania odpowiedzi na ryzyko w zielonych (energooszczędnych) sieciach szkieletowych, w których rozmieszcza się zasoby rezerwowe niezbędne do uruchomienia procedur wznawiania pracy. Podano podstawowe sposoby wyznaczania odpowiedzi na ryzyko (np. minimalizacja ryzyka, równoważenie nakładów itd.) oraz sformułowano związane z nimi podejścia optymalizacyjne. Przedstawiono wyniki liczbowe, które uzyskano w rezultacie połączenia podejścia optymalizacyjnego i symulacyjnego. 1. WSTĘP Artykuł porusza dwie istotne kwestie badawcze: optymalizację wznawiania pracy po uszkodzeniu oraz planowanie sieci zielonych (energooszczędnych). Zagadnienie zapewniania odporności sieci telekomunikacyjnych na uszkodzenia jest istotne ze względu na duże potrzeby klientów w zakresie nieprzerwanej pracy usług świadczonych przez sieć. Odporność zależy od reakcji na uszkodzenia powodujące niezdatność elementów składowych sieci. W sieciach telekomunikacyjnych i teleinformatycznych niezdatności dotyczą przede wszystkim [1]: fizycznych systemów sieciowych (uszkodzenia sprzętu, np. ruterów, przełącznic, transponderów albo rozłączenie kabli, np. w wyniku ich przecięcia); ustania zasilania z sieci publicznej; oraz oprogramowania obsługującego działanie systemów. Efektem występowania uszkodzeń jest utrata ciągłości działania usług, co z kolei powoduje straty finansowe operatorów, którzy muszą rekompensować klientom pogorszenie jakości. Stratom tego rodzaju można zapobiegać planując i uruchamiając w sieci automatyczne procedury wznawiania pracy (ang. recovery procedures). Służą one do obejścia elementów niezdatnych: przekierowują ruch ze ścieżek roboczych na ścieżki zapasowe. Procedury te mogą działać na wiele sposobów (np. z różnym poziomem współdzielenia zasobów rezerwowych [2]), co powoduje że uzyskuje się różne parametry jakościowe, które odnoszą się do potrzeb klientów (np. szybkość wznawiania pracy). Zastosowanie tych p więcej »

POLE KOMUTACYJNE W WĘZŁACH ELASTYCZNYCH SIECI OPTYCZNYCH - WARUNKI NIEBLOKOWALNOŚCI - DOI:10.15199/59.2015.8-9.99
Wojciech Kabaciński Marek Michalski 
Wartykule rozwaz˙ano problemnieblokowalnos´ci w wa˛skim sensie we˛złów komutacyjnych pracuja˛cych w elastycznych sieciach optycznych. W sieciach tych s´ciez˙ki optyczne moga˛ zajmowa´c ró˙zne szeroko´sci pasma, przy czym najmniejsza szerokos´c´ pasma jaka˛ moz˙na przypisac´ s´ciez˙ce optycznej jest nazywana podstawowym kanałem cz˛estotliwo´sciowym. S´ ciez˙ki optyczne m więcej »

POPRAWA JAKOŚCI MODELU WOKSELOWEGO NA PODSTAWIE HISTOGRAMÓW OBRAZÓW REPROJEKCJI - DOI:10.15199/59.2015.8-9.88
Paweł Gardziński Łukasz Kamiński Krzysztof Kowalak Sławomir Maćkowiak 
Niniejsza praca dotyczy metody rekonstrukcji modeli wolumetrycznych rzeczywistych obiektów przy pomocy systemów wykorzystujących układy wielokamerowe. Zaprezentowana została metoda poprawy jakości rekonstrukcji dzięki dopasowaniu wartości wybranych parametrów zewnętrznych i wewnętrznych. Zaproponowane rozwiązanie jest wbudowane w procedury rekonstrukcji wokselowej i bazuje na analizie histogramów obrazów wejściowych oraz obrazów reprojekcji modelu do płaszczyzny danego obrazu wejściowego. 1. WSTĘP Trójwymiarowe modele komputerowe obiektów są kluczowymi elementami wielu multimedialnych systemów trójwymiarowych. Ostatnimi czasy bardzo popularna stała się rekonstrukcja realistycznych obiektów trójwymiarowych rzeczywistych obiektów, na podstawie serii zdjęć lub sekwencji wizyjnej. Przeważnie wymagane są modele o wysokiej jakości, które mogą być następnie wykorzystane w tworzeniu obiektów z użyciem drukarek 3D. Najpopularniejszymi metodami rekonstrukcji 3D modeli obiektów bazującymi na obrazach są: techniki oparte na estymacji map głębi z dwóch lub większej liczby widoków obiektu [6, 10], rekonstrukcje polegające na pasowaniu cech charakterystycznych między obrazami [11, 12] oraz techniki rekonstrukcji wolumetrycznej z wielu widoków [8, 9]. Autorzy skupili się na trzeciej technice rekonstrukcji modeli trójwymiarowych. Podczas przeprowadzania badań rekonstrukcji modeli trójwymiarowych obiektów z wykorzystaniem algorytmu rekonstrukcji wolumetrycznej, autorzy musieli zmierzyć się z problemem dokładności wewnętrznych i zewnętrznych parametrów kamery oraz wpływem tych parametrów na jakość tworzonego modelu. Parametry kamery (pozycja, rotacja i ogniskowa) przypisane do obrazów wejściowych, mogą zawierać drobne błędy, które mogą prowadzić do znaczących zmian w tworzonym modelu podczas wykonywania rekonstrukcji wolumetrycznej. W wielu przypadkach nie ma możliwości ponownego przeprowadzenia pomiaru parametrów z większą dokładności więcej »

PORÓWNANIE STRATEGII REALIZACJI POŁ ˛ ACZE´N ROZGŁOSZENIOWYCH WPOLACH TYPU BANYAN - DOI:10.15199/59.2015.8-9.15
Marcin Dziuba Grzegorz Danilewicz 
Pola typu multi-log2N sa˛ cze˛sto wykorzystywane w nowoczesnych, optycznych w˛ezłach telekomunikacyjnych. W polach tego rodzaju dopuszcza sie˛ zarówno poła˛czenia typu punkt-punkt, jak równiez˙ poła˛czenia rozgłoszeniowe. W literaturze rozpatrywane sa˛ blokowalne oraz nieblokowalne pola typu log2N. Do zestawienia poła˛czenia w polach blokowalnych jak i nieblokowalnych, wykorzytywane sa˛ odpowiednie algorytmy wyboru drogi poła˛czeniowej. Do tej pory w literaturze przedmiotu znane jest porównanie algorytmów w blokowalnych polach typu multi-log2N dla poła˛czen´ typu punkt-punkt [1]. W tym artykule po raz pierwszy porównano znane algorytmy z literatury przedmiotu (losowy (R), kolejno´sciowy (S), pseudoprzypadkowy (RR), Beneš’a (B), odwrócony Beneš'a (RB)) z algorytmem bazuja˛cym na koncepcji okien blokowania (ang. Blocking Window Algorithm - BWA) w rozgłoszeniowych polach blokowalnych typu multi-log2N. Podczas symulacji komputerowych zbadano trzy strategie zestawiania poła˛czen´ rozgłoszeniowych. Algorytmy zostały porównane pod wzgl˛edem warto´sci współczynnika strat, zło˙zono´sci obliczeniowej oraz implementacji sprz˛etowej. W artykule wyznaczono ten algorytm, który osia˛ga najlepsze rezultaty (rozumiane jako mniejsze warto- ´sci współczynnika strat) w blokowalnych polach typu multi- log2N. Wybrany algorytm zostanie wykorzystany do dalszych badan´ i porównania z nowym, proponowanym rozwia˛- zaniem zestawiania poła˛czen´ w tego typu polach. 1. WPROWADZENIE Dzisiejsze usługi telekomunikacyjne oraz aplikacje wymagaja˛ poła˛czen´, które zestawiane sa˛ pomie˛dzy jednym nadawca˛, a wieloma odbiorcami jednoczes´nie [2]. Oznacza to, z˙e we˛zły telekomunikacyjne musza˛miec´ moz˙liwos´c´ zestawiania poła˛czen´ pomie˛dzy jednym wejs´ciem, a wieloma wyjs´ciami. Do zestawienia poła˛czen´ rozgłoszeniowych [3], [4] potrzebne sa˛ odpowiednie pola komutacyjne, które sa˛ implementowane w nowoczesnych we˛złach sieciowych. Najpopula więcej »

PRAKTYCZNE ZASTOSOWANIE JĘZYKÓW ZARZĄDZANIA ZAUFANIEM - DOI:10.15199/59.2015.8-9.58
Anna Felkner Adam Kozakiewicz 
Tematem pracy jest język zarządzania zaufaniem, który pochodzi z rodziny języków Role-based Trust management (RT). Zarządzanie zaufaniem jest formą rozproszonej kontroli dostępu, a języki z rodziny RT są najbardziej dostosowane do użycia zarządzania zaufaniem w rzeczywistych systemach. Artykuł ten ma za zadanie pokazanie rozszerzonych możliwości języka RT (ograniczenia czasowe, porządkowanie poświadczeń), które umożliwią mu zastosowanie w praktycznych systemach w prosty sposób, mimo złożoności tych systemów. 1. WSTĘP We współczesnym świecie niezbędne jest zapewnienie pełnej ochrony posiadanym zasobom, zarówno materialnym, jak i niematerialnym. W celu ochrony zasobów przed nieautoryzowanym dostępem należy opracować i zastosować odpowiednie polityki bezpieczeństwa, których istotną częścią jest kontrola dostępu. Niniejszy artykuł jest poświęcony kwestii bezpieczeństwa rozproszonych systemów informatycznych, w tym zwłaszcza ważnemu problemowi kontroli dostępu do zasobów i usług systemu. Kontrola dostępu polega na logicznej lub fizycznej weryfikacji uprawnień (mechanizmie weryfikacyjnym) zaprojektowanej (zaplanowanej) w celu ochrony przed nieautoryzowanym wejściem do systemu lub przed jego użyciem, a także na zagwarantowaniu, że osoby uprawnione uzyskają dostęp. Kontrola dostępu obejmuje sprawowanie nadzoru nad tym, którzy uczestnicy (osoby, procesy, maszyny, itd.) i w jakim czasie mają dostęp do poszczególnych zasobów systemu komputerowego, na czym ten dostęp polega, w jaki sposób korzystają ze wspólnych danych, itp. Jest to kluczowy składnik każdego rozwiązania związanego z bezpieczeństwem systemu, którego zadaniem jest zapewnienie, że zasób jest używany przez odpowiednich odbiorców w uprawniony sposób, w odpowiednim miejscu i czasie. W dalszej części pracy opisana jest koncepcja zarządzania zaufaniem w rozdziale 2. Rozdział 3 poświęcony jest przedstawieniu rodziny języków Rolebased Trust management wraz z ich składnią więcej »

PROTOKÓŁ RUTINGU OPARTY O WŁASNOSCI SPOŁECZNOSCIOWE WEZŁÓW - DOI:10.15199/59.2015.8-9.114
Rafał Surgiewicz Radosław Olgierd Schoeneich 
Jedna z cech obecnych sieci jest ich stosunkowo stała i przede wszystkim spójna struktura. Szczególnym przypadkiem sieci ad-hoc sa tzw. sieci DTN (Delay and Disruptive Tolerant Networks). Jest to podklasa pakietowych sieci mobilnych umoliwiajacych komunikacje w scenariuszach, w których szeroko stosowane obecnie rozwiania łacznosci zawodza. W referacie przedstawiono protokół rutingu oparty o własnosci społecznosciowe wezłów mobilnych dla bezprzewodowych sieci DTN. Opisano stan wiedzy, proponowane rozwiazanie oraz przedstawiono wstepne wyniki symulacyjne zbadane w srodowisku symulacyjnym The One. 1. WSTEP Sieci typu DTN (Delay Tolerant Network, równie znane jako Delay and Disruptive Tolerant Network) [1] sa to sieci umo liwiajace komunikacje w sytuacjach gdzie tradycyjne rozwiazania telekomunikacyjne zawodza. Takim przypadkiem moga byc np. przerwania transmisji, niepełna dostepnosc łaczy lub du e opóznienia. Koncepcja sieci DTN nie narzuca jakiejkolwiek struktury sieci zakładajac, e bedzie ona zmieniac sie w czasie w sposób dynamiczny. W zwiazku z tym okreslono jedynie wymagania dotyczace zachowania sieci, której wezły powinny próbowac prowadzic transmisje w zale nosci od zaistniałych w danej chwili mo liwosci, biorac jednoczesnie pod uwage mo liwosc przerwania transmisji w dowolnym momencie. Dopuszczenie mo liwosci przerwania transmisji lub rzadkiej dostepnosci łacza, wymusza zastosowanie odpowiednich mechanizmów zaimplementowanych w wezłach. W sieciach DTN przesyłanie wiadomosci odbywa sie zgodnie zało eniem store-and-forward (zapisz-iprzeka ), który okresla, e przy braku mo liwosci nadania pakietu powinien on zostac tymczasowo przetrzymany np. do momentu mo liwosci wznowienia transmisji lub pojawienia sie adresata. Przykładem mo e byc np. łacznosc miedzyplanetarna, gdzie zarówno czas propagacji sygnału jest długi ze wzgledu na fizyczna odległosc nadajnika i odbiornika, jak równie łacze mo e byc dostepne tylko więcej »

Prototyp systemu służącego do monitoringu jakości sygnałów radiofonicznych zrealizowany przy pomocy komunikacji maszyna-maszyna i urządzeń SoC - DOI:10.15199/59.2015.8-9.28
Grzegorz Debita Jarosław Szumega Mateusz Juźwiak Artur Palka Patryk Schauer 
W niniejszym artykule zaprezentowano projekt systemu do monitorowania sygnałów radiofonicznych. Do wykonania fragmentów systemu użyto prototyp urządzenia wykonanego za pomocą mikrokomputerów i odbiorników Realtek. Wykonano analizę porównawczą oprogramowania OpenSource służących do przetwarzania sygnałów z autorską realizacją sprzętową przy pomocy układów FPGA. W celu zapewnienia komunikacji pomiędzy urządzeniami wykorzystano sieć Internet, a urządzenia są traktowane jako tzw. “Rzeczy w Internecie". 1. WSTĘP Innowacje technologiczne związane z wprowadzeniem nowych usług dla społeczeństwa rozrastają się w bardzo szybkim tempie [1] - [11]. Powyższe procesy są spowodowane wyjątkowo dynamicznym rozwojem techniki cyfrowej [12]-[19]. Dzięki rozwojowi tej gałęzi nauki i przemysłu powstają coraz nowsze rozwiązania ukierunkowane na usługi informatyczne i telekomunikacyjne [12]-[14]. Obecnie optymalizacja związana z miniaturyzacją urządzeń elektronicznych sprawia, że jest i będzie dostęp do wysoce wydajnych rozwiązań teleinformatycznych, które mogą wykonywać różne zadania dedykowane w sposób równoczesny [15]-[19]. Implementacja tego typu rozwiązań coraz częściej odbywa się przy pomocy urządzeń SoC (System on Chip) [12]-[18]. Powyższe procesy tyczą się obecnie praktycznie wszystkich dziedzin nauki i wiedzy związanej z szeroko pojętą elektroniką. Zastosowania powyższych rozwiązań jest bardzo szerokie od zastosowań w informatyce [1]-[8], telekomunikacji [9]-[11], radiodyfuzji [12] -[15] itp. Tematycznie artykuł skupia się na zastosowaniu urządzeń wykonanych w technologii SoC dla radiodyfuzji. Ostatnimi czasy dokonała się swoista rewolucja w systemach radiodyfuzyjnych. Obecnie mamy dostęp do telewizji naziemnej w standardzie cyfrowym DVB-T. Zarazem mówi się o zmianie techniki nadawania dla radiofonii na sposób cyfrowy. Takie podejście daje duże możliwości w zastosowaniu nowych rozwiązań architektonicznych związanych z Internete więcej »

PRZEGLĄD MECHANIZMÓW ZAPEWNIAJĄCYCH PRYWATNOŚĆ W SIECI INTERNET - DOI:10.15199/59.2015.8-9.40
Maciej Karwowski 
Prezentowana praca jest próbą odpowiedzi na pytanie : "Czy można korzystać z Internetu i nie być śledzonym, podczas gdy korzysta się z powszechnie dostępnych narzędzi?" . W tym celu przedstawiono metody śledzenia użytkowników, które są wykorzystwane przez witryny zamieszczające treści jak i firmy niezawiązane bezpośrednio z treścią strony pierwowtnej. Ponadto, na podstawie pięciu podstawowych elementów: ETag, JavaScript, Set-Cookies, Image, Cookies zweryfikowano skuteczność rozszerzeń do przeglądarek, których zadaniem jest zapewnienie anonimowości internaucie. 1. WSTĘP W obecnych czasach dostęp do sieci Internet wykazuje tendencję wzrostową. Powołując sie na dane Głównego Urzędu Statystycznego, w Polsce w zeszłym roku ponad 71% procent gospodarstw domowych posiadało dostęp do Internetu [1]. Za pomocą Internetu coraz częściej dokonywane są między innymi zakupy, które pobudzają nie tylko rynek sprzedaży, ale także marketing i reklamę. Poza rynkiem reklamowym, w ostatnim roku media informowały o projekcie PRISM [2]. Fragmenty prezentacji, które przedostały się do mediów za pośrednictwem Edwarda Snowdena, pokazują usilne próby instytucji takich jak NSA (National Security Agency) do całkowitej inwigilacji i śledzenia każdego użytkownika. Chcąc ochronić użytkownika przed śledzeniem, należy przedstawić najpopularniejsze systemy operacyjne oraz przeglądarki internetowe. Powołując się na badania dominujących systemów operacyjnych przeprowadzone przez firmę Netmarketshare [3] - liderem jest Windows 7, dlatego to na jego bazie przeprowadzone zostaną badania. Drugim niezbędnym elementem do korzystania z Internetu jest przeglądarka internetowa. Podział segmentu zgodnie z aktualnymi trendami przedstawia się następująco: Tabela 1. Procentowy podział udziałów w rynku przeglądarek , lipiec 2014 [4] Przeglądarka Internetowa Udział w rynku Chrome 48.69% Internet Explorer 23.52% Firefox 19.25% Safari 4.12% Powyższa tabela ukazuje, więcej »

PRZYKŁADY ODPOWIEDZI IMPULSOWYCH KANAŁU RADIOKOMUNIKACYJNEGO W MIEJSKIM ŚRODOWISKU PROPAGACYJNYM - DOI:10.15199/59.2015.8-9.105
Ryszard Studański Krystyna Maria Noga 
W artykule opisano metodę wyznaczania odpowiedzi impulsowej kanału radiokomunikacyjnego za pomocą sygnału zmodulowanego ciągiem pseudoprzypadkowym. Przedstawiono odpowiedzi kanału wyznaczone w warunkach statycznych oraz przy obracaniu anteny nadawczej w płaszczyźnie poziomej. Porównano odpowiedzi sygnału wyznaczone w warunkach rzeczywistych z symulacjami. 1. WSTĘP Przy projektowaniu cyfrowych systemów radiokomunikacyjnych niezbędna jest znajomość odpowiedzi impulsowej środowiska propagacyjnego. Znajomość odpowiedzi impulsowych pozwala na realizację adaptacyjnych systemów radiokomunikacyjnych. Jak stwierdzono w [1] wyznaczanie odpowiedzi za pomocą sygnałów zbliżonych do delty Diraca jest szczególnie trudne i wymaga stosowania specjalnych metod pomiarowych. W warunkach rzeczywistych, szczególnie w przypadku propagacji sygnału w środowisku zurbanizowanym, górzystym, wewnątrz budynków występuje wielodrogowość. Do odbiornika dociera sygnał w postaci wielu replik o różnych i zmiennych w czasie tłumieniach oraz opóźnieniach. Ważnym parametrem opisującym kanał jest tzw. pasmo koherencji kanału c B . Pasmo to definiowane jest jako zakres częstotliwości, w którym sygnały wejściowe, odległe na osi częstotliwości o mniej niż c B , posiadają na wyjściu kanału skorelowane odpowiedzi amplitudowe i fazowe [3, 5]. Pasmo koherencji można zapisać, jako m c T B 1 - (1) gdzie: m T - jest czasem pamięci kanału, czyli miarą rozrzutu opóźnienia, z jakim przychodzą do odbiornika, wskutek wielodrogowej propagacji, kolejne kopie sygnału nadanego. Parametr m T określa się jako czas, po którym funkcja korelacji maleje, w zależności od definicji, do  1/ e lub do 1/10 swojej wartości maksymalnej [2, 5]. Czas ten często też nazywamy czasem korelacji. Charakteryzuje on w przybliżeniu czas trwania odpowiedzi impulsowej kanału na pobudzenie impulsem w.cz. o bardzo małym czasie trwania. Kolejnym parametrem charakteryzującym więcej »

REALIZACJA SPRZĘTOWEJ JEDNOSTKI AKCELERATORA DO GENEROWANIA TĘCZOWYCH TABLIC DLA FUNKCJI SKRÓTU - DOI:10.15199/59.2015.8-9.122
Jędrzej Bieniasz Krzysztof Skowron Mateusz Trzepiński Mariusz Rawski Piotr Sapiecha Paweł Tomaszewicz 
Struktury programowalne są coraz częściej wykorzystywane w zastosowaniach kryptologicznych. Realizacja algorytmów kryptograficznych lub kryptoanalitycznych w układach FPGA oferuje dużą szybkość przetwarzania podobną do układów ASIC oraz dużą elastyczność podobnie, jak to jest w przypadku realizacji programowych. W artykule przedstawiono sprzętową realizację jednostki służącej do generowania tęczowych tablic wykorzystywanych podczas kryptoanalizy funkcji skrótu. Przedstawione wyniki dowodzą, że tego typu rozwiązania z powodzeniem mogą konkurować wydajnością z systemami opartymi na procesorach ogólnego przeznaczenia, przy jednoczesnych stosunkowo niewielkich wymaganiach co do zasobów sprzętowych. 1. WSTĘP Obecnie, coraz częściej w zastosowaniach kryptologicznych wykorzystuje się technologię programowalną [1][2][3]. Jest to całkowicie zrozumiałe, gdyż algorytmy stosowane w kryptologii opierają się na funkcjach realizujących skomplikowane i złożone obliczeniowo przekształcenia na ogromnych ilościach danych. Natomiast postęp technologiczny w dziedzinie układów reprogramowalnych FPGA (Field Programmable Gate Arrays), jaki nastąpił w ostatnim dziesięcioleciu otwiera nowe możliwości dla projektantów realizujących algorytmy kryptologiczne. Wykorzystanie do implementacji tych algorytmów układów FPGA daje wiele korzyści w porównaniu z realizacjami ASIC czy platformami programowymi, gdyż oferuje dużą szybkość przetwarzania podobną do układów ASIC (Application Specific Integrated Circuit) i dużą elastyczność podobnie, jak to jest w przypadku realizacji programowych. Zarówno algorytmy kryptograficzne zapewniające integralność, czy służące uwierzytelnianiu przekształcają dane w taki sposób, by stały się one niemożliwe do wykorzystania przez nieupoważnione osoby w sposób niezgodny z intencją podmiotów wymieniających te dane. W zamierzeniach twórców systemów kryptograficznych, poprawne wykorzystanie tych danych może przeprowadzić więcej »

RECEIVER-SIDE FINGERPRINTING METHOD FOR COLOR IMAGES BASED ON A SERIES OF QUATERNION ROTATIONS - DOI:10.15199/59.2015.8-9.60
Bartosz Czaplewski Roman Rykaczewski 
The proposed method is a new Joint Fingerprinting and Decryption (JFD) method that uses a cipher based on quaternion rotation to encrypt color images that are then sent to all users via multicast transmission. Individual decryption keys depend on the users’ fingerprints, so that a unique fingerprint is introduced into the image during decryption for each decryption key. A simulation-based research was conducted to examine the method’s robustness against collusion attacks. 1. INTRODUCTION This paper addresses the problem of unauthorized redistribution of multimedia content by malicious users (pirates). There are two ways to protect distributed multimedia: encryption and digital fingerprinting [1]. The goal of encryption is to ensure that only authorized users with proper decryption keys are able to use distributed multimedia. However, after decryption the data loses its protection and may be illegally redistributed by malicious users. In order to maintain security after decryption it is necessary to use a digital fingerprint. Digital fingerprinting is a data hiding technique in which data is protected by unique sequences, called fingerprints. Each fingerprint identifies an individual user and is embedded in the image in such a way that it is imperceptible to the human eye. If a pirate redistributes his or her copy, the analysis of the embedded fingerprint should allow to identify the pirate. Joint Fingerprinting and Decryption (JFD) [2,3,4,5] methods combine encryption and fingerprinting through embedding fingerprints during decryption process. The distribution side encrypts multimedia by using the encryption key and then sends the encrypted data via multicast transmission. Each user has a unique decryption key which is different from the encryption key and introduces some minor changes into decrypted images. These changes are imperceptible to the human eye and are unique for each user, hence they are the us więcej »

REDUKCJA ZUZ˙YCIA ENERGII ELEKTRYCZNEJ WPOLACH CLOSA - DOI:10.15199/59.2015.8-9.54
Mariusz Żal 
W pracy rozwaz˙ane sa˛metody redukcji zu- ˙zycia energii elektrycznej w polach komutacyjnych o architekturze pola Closa, zarówno w płaszczy´znie danych jak i płaszczy´znie sterowania. Analizie poddane zostały dobrze znane algorytmy wyboru drogi poła˛czeniowej: kolejno ´sciowy, pseudo-losowy oraz Beneša. W sposób symulacyjny wyznaczono ´srednie zapotrzebowanie na energi˛e elektryczna˛ niezbe˛dna˛ do wyznaczenia drogi poła˛czeniowej w polu Closa przy u˙zyciu wymienionych algorytmów. W sposób analityczny i symulacyjny wykazano równie˙z, ˙ze na podstawie znajomo´sci nat˛e˙zenia ruchu oferowanego na wej´sciu pola mo˙zna okre´sli´c liczb˛e komutatorów sekcji ´srodkowej, która przy danym nat˛e˙zeniu ruchu oferowanego moz˙e zostac´ wyła˛czona. Upraszczaja˛c mechanizmy sterowania polem komutacyjnym jak równiez˙ uz˙ywaja˛c prostych elementów, takich jak proste liczniki ruchu, mo˙zna zredukowa´c zu˙zycie energii elektrycznej w polu komutacyjnym w obu płaszczyznach. 1. WPROWADZENIE Prace nad redukcja˛ zuz˙ycia energii elektryczne w sieciach telekomunikacyjnych prowadzone sa˛ od wielu lat w wielu o´srodkach naukowych oraz o´srodkach badawczych operatorów i producentów urza˛dzen´ sieciowych. Wszystkie podj˛ete działania w tym obszarze, zwanym "zielona˛ energia˛" lub "sieciami s´wiadomymi energii", sa˛ niezwykle waz˙ne, gdyz˙ z jednej strony chronia˛ s´rodowisko naturalne przez redukcj˛e emisji gazów cieplarnianych, a z drugiej ograniczaja˛ zuz˙ycie energii elektrycznej, co wpływa na zmniejszenie kosztów eksploatacji urza˛dzen´. Sieci nazywane sieciami ekologicznymi mo˙zna zdefiniowac ´ jako sieci, które zapewniaja˛ wymagana˛ przepustowo ´s´c, obsług˛e wymaganej liczby u˙zytkowników oraz załoz ˙ona˛ jakos´c´ usług przy zachowaniu minimalnego zuz˙ycia energii [1].Wymagane jest, aby urza˛dzenia "s´wiadome energii" były w pełni kompatybilne z urza˛dzeniami działaja ˛cymi w istnieja˛cych sieciach. Obecnie, w celu wykazania korzys´ci jakie więcej »

RESA-OLSR: MECHANIZM ROUTINGU UWZGLĘDNIAJĄCY ZASOBY WĘZŁÓW MOBILNYCH SIECI AD-HOC - DOI:10.15199/59.2015.8-9.80
Adam Kraśniewski 
Autor proponuje wzbogacenie standardowego protokołu OLSR o mechanizm uwzględniający zasoby węzłów mobilnych sieci ad-hoc (RESA-OLSR, RESources Aware OLSR). W stosunku do standardowego protokołu OLSR zmieniono sposób wyboru węzłów MPR (MultiPoint Relays). Wybór ten uzależniono od zasobów lokalnych węzłów: poziomu naładowania baterii oraz obciążenia węzła ruchem. Zastosowanie takiego podejścia pozwala na wydłużenie czasu życia węzłów oraz zwiększenie wydajności i niezawodności sieci. 1. WSTĘP Zapewnienie efektywnej komunikacji w doraźnie organizowanych sieciach bezprzewodowych, w których miejsce i rola węzłów jest zmienna w czasie, jest zadaniem złożonym. Problem dodatkowo pogłębia fakt, że na skutek istnienia szeregu zjawisk towarzyszących rozchodzeniu się fali radiowej, zasięg łączności może się zmieniać nawet w przypadku względnej stabilności węzłów. Węzły zazwyczaj wykorzystują szybko wyczerpujące się zasoby zasilania bateryjnego, co w konsekwencji może prowadzić do istotnego ograniczenia ich funkcjonowania. W efekcie, wymagania dotyczące wydajności oraz niezawodności sieci ad-hoc są trudne do spełnienia. Wymagania te kładą duży nacisk na zastosowany w sieci protokół routingu. Konsekwencją tego stanu są liczne prace nad poszukiwaniem rozwiązań mających na celu zwiększenie efektywności istniejących mechanizmów routingowych [1]. Obecnie istnieje wiele propozycji protokołów routingu dla bezprzewodowych sieci ad-hoc. Przedstawiony w artykule mechanizm routingu wykorzystuje proaktywny charakter budowania wiedzy na temat topologii sieci i trasach do węzłów ją tworzących. Oznacza to, że każdy z węzłów utrzymuje informacje o topologii sieci i przechowuje trasy do wszystkich węzłów sieci, niezależnie od ich aktualnego wykorzystania. Celem niniejszego artykułu jest przedstawienie opracowanego mechanizmu routingu RESA-OLSR dla sieci ad-hoc charakteryzujących się niskimi przepustowościami oraz posiadających ograniczone zasoby z więcej »

Rozległe sieci badawcze dla testowania rozwiązań nowych generacji internetu - DOI:10.15199/59.2015.8-9.1
Bartosz Belter Łukasz Łopatowski Michał Giertych Wojciech Burakowski Halina Tarasiuk Piotr Wiśniewski Patryk Schauer Krzysztof Gierłowski Dominik Samociuk 
Obserwowany w ostatniej dekadzie intensywny rozwój technik komunikacyjnych spowodował, iż stale pojawiają się nowe propozycje rozwiązań w obszarze komunikacji: człowiek - człowiek, człowiek - maszyna oraz maszyna - maszyna. Rozwiązania te, z sukcesem testowane w małych laboratoriach firm i instytucji, nie zawsze spełniają wymagania stawiane przed nimi w docelowym rozproszonym środowisku technik informacyjnych i komunikacyjnych (Information and Communication Technology - ICT). W związku z tym powstało zapotrzebowanie na duże rozproszone laboratoria sieciowe, umożliwiające testowanie produktów w środowisku niemalże zbliżonym do docelowych warunków, w których mają być wdrożone. Ponadto obecna infrastruktura sieciowa w ogromnej mierze opiera się na rozwiązaniach sprzed ponad trzech dekad. Nie odpowiadają one dzisiejszym potrzebom i stanowią ograniczenie dla dalszego rozwoju globalnej sieci. Wyeksploatowanie puli adresów IPv4, rosnące koszty i niska wydajność obecnego modelu rutingu pakietów IP, problemy z bezpieczeństwem i brak skalowalności, brak gwarancji jakości przekazu pakietów i nieefektywne metody obsługi mobilności użytkowników to główne wady dzisiejszej sieci Internet, wstrzymujące jej rozwój. Dążąc do rozwiązania tych problemów, rozpoczęto badania nad alternatywnymi architekturami, szybkimi i skalowalnymi, które odpowiadałyby potrzebom nie tylko dzisiejszych czasów, ale również przyszłych. Jednakże ze względu na mnogość protokołów i ich implementacji, a także stosowanie różnego typu sprzętu w sieci Internet, ogromną trudność sprawia walidacja nowych rozwiązań w rzeczywistym środowisku sieciowym. W artykule przedstawiono rozwój laboratoriów i sieci testowych w ciągu ostatnich lat w Europie, na świecie i ostatnio w Polsce. Przedstawiono także motywację i główne cele tworzenia dużych rozproszonych laboratoriów zrzeszających wiele jednostek badawczych. Omówiono ewolucję infrastruktur badawczych, kładąc nacisk na opis infr więcej »

ROZPOZNAWIANIE EMOCJI TWARZY Z WYKORZYSTANIEM ACTIVE SHAPE MODELS i SUPORT VECTOR MACHINE NA PLATFORMIE ANDROID - DOI:10.15199/59.2015.8-9.95
Krzysztof Turek Radosław Olgierd Schoeneich 
W referacie przedstawiono aplikację na platformę Android przeznaczoną do rozpoznawania emocji. W aplikacji zastosowano Active Shape Models, który w sposób iteracyjny potrafi dopasować się do większości twarzy i wyodrębnić jej charakterystyczne punkty. Wysoką skuteczność klasyfikacji uzyskano za pomocą popularnego systemu Support Vector Machine. 1. WSTĘP Computer Vision (CV) to prężnie rozwijająca się dziedzina, która obejmuje metody pozyskiwania, przetwarzania, analizowania i rozumienia obrazów. Jej motywem przewodnim jest powielenie umiejętności ludzkiego wzroku i wykorzystanie tych zdolności przez komputery i ich oprogramowanie. Łączy w sobie wiedzę z zakresu informatyki, elektroniki oraz nauk kognitywnych. Ludzie postrzegają świat w złożony sposób, jesteśmy w stanie rozpoznać poszczególne kolory i rozróżniać kształty otaczających nas przedmiotów. To co jest proste dla człowieka, jest trudne dla maszyny. Do tej pory stworzono wiele algorytmów, które naśladują umiejętności ludzkiego wzroku. Wśród nich m.in Stereo Matching, czyli tworzenie modelu 3D z setek fotografii danego przedmiotu, zrobionych z różnej perspektywy [1], person tracking - śledzenie ruchu [2], czy face detection - wykrywania twarzy w obrazie [3]. Pomimo problemów CV jest stosowana obecnie w naszym życiu codziennym. Najpopularniejszymi zastosowaniami są: (a.) OCR (Optical Character Recognition) - rozpoznanie tekstu w np. zeskanowanym dokumencie [4], (b.) OMR (Optical Mark Recognition) - rozpoznawanie m.in. znaczników tzw. pól wyboru oraz kodów kreskowych [5], (c.) automobile safety -wykrywanie nieoczekiwanych przeszkód na drodze [6], (d.) motion capture (mocap) - przechwycenie ruchów człowieka i zapisanie ich przez komputer [7], (e.) fingerprint recognition - rozpoznawanie odcisków palców [8], oraz najbardziej interesujące czyli rozpoznawanie emocji człowieka w obrazie tzw. Facial Expression Recognition. Pojęcie Computer Vision zazwyczaj kojarzy się z więcej »

Rozszerzenie algorytmu przydziału zasobów o agregację nośnych (CA). - DOI:10.15199/59.2015.8-9.44
Jędrzej Stańczak Mateusz Buczkowski 
Agregacja nośnych (ang. Carrier Aggregation) to istotna część wydania dziesiątego specyfikacji 3GPP. Przy okazji jest to nieodłączny składnik zestawu mechanizmów, które umożliwią transformację w stronę systemów piątej generacji (5G). Dodatkowe kanały częstotliwościowe muszą być efektywnie wykorzystane. Skuteczne zarządzanie zasobami radiowymi to jeden z warunków koniecznych, by w pełni wykorzystać potencjał tej funkcjonalności. Artykuł ten ma na celu uwypuklenie różnorodnych wyzwań, jakim należy sprostać projektując systemy z agregacją nośnych. Dwie techniki przydziału zasobów zostały porównane, a zyski z zastosowania agregacji nośnych zostały podkreślone. 1. WSTĘP W ostatnich latach mamy do czynienia z niespotykanym wcześniej wzrostem zapotrzebowania na transmisję danych. Co więcej - potrzeba ta stymulowana jest nie tylko przez ludzi w coraz większym stopniu korzystających z usług wykorzystujących przesył danych, lecz także przez urządzenia działające autonomicznie (ang. Machine-Type Communication, MTC), wyposażone w moduły umożliwiające komunikację z siecią. W następstwie wspomnianych wyżej zjawisk coraz liczniejsze grono badaczy z całego świata mierzy się z wyzwaniem, w jaki sposób udoskonalić istniejące sieci, by sprostały rosnącym oczekiwaniom abonentów (zobacz [1]). Różnorodne rozwiązania są brane pod uwagę w tym zakresie. Część z nich skupia się na maksymalizacji efektywności widmowej systemu, inna grupa propozycji podkreśla konieczność zwiększenia pasma częstotliwościowego przeznaczonego dla tychże systemów transmisji danych. Technika agregacji nośnych (ang. Carrier Aggregation, CA) należy właśnie do tej drugiej grupy rozwiązań. Została ona zaproponowana w wydaniu dziesiątym specyfikacji 3GPP (3GPP Release 10, [2]) i polega na łączeniu (agregowaniu) kanałów celem wykorzystania ich do transmisji dla jednego użytkownika. Mechanizm CA został przewidziany dla łącza w dół (ang. Downlink, DL) jak i dla łącza w górę ( więcej »

SAMOORGANIZUJĄCA SIĘ, OKAZJONALNA SIEĆ BEZPRZEWODOWA Z TRANSMISJĄ WIELOETAPOWĄ W ZARZĄDZANIU KRYZYSOWYM - DOI:10.15199/59.2015.8-9.65
Krzysztof Łoziak Janusz Gozdecki Marek Natkaniec 
Głównym celem projektu PROACTIVE jest zaproponowanie nowej architektury pozwalającej na predykcję, detekcję, wnioskowanie oraz reakcję na zagrożenia terrorystyczne w środowisku miejskim. PROACTIVE bazuje na syntezie informacji statycznych oraz dynamicznych (pochodzących od sensorów umiejscowionych w środowisku miejskim). Artykuł przedstawia architekturę samoorganizujących się, okazjonalnych sieci bezprzewodowych z transmisją wieloetapową, zaproponowaną w projekcie PROACTIVE. W pracy przedstawiono moduł automatycznej konfiguracji węzłów sieciowych, a także zawarto wyniki przeprowadzonych testów integracyjnych i walidacyjnych. 1. WSTĘP W chwili obecnej, kluczowymi elementami zarządzania kryzysowego oraz systemów służących wykrywaniu potencjalnych zagrożeń w środowisku miejskim są przede wszystkim: możliwość zapewnienia łączności (transmisja głosu i danych), dostęp i współdzielenie informacji oraz gromadzenie danych pochodzących z sieci sensorów różnego typu (kamery monitoringu wizyjnego, sensory dźwiękowe wyrywające strzały, sensory zagrożeń chemicznych, skażeń radioaktywnych, itp.) do dalszej analizy (post-procesing). Z tego też względu konieczne jest zaprojektowanie i uruchomienie węzłów sieciowych, które pozwolą na zestawianie sieci o dynamicznej topologii, będą w sposób ciągły monitorować jej stan oraz umożliwiać jej późniejszą rekonfigurację. Taki cel przyświecał właśnie zakończonemu w kwietniu br. projektowi PROACTIVE (www.fp7-proactive.eu): opracowanie koncepcji oraz walidacja okazjonalnej sieci bezprzewodowej, która jest zdolna do samoorganizacji oraz transmisji wieloetapowej. Sieć ta pełniła rolę transportową dla różnego typu sensorów oraz kamer wideo stałych oraz ruchomych. Schemat walidowanej topologii sieci przedstawiono na Rys. 1. Okazjonalny tryb pracy pozwala na dynamiczne tworzenie topologii sieciowej, oferującej możliwość transmisji danych bez konieczności instalowania punktów dostępowych zapewniających więcej »

SENSORYCZNA DYSTRYBUCYJNA SIEĆ ROF PRZYSTOSOWANA DO PRACY W JEDNOSTKACH OPIEKI ZDROWOTNEJ - DOI:10.15199/59.2015.8-9.107
Zbigniew Zakrzewski 
W pracy przedstawiono podstawowe parametry interfejsu IEEE 802.15.4j, przeznaczonego do zastosowań w sieciach MBAN. Wykonano obliczenia wskazujące na potrzebę odpowiedniej konfiguracji warstwy MAC, aby móc wprowadzić format RoF (Radio over Fiber) w dystrybucyjnej części sieci. Przeanalizowano oraz obliczono zmiany, jakie mogą zajść podczas transmisji radiowego symbolu PHY O-QPSK w łączu światłowodowym, w odniesieniu do wybranych standardów jednomodowych włókien. Na podstawie wykonanych obliczeń określono możliwości wdrożenia techniki RoF w sieciach MBAN zlokalizowanych w jednostkach opieki zdrowotnej. 1. WSTĘP Ostatnie lata pokazują, że zastosowanie teleinformatycznych sieci w sferze medycyny lawinowo wzrasta. Potrzeba łączenia ze sobą oraz podłączania do sieci Internet różnego rodzaju urządzeń diagnostycznych staje się koniecznością. Pacjenci pozostający pod ścisłą kontrolą lekarza, jeszcze kilka lat temu, musieli być podłączani do aparatury, która pracowała integralnie, bez jakichkolwiek połączeń z siecią. Obecnie coraz trudniej jest sobie wyobrazić urządzenia diagnostyczne pracujące całkowicie samodzielnie. Szczególnym miejscem, w którym można spotkać wiele możliwości zastosowania nowych technologii teleinformatycznych oraz informatycznych, jest jednostka opieki zdrowotnej. Centralne sieciowanie wszelkich czujników oraz urządzeń i modułów umożliwia przede wszystkim zbiorczą kontrolę pacjentów, którzy znajdują się pod okiem lekarzy w jednostce opieki zdrowotnej. Wobec tego rodzaju zagadnienia przychodzi na myśl pomysł połączenia wszystkich urządzeń z zastosowaniem klasycznej sieci teleinformatycznej opartej na formacie Ethernet. Rozwiązanie to jednak nie we wszystkich przypadkach jest uniwersalne, szczególnie w sytuacji potrzeby wprowadzenia kolejnego formatu łącza bezprzewodowego lub przewodowego. W pracy przedstawiono rozwiązanie dystrybucyjnej pasywnej sieci światłowodowej, której podstawową funkcją jest przenosz więcej »

SIECI STEROWANE PROGRAMOWO W SYSTEMIE IIP - DOI:10.15199/59.2015.8-9.47
Janusz Granat Konrad Sienkiewicz Wojciech Szymak 
W niniejszym artykule została przedstawiona integracja sieci sterowanych programowo SDN (ang. Software Defined Networks) z Systemem IIP, który został opracowany w ramach projektu IIP "Inżynieria Internetu Przyszłości." Przedstawione rozwiązanie pozwala na budowę Równoległych Internetów opartych o SDN, dzielących dostępne zasoby sprzętowe z działającymi w Systemie IIP Równoległymi Internetami IPv6 QoS i CAN. 1. WSTĘP Celem ogólnym niniejszej pracy było opracowanie modułów Równoległego Internetu bazującego na technice SDN (ang. Software Defined Networks) wraz z funkcjami zarządzania. Zaproponowany SDN-IIP jest jednym z rozwiązań pozwalających na budowę Równoległych Internetów działających w Systemie IIP - systemie zaproponowanym w ramach krajowego projektu "Inżynieria Internetu Przyszłości" i dotyczącym architektury Internetu Przyszłości [1,2,3]. Należy podkreślić, że przedstawiony w niniejszym artykule SDN-IIP wymaga dalszych prac teoretycznych w zakresie mechanizmów schedulera oraz funkcji CAC (ang. Call Admission Controll). Zgodnie ze specyfikacją Systemu IIP, w systemie tym dla realizacji różnych usług możliwe jest tworzenie różnych Równoległych Internetów (RI), które są zarządzane przez różnych operatorów wirtualnych. Poszczególne RI pracują równolegle z zapewnieniem pełnej izolacji między nimi, tj. ruch w ramach jednego RI nie zakłóca ruchu w pozostałych RI. Co istotne, w poszczególnych RI mogą być wykorzystywane różne protokoły komunikacyjne. W ramach projektu "Inżynieria Internetu Przyszłości" z Systemem IIP zintegrowano dwa Internety Równoległe: RI IPv6 QoS, RI CAN. Opracowano ponadto założenia do trzeciego Równoległego Internetu RI DSS [4]. W niniejszym artykule zostały przedstawione mechanizmy sterowania i transmisji danych w zaproponowanym rozwiązaniu bazującym na SDN. W tym rozwiązaniu dane przesyłane są w ramach dedykowanych przepływów (ang. Flow). Poszczególne przepływy rozumiane są jako kanały transmisyj więcej »

SIMGROUPTEST - NOWA METODA DETEKCJI KOOPERACYJNYCH ATAKÓW ZŁOŚLIWYCH WĘZŁÓW PRZECIWKO SYSTEMOM ZARZĄDZANIA ZAUFANIEM - DOI:10.15199/59.2015.8-9.20
Marek Janiszewski 
Artykuł zawiera propozycję mechanizmu wykrywającego ataki kooperacyjne przeciwko systemom zarządzania zaufaniem. Wydaje się, że ataki kooperacyjne, nie zyskały wystarczającej uwagi zespołów badawczych, mimo tego, że niejednokrotnie wskazywano na istnienie takich ataków. Ze względu na skuteczność tego typu ataków oraz ich różnorodność istnieje potrzeba stworzenia mechanizmu, który byłby w stanie je wykrywać i dzięki temu ograniczać ich negatywne skutki. 1. WSTĘP Dążenie do zapewnienia bezpieczeństwa w oparciu o systemy zarządzania zaufaniem zakłada, że obserwowanie zachowania innych węzłów w sieci i przekazywanie przez węzły informacji o ocenach reputacji, pozwoli na identyfikację, które z nich zachowują się w sposób samolubny (dążą do realizacji własnych celów, a nie wspólnych celów sieci tj. skutecznej komunikacji, np. nie przekazują otrzymanych pakietów w celu oszczędzania energii), lub złośliwy (dążą do zaburzenia komunikacji w sieci i wprowadzają inne węzły w błąd). Identyfikacja tych węzłów ma pozwolić na podjęcie działań w celu zachowania efektywnej komunikacji w sieci (np. poprzez unikanie interakcji ze złośliwymi węzłami) [1], [2], [3]. Uwaga zespołów badawczych zwykle skupia się na propozycjach nowych systemów zarządzania zaufaniem i reputacją lub ewentualnie na dążeniu do usystematyzowania stworzonego dorobku [6], [7] i wyznaczenia kolejnych, najbardziej istotnych, obszarów badawczych i problemów, które musza znaleźć rozwiązanie [9]. Mimo wciąż rosnącego zainteresowania środowiska naukowego, brak jest metodycznego podejścia do oceny i zapewnienia odporności na ataki dokonywane przez złośliwe węzły. W literaturze podkreślany jest wszakże fakt, że słabości systemów zaufania ciągle nie zdobyły wystarczającej uwagi [1]. Nawet jeżeli dla proponowanego systemu dokonywana jest ocena odporności to dotyczy ona zwykle jedynie pewnej podgrupy ataków, które zostały opracowane i opisane najwcześniej. Ataki te są zwykle r więcej »

SMART ENERGY METER CONNECTED WITH HOME AREA NETWORK - DOI:10.15199/59.2015.8-9.29
Piotr Obrycki Joanna Obrycka Piotr Zych Sławomir Kula 
In this paper the idea and description of demo realization of smart energy meter connected with home area network (HAN) are presented. Authors explain what Advanced Metering Infrastructure (AMI) system and smart energy meters are and how they work. On the other hand HAN network concept is shortly presented to lastly focus on the idea of connection of these two networks. Finally authors discuss a few use cases for such combonetworks and describe laboratory demonstration for HAN and AMI networks connection. 1. INTRODUCTION Internet of Things (IoT) and Machine2Machine (M2M) communication seem to be the most developing telecommunication area over the past few years. According to various estimates and forecasts the IoT market would grow rapidly in the near future. For example ABI Research Company reported last year that the installed base of active wireless connected devices would exceed 16 billion in 2014, about 20% more than in 2013. It was also said that the number of devices would more than double from the current level, with 40.9 billion forecasted for 2020 [1]. Influences on these numbers have different industry sectors, especially utilities ones: energy, water, waste management. All these areas want to be smart - for example it means that waste management company will monitor if someone else does not use your garbage can and energy network operator will inform customer online about his account balance. However to make utilities networks smart, there is a need for connectivity. What is more it is not caused by human, but full M2M communication for such elements as meters, trash cans, concentrators etc. Only in connected environment networks can be smart, work efficiently and automatically. Nowadays the most smart or at least fastest going to be smart are the electricity networks. On the one side it is because of technology readiness level, but on the other side it is as well forced by European Union law. Briefly saying więcej »

SPLOTOWY MODEL SYSTEMU KOLEJKOWEGO Z DYSCYPLINA˛OBSŁUGI cFIFO - DOI:10.15199/59.2015.8-9.90
Adam Kaliszan Sławomir Hanczewski Maciej Stasiak 
W artykule przedstawiono przybli˙zony model systemu kolejkowego z cia˛gła˛dyscyplina˛FIFO, która umoz˙liwia obsługe ˛ pierwszego zgłoszenia z kolejki z szybkos´cia˛mniejsza˛niz˙ z˙a˛dana. Efektem takiego podejs´cia do obsługi zgłoszen´ jest bardziej efektywne (w porównaniu z dyscyplina˛FIFO) wykorzystanie zasobów serwera. W modelu przyj˛eto, ˙ze systemowi kolejkowemu oferowana jest mieszanina niezale˙znych, wielousługowych strumieni BPP (Bernoulli-Poisson- Pascal). Podstawa˛ zaproponowanego modelu jest algorytm splotowy. Przeprowadzone badania potwierdziły duz˙a˛ dokładno ´s´c proponowanego modelu. 1. WPROWADZENIE Dynamiczny rozwój sieci telekomunikacyjnych, rosna ˛ca liczba oferowanych usług o s´cis´le zdefiniowanych parametrach jako´sci obsługi oraz coraz wi˛eksza liczba uz˙ytkowników sprawiaja˛, z˙e operatorzy sieci wykorzystaja ˛ róz˙ne mechanizmy zarza˛dzania ruchem. Przykładami takich mechanizmów sa˛ mechanizmy progowe, umoz˙liwiaja ˛ce obsługe˛ ruchu elastycznego i adaptacyjnego. W przypadku systemów z usługami czasu rzeczywistego konieczne jest zapewnienie odpowiedniego poziomu opó´znienia i/lub zmienno´sci opó´znienia (jitter). Analiza takich systemów nie jest mo˙zliwa bez odpowiednich modeli systemów kolejkowych uwzgle˛dniaja˛cych ruch wielousługowy. Niestety, w literaturze przedmiotu opisano niewiele takich modeli.Wpracy [1] zastosowano model Erlanga C, zakładaja˛c, z˙e wszystkie klasy zgłoszen´ maja˛ identyczne charakterystyki i warunki obsługi, w tym identyczna˛pre˛dkos ´c´ bitowa˛. Przyje˛to, z˙e jest to pre˛dkos´c´ tego strumienia, który ma na najwie˛ksza˛ pre˛dkos´c´ spos´ród wszystkich strumieni oferowanych systemowi. W innym rozwia˛zaniu zaproponowano wykorzystanie rekurencyjnego wzoru dla pełnodost˛epnych wielousługowych systemów z ruchem elastycznym [2], [3]. W modelu tym zakłada si˛e, ˙ze wszystkie strumienie obsługiwanego ruchu - w przypadku braku wolnych zasobów w systemie - be˛da˛ kompresowane, co więcej »

SPOSOBY OCHRONY RUCHU WYSOKIEGO PRIORYTETU W SIECIACH ZORIENTOWANYCH NA PRZEPŁYWY - DOI:10.15199/59.2015.8-9.50
Jerzy Domżał Robert Wójcik Krzysztof Wajda Grzegorz Rzym 
Zapewnianie gwarancji jakości obsługi dla wyselekcjonowanego ruchu w sieciach teleinformatycznych, jest prawdziwym wyzwaniem dla operatorów. Wielu naukowców na całym świecie prowadzi badania nad mechanizmami, które poprawiają jakość transmisji ruchu generowanego przez aplikacje w czasie rzeczywistym. W niniejszej pracy są przedstawione trzy mechanizmy, które zapewniają wysokiej jakości, stabilną transmisję przepływów strumieniowych w sieciach zorientowanych na przepływy (FAN - Flow-Aware Networks). W szczególności, przedstawione rozwiązania pozwalają na zapewnienie gwarancji obsługi dla przepływów strumieniowych w przypadku awarii łącza sieciowego. Dwa z proponowanych rozwiązań zapewniają protekcję dla ruchu wysokiego priorytetu w warstwie sieciowej. Przedstawiony został również mechanizm wielowarstwowej ochrony, uwzględniający protekcję w warstwie optycznej. Proponowane rozwiązania poprawiają jakość obsługi aplikacji strumieniowych i są łatwe do wdrożenia w ruterach FAN. 1. WSTĘP Ilość ruchu internetowego istotnie wzrasta każdego roku. Aplikacje czasu rzeczywistego, takie jak transmisje wideo za pośrednictwem stron internetowych, wideo na żądanie (VoD) czy nawet Voice over IP (VoIP), generują obecnie znaczącą ilość ruchu internetowego [1]. Operatorzy sieci w celu zapewnienia jakości usług (ang. Quality of Service, QoS) starają się zapewnić odpowiednie wartości parametrów decydujących o jakości, tj. niewielkie opóźnienie, stabilność transmisji, niskie straty pakietów i - co bardzo ważne - krótkie opóźnienia akceptacji i niezawodność. Wydajna transmisja tego typu ruchu jest możliwa w sieci bez przeciążeń. Jednak kluczową kwestią jest, aby chronić go również w sieci z przeciążeniami oraz w sytuacjach, gdy dochodzi do awarii łączy lub węzłów sieciowych. Operatorzy sieci zwykle decydują się na zakup dodatkowej przepustowości w łączach, którymi administrują niż na implementację zaawansowanych mechanizmów zapewniających gwar więcej »

SPRAWNOŚĆ OBSŁUGI ZGŁOSZEŃ W SYSTEMIE INSIGMA*) POPRZEZ INFRASTRUKTURĘ DOSTĘPOWĄ O OGRANICZONEJ PRZEPUSTOWOŚCI - DOI:10.15199/59.2015.8-9.93
Damian Duda Tomasz Podlasek Piotr Pyda Andrzej Stańczak 
W referacie zamieszczono wyniki testów Systemu Obsługi Zgłoszeń o Zdarzeniach i Zagrożeniach (SOZZ) w warunkach zmniejszonej przepustowości łącza dostępowego. Referat ten jest próbą odpowiedzi na pytania dotyczące sprawności przekazu informacji o zdarzeniach w środowisku ogólnie określanym jako zdegradowane. Uzyskane wyniki wskazują na możliwości realizacji obsługi zgłoszeń z pewnymi ograniczeniami. Jako zasadniczy protokół do przekazu informacji o zdarzeniach zastosowany jest standardowy protokół SIP. 1. WSTĘP Zadaniem Systemu Obsługi Zgłoszeń o Zdarzeniach i Zagrożeniach jest dostarczanie danych dla podsystemu analizy ruchu drogowego w systemie INSIGMA. Obsługa zgłoszeń rozumiana jest tu jako zespół czynności wykonywanych w celu przyjęcia, przetworzenia i udostępnienia informacji o zdarzeniach i zagrożeniach w ruchu drogowym, napływających do systemu. Zgłaszane zdarzenia mogą mieć wpływ na jakość obsługi ruchu drogowego w aglomeracjach miejskich ale przede wszystkim wykorzystywane są do uzyskiwania informacji i monitorowania obszarów nieobjętych zasięgiem sensorów systemu INSIGMA. System SOZZ zapewnia tę funkcjonalność poprzez wykorzystanie tzw. sensorów mobilnych, którymi są różnego typu terminale przenośne - np. PDA, smartfony i inne urządzenia wyposażone w aplikację umożliwiającą zgłaszanie zaobserwowanych zagrożeń, wypadków czy innych zdarzeń mających wpływ na bezpieczeństwo ruchu drogowego. Jednym z problemów, które należało rozwiązać było zapewnienie możliwie krótkiego czasu przekazywania informacji o zdarzeniach drogowych do systemu INSIGMA. Zagadnienie to jest m.in. jednym z elementów sprawnego działania wszelkiego rodzaju służb ratowniczych (np. funkcjonujących w ramach Krajowego Systemu Ratownictwa). Znane są nowe techniki powiadamiania o zdarzeniach w sposób automatyczny (np. system eCall [13]), mimo to często jedynym źródłem informacji okazuje się być człowiek wyposażony w terminal przenośny (np. telefo więcej »

STABILNOŚĆ TRZYSEKCYJNEGO POLA CLOSA TYPU MSM Z ALGORYTMEM MMLM - DOI:10.15199/59.2015.8-9.12
Janusz Kleban Jarosław Warczyński 
W artykule zaproponowano algorytm planowania przepływu pakietów MMLM (Maximal Module Level Matching) dla trzysekcyjnego pola Closa typu MSM (Memory-Space-Memory). Z wykorzystaniem modelu płynnego (ang. fluid-flow model) oraz funkcji Lapunowa wykazano stabilność tego algorytmu. Przedstawiono również wyniki eksperymentów symulacyjnych dla ruchu równomiernego i nierównomiernego w zakresie opóźnienia komórek i wielkości kolejek wejściowych oraz wyjściowych. 1. WSTĘP Pola komutacyjne pozwalają na łączenie wejść z wyjściami, co umożliwia przesyłanie sygnałów między dołączonymi do nich urządzeniami/użytkownikami. Pierwsze pola komutacyjne o dużych pojemnościach zostały zbudowane dla central telefonicznych. Obecnie wykorzystuje się je w urządzeniach sieciowych takich jak przełączniki czy routery. Zastępują one również zbyt wolne magistrale do przesyłania sygnałów między modułami wewnętrznymi urządzeń. W przełącznikach/ routerach średniej wielkości, przeznaczonych dla małych i średnich przedsiębiorstw wykorzystuje się jednosekcyjne pola crossbar, natomiast w przełącznikach klasy operatorskiej stosuje się pola wielosekcyjne, zazwyczaj są to pola Closa, np. routery CRS-3 firmy Cisco, T1600 firmy Juniper Networks, lub TX Matrix. W celu łatwiejszej rozbudowy pojemności komutacyjnej stosuje się również pola wielopłaszczyznowe, gdzie każda płaszczyzna ma strukturę pola Closa. Obecnie trwają prace nad polami komutacyjnymi dla węzłów sieciowych Internetu Przyszłości, pracujących z szybkościami na poziomie setek Tb/s lub nawet Pb/s. Pola komutacyjne o dużej pojemności projektowane dla routerów klasy operatorskiej pracują w sposób synchroniczny, przesyłając w szczelinach czasowych pakiety o stałej długości zwane komórkami. Pakiety o zmiennej długości np. IP, napływające do węzła sieciowego są dzielone, w kartach liniowych, na segmenty o stałej długości, które następnie są pakowane do komórek i przesyłane przez pole komutacyjne do portów więcej »

STANOWISKO I METODYKA POMIAROWA DO OCENY JAKOŚCI USŁUGI SMS W SIECIACH MOBILNYCH - DOI:10.15199/59.2015.8-9.96
Tadeus Uhl 
Artykuł opisuje problematykę związaną z oceną jakości usługi SMS w sieciach mobilnych. W pracy opisano nowe stanowisko i metodykę pomiarową do oceny jakości usługi krótkich wiadomości tekstowych. W kolejnym kroku zaprezentowano wyniki badań wykonywanych z użyciem przedstawionych narzędzi w rzeczywistych sieciach. Autorzy dokonali również interpretacji otrzymanych wyników przy zastosowaniu odpowiednich analiz statystycznych, a także podali sposób oceny jakości badanej usługi w oparciu o zaproponowaną metrykę. Przedstawiono również wnioski wynikające z przeprowadzonych badań, które mogą stanowić bazę do rozwijania systemów pomiarowych do oceny jakości usługi SMS, co wydaje się interesujące, szczególnie w sytuacji kiedy na rynku IT brakuje efektywnych systemów i metod pomiarowych do oceny jakości usługi krótkich wiadomości tekstowych. 1. WSTĘP Dzisiejszy trend w sieciach teleinformatycznych zmierza jednoznacznie w kierunku tworzenia sieci nastepnej generacji (NGN: Next Generation Network [1]). Takie sieci powstają poprzez spajanie istniejących w praktyce systemów heterogenicznych (np. ISDN, W/MAN, sieci mobilne) do systemu homogenicznego na bazie technologii IP/TCP. Dobrym przykładem sieci typu NGN jest dzisiejszy Internet, globalna sieć cyfrowa oplatająca cały świat. Jest ona również siecią wielousługową, co stanowi jedną z cech nowoczesnych sieci. Liczba usług w dzisiejszych sieciach cyfrowych ciągle wzrasta. Są to usługi zarówno czasu rzeczywistego (np. VoIP, IPTV, VToIP) jak i uslugi, w których czas nie odgrywa pierwszoplanowej roli (np. FTP, Mail, WWW, SMS, Voice-Mail). Wraz ze wzrostem intensywności ruchu w tego rodzaju sieciach powstaje problem zapewnienia w nich odpowiedniej jakości usług. W ostatnich latach zostało to również zauważone na szczeblu Unii Europejskiej (UE), która w roku 2009 opublikowała dwa zbiory dyrektyw [2, 3], mających na celu zapewnienie na rynku telekomunikacyjnym w krajach UE przejrzystości więcej »

Statyczne i dynamiczne modele sieci - DOI:10.15199/59.2015.8-9.4
Piotr Pacyna Przemysław Bereski 
MODELE SIECI Artykuł jest poświęcony szeroko pojętym sieciom. Przez sieć rozumie się skończoną liczbę elementów aktywnych, ponoszących pewien nakład, aby wytworzyć wartość, która może być udostępniona innym. Odbywa się to za pośrednictwem połączeń, zapewniających przepływ wartości pomiędzy elementami, będącymi węzłami sieci. Definicja ta, jakkolwiek ogólna, umożliwia zastosowanie modeli omówionych w artykule do wszystkich sieci, w których proces wytwarzania i przepływu wartości przebiega z uwzględnieniem elementów racjonalności zachowań, umotywowanych ekonomicznie. Pokazano, że czynniki te istotnie wpływają na strukturę powstałej sieci, a także że możliwe jest przeprowadzenie analizy i oceny struktury owej sieci. Wiele klasycznych modeli sieci jest opartych na matematycznych modelach grafowych, opracowanych w ramach teorii grafów z przeznaczeniem do modelowania relacji pomiędzy obiektami dowolnego rodzaju. Głównym elementem klasycznego modelu sieci są reguły określające sposób konstruowania grafu. Na przykład w modelu Erdős-Rényi formowanie krawędzi następuje przez wybranie węzłów losowo z rozkładu równomiernego. Każda możliwa do utworzenia krawędź jest włączana do grafu z jednakowym prawdopodobieństwem, niezależnie od innych krawędzi. Z kolei w modelach Watts-Strogatz oraz Albert-Barabási formowanie krawędzi następuje w inny sposób, charakterystyczny dla owych modeli. Reguły te prowadzą do powstania sieci o pewnej strukturze i właściwościach. Przykłady takich sieci wraz z empirycznym histogramem rzędu węzła przedstawiono na rys. 1. Model Erdős-Rényi prowadzi do powstania sieci o strukturze nieregularnej (rys. 1a). Model Watts-Strogatz powoduje uformowanie grafu o wysokim stopniu koncentracji węzłów (small word), rys. 1c. Węzły są skupione w ogniska koncentracji, co powoduje, że średnia długości ścieżki w grafie jest mała w porównaniu z innymi modelami. Model Barabási-Albert prowadzi do powstania sieci wyróżniających się tym więcej »

StegBlocks- metoda konstrukcji algorytmów steganografii sieciowej odpornych na wykrywanie - DOI:10.15199/59.2015.8-9.59
Wojciech Frączek Krzysztof Szczypiorski 
W niniejszej pracy przedstawiono nową konstrukcję steganograficzną StegBlocks. Opracowana konstrukcja pozwala na tworzenie metod steganografii sieciowej, które mogą być niewykrywalne. W pracy skupiono się na niewykrywalności w sensie teorioinformacyjnym, która jest odpowiednikiem bezpieczeństwa w sensie teorioinformacyjnym znanego z kryptografii. 1. WSTĘP Steganografia sieciowa [6] wykorzystuje protokoły sieciowe do przesyłania ukrytych informacji. W tym przypadku wykrycie steganografii jest możliwe zazwyczaj wyłącznie poprzez modyfikację lub obserwowanie urządzeń sieciowych i urządzeń dostępowych do sieci. Dziedzina stanowi zainteresowanie coraz szerszej grupy odbiorców ze względu na trzy czynniki. Pierwszym z nich jest zapewnianie praw autorskich twórcom treści, dla których głównym kanałem dystrybucji stał się Internet. Drugim są podejrzenia, które pojawiły się po atakach terrorystycznych na Stany Zjednoczone z 11 września 2001 roku, według których członkowie organizacji Al-Kaida wykorzystywali steganografię do komunikacji związanej z przygotowaniem ataków [4]. Ostatnim argumentem przemawiającym za przyszłością steganografii są niedawne doniesienia o przechwytywaniu i analizowaniu informacji przesyłanych w sieci Internet przez służby bezpieczeństwa Stanów Zjednoczonych [3]. Zastosowanie steganografii sieciowej może pozwolić na przesyłanie tajnych danych niwelując ryzyko przechwycenia ich przez służby bezpieczeństwa innych krajów, co jest szczególnie istotne w przypadku komunikacji rządów poszczególnych państw. Konstrukcja StegBlocks jest ogólnym wzorcem, na podstawie którego mogą być konstruowane konkretne metody steganografii sieciowej. Poziom ogólności konstrukcji StegBlocks powoduje, że jest ona niezależna od protokołów sieciowych, na bazie których ma działać potencjalna metoda steganograficzna. Kluczową cechą konstrukcji StegBlocks jest niewykrywalność. W związku z faktem, że niewykrywalność może być definiowana więcej »

SYMULACJA SYSTEMÓW RADIOKOMUNIKACYJNYCH 4G/5G - DOI:10.15199/59.2015.8-9.25
Krzysztof Bąkowski Marcin Rodziewicz 
W artykule opisano sposoby implementacji wybranych aspektów komunikacji bezprzewodowej w symulacji systemowej. Przedstawiono rozważane modele propagacyjne, metody opisu warstwy fizycznej i oceny jakości łącza. Opisano implementację mechanizmów poruszania się użytkowników, a także zastosowaną metodę rozdziału zasobów i retransmisji. Przedstawione wybrane wyniki symulacji pokazują, że zastosowanie opisanych rozwiązań pozwala na otrzymanie wiarygodnych wyników oceny działania systemu bezprzewodowego 4G/5G. 1. WPROWADZENIE Rozwój społeczny i powszechne wykorzystanie środków komunikacji elektronicznej sprawia, że przyszłe systemy telekomunikacyjne będą musiały podołać nowym wyzwaniom i oczekiwaniom stawianym przez użytkowników. Przewiduje się dynamiczny wzrost ruchu w sieciach bezprzewodowych ze względu na wykorzystanie np. komunikacji bezpośredniej typu D2D (ang. Device-to-Device) czy wymiany informacji między maszynami (ang. Machine-to-Machine - M2M). Ze względu na pojawienie się nowych rodzajów usług konieczne będzie spełnienie bardzo różnorodnych wymagań stawianych systemom komórkowym, takich jak bardzo małe opóźnienia, wysoka niezawodność, elastyczność i rekonfigurowalność, czy też bardzo duże oferowane przepływności danych. Obecna czwarta generacja systemów komórkowych nie będzie w stanie zapewnić odpowiedniej jakości usług, w związku z czym konieczne jest opracowanie nowych rozwiązań komunikacji bezprzewodowej [1]. W celu analizy i oceny technik radiowych proponowanych dla systemów bezprzewodowych nowej generacji należy zbadać różne aspekty ich działania, takie jak: osiągana efektywność widmowa (rozumiana jako przepływność systemu przypadająca na jednostkę pasma), skalowalność widma transmisyjnego, przepływność użytkowników na brzegach komórek, wprowadzane opóźnienia transmisji czy zapewnienie mobilności użytkowników [1]. Jednym z najpopularniejszy i skutecznych rozwiązań pozwalających zrealizować taką analizę jest więcej »

Symulacyjne metody badania jakości przetwarzania modulacji delta z nierównomiernym próbkowaniem - DOI:10.15199/59.2015.8-9.112
Jacek Kołodziej Jacek Stępień Ryszard Golański Juliusz Godek 
W artykule przedstawiono tematykę symulacyjnego badania jakości przetwarzania modulacji delta z nierównomiernym przetwarzaniem. Na wstępie przybliżono przyczyny stosowania metod nierównomiernego przetwarzania różnicowego oraz przedstawiono algorytmy działania modulacji z nierównomiernym próbkowaniem. Następnie zostały pokazane: metoda symulacyjnego badania algorytmicznych cech modulacji z nierównomiernym interwałem próbkowania, oparta na metodzie wyzwalanej zdarzeniami (ang. event based simulation) oraz algorytm wyznaczania błędów kodowania. 1. WSTĘP Analiza cech sprzętowych implementacji modulacji delta dotyczy z jednej strony układowych i technologicznych aspektów jej realizacji, z drugiej właściwości samych algorytmów delta. Jest to konsekwencją badań, jakie są prowadzone nad tego typu modulacjami gdzie rozważa się: ocenę jakości przetwarzania, synchronizację i odtwarzanie, buforowanie i odporność na zakłócenia podczas transmisji. Symulacyjne prace badawcze umożliwiają znalezienie odpowiedzi na pytania: 1. Czy koncepcja przetwornika delta z algorytmem NS-DM (ang. Nonuniform Sampling - Delta Modulation) jest konkurencyjna w stosunku do innych technik jednobitowego przetwarzania różnicowego? 2. Czy algorytm modulacji NS-DM pozwala na uzyskanie poprawy jakości lub zmniejszenie ilości energii wymaganej do przetwarzania informacji w stosunku do innych metod? 2. MODULACJE DELTA Z NIERÓWNOMIERNYM PRÓBKOWANIEM 2.1. Cechy modulacji Pomimo tego, że zjawiska zachodzące w otaczającym nas świecie mają zmienną w czasie naturę, to w przetwornikach analogowo - cyfrowych z kwantyzacją różnicową jak i bezwzględną, dominującą techniką jest próbkowanie ze stałą częstotliwością. Trzeba jednak zauważyć, że lokalne fluktuacje szybkości zmian sygnałów pochodzących z obserwowanych zjawisk, sprawiają, że stosowanie stałej częstotliwości próbkowania jest w wielu fragmentach przebiegu (zwłaszcza w tzw. okresach ciszy) zdecydowanie nadmiarow więcej »

SYNCHRONIZACJA DLA SYSTEMU NC-OFDM ODPORNA NA WPŁYW WĄSKOPASMOWEGO SYGNAŁU INTEREFERUJĄCEGO - OCENA JAKOŚCI W REALIZACJI SPRZĘTOWEJ - DOI:10.15199/59.2015.8-9.43
Paweł Kryszkiewicz Hanna Bogucka 
Stosowanie modulacji wielotonowej z nieciągłymi blokami zajętych podnośnych, NC-OFDM, wymaga zwiększonej odporności odbiornika na sygnały interferujące o widmie zlokalizowanym w paśmie częstotliwości nie używanym przez podnośne, jednakże obejmowanym przez układy odbiornika. Szczególnie trudna jest synchronizacja w obecności wąskopasmowego sygnału interferującego. W pracy zaproponowano algorytm synchronizacji w czasie i częstotliwości o niskiej złożoności obliczeniowej, odporny na wpływ wąskopasmowych sygnałów interferujących. Wyniki symulacji komputerowych skonfrontowano z wynikami uzyskanymi dla rzeczywistych sygnałów radiowych.1 1. WSTĘP Systematycznie rosnące zapotrzebowanie na szybką i niezawodną komunikację bezprzewodową [1] wymaga wykorzystania co raz szerszych pasm częstotliwości radiowych przez urządzenia telekomunikacyjne. Z uwagi na wiele istniejących licencji w pasmie radiowym do 3 GHz, rozważane jest zajmowanie przez nowe systemy częstotliwości w pasmach wysokich np. 28GHz [2]. Niestety, wiąże się to z istotnym zwiększeniem tłumienia propagacyjnego. Drugim rozwiązaniem, jest zwiększenie efektywności wykorzystania widma elektromagnetycznego dla niższych częstotliwości. Pomiary wykazały, że niewielki procent licencjonowanych zasobów widmowych w danym miejscu i czasie jest faktycznie w użyciu [3],[4]. Osiągnięcie wysokich efektywności widmowych wymaga jednak dynamicznego współdzielenia zasobów widmowych z użyciem systemu radia kognitywnego [5] i odpowiednio elastycznej warstwy fizycznej. Ciekawym rozwiązaniem jest metoda multipleksacji/ modulacji wielotonowej z nieprzyległymi podnośnymi NC-OFDM (ang. Non-Contiguous Orthogonal Frequency Division Multiplexing). Wykorzystuje ona wąskopasmowe podnośne ortogonalne, które są modulowane symbolami danych lub też symbolami zerowymi w zależności od zajętości danego zakresu częstotliwości przez sygnał systemu licencjonowanego. Pozwala to osiągnąć wysoką efektywność wykor więcej »

SYSTEM DO WYKRYWANIA KAMPANII ZŁOŚLIWEGO OPROGRAMOWANIA - DOI:10.15199/59.2015.8-9.16
Michał Kruczkowski 
Wykrywanie złośliwych kampanii jest niezwykle ważnym zagadnieniem, ponieważ dotyczy realnej potrzeby zapewnienia bezpieczeństwa w dynamicznie rozwijającej się sieci Internet. Opisany w artykule system do wykrywania kampanii MalCAS (Malware Campaign Analysis System) wykorzystujący metody uczenia maszynowego i eksploracji danych w pełni odpowiada na zapotrzebowania współczesnych sieci. Ponadto działanie systemu zakłada przeprowadzenie analiz heterogenicznych danych pochodzących z różnych warstw modelu sieci. 1. WSTĘP Dynamicznie wzrastająca liczba i stale pojawiające się nowe rodzaje zagrożeń w sieci Internet powodują powstawanie szeregu problemów związanych z zapewnieniem bezpieczeństwa, zarówno prywatnym użytkownikom sieci, organizacjom, jak i ważnym instytucjom państwowym. Aktualnie identyfikuje się wiele rodzajów złośliwego oprogramowania (ang. malicious software - malware) zaprojektowanego do wykonywania niepożądanych operacji na komputerze ofiary. Należą do nich m.in. przechwytywanie wrażliwych informacji, zakłócanie działania czy powodowanie szkód pracy komputerów. W przypadku wykrycia oraz złośliwego wykorzystania luki w oprogramowaniu (tożsamej ze znalezieniem podatności i infekcją organizmu w rozumieniu biologicznym) efekty niepożądanych działań mogą dotykać wielu użytkowników sieci, np. przez dostęp do zainfekowanej strony internetowej. Ponadto, atakujący bardzo często odpowiedzialni są za automatyczną dystrybucję złośliwego oprogramowania z zainfekowanych komputerów innych użytkowników sieci w celu zwiększenia potencjalnej liczby ofiar. Kampania złośliwego oprogramowania determinuje grupę zdarzeń charakteryzujących się tym samym celem oraz wykorzystujących te same strategie dystrybucji złośliwych zachowań prowadzących ostatecznie do infekcji komputera ofiary. Identyfikacja kampanii złośliwego oprogramowania stała się w ostatnich latach głównym wyzwaniem dla zapewnienia bezpieczeństwa sieci. Strategie i mecha więcej »

SYSTEM DOSTĘPU ZDALNEGO DO ROZPROSZONYCH LABORATORIÓW BADAWCZYCH - DOI:10.15199/59.2015.8-9.52
Wojciech Gumiński Tomasz Gierszewski 
Powszechne stosowanie wirtualizacji oraz coraz częstsze łączenie laboratoriów badawczych w środowiska rozproszone powoduje powstanie nowych problemów z organizacją infrastruktury oraz dostępem do niej uczestników eksperymentów badawczych. W pracy przedstawiono architekturę, koncepcję budowy i przykład realizacji systemu dostępu zdalnego do rozproszonych laboratoriów badawczych budowanych w oparciu o środowiska wirtualizacyjne. 1. WSTĘP Powszechne stosowanie wirtualizacji oraz coraz częstsze łączenie laboratoriów badawczych w środowiska rozproszone powoduje powstanie nowych problemów z organizacją infrastruktury oraz dostępem do niej uczestników eksperymentów badawczych [1]. Z jednej strony istnieje potrzeba dostępu do sieci zarządzania laboratoriów w celu zapewnienia możliwości konfiguracji urządzeń infrastruktury badawczej, a z drugiej strony uczestnicy eksperymentów nie zawsze powinni mieć dostęp do sieci zarządzania wszystkimi zasobami. Dostęp powinien być ograniczony do systemów i zasobów, które należą do danego eksperymentu. Jest to szczególnie istotne w laboratoriach rozproszonych wykorzystujących zasoby umieszczone w różnych ośrodkach badawczych [2,3,7,9], w szczególności takich, gdzie szereg eksperymentów jest realizowanych jednocześnie przez różne zespoły. W rozproszonych laboratoriach, wykorzystujących szeroko różne techniki witalizacyjne [14] często brakuje możliwości separacji uprawnień do współdzielonego sprzętu. Dostęp uczestników eksperymentu badawczego do sieci zarządzania całym środowiskiem badawczym grozi możliwością popełnienia niezamierzonych błędów konfiguracyjnych, które mogą mieć wpływ na pracę innych eksperymentów. Polityki bezpieczeństwa dostępu do zasobów sieci badawczej nie powinny zezwalać na dostęp do sieci zarządzania uczestnikom eksperymentów, którymi często są studenci, uczestnicy kursów, warsztatów i szkoleń oraz inne osoby niezwiązane z instytucjami udostępniającymi zasoby eksperyme więcej »

SYSTEM PŁATNOŚCI MOBILNYCH WYKORZSYTUJĄCY BIOMETRYCZNĄ IDENTYFIKACJĘ UŻYTKOWNIKÓW ORAZ INFRASTRUKTURĘ KLUCZA PUBLICZNEGO - DOI:10.15199/59.2015.8-9.117
Grzegorz Górski 
W artykule przedstawiono architekturę rozproszonego systemu płatności działającego w trybie online. Podstawowym komponentem tego systemu, decydującym o poziomie bezpieczeństwa jest mobilny token programowy - aplikacja instalowana na telefonach komórkowych, która umożliwia silne uwierzytelnianie użytkowników. Pozostałymi komponentami jest moduł kasy fiskalnej oraz banku odpowiedzialnego za autoryzację kwoty transakcji dla konkretnego użytkownika. Zaprezentowano także otrzymane wyniki efektywności działania systemu oraz uproszczoną analizę poziomu bezpieczeństwa całego rozwiązania. 1. WSTĘP Współczesny internetowy system bankowe realizuje w trybie on-line tysiące lub nawet dziesiątki tysięcy transakcji w ciągu sekundy. Prawie każda z tych operacji powinna być autoryzowana zarówno przez użytkownika oraz bank obsługujący rachunek klienta w taki sposób, aby zagwarantować odpowiedni poziom bezpieczeństwa. Powszechnie stosowane są rozwiązania wykorzystujące paradygmaty kryptografii symetrycznej tzn. karty z hasłami jednorazowymi, tokeny sprzętowe a ostatnio coraz popularniejsze stają się aplikacje na urządzenia mobilne. Są to w rzeczywistości różne odmiany generatorów liczb pseudolosowych z ziarnem, w których podstawą poufności informacji jest na wzajemne zaufanie obu stron co do wyłącznego współdzielenia unikalnego presekretu [3]. Stosunkowo prosta architektura tego typu systemów jest zupełnie bezbronna "na atak od środka" polegający na kompromitacji presekretu przez jedną ze stron [4]. Rozwiązaniem tego problemu jest zastosowanie tokenów wykorzystujących kryptografię asymetryczną i infrastrukturę klucza publicznego PKI [1]. Jest to właściwie urządzenie (karta mikroprocesorowa, czytnik oraz oprogramowanie) do składania podpisu elektronicznego, które z reguły jest podłączane do zestawu komputerowego użytkownika. Takie rozwiązanie pomimo, że może zaoferować odpowiedni poziom ochrony przy zastosowaniu odpowiedniej długości klucz więcej »

SYSTEM REPUTACYJNY Z CENTRALNYM AGENTEM I METRYKAMI ZAUFANIA OPARTYMI NA POZIOMIE SWIADCZONYCH USŁUG SIECIOWYCH - DOI:10.15199/59.2015.8-9.89
Jerzy Konorski Karol Rydzewski 
Zaproponowano nowy system reputacyjny zdolny do identyfikacji egoistycznych wezłów w wieloskokowych sieciach bezprzewodowych ad hoc. Zawiera on mechanizmy oceny stopnia kooperatywnosci wezłów oraz wymuszania współpracy, sprawiajac, e zachowania egoistyczne pogarszaja relacje wydajnosci i kosztów dla wezłów. Podejscie opiera sie na historycznych wartosciach reputacji i zachowan wezłów, heurystycznym algorytmie identyfikacji zachowania wezłów przy znajomosci topologii oraz na filozofii znanej jako Generous Tit-For-Tat. 1. WSTEP Współczesnie oczekuje sie, e sieci telekomunikacyjne beda w stanie zapewnic efektywne wsparcie aktywnosci człowieka w coraz wiekszym zakresie. Wymaga to opracowania nowych standardów i technologii sieciowych, które zapewnia poadany poziom dostepnosci w kadej sytuacji i kadym srodowisku. Wysiłki te prowadza ku wiekszej niezalenosci wezłów, samoorganizacji i ulotnosci topologii tych sieci. W takim srodowisku nieopłacalne jest wprowadzanie jakiejkolwiek zarzadzajacej infrastruktury i kontrola zachowan wezłów staje sie niemoliwa. Tym samym wiele koncepcji i problemów, do tej pory kojarzonych ze sfera relacji miedzyludzkich, pojawia sie w zagadnieniach czysto technicznych, zas tradycyjne podejscie, które traktuje wezły sieci jako jednostki bezrefleksyjnie podaajace za standardem, moe nie miec zastosowania. Teoria gier i proste wyliczenia pokazuja jasno, e w takich srodowiskach racjonalnym zachowaniem wezła czesto jest egoizm (lub szerzej, niekooperatywnosc) w stosunku do innych, pozwalajace bardziej efektywnie wykorzystywac zasoby sieciowe [1]. Strategia ta, działa dobrze tak długo, jak liczba wezłów zachowujacych sie egoistycznie jest stosunkowo niewielka. Jednak nie ma powodu, by inne wezły miały zrezygnowac z zachowan egoistycznych dla polepszenia uzyskiwanej jakosci usług sieciowych. Pokusa ta stwarza egzystencjalne zagroenie dla sieci komputerowych, gdy potencjalnie prowadzi do znaczne więcej »

SYSTEM WYTWARZANIA OFF-LINE SYGNATUR ZAGROŻEŃ AKTYWNYCH
Paweł Szynkiewicz Adam Kozakiewicz 
W artykule1 prezentowany jest system do generowania off-line różnego typu sygnatur zagrożeń aktywnych. Wytwarzane sygnatury obejmują ciągi oraz multizbiory podciągów przepływów (tokenów). Pozycje tokenów mogą być dowolne lub ich zakresy są ustalane dla każdego tokena. W pracy przedstawione są główne komponenty wykonanego systemu. Szczególna uwaga jest zwrócona na opracowany mechanizm wytwarzania sygnatur, który zakłada rozwiązanie odpowiednio sformułowanego zadania optymalizacji globalnej. Do rozwiązania tego zadania zaproponowano specjalizowaną wersję algorytmu genetycznego z kodowaniem całkowitoliczbowym. Działanie systemu oraz jego efektywność zostały zweryfikowane symulacyjnie na rzeczywistych przepływach pobranych z sieci Internet oraz danych uzyskanych z specjalnie przygotowanych generatorów przepływów. Wyniki testów porównano z rezultatami uzyskanymi za pomocą ogólnie dostępnego w Internecie systemu Nebula . 1. WPROWADZENIE Ataki robaków sieciowych, w szczególności dotychczas nieznanych i nowych (zero-day), stanowią poważne zagrożenie dla użytkowników sieci komputerowych. Robaki łatwo rozprzestrzeniają się w dużych, połączonych wzajemnie i podatnych na zagrożenia systemach [1, 2, 3]. Standardowo wykorzystywane mechanizmy bezpieczeństwa sieci, takie jak uwierzytelnianie i autoryzacja, stają się niewystarczające w szybko rozwijających się sieciach globalnych, przy rosnącej liczbie i pojawianiu się stale nowych zagrożeń. Jedną z podstawowych metod obrony przed zagrożeniami sieciowymi propagującymi się w sposób aktywny jest ich wykrywanie i neutralizacja przez systemy IDS/IPS (ang. Intrusion Detection System / Intrusion Prevention System). W systemach do obrony przed atakami sieciowymi stosuje się najczęściej dwa podejścia [1, 4], polegające na: - wykorzystaniu wcześniej zidentyfikowanych wzorców dla złośliwych komunikatów, czyli sygnatur zagrożenia, - analizie anomalii polegającej na identyfikacji ata więcej »

SYSTEMY WERYFIKACJI MÓWCY – ROSNACE WYZWANIA - DOI:10.15199/59.2015.8-9.17
Artur Janicki 
W artykule przedstawiono problem rosnacych zagroen dla systemów weryfikacji mówcy (ang. ASV). Po omówieniu uywanych obecnie algorytmów słu- acych do biometrii głosowej przedstawiono, w jaki sposób systemy ASV moga zostac zaatakowane przez osoby podszywajace sie pod inna tosamosc (ang. spoofing). Omówiono główne rodzaje ataków, takich jak atak z uyciem syntezy mowy lub konwersji głosu. Zaprezentowano równie metody, które maja na celu ochrone przed tymi zagroeniami, wraz z ocena ich skutecznosci. 1. WSTEP Systemy weryfikacji mówcy (ang. automatic speaker verification, ASV) to systemy, które umoliwiaja autoryzacje uytkownika na podstawie analizy jego głosu. Taka autoryzacja moe zostac przeprowadzona podczas uzyskiwania dostepu do urzadzenia (np. odblokowywania stacji roboczej lub telefonu mobilnego) lub podczas autoryzacji przed wejsciem do chronionego pomieszczenia. Wielka zaleta uywania głosu jako cechy biometrycznej jest moliwosc dokonywania autoryzacji na odległosc podczas zwykłej rozmowy telefonicznej. Weryfikacja mówcy na odległosc rozwija sie intensywnie w Australii, gdzie jest uywana np. przez Australijski Urzad Podatkowy [4]. W naszym regionie stosuje ja obecnie miedzy innymi słowacka Tatra Banka [27], zas w Polsce - Bank Smart [5]. Badanie TNS przeprowadzone w listopadzie 2014 r. w Polsce na reprezentatywnej grupie 1000 respondentów na zlecenie firmy Nuance, producenta systemów przetwarzania mowy (w tym systemów ASV takich jak VocalPassword [20]), pokazało, e uytkownicy sa zmeczeni uywaniem haseł, PIN-ów i kodów. A 49% uytkowników z checia skorzystałoby z biometrii głosowej [17]. Z drugiej strony 17% respondentów tym systemom nie ufa. Obawy uytkowników sa czesciowo uzasadnione. W ostatnich latach społecznosc naukowa zajmujaca sie systemami rozpoznawania mówcy zwraca coraz wieksza uwage na zagroenia, na jakie naraone sa systemy ASV. Niniejszy artykuł ma na celu przyblienie tej tematyki i zw więcej »

SZACOWANIE SIŁY MECHANIZMÓW KRYPTOGRAFICZNYCH ZASTOSOWANYCH W MODULE KRYPTOGRAFICZNYM POLSKIEJ RADIOSTACJI PROGRAMOWALNEJ "GUARANA" - DOI:10.15199/59.2015.8-9.37
Mariusz Borowski 
"Guarana" to kryptonim narodowej radiostacji programowalnej wraz z niezbędną infrastrukturą bezpieczeństwa i zarządzania częstotliwościami, zapewniającej ochronę przesyłanych i przetwarzanych danych niejawnych. Oszacowanie siły mechanizmów kryptograficznych wykorzystywanych przez mechanizmy zabezpieczające, po zapoznaniu się ze wstępną koncepcją systemu kryptograficznego, jest konieczne w celu określenia rodzaju niezbędnych algorytmów kryptograficznych, sposobu ich implementacji, a także poziomu zaufania do środowiska je tworzącego. 1. WSTĘP Celem projektu "Guarana" jest opracowanie nowoczesnej radiostacji przewoźnej w technologii SDR wraz z systemem kryptograficznym zapewniającym bezpieczeństwo przesyłanych informacji niejawnych o klauzuli do "poufne". Wykonany zostanie także podsystem generacji i dystrybucji danych kryptograficznych oraz podsystem zarządzania radiostacjami, obejmujący konfigurowanie radiostacji, planowanie misji i zarządzanie widmem. Wynikiem projektu "Guarana" będzie stworzenie bezpiecznego, skalowalnego, niezawodnego i mobilnego systemu łączności radiowej, spełniającego wymagania działań sieciocentrycznych. "Guaranę" realizują polskie firmy, uczelnie wyższe i ośrodki badawczo-rozwojowe: Radmor S.A. (lider), Wojskowa Akademia Techniczna (WAT), Wojskowy Instytut Łączności (WIŁ), Elektronika Polski Holding Obronny Sp. z o.o., Ośrodek Badawczo-Rozwojowy Centrum Techniki Morskiej S.A. (CTM), Transit Sp. z o.o.. Prace Konsorcjum są współfinansowane przez Narodowe Centrum Badań i Rozwoju zgodnie z Umową Nr DOBR-BIO4/076/13023/2013 z grudnia 2013 roku. Obecnie Konsorcjum realizuje projekt koncepcyjny oraz trwają uzgodnienia Wstępnych Założeń Taktyczno- Technicznych (wersja 3) dla urządzeń przewidzianych do wykonania w projekcie "Guarana". Niniejszy artykuł przedstawia stan projektu z kwietnia 2015 roku. Prace w Konsorcjum są podzielone w celu jak najefektywniejszego wykorzystania potencjału naukowego jeg więcej »

ŚRODOWISKO POMIAROWE DO ANALIZY RUCHU W SIECIACH KABLOWYCH - DOI:10.15199/59.2015.8-9.91
Maciej Słomczyński Maciej Sobieraj 
W artykule przedstawiono opracowane środowisko do pozyskiwania szczegółowych informacji o ruchu przesyłanym w sieciach opartych na protokole IP (Internet Protocol). Badany był rzeczywisty ruch użytkowników indywidualnych w sieci jednego z dostawców usług dostępu do Internetu. Opracowane środowisko pozwala na pozyskiwanie informacji na poziomie strumieni oraz na poziomie pakietów. Zaproponowane rozwiązania oparto na narzędziach ogólnodostępnych i nieodpłatnych. 1. WSTĘP Aktualnie jesteśmy świadkami bardzo szybkiego upowszechniania się usług wykorzystujących protokół IP oraz komunikacji nie tylko między ludźmi, ale także i między rzeczami (Internet of Things). Zjawiska te prowadzą m.in. do znacznych zmian w charakterystyce ruchu generowanego przez źródła ruchu (ludzi, rzeczy), które powinny być uwzględnione już na etapie projektowania i wymiarowania sieci, w tym przede wszystkim sieci dostępowych IP. Opracowanie dokładnych metod wymiarowania takich sieci wymaga jednak przede wszystkim dokładnego poznania charakteru przesyłanego ruchu. Informacje o parametrach ruchu generowanego przez użytkowników oraz o oczekiwanych przez nich parametrach jakości obsługi (quality of service, qualiy of experience) pozwalają na odpowiednie odwzorowanie zasobów żądanych na poziomie pakietów na zasoby żądane na poziomie sesji (zgłoszeń) i - w konsekwencji - na opracowanie metod wymiarowania sieci z wykorzystaniem idei tzw. pasma ekwiwalentnego. W celu dokładnego poznania charakteru ruchu generowanego we współczesnych sieciach dostępowych IP, umożliwiającego w przyszłości określenie wartości zasobów ekwiwalentnych, w artykule przedstawiono opracowane środowisko do pozyskiwania pełnej informacji o strukturze transmitowanych strumieni ruchu. Dalsza część artykułu jest zorganizowana w następujący sposób. W rozdziale 2 przedstawiono założenia i architekturę opracowanego środowiska do przechwytywania ruchu IP. W rozdziale 3 opisano możliwości w więcej »

TRM-EAT - NARZĘDZIE OCENY ODPORNOŚCI NA ATAKI I EFEKTYWNOŚCI SYSTEMÓW ZARZĄDZANIA ZAUFANIEM - DOI:10.15199/59.2015.8-9.19
Marek Janiszewski 
Referat zawiera przedstawienie narzędzia TRM-EAT (Trust & Reputation Management systems - Effectiveness & Attacks Testbed) służącego do oceny odporności systemów zarządzania zaufaniem i reputacją na różne typy ataków przeciwko takim systemom, a także umożliwiającego porównywanie efektywności takich systemów. 1. WSTĘP Idea systemów zarządzania zaufaniem zyskała na znaczeniu z racji tego, że konwencjonalne środki bezpieczeństwa są niewystarczające dla specyficznych sieci, takich jak: Internet Rzeczy (IoT), bezprzewodowe sieci sensorowe (WSN), czy sieci użytkowników systemów e-handlu, wobec czego nowe środki muszą zostać stworzone w celu stymulowania kooperacji w sieciach rozproszonych, w których występują samolubne i złośliwe węzły [1], [2], [3]. Jednakże wykorzystanie systemów zarządzania zaufaniem nie zawsze jest korzystne, chociażby z racji tego, że ich implementacja wiąże się z koniecznością dokonywania dodatkowych obliczeń, dodatkowej komunikacji z innymi węzłami, a w konsekwencji ze zwiększonym poborem energii, co w wypadku tego typu urządzeń jest bardzo istotne. W literaturze brak jest dogłębnego podsumowania możliwości systemów zarządzania zaufaniem w zestawieniu z kosztami ich wykorzystania, w związku z czym trudno o jednoznaczną odpowiedź, czy ich zastosowanie jest celowe, szczególnie w przypadku sieci sensorowych i bezprzewodowych. Dodatkowo kwestia ataków na tego typu systemy nie została dogłębnie zbadana, a w literaturze [5] podkreślany jest fakt, że słabości tych systemów nie zdobyły wystarczającej uwagi zespołów badawczych. Głównym celem pracy jest próba stworzenia narzędzia do porównywania systemów zarządzania zaufaniem, oceny ich skuteczności i efektywności oraz koniecznych zasobów do ich funkcjonowania, w oparciu o zdefiniowane parametry będące częścią tworzonej metodyki. Stworzone miary efektywności systemów zarządzania zaufaniem oraz ataków na te systemy zostały przedstawione w ramach niniejszej prac więcej »

UDZIAŁ WĘZŁÓW PRZEKAŹNIKOWYCH W OSZCZĘDNOŚCI ENERGETYCZNEJ KOOPERACYJNEJ DETEKCJI SYGNAŁÓW - DOI:10.15199/59.2015.8-9.21
Krzysztof Cichoń Hanna Bogucka 
W artykule przedstawiono model kooperacyjnej detekcji sygnałów, gdzie węzły kognitywne współpracują celem maksymalizacji wiarygodności decyzji o zajętości widma. Zbadano oszczędność energetyczną kooperacyjnej detekcji z udziałem węzłów pośredniczących. W badaniach symulacyjnych sprawdzono wpływ położenia węzła zbiorczego oraz koncentracji węzłów na oszczędność energetyczną. Postarano się odpowiedzieć na pytanie czy stosowanie przekaźników jest oszczędne energetycznie.1 1. WSTĘP Gwałtowny wzrost wolumenu przesyłanych danych w sieciach mobilnych, jak również wzrost liczby urządzeń przenośnych został przedstawiony w prognozie firmy Cisco [1]. Przewiduje się w niej, że w latach 2014- 2019 ilość przesyłanych danych mobilnych wzrośnie niespełna 10 razy a liczba urządzeń transmitujących te dane wzrośnie o 4 miliardy. Wynika z tego ogromny wzrost pojemności sieci, niemożliwy do obsłużenia za pomocą istniejącej infrastruktury oraz aktualnych systemów. Jednym z pomysłów na zapewnienie łączności rosnącej liczbie terminali o rosnących potrzebach jest przydzielenie nowych porcji pasma częstotliwości. Duże nadzieje są wiązane ze Światową Konferencją Radiokomunikacji (WRC) planowaną na listopad 2015 r., na której mogą zostać podjęte decyzje dotyczące alokacji nowych pasm częstotliwości [2]. Szczególnym zainteresowaniem cieszy się decyzja ws. alokacji pasma częstotliwości dla tzw. milimetrowych długości fali tj. w pasmie 60 GHz. Jednakże tak wysoka częstotliwość pozwala na propagację sygnału na nieduże odległości, jej stosowanie jest rozważane przede wszystkim dla komunikacji wewnątrz budynków. Ponadto, wymagana jest poprawa pojemności systemu w paśmie poniżej 6 GHz. Jednym z rozważanych rozwiązań jest idea radia kognitywnego, czyli ponownego wykorzystania niezajętych pasm częstotliwości. W pomiarach widma w zakresie 75 MHz - 3 GHz prowadzonych na Wydziale Elektroniki i Telekomunikacji Politechniki Poznańskiej wykazano, że zajętość p więcej »

UKŁAD DWÓCH ANTEN LINIOWYCH NAD POWIERZCHNIĄ DIELEKTRYKA POBUDZANY IMPULSEM POLA ELEKTRYCZNEGO - DOI:10.15199/59.2015.8-9.120
Anna Witenberg Maciej Walkowiak 
W artykule przedstawiono układ równań Hallena modelujących dwa równoległe przewody położone nad dielektryczną półpłaszczyzną i pobudzone lokalnym impulsem pola elektrycznego. Prezentowane są wyniki obliczeń wpływu geometrii układu oraz przenikalności elektrycznej dielektryka na prądy w przewodach. 1. WSTĘP Badanie układu anten umieszczonych nad powierzchniami dielektryków i pobudzanych impulsami pola elektrycznego ma duże znaczenie w takich obszarach jak telekomunikacja, geofizyka, kompatybilność elektromagnetyczna [4]. Z analizą procesu indukowania prądów w dwóch równoległych antenach liniowych nad dielektryczną półprzestrzenią można zapoznać się w pracy Bretones i Tijhuis [1, 2]. Autorzy przedstawili tam rozwiązanie problemu w dziedzinie częstotliwości oraz zaproponowali wyznaczenie prądów płynących wzdłuż anten metodą kroczenia po częstotliwościach (marching-on-in frquency technique). Z kolei Poljak i inni [6, 9] zaproponowali inne podejście do zagadnienia, a mianowicie wykorzystanie modelu linii transmisyjnej umieszczonej nad płaszczyzną doskonale przewodzącą (PEC) i nad dielektrykami. Do badania linii transmisyjnej w dziedzinie czasu wykorzystali zbiór równań telegrafistów. W niniejszej pracy omówiono proces indukowania prądów w dwóch antenach liniowych umieszczonych nad powierzchnią jednorodnej i izotropowej półprzestrzeni dielektrycznej, przy pobudzeniu jednej z anten krótkim impulsem pola elektrycznego o kształcie krzywej Gaussa. Przedstawiono układ całkowych równań Hallena w dziedzinie czasu modelujących prądy indukowane w antenach oraz przedstawiono wyniki testów numerycznych, w których wyznaczono prądy indukowane w antenach dla różnych wartości względnej przenikalności elektrycznej i w funkcji wysokości położenia anten nad dielektrykiem. 2. RÓWNANIA HALLENA W DZIEDZINIE CZASU MODELUJĄCE UKŁAD DWÓCH ANTEN LINIOWYCH NAD PŁASZCZYZNĄ DIELEKTRYKA Układ poddany modelowaniu w dziedzinie czasu składa się z dwóc więcej »

UKŁAD SZEROKOPASMOWEGO NAMIERNIKA WYKONANEGO W TECHNOLOGII RADIA PROGRAMOWALNEGO - DOI:10.15199/59.2015.8-9.85
Krzysztof Cwalina Piotr Rajchowski  
W artykule przedstawiono układ szerokopasmowego namiernika wykonanego w technologii radia programowalnego oraz wyniki badań warstwy sprzętowej, w tym opracowanego układu przełącznika antenowego. Przedstawione wyniki badań urządzeń, stanowiących platformę radia programowalnego oraz układu przełącznika antenowego potwierdzają możliwość zastosowania wytypowanych podzespołów w końcowym rozwiązaniu. 1. WSTĘP Zagadnienie wykrywania kierunku nadejścia sygnałów pojawiło się wraz z powstaniem i rozwojem radiokomunikacji oraz technologii bezprzewodowych już na początku XX wieku. Namierniki wykorzystujące pojedyncze anteny o kierunkowej charakterystyce promieniowania, liniowe szyki antenowe, czy układy sterowane mechanicznie, były pierwszymi rozwiązaniami układów wyznaczających kierunek nadejścia sygnałów DF (Direction Finding). Współcześnie ruchome, mechaniczne elementy sterowania namiernikami zastępowane są układami elektronicznymi, przetwornikami analogowocyfrowymi oraz algorytmami umożliwiającymi estymację kierunku nadejścia sygnałów DoA (Direction of Arrival). Pomiar różnicy amplitud, faz, czy czasów nadejścia sygnałów odebranych przez szyk antenowy, są rozwiązaniami szeroko stosowanymi w układach namierników. Hybrydowe namierniki, wykorzystujące wszystkie wymienione techniki pomiarowe umożliwiają zwiększenie dokładności wyznaczania estymaty kierunku nadejścia sygnału względem układów wykorzystujących jedynie pojedynczy parametr sygnału odebranego, np. amplitudę. W artykule przedstawiono układ szerokopasmowego namiernika zrealizowanego w technologii radia programowalnego oraz wyniki badań warstwy sprzętowej, w tym opracowanego układu przełącznika antenowego. Warto zaznaczyć, że przeprowadzono badania dla wielu urządzeń radia programowalnego ze względu na przyjęty charakter pracy namiernika, jako wielokanałowego, stacjonarnego urządzenia zawierającego wiele pracujących równolegle odbiorników radiowych. Prace badawcze prowad więcej »

Umysł kontra umysł - zagrożenia i metody walki ze złośliwym oprogramowaniem - DOI:10.15199/59.2015.8-9.3
Tomasz Gierszewski 
Malware - złośliwe oprogramowanie - oprócz ataków rozproszonej odmowy świadczenia usług DDoS (Distributed Denial of Service), podszywania, SPAM oraz ogólnie niechcianej komunikacji, stanowi obecnie jedno z najbardziej istotnych zagrożeń dla bezpieczeństwa IT. Wszystkie te zagrożenia należą do potyczek umysł kontra umysł, z ostatecznymi rozwiązaniami, wymagającymi najprawdopodobniej zmian na skalę globalną. Złośliwe oprogramowanie wyróżnia się z grupy tych zagrożeń ze względu na swoją złożoność oraz dużą liczbę naruszanych mechanizmów bezpieczeństwa. Stanowi to odmianę np.w stosunku do ataków DDoS, które docelowo naruszają dostępność jako jeden ze składników bezpieczeństwa. Malware, obecne od wielu lat w świecie technologii informacyjnej, zdaje się być nowym zagrożeniem w systemach techniki operacyjnej - OT (Operational Technology). Niniejszy artykuł poświęcono w ogólności zagrożeniom związanym z malware oraz metodom walki. DEFINICJE MALWARE Istnieje kilka sposobów interpretacji terminu. Najbardziej popularne rozumienie wywodzi się ze świata oprogramowania antywirusowego i ma dość szeroki zakres [43]. Definicja 1. Malware - dowolny rodzaj złośliwego kodu wykonywalnego, stworzonego specjalnie w celu zakłócenia normalnego lub zamierzonego działania systemu komputerowego lub usług. Pod względem funkcjonalnym można wyróżnić następujące typy malware [20], [47]: wirusy, robaki, złośliwy kod mobilny, tylne wejścia, konie trojańskie i rootkity. Zostaną one przedstawione dalej w rozdziale Motywacja. Obejmują one komplet aktywności przejawianej przez różnorodny złośliwy kod. Częścią wspólną różnych typów malware jest - albo wyłącznie, albo jako dodatek do funkcjonalności podstawowej oprogramowania, np. wygaszacza ekranu - wykonywanie pewnych czynności niezamierzonych przez użytkownika. Ponieważ ich zbiór może być bardzo różnorodny, tak definiowane złośliwe oprogramowanie jest pojęciem bardzo szerokim. Malware może być także definiow więcej »

WARUNKI NIEBLOKOWALNOS´CIW WA˛SKIM SENSIE DLA WIELOUSŁUGOWEGO OPTYCZNEGO POLA KOMUTACYJNEGO TYPU log2N 􀀀 1 DLA MODELU PASMA DYSKRETNEGO - DOI:10.15199/59.2015.8-9.33
Remigiusz Rajewski 
W niniejszym artykule opracowane zostały warunki nieblokowalnos ´ci w wa˛skim sensie dla wielousługowego pola komutacyjnego typu log2N 􀀀 1 dla przypadku modelu pasma dyskretnego. Warunki te nie były dota˛d rozwaz˙ane w literaturze przedmiotu. Przedstawiono stosowne twierdzenie okres´laja˛ce minimalna˛ liczbe˛ płaszczyzn, z których musi by´c zbudowane pole komutacyjne typu log2N 􀀀 1 aby było polem nieblokowalnym w wa˛skim sensie. Ponadto zamieszczony został dowód konieczny i wystarczaja˛cy wspomnianego twierdzenia oraz zamieszczono kilka przykładów liczbowych. 1. WPROWADZENIE Pole komutacyjne typu log2 N 􀀀 1 zostało formalnie opisane w pracach [1-4]. Wielopłaszczyznowa odmiana wspomnianego pola komutacyjnego, nazywana równie˙z polem komutacyjnym typu multi-log2 N 􀀀 1, została natomiast opisana w pracach [4-6]. Dokładna liczba płaszczyzn p, z których zbudowana jest struktura pola komutacyjnego typu multi-log2 N 􀀀 1, zale˙zy od warunków nieblokowalno ´sci, które spełnia ta struktura. Przez płaszczyzny nale˙zy rozumie´c tutaj kopie pola komutacyjnego typu log2 N 􀀀 1 umieszczone wzgl˛edem siebie równolegle i poła˛czone odpowiednio do wejs´c´ i wyjs´c´ danej architektury pola komutacyjnego. Idea wielopłaszczyznowo´sci przedstawiona jest na rysunku 1.Warunki na nieblokowalnos ´c´ w wa˛skim sensie dla architektury przestrzennego pola komutacyjnego typu multi-log2 N 􀀀 1 zostały wyprowadzone i udowodnione w [4, 5], natomiast warunki na przestrajalno´s´c wspomnianej struktury przestrzennej wyprowadzono i udowodniono w [4, 6]. Ró˙zne struktury pól komutacyjnych z ruchem zintegrowanym (ang. multirate) omówione zostały w pracach [7-21]. Warto zauwa˙zy´c, ˙ze analiza tego typu pól charakteryzuje si˛e coraz wi˛ekszym zainteresowaniem w ostat-nich czasach [22-26]. Podyktowane jest to w obecnych czasach wykorzystaniem tego typu pól komutacyjnych w centrach danych (ang. data cen więcej »

WERYFIKACJA WYBRANYCH METODY AUTOMATYCZNEGO PLANOWANIA SIECI WLAN - DOI:10.15199/59.2015.8-9.42
Adam Pieprzycki 
Celem artykułu jest teoretyczna (numeryczna) oraz praktyczna (pomiarowa - empiryczna) analiza problemu automatycznego planowania, za pomocą wybranych funkcji kryterialnych, sieci łączności bezprzewodowej WLAN standardu IEEE 802.11 z infrastrukturą, pracującej w paśmie ISM 2.4 GHz, w środowisku radiokomunikacyjnym wewnątrzbudynkowym. 1. WSTĘP Rosnąca popularność lokalnych komputerowych sieci bezprzewodowych WLAN standardu IEEE 802.11, spowodowała wzrost liczby punktów AP (Access Point) i w konsekwencji wzrost poziomu mocy zakłóceń interferencyjnych. Ponadto w ostatnich latach pojawiło się szereg urządzeń i systemów, pracujących w paśmie ISM 2.4 GHz, stanowiących dodatkowe źródło zakłóceń sieci WLAN. Wzrost interferencji wpłynął na rozwój nowych metod planowania sieci WLAN oraz spowodował, że zaczęto poszukać nowych rozwiązań sprzętowych zarządzania pasmem częstotliwości, jak np. CCA (Cisco CleanAir). W tym kontekście bardzo ważnym zadaniem, stawianym przed projektantami obecnych i przyszłych sieci WLAN, jest wybór liczby punktów AP oraz ich wzajemnego rozmieszczenia, czy wreszcie przypisanie im odpowiednich numerów kanałów radiowych oraz mocy nadawczych. Parametry te mają wpływ na zasięg sieci oraz na osiągane w niej przepustowości. Punkt AP może być urządzeniem realizującym wiele funkcji lub posiadać ograniczoną funkcjonalność. Sieć z infrastrukturą o ograniczonej funkcjonalności może wymagać dodatkowego urządzenia - sterownika WLAN, z którym punkt AP komunikuje się za pomocą dedykowanego protokołu np. LWAPP (Lightweight Access Point Protocol), zdefiniowanego w RFC 5412. W planowaniu automatycznym sugerowana liczba punktów dostępu AP (Access Point) do sieci WLAN (Wireless Local Area Network), ich wzajemne położenie względem siebie oraz względem stacji ST (station), którymi posługują się użytkownicy, a także wybór parametrów pracy tych punktów są wynikiem wyznaczenia optimum globalnego zastosowanej funkcji kryterialne więcej »

WIELOKANAŁOWY DETEKTOR ENERGII Z WYKORZYSTANIEM FILTRU WOLA - DOI:10.15199/59.2015.8-9.123
Anna Kaszuba Radosław Chęciński Jerzy Łopatka 
W artykule przedstawiono własności wielokanałowego detektora energii dla potrzeb dynamicznego dostępu do widma w radiowych systemach kognitywnych. Podział obserwowanego pasma na wąskie kanały częstotliwościowe został zrealizowany w oparciu o algorytm WOLA, natomiast na wyjściu każdego z nich realizowana jest detekcja energii sygnałów. Opisane rozwiązanie zostało zaimplementowane na platformie radia programowalnego USRP. 1. WSTĘP Koncepcja radia kognitywnego [1] zakłada rozszerzenie funkcjonalności klasycznego urządzenia radiowego o zdolności mające na celu pozyskanie wiedzy o otaczającym je środowisku elektromagnetycznym oraz dobór optymalnych parametrów transmisji własnego sygnału. Takie rozwiązanie wychodzi naprzeciw obecnym problemom związanym z ograniczonym dostępem do medium transmisyjnego oraz jego efektywnym wykorzystaniem. Architekturą sprzętową, która spełnia wymagania stawiane radiom kognitywnym są platformy radia programowalnego SDR (ang. Software Defined Radio) [2], które umożliwiają elastyczną konfigurację parametrów wykorzystywanych waveformów. Jednym z najważniejszych elementów radia kognitywnego jest mechanizm detekcji transmisji sygnałów przez inne systemy w celu pozyskania świadomości o otaczającym środowisku elektromagnetycznym pod kątem poszukiwania wolnych zasobów radiowych. Powinien on wykazywać zdolność do wykrywania sygnałów o różnych parametrach w tym sygnałów wąskopasmowych oraz sygnałów o krótkim czasie transmisji. Ważne jest, aby opracowywane algorytmy do detekcji sygnałów charakteryzowały się wysoką skutecznością oraz niską złożonością obliczeniową i szybkim czasem reakcji. Istnieje szereg metod wykrywania sygnałów, gdzie do najbardziej popularnych można zaliczyć detektory energii, cyklostacjonarne, czy detektory wykorzystujące filtry dopasowane [3]. Zaletą detektorów energetycznych jest ich prostota implementacji oraz niska złożoność obliczeniowa, gdyż polega ona jedynie na obliczeniu e więcej »

WŁASNOŚCI KOREKCYJNE I EFEKTYWNE KODOWANIE PODKLASY S-NB-IRA KODÓW LDPC - DOI:10.15199/59.2015.8-9.63
Wojciech Sułek 
W artykule przedstawiono uogólnienie algorytmu kodowania binarnych kodów IRA, które stanowią podklasę kodów LDPC o niskiej złożoności kodowania, na kody niebinarne. Algorytm jest dostosowany do kodów o blokowej strukturze macierzy kontroli parzystości (S-NBIRA). Następnie przedstawiono wyniki eksperymentów prezentujących możliwości korekcyjne tej podklasy kodów. Testowane kody zostały uzyskane autorskim algorytmem tworzenia macierzy kontroli parzystości "dobrych" niebinarnych kodów LDPC. 1. WSTĘP Kody LDPC (ang. Low Density Parity Check) po raz pierwszy pojawiły się w literaturze w roku 1962 [1]. Ze względu na wysokie wymagania iteracyjnego algorytmu dekodowania dotyczące mocy obliczeniowej, nie znalazły jednak w tamtym czasie praktycznego zastosowania. Po ponad 30 latach, pod koniec lat 90-tych ubiegłego wieku, zostały ponownie odkryte i przedstawione przez MacKaya [2], [3] jako dobre kody korekcyjne, czyli kody, które pozwalają osiągać przepustowość kanału komunikacyjnego bliską granicy Shannona. Iteracyjny algorytm dekodowania wraz ze wzrostem mocy obliczeniowej współczesnych układów cyfrowych stał się użyteczny w zastosowaniach praktycznych, a dobre własności kodów LDPC spowodowały, że znalazły one praktyczne zastosowanie w nowoczesnych systemach transmisyjnych, jak np. transmisja rozsiewcza cyfrowego sygnału telewizyjnego. W roku 1998 została także przedstawiona idea niebinarnych kodów LDPC [4], definiowanych nad ciałem Galois GF(q). Pozwalają one uzyskać dodatkowy zysk kodowania w przypadku małych do średnich długości bloku kodowego. Kody te znajdują się w polu zainteresowań badaczy po dzień dzisiejszy, a zgłębiane zagadnienia dotyczą między innymi konstrukcji kodów (macierzy kontroli parzystości) o dobrych własnościach korekcyjnych, rozwoju algorytmów kodowania i dekodowania oraz efektywnej implementacji sprzętowej kodeków i związanych z tym specyficznych podklas kodów umożliwiających efektywną implementację. więcej »

Wpływ kanału intruza na przepustowo klucza generowanego midzy wzłami sieci radiowej - DOI:10.15199/59.2015.8-9.77
Michał Pilc 
W sieciach WLAN i sensorowych moliwe jest generowanie bezwarunkowo bezpiecznego klucza sesji na podstawie losowych fluktuacji kanału radiowego. Jego stan jest wspólnym sekretem nieznanym intruzowi. Jednak e, w kanałach z mał liczb rozpraszaczy sygnały obserwowane w punktach oddalonych nawet o kilka długo- ci fali no nej mog by silnie skorelowane. W niniejszej publikacji zbadamy wpływ współczynnika korelacji sygnału odbieranego przez uprawniony terminal z sygnałem wyciekajcym do intruza na przepustowo  bitów klucza. 1. WSTP Zapewnienie poufnoci i uwierzytelnienia sieci i uytkowników sieci bezprzewodowych stanowi powane wyzwanie ze wzgldu na rozsiewczy charakter transmisji radiowej. Dotychczas stosowane protokoły jak WPA2- CCMP zaimplementowany w sieciach WLAN opartych na standardach rodziny IEEE802.11, a take E0 wyst- pujcy w systemie Bluetooth koncentruj si na kryptograficznej ochronie danych i autentycznoci podmiotów sieci. Jednake, gwałtowny wzrost mocy obliczeniowej komputerów spowoduje konieczno znacznego wydłu- enia czasu generowania klucza. To z kolei w negatywny sposób wpłynie na wydajno wzłów sieci sensorowych, bdcych urzdzeniami o stosunkowo małym zuyciu energii. Z tego powodu, a take ze wzgldu na gwałtowny wzrost mocy obliczeniowej komputerów, notebooków i tabletów rozwaana jest zmiana podejcia do generowania klucza. Od kilku lat trwaj intensywne prace majce na celu wykorzystanie warstwy fizycznej sieci radiowych do zapewnienia bezpiecze stwa transmisji. Teoretyczne podstawy generowania bezwarunkowo bezpiecznego klucza na podstawie losowych fluktuacji kanału radiowego zostały opisane przez Ahlswede, Csiszára [1], a take przez Maurera[2]. W 2000r. zaproponowano kwantyzacj losowych wartoci fazy współczynników kanału w celu uzgadniania wspólnego klucza w transmisji punkt-punkt w sieci radiowej [3]. Przepustowo tajnego klucza w kanałach radiowych MIMO LOS (ang. Line-of-Si więcej »

Wydajność zaawansowanych formatów modulacji w łączu wykorzystującym jako nadajniki diody oświetleniowe - DOI:10.15199/59.2015.8-9.5
Grzegorz Stępniak Łukasz Maksymiuk Jerzy Siuzdak 
W ostatnich latach obserwuje się znaczny wzrost wykorzystania diod elektroluminescencyjnych LED (Light Emitting Diode) do oświetlenia: mieszkań, biur, placówek medycznych i oświatowych. Oświetlenie to jest bardziej wydajne energetycznie niż żarówki czy świetlówki, charakteryzuje się większą żywotnością, nie przyczynia się do wytwarzania substancji szkodliwych dla środowiska i wspierane jest przez urzędy regulacyjne (np. Unii Europejskiej). Oprócz wspomnianych zalet, diody LED mogą być stosunkowo szybko modulowane, a zatem oprócz funkcji oświetleniowej mogą być wykorzystane jako nadajniki bezprzewodowego sygnału szerokopasmowego (VLC - Visible Light Communications). Pojedyncza dioda oświetleniowa pokrywa jednak niewielki obszar pomieszczenia. Jest to zarazem wada i zaleta: zbiega się to z obserwowanym kurczeniem się powierzchni komórek w systemach radiowych (postulowane są piko- czy femtokomórki), przez co udaje się zwiększyć przepływność oferowaną użytkownikom. Kolejnym stopniem tego procesu mogłyby się stać attokomórki wykorzystujące światło białe, co postuluje jedna z ostatnich prac na temat technik, które zostaną zastosowane w systemie telefonii komórkowej 5. generacji (5G) [1]. Najpopularniejszym i zarazem najtańszym rodzajem diody oświetleniowej jest niebieska dioda LED pokryta warstwą fosforu, której zadaniem jest konwersja części niebieskich fotonów emitowanych przez półprzewodnik na fale dłuższe (kolor żółty). W efekcie suma obu komponentów (niebieskiego i żółtego) daje światło postrzegane jako białe. Niestety, światło żółte, pochodzące z fluorescencji, w warstwie fosforu ma kilkakrotnie większą stałą czasową, przez co nie może być modulowane tak szybko, jak sam półprzewodnik. Dlatego w odbiorniku takiego systemu powinien być umieszczony filtr niebieski, którego zadaniem jest usunięcie światła wygenerowanego w warstwie fosforu i pozostawienie jedynie szybkozmiennego komponentu światła niebieskiego. Pomimo tego, pozio więcej »

WYKORZYSTANIE METOD STEGANOGRAFICZNYCH W WARSTWIE FIZYCZNEJ SIECI OPTYCZNYCH - DOI:10.15199/59.2015.8-9.100
Paweł Łąka Łukasz Maksymiuk 
W pracy przedstawiono wyniki badań dotyczących wykorzystania steganografii w warstwie fizycznej sieci optycznych. Celem eksperymentu było wprowadzenie do medium transmisyjnego ukrytych danych w taki sposób, aby pozostały one niewidoczne w torze światłowodowym, przy jednoczesnej możliwości ich wykrycia na wyjściu układu. Do ukrycia informacji wykorzystano sekwencje sygnału jawnego oraz szumy występujące w sieciach optycznych. Uwzględniono różne przepustowości sygnału ukrytego, stosunek mocy optycznej propagujących sygnałów oraz różne postacie szumu. 1. WSTĘP W dzisiejszych czasach wszystkie sieci są narażone na różnorodne ataki. Sieci optyczne nie są wyjątkiem. Zwykle stosuje się metody kryptograficzne w celu zabezpieczenia poufnych danych. Nie dają one jednak gwarancji stuprocentowej ochrony. Mając na uwadze ciągły rozwój zdolności obliczeniowej komputerów oczywistym jest, że to tylko kwestia czasu, kiedy dojdzie do złamania dotychczasowych metod szyfrowania. Alternatywą, polegająca na dodatkowej ochronie transitowanych danych, wydaje się być steganografia. W niniejszej pracy skupiono się na wykorzystaniu metod steganograficznych w sieciach optycznych. Należy nadmienić, że literatura dotycząca tematyki steganografii optycznej jest nad wyraz uboga. Pierwszą wzmianką o możliwościach użycia steganografii w sieciach optycznych jest praca [1]. W ostatnich latach skupiono się na sposobach ukrycia tajnych danych w warstwie fizycznej sieci optycznych. Wszystkie koncepcje opierają się na wykorzystaniu szumu będącego nieodzownym elementem każdej transmisji światłowodowej, wydaje się to być najlepszym sposobem, aby ukryć transmisję [2]. W dokumentach [3], [4] przedstawiono metodę, dzięki której udało się w satysfakcjonujący sposób ukryć poufne informacje. W owej koncepcji zaproponowano, aby ukryty sygnał rozciągnąć w dziedzinie czasu. W ten sposób zredukowano stosunek mocy optycznej sygnału ukrytego do sygnału publicznego. Dodatk więcej »

WYKORZYSTANIE TECHNIK SIECI SPOŁECZNYCH W REDUKCJI ODEJŚĆ KLIENTÓW SIECI TELEKOMUNIKACYJNEJ - DOI:10.15199/59.2015.8-9.55
Witold Gruszczyński  
Tematem jest zastosowanie analizy sieci społecznej do zwiększenia efektywności metod regresyjnych wykorzystywanych w predykcji odejść użytkowników sieci telekomunikacyjnej. Zaproponowano hybrydowy klasyfikator działający dla wielu segmentów użytkowników. Sieć społeczna jest tworzona na podstawie informacji ruchowych (rekordy CDR). W wyniku jej analizy otrzymywana jest segmentacja klientów i dodatkowe zmienne wejściowe klasyfikatora regresyjnego. Weryfikację wykonano na danych uzyskanych od jednego z polskich operatorów. 1. WSTĘP Jednym z głównych wyzwań, przed którymi stoją firmy telekomunikacyjne jest powstrzymanie migracji klientów do konkurencyjnych operatorów. Można zaryzykować twierdzenie, że problem ten stworzyli sami operatorzy, którzy konkurując na nasyconym rynku oferują atrakcyjniejsze warunki dla nowych użytkowników. Indukowane w ten sposób odejścia abonentów (ang. customer churn) kształtują się obecnie na poziomie 20- 38% [1]. Problem ten jest o tyle istotny, że, jak wskazują dane statystyczne, pozyskanie klienta jest od kilku do kilkunastu razy droższe [2, 3] niż jego utrzymanie, przy czym blisko 80% badanych użytkowników zadeklarowało, że przynajmniej raz w życiu zmieniło operatora sieci telekomunikacyjnej [3]. Cytowane wyżej prace odnoszą do sytuacji na świecie, jednakże najnowsze dane - np. raport dotyczący 2014 r. [4] wskazują na występowanie analogicznych zachowań w Polsce. Typową metodą ograniczenia odejść jest przeprowadzenie odpowiedniej kampanii reklamowej mającej na celu zainteresowanie klientów ofertą operatora i silniejsze ich z nim związanie. Osiąga się to zazwyczaj poprzez zachęcenie do zakupu nowych produktów, czy udziału w programie lojalnościowym. Wskazane jest jednakże, aby oferta taka skierowana była do wyselekcjonowanej wcześniej grupy "wahających się" co pozwala zmniejszyć jej koszt, a także uniknąć zniecierpliwienia niepokojonych zbyt licznymi kontaktami klientów. Pomocna tutaj okazu więcej »

WYKRYWANIE ADRESÓW SERWERÓW C&C BOTNETÓW W DANYCH ZE ŚRODOWISK SANDBOX - DOI:10.15199/59.2015.8-9.76
Adam Kozakiewicz Tomasz Pałka Piotr Kijewski 
W referacie1 omówiono nowy sposób analizy zrzutów ruchu sieciowego rejestrowanych podczas uruchamiania próbek złośliwego oprogramowania w warunkach odizolowanych środowisk uruchomieniowych (sandbox), użyteczny w walce z zagrożeniem przez botnety. Zarejestrowane przepływy są klasyfikowane na podstawie list adresów IP znanych serwerów C&C oraz serwerów bezpiecznych. Przetwarzanie danych z wykorzystaniem dynamicznego marszczenia czasu pozwala wykryć w zebranych danych adresy IP wcześniej nieznanych serwerów C&C. 1. WSTĘP Jednym z najniebezpieczniejszych zjawisk występujących we współczesnej sieci jest aktywność botnetów, czyli wielkich grup komputerów przejętych przy użyciu złośliwego oprogramowania i wykorzystywanych w skoordynowany sposób. Katalog zagrożeń powodowanych przez botnety jest bardzo szeroki, gdyż jest to uniwersalna infrastruktura do działań nielegalnych. Botnet może atakować właścicieli należących do niego komputerów, np. poprzez przechwytywanie sesji bankowości elektronicznej, jak również innych użytkowników sieci - botnety wykorzystywane są do rozsyłania spamu, czy przypuszczania zmasowanych ataków DDoS na wybrane serwery. Skuteczna walka z działającymi botnetami jest niezbędna dla zapewnienia bezpieczeństwa użytkowników sieci. Rozwój złośliwego oprogramowania w ostatniej dekadzie zmierzał w jasno określonym kierunku. Od strony ekonomicznej nastąpiła wyraźna specjalizacja - inne osoby zajmują się przygotowaniem oprogramowania, inne budują przy jego pomocy botnety, a działania przez nie podejmowane realizują cele jeszcze innej grupy osób (botnety do wynajęcia). W efekcie dominujące niegdyś jednofunkcyjne złośliwe oprogramowanie, które po zainfekowaniu komputera podejmuje ściśle określone czynności realizujące bezpośrednio cel autorów, jest wypierane przez oprogramowanie uniwersalne, mogące wykorzystać komputer wielokrotnie, do różnych celów, w tym nieznanych w momencie infekcji. Pierwsze działania złośliw więcej »

WYKRYWANIE DZIAŁAŃ NIEUPRAWNIONYCH W SIECIACH DEFINIOWANYCH PROGRAMOWO - DOI:10.15199/59.2015.8-9.78
Damian JANKOWSKI Marek AMANOWICZ 
Architektura sieci definiowanych programowo stwarza nowe możliwości implementacji mechanizmów bezpieczeństwa w aspekcie wykrywania działań nieuprawnionych. Jednocześnie istnieją określone zagrożenia związane z tą technologią. Przedstawiona metoda pomiarowa pozwala na zebranie parametrów przepływów ruchu sieciowego. Zebrane dane mogą być wykorzystane w systemach wykrywających działania nieuprawnione które bazują na metodach uczenia maszynowego. 1. WSTĘP Dzięki sieciom definiowanym programowo, istnieje możliwość automatyzacji kluczowych elementów pracy sieci teleinformatycznej, z wykorzystaniem technologii programowych. Możliwe jest wdrożenie nowych usług i aplikacji w środowisku wirtualnym, co pozwala na współdzielenie zasobów z określonymi parametrami: wydajnością, odizolowaniem od reszty procesów oraz odpowiednim poziomem bezpieczeństwa [1]. Wraz z elastycznością i skalowalnością zapewnianą przez SDN, istotne jest utrzymanie odpowiedniego poziomu bezpieczeństwa. System wykrywania zagrożeń oparty na technologii SDN może być dodatkowym elementem zapewniania bezpieczeństwa obok klasycznych systemów IDS oraz IPS. Architektura sieci definiowanych programowo stwarza nowe możliwości zwiększania poziomu bezpieczeństwa, między innymi w kontekście wykrywania działań nieuprawnionych. Jednocześnie istnieją określone zagrożenia związane z tą technologią. 2. TECHNOLOGIA SIECI DEFINIOWANYCH PROGRAMOWO Podstawowym założeniem architektury związanej z technologią SDN jest oddzielnie płaszczyzny danych od płaszczyzny sterowania. W odróżnieniu od klasycznych rozwiązań, kontrola urządzeń sieciowych realizowana jest przez sterowniki SDN w sposób scentralizowany. Umożliwia to konfigurację i programowanie z poziomu centralnego interfejsu, w celu dopasowania do wymagań usług w rozproszonej sieci. Centralne zarządzanie pozwala także na kompleksowy monitoring sieci [1]. Sieci definiowane programowo związane są z koncepcją NFV (Network Functio więcej »

XXXI KRAJOWE SYMPOZJUM TELEKOMUNIKACJI I TELEINFORMATYKI KSTiT
Andrzej R. Pach 
Szanowni Państwo, Doroczne Krajowe Sympozjum Telekomunikacji i Teleinformatyki (KSTiT) od ponad trzydziestu lat stanowi okazję do spotkań środowisk naukowych i biznesowych, działających w obszarze nowoczesnej telekomunikacji i teleinformatyki. Celem KSTiT jest prezentacja prac naukowych i badawczo-rozwojowych prowadzonych w ośrodkach badawczych. Uczestnictwo w KSTiT jest także znakomitą okazją do nawiązywania kontaktów pomiędzy środowiskami naukowymi pracującymi w dziedzinie technik informacyjnych i telekomunikacyjnych. KSTiT jest organizowane przez ośrodki akademickie lub naukowe, działające w zakresie telekomunikacji i teleinformatyki. W roku 2015 organi więcej »

ZABEZPIECZANIE NA POZIOMIE WARSTWY FIZYCZNEJ DANYCH ZAKODOWANYCH KODEM KOREKCYJNYM PRZED PODSŁUCHEM W KANALE RADIOWYM - DOI:10.15199/59.2015.8-9.41
Jacek Wszołek Marek Sikora Wiesław Ludwin Jakub Borkowski Jacek Dańda Michał Wągrowski Janusz Gozdecki 
Praca prezentuje wyniki eksperymentów symulacyjnych układu zabezpieczającego transmisję danych przed podsłuchem w kanale radiowym. Celem przeprowadzonych badań było sprawdzenie, czy zastosowanie w systemie teletransmisyjnym, używającym sygnałów zakłócająco- zabezpieczających, kodu korekcyjnego nie zaburzy jego prawidłowego działania. 1. WSTĘP Transmisja danych we współczesnych systemach łączności bezprzewodowej zabezpieczana jest niemal wyłącznie za pomocą algorytmów i technik szyfrujących. Przykładowo, sieci bezprzewodowe standardu IEEE 802.11 zabezpiecza się korzystając z technik WEP (ang. Wired Equivalent Privacy) lub WPA (ang. WiFi Protected Access). Transmisję danych w sieciach komórkowych zabezpiecza się szyframi blokowymi lub strumieniowymi. Przykładem szyfru blokowego jest KASUMI, stosowany w sieciach GSM, GPRS oraz UMTS. Natomiast w systemie LTE dane są zabezpieczane szyfrem strumieniowym SNOW 3G. Wyżej wymienione techniki mają dwie główne cechy wspólne. Pierwszą z nich jest brak możliwości sterowanie poziomem zabezpieczenie transmisji przed podsłuchem. Za ich pomocą zabezpieczenie można jedynie uaktywnić lub dezaktywować. Drugą cechą wspólną jest wysoka złożoność obliczeniowa algorytmów szyfrujących/deszyfrujących. Ma to szczególne znaczenie w urządzeniach, które nie posiadają dedykowanych modułów sprzętowych wspierających operacje szyfrowania i deszyfrowania, a cały proces jest realizowany programowo. Istnieją również metody zabezpieczania transmisji danych oparte na teorii komunikacji chaotycznej (ang. Chaotic Communications). Przegląd takich systemów dostępny jest w pracy [1]. Propozycję układu zabezpieczającego transmisję danych przed podsłuchem opierającego się na teorii komunikacji chaotycznej przedstawiono w zgłoszeniu patentowym [2]. Wyniki analizy zaproponowanego w [2] układu szczegółowo opisano w pracy [3]. Niniejsza praca stanowi kontynuację badań, których wyniki przedstawiono w publikacji [3]. więcej »

Zastosowanie diod led jako fotodetektorów w systemach transmisji VLC - DOI:10.15199/59.2015.8-9.9
Marcin Kowalczyk 
Koncepcja użycia systemów oświetlenia jako podstawy do stworzenia nowego rodzaju systemów transmisji bezprzewodowej, tj. optycznych systemów transmisji w zakresie światła widzialnego VLC (Visible Light Communications), zbliża się powoli do fazy jej komercjalizacji. Na rynku powinny być już niebawem dostępne pierwsze, prototypowe systemy tego typu z możliwością ich zakupu [2-4]. Jednak przed tą technologią wciąż stoi wiele wyzwań. Ich rozwiązanie zadecyduje, czy stanie się ona w przyszłości rzeczywistą alternatywą dla radiowych sieci bezprzewodowych. Popularyzacji samego rozwiązania sprzyjają wprowadzane na całym świecie dyrektywy, dotyczące wymagań stawianych źródłom światła, wykorzystywanym w oświetleniu, w tym m.in. dyrektywy Unii Europejskiej [5,6]. Ogólną koncepcję działania tego rodzaju systemów zobrazowano na rys.1.Systemy tego typu są oparte na założeniu, że jeżeli tylko źródło oświetlające przestrzeń pomieszczenia zostanie zmodulowane z dostatecznie dużą częstotliwością, to wywołane w jej efekcie zmiany poziomu natężenia sygnału świetlnego nie są dostrzegalne przez ludzkie oko. Oczywiście, w przeciwieństwie do fotodetektorów, które jeżeli tylko poziom mocy optycznej sygnału świetlnego docierającego do nich jest dostateczny (powyżej progu ich czułości), są zdolne na nie reagować. Tym samym system oświetlenia może być jednocześnie systemem transmisji. Postulat wykorzystania systemów oświetlenia w podwójnej roli pojawił się już na początku bieżącego stulecia [2,7]. Jednak dopiero wprowadzenie wspomnianych już dyrektyw w zakresie zmian w odniesieniu do wykorzystywanych w oświetleniu źródeł światła, wiążących się z wycofywaniem m.in. żarówek żarowych, kosztem wprowadzania w ich miejsce oświetlenia typu LED (Light Emmiting Diodes), stworzyło dla tej technologii odpowiednie warunki rzeczywistego zaistnienia. Użycie w oświetleniu diod LED umożliwia ich względnie szybką modulację. Nie jest to możliwe w przypadku żarówek klasyc więcej »

ZASTOSOWANIE METODY MINIMALIZACJI INTERFERENCJI Z WYKORZYSTANIEM RÓWNOWAGI KORELACYJNEJ W SYSTEMACH BEZPRZEWODOWYCH 5G - DOI:10.15199/59.2015.8-9.81
Paweł Sroka 
W artykule omówiono zagadnienie długookresowej minimalizacji interferencji w systemie bezprzewodowym 5G y uwzględnieniem modyfikacji, których celem jest zmniejszenie liczby wykonywanych obliczeń i informacji wymienianej między stacjami bazowymi. Zaproponowano rozwiązania bazujące na ograniczeniu liczby kooperujących stacji bazowych oraz liczby użytkowników uwzględnianych w procesie optymalizacji. Przedstawione wyniki symulacyjne wskazują, że wprowadzone uproszczenia powodują jedynie nieznaczne pogorszenie zysku wynikającego z zastosowania proponowanej metody. 1. WSTĘP W systemach komórkowych nowej generacji ze względu na współistnienie małych komórek oraz dotychczasowej sieci stacji bazowych typu makro, architektura systemu komórkowego ma charakter wielowarstwowy, co umożliwia znaczną poprawę wykorzystania dostępnego pasma transmisyjnego oraz znaczne zwiększenie przepływności użytkowników. Jednak jednym z największych problemów związanych z wprowadzaniem małych stacji bazowych jest znaczący wzrost interferencji w systemie, w tym między komórkami z różnych warstw sieci. Metody minimalizacji interferencji w wielowarstwowym systemie komórkowym są przedmiotem badań prowadzonych przez organizację 3GPP, która zaproponowała rozwiązanie wykorzystujące tzw. prawie puste podramki (ABS - ang. almost blank subframes) dla systemu LTE-Advanced [3,5]. Podstawowym założeniem tej metody jest minimalizacja interferencji do małych stacji bazowych przez chwilowe przerwanie przesyłania danych w stacjach bazowych typu makro. W ramach prac realizowanych w projekcie METIS autor artykułu zaproponował zdecentralizowaną metodę minimalizacji interferencji z wykorzystaniem teorii gier i pojęcia równowagi korelacyjnej [1]. Działanie opisanego w [1] rozwiązania polega na analizie tzw. żalu związanego ze stosowaniem wybranych strategii i dążeniu do minimalizacji jego wartości wraz z upływem czasu. Założono, że stacje bazowe wymieniają między sobą o więcej »

ZAUFANIE, NIEPEWNOŚĆ, WYDAJNOŚĆ UWIKŁANE ASPEKTY TESTOWANIA SYSTEMÓW ICT - DOI:10.15199/59.2015.8-9.106
Krzysztof M. Brzeziński 
Poz˙a˛dana˛ cecha˛ systemów teleinformatycznych jest wiarygodnos´c´ (dependability). Buduje sie˛ ja˛ mie˛- dzy innymi w drodze testowania, wie˛c systemy testuja˛ce tym bardziej powinny byc´ wiarygodne. Rozwaz˙a sie˛ tu jedna˛ klase˛ zjawisk, które taka˛ wiarygodnos´c´ moga˛ zburzyc´: niewiernos ´c´ obserwacji, dotykaja˛ca˛szczególnie testowania biernego. Pokazano w warstwie koncepcji, modelu, algorytmu i realizacji, jak mo˙zna wyposa˙zy´c tester w zdolno´s´c radzenia sobie z taka˛ niewiernos´cia˛. Uwypuklono interakcje mie˛dzy zachowaniem logicznym testera a ró˙znymi aspektami ilo´sciowymi (performance) i pokazano, z˙e moz˙liwos´c´ ich rozła˛cznego traktowania jest iluzoryczna. 1. WSTE˛P Terminem ‘bezpieczen´stwo’ okres´la sie˛ waz˙na˛ i po- z˙a˛dana˛ ceche˛ systemów ICT, która obok swego intuicyjnego sensu ogólnego ma wiele bardziej szczegółowych definicji. Na przykład, w systemie poj˛eciowym ´srodowiska badaczy dependability (cechy systemów wiarygodnych, czyli takich, "w których mo˙zna w sposób uzasadniony pokładac´ zaufanie" [1]) wyste˛puja˛: safety (brak katastrofalnych skutków działania systemu) i security (w popularnym skrócie - bezpiecze´nstwo informacji), nieszcz ˛e´sliwie przekładane na ten sam termin polski. Natomiast w fundamentalnych pracach nad zachowaniem systemów safety to brak zachowania niepoprawnego: “x (zabronione) nie zajdzie nigdy". Ta klasa własno´sci bezpiecze ´nstwa jest uzupełniana przez własno´sci ˙zywotno- s´ci (liveness): “y (poz˙a˛dane) kiedys´ w kon´cu zajdzie". Sprawdzanie, czy system ma odpowiednie własno´sci bezpiecze ´nstwa i ˙zywotno´sci jest jednym z podstawowych elementów korektywnego podej´scia do projektowania. Ró˙zne okoliczno´sci, mechanizmy i cele takiego sprawdzania składaja˛ sie˛ ła˛cznie na metodyke˛ weryfikacji i walidacji (V&V) [2], w której szczególny status uzyskała formalizacja, wspieraja˛ca poz˙a˛dana˛ automatyzacje˛. Odpowiednio, istotna˛cze˛s´cia więcej »

ZDALNY ZINTEGROWANY MODUŁ NADZORU RADIOWO – WIZYJNEGO - DOI:10.15199/59.2015.8-9.24
Janusz Cichowski Karol Lisowski Piotr Szczuko Andrzej Czyżewski 
Przedstawiono prace koncepcyjne, badawcze oraz implementacyjne skoncentrowane na praktycznej realizacji systemu lokalizacji i śledzenia obiektów z wykorzystaniem kamer wizyjnych i identyfikacji radiowej. Zaproponowano metodę integracji danych w celu zwiększenia dokładności i skuteczności detekcji obiektów. Omówiono założenia projektowe oraz technologie opracowane w ramach rozwijanego multimodalnego modułu nadzoru. Zaproponowano i przedyskutowano praktyczne zastosowania opisanego systemu. 1. WPROWADZENIE Aktualny coraz szybszy rozwój techniki, elektroniki, teleinformatyki, radiokomunikacji oraz innych dziedzin nauki możliwy jest dzięki właściwemu funkcjonowaniu systemów teleinformatycznych oraz sieci telekomunikacyjnych. Elementy infrastruktury sieciowej i teleinformatycznej jak również mechanizmy i protokóły ukryte w wyższych warstwach systemów mają strategiczne znaczenie w kontekście niezawodności i skuteczności wymiany informacji. Coraz częściej sieci telekomunikacyjne i systemy teleinformatyczne pełnią istotną funkcję w procesach utrzymania i zarządzania infrastrukturą krytyczną np. energetyczną [1]. Zapewnienie bezpieczeństwa strategicznym obiektom infrastruktury państwa wymaga działania w dwóch płaszczyznach: bezpieczeństwo sieci oraz fizyczne bezpieczeństwo obiektu. Ze względu na rozwijający się problem bezpieczeństwa informatycznego istnieje wiele mechanizmów, w tym komercyjnych, pozwalających zabezpieczyć infrastrukturę przed nieupoważnionymi dostępem do zasobów np. za pośrednictwem sieci Internet. Druga warstwa, która nie może być pominięta, związana jest z kontrolą fizycznego dostępu do obiektu. Istotne jest przeciwdziałanie nieuprawnionym próbom dostępu do obiektów strategicznych z zewnątrz, jak również zabezpieczenie przed niepowołanym celowym uszkodzeniem infrastruktury od środka przez personel obiektu np. sabotaż. Obserwowane na przełomie ostatnich lat zagrożenia bezpieczeństwa i spowodowany nimi wzrost więcej »

ZMNIEJSZANIE REDUNDANCJI BUFOROWANYCH WIADOMOSCI Z WYKORZYSTANIEM KLASTROWANIA WEZŁÓW W SIECIACH DTN - DOI:10.15199/59.2015.8-9.31
Piotr Prus Radosław Olgierd Schoeneich 
Referat przedstawia algorytm grupowania wezłów dla niespójnych sieci DTN zwiekszajacy efektywnosc składowania i utrzymywania wiadomosci. Podstawowym załoeniem w grupowaniu jest wykorzystanie podobnych wzorów mobilnosci. W algorytmie zaproponowano nieznaczne modyfikacje istniejacych rozwiazan, w tym dodatkowych pól w wymienianych pakietach, w celu zmniejszenia redundancji oraz własciwego rozmieszczenia wiadomosci. Dla proponowanego rozwiazania zostały przeprowadzone badania symulacyjne. 1. WSTEP Bezprzewodowe sieci niespójne (ang. Delay and Disruptive Tolerant Networks - DTN) [1] to sieci stosowane w terenach pozbawionych infrastruktury telekomunikacyjnej. Podstawowa cecha charakterystyczna sieci DTN jest jej brak spójnosci, tj. chwilowy lub stały brak moliwosci utworzenia scieki miedzy para wezłów zródłowego i docelowego. Zapewnienie komunikacji odbywa sie z wykorzystaniem paradygmatu składowania—przenoszeniaprzekazywania wiadomosci (ang. store-carry-forward) przez wezły przenoszace pomiedzy obszarami, w których nie jest moliwe utworzenie scieki. Wezły przenoszace nazywane sa równie wezłami nosnikami, badz wezłami mułami. Głównym mechanizmem przesyłania wiadomosci jest wymiana pakietów danych. Wezeł, który ma je do wysłania rozsyła wiadomosc INV. Komunikat ten zawiera liste identyfikatorów adresatów wiadomosci do przekazania posiadanych w swoich buforach. Wezły, które odebrały wiadomosc INV, po stwierdzeniu zapotrzebowania na wiadomosci, wysyłaja wiadomosc ACK, która zawiera liste poadanych adresów dla buforowanych DANYCH. Nastepnie poadane dane przekazywane sa do wezła adajacego. Opisany mechanizm jest powtarzany, a wiadomosc dotrze do celu. Komunikaty INV sa wysyłane okresowo. Najprostszym protokołem rutingu, który wykorzystuje opisany mechanizm jest Epidemic Routing [2]. ER działa w oparciu o zalewanie wiadomoscia całej sieci. Zaleta rozwiazania jest moliwie najwieksze prawdopodobienstwo i czas więcej »

ZMODYFIKOWANE ALGORYTMY DEKODOWANIA SFERY W TECHNICE MIMO - DOI:10.15199/59.2015.8-9.64
Przemysław Dymarski Piotr Zych  
W referacie zaproponowane zostały modyfikacje algorytmu dekodowania sfery (SD - Sphere Decoding), umożliwiające działanie dekodera MIMO w warunkach silnej korelacji kanałów i niepełnej informacji o ich transmitancjach. Dekodery analizowano rozważając klasyczny system MIMO, w którym wszystkie anteny nadawcze są aktywne, jak również analizując sieć sensorową, w której występują również anteny nieaktywne. Wyniki pokazały, że zmodyfikowany algorytm dekodowania sfery ma potencjał zastosowania w dekoderach MIMO w warunkach niepełnej informacji o transmitancjach kanałów. 1. WSTĘP Duża atrakcyjność systemów wieloantenowych MIMO wynika z możliwości uzyskania dużej efektywności widmowej, a co za tym idzie, zwiększenia przepustowości sieci bezprzewodowej w przypadku transmisji wielodrogowej. Transmisja z wykorzystaniem MIMO od pewnego czasu stała się standardem we wszystkich technikach transmisji bezprzewodowej. W sieciach komórkowych została ona wdrożona w ramach 3G HSDPA (3GPP Release 7) i jest kontynuowana w ramach LTE. W ramach transmisji w bezprzewodowych sieciach lokalnych MIMO zostało wdrożone w standardzie IEEE 802.11n-2009 i także jest kontynuowane w najnowszym IEEE 802.11ac. Coraz częściej techniki MIMO są także stosowane w sieciach sensorowych. Systemy MIMO zwiększają efektywność transmisji w stosunku do systemów SISO wykorzystując dywersyfikację przestrzenną ścieżki (połączenia między anteną nadawczą a odbiorczą, zwaną też podkanałem przestrzennym). Im większa jest dywersyfikacja przestrzenna sygnału (mniejsza korelacja ścieżek) tym większa jest efektywność transmisji. Granicznie, przy całkowitym braku korelacji ścieżek uzyskuje się zwiększenie efektywności transmisji N-krotnie, gdzie N jest mniejszą z liczb anten nadawczych i anten odbiorczych. Zmniejszenie korelacji ścieżek (które powoduje także mała odległość między antenami) powoduje zmniejszenie efektywności transmisji - mówimy wówczas o wzroście koherencji. W t więcej »

  • Aktualnoś›ci
  • Bestsellery
2019-10-28

Program priorytetowy "Mój Prąd"»

2019-04-04

ZAKOŃCZENIE III KONGRESU ELEKTRYKI POLSKIEJ - KOMUNIKAT »

2019-04-01

Przygotowania do obchodów 100-lecia SEP»

2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

Przekaźniki rezystancyjne

ELEKTROINSTALATOR
(2019-9)»

Diagnostyka falownika i silnika elektrycznego w 5 krokach

ELEKTROINSTALATOR
(2019-9)»

Sterowanie napędami rolet

ELEKTROINSTALATOR
(2019-9)»

Lokalizacja przewodów i kabli

ELEKTROINSTALATOR
(2019-9)»

Narzędzia do obróbki kabli i przewodów

ELEKTROINSTALATOR
(2019-9)»

Zioła i przyprawy najczęstsze zagrożenia mikrobiologiczne

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Związki bioaktywne w przyprawach i ich rola w dietoterapii

PRZEMYSŁ SPOŻYWCZY
(2019-11)»

Opakowanie jako "znak"?

OPAKOWANIE
(2019-11)»

Ustalenie linii brzegu w trybie ustawy Prawo wodne i pomiaru sytuacyjnego linii brzegu opisanego w § 82a rozporządzenia egib

PRZEGLĄD GEODEZYJNY
(2019-11)»

Wpływ modyfikacji chitozanu na jego strukturę i powierzchnię właściwą

GAZ, WODA I TECHNIKA SANITARNA
(2019-11)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • POLISH TECHNICAL REVIEW
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

AURA żywność ekologiczna inżynieria materiałowa konserwanty suszenie przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol Przegląd Elektrotechniczny chleb ryby olej lniany pieczywo amarantus olej rzepakowy Jakość atest 7 KUKURYDZA czekolada gluten GMO antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik przemysl chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder przemysł spożywczy Problemy jakości żywność funkcjonalna Przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa WZBOGACANIE ŻYWNOŚCI antocyjany ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata ANALIZA SENSORYCZNA błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne aronia opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka czerwińska biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności wiadomości elektrotechniczne CELIAKIA salmonella przyprawy probiotyki piwo znakowanie
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software