• LOGOWANIE
  • KOSZYK
  • KONTAKT
    • WYDAWNICTWO
    • REDAKCJE
      • ATEST - OCHRONA PRACY
      • AURA OCHRONA ŚRODOWISKA
      • CHŁODNICTWO
      • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
      • DOZÓR TECHNICZNY
      • ELEKTROINSTALATOR
      • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
      • GAZ, WODA I TECHNIKA SANITARNA
      • GOSPODARKA MIĘSNA
      • GOSPODARKA WODNA
      • HUTNIK - WIADOMOŚCI HUTNICZE
      • INŻYNIERIA MATERIAŁOWA
      • MATERIAŁY BUDOWLANE
      • OCHRONA PRZED KOROZJĄ
      • OPAKOWANIE
      • PROBLEMY JAKOŚCI
      • PRZEGLĄD ELEKTROTECHNICZNY
      • PRZEGLĄD GASTRONOMICZNY
      • PRZEGLĄD GEODEZYJNY
      • PRZEGLĄD MECHANICZNY
      • PRZEGLĄD PAPIERNICZY
      • PRZEGLĄD PIEKARSKI I CUKIERNICZY
      • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
      • PRZEGLĄD TELEKOMUNIKACYJNY
      • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
      • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
      • PRZEMYSŁ CHEMICZNY
      • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
      • PRZEMYSŁ SPOŻYWCZY
      • RUDY I METALE NIEŻELAZNE
      • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
      • WIADOMOŚCI ELEKTROTECHNICZNE
      • WOKÓŁ PŁYTEK CERAMICZNYCH
    • REKLAMA
    • DRUKARNIA
    • KOLPORTAŻ
  • PRENUMERATA
  • LISTA CZASOPISM
    • ATEST - OCHRONA PRACY
    • AURA OCHRONA ŚRODOWISKA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • DOZÓR TECHNICZNY
    • ELEKTROINSTALATOR
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • ODZIEŻ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  • WIRTUALNA CZYTELNIA
 
PORTAL INFORMACJI TECHNICZNEJ - NAJWIĘKSZA BAZA ARTYKUŁÓW TECHNICZNYCH ONLINE - AKTUALNIE 121583 PUBLIKACJE
  •   CZASOPISMA  
    • ATEST - OCHRONA PRACY
    • AURA
    • CHŁODNICTWO
    • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
    • ELEKTROINSTALATOR
    • DOZÓR TECHNICZNY
    • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
    • GAZ, WODA I TECHNIKA SANITARNA
    • GAZETA CUKROWNICZA
    • GOSPODARKA MIĘSNA
    • GOSPODARKA WODNA
    • HUTNIK - WIADOMOŚCI HUTNICZE
    • INŻYNIERIA MATERIAŁOWA
    • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
    • MATERIAŁY BUDOWLANE
    • OCHRONA PRZED KOROZJĄ
    • OPAKOWANIE
    • POLISH TECHNICAL REVIEW
    • PROBLEMY JAKOŚCI
    • PRZEGLĄD ELEKTROTECHNICZNY
    • PRZEGLĄD GASTRONOMICZNY
    • PRZEGLĄD GEODEZYJNY
    • PRZEGLĄD MECHANICZNY
    • PRZEGLĄD PAPIERNICZY
    • PRZEGLĄD PIEKARSKI I CUKIERNICZY
    • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
    • PRZEGLĄD TELEKOMUNIKACYJNY - WIADOMOŚCI TELEKOMUNIKACYJNE
    • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
    • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
    • PRZEMYSŁ CHEMICZNY
    • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
    • PRZEMYSŁ SPOŻYWCZY
    • RUDY I METALE NIEŻELAZNE
    • SZKŁO I CERAMIKA
    • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
    • WIADOMOŚCI ELEKTROTECHNICZNE
    • WOKÓŁ PŁYTEK CERAMICZNYCH
  •   KSIĄŻKI 
  • WIRTUALNA CZYTELNIA
  •   PRENUMERATA 
  •   REKLAMA 
  •   DRUKARNIA 
  •   KOLPORTAŻ 
  •   WYDAWNICTWO
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • 2017-8-9

PRZEGLĄD TELEKOMUNIKACYJNY

miesięcznik ISSN 1230-3496, e-ISSN 2449-7487 - rok powstania: 1928
Stowarzyszenie Elektryków Polskich

Steganografia akustyczna w tle sygnału mowy
(ang. Acoustic steganography in speech signal)

DOI:10.15199/59.2017.8-9.5
Przemysław Dymarski Robert Markiewicz 
Streszczenie
Przedstawiono algorytmy umożliwiające zestawienie łącza steganograficznego w tle sygnału mowy, transmitowanego kanałem VoIP. Ukryta informacja jest wstawiana bezpośrednio do sygnału mowy, bez ingerencji w algorytm kodowania i protokoły transmisyjne. Szybkość transmisji steganograficznej wynosi 20 bit/s (bez zabezpieczenia kodem nadmiarowym) lub 10 bit/s (z zabezpieczeniem). Łącze jest odporne na kompresję mowy (koder Speex 8000 bit/s), jej przepróbkowanie oraz (pod pewnymi warunkami) na utratę pakietów
Słowa kluczowe: steganografia akustyczna, ukrywanie informacji, znakowanie wodne sygnału mowy.
Abstract
Algorithms for acoustic steganography in speech signal, transmitted through VoIP channel, are presented. Data are embedded directly in speech, without any modification of speech coder and transmission protocols. They are transmitted at 20 bps (without error correcting code) or 10 bps (with ECC). The steganographic link is resistant to speech compression (Speex coder 8000 bps), resampling and (under certain conditions) packet loss.
Keywords: acoustic steganography, information hiding, speech watermarking.
Telekomunikacyjne usługi głosowe mogą stanowić podstawę do zestawienia łącza steganograficznego, umożliwiającego przesyłanie ukrytych danych [8]. Obecnie dużo uwagi poświęca się steganografii sieciowej, wykorzystującej luki w protokołach telekomunikacyjnych do ukrytej transmisji [5]. W pewnych warunkach (brak dostępu do strumienia binarnego) metody te nie mogą być zastosowane. Ograniczone zastosowanie mają też metody wymagające ingerencji w proces kodowania mowy, np. wymuszenie transkodowania na niższą przepływność lub modyfikacja parametrów mowy [4]. W najbardziej ogólnym przypadku użytkownik ma dostęp jedynie do sygnałów akustycznych na wejściu kodera i na wyjściu dekodera. Niekiedy zakłada się nawet transmisję odebranego sygnału łączem akustycznym, wykorzystującym głośnik i mikrofon [7]. W tej sytuacji należy wstawić sygnał transmisji steganograficznej wprost do sygnału mowy, a po transmisji dokonać detekcji ukrytych danych. Jest to zadanie steganografii akustycznej. Steganografia w tle sygnałów akustycznych służy do adnotacji plików, wstawiane są informacje o pochodzeniu nagrania, wykonawcach itd. Znajduje zastosowanie w badaniu słuchalności audycji radiowych. Steganografia w tle sygnału mowy ma zastosowanie w procesie uwierzytelniania abonenta [6], służy też do wspomagania komunikacji lotniczej (parametry identyfikacyjne statku powietrznego przesyła się w tle sygnału mowy [2]). Przedmiotem niniejszego artykułu jest układ steganografii akustycznej operujący na sygnale mowy spróbkowanym z częstotliwością 8000 Hz. Przekazem steganograficznym jest ciąg binarny o przepływności około 10 bit/s. Oznakowany sygnał mowy będzie transmitowany łączem VoIP z wykorzystaniem kodera Speex o przepływności 8000 bit/s. Algorytm wstawiania ukrytej wiadomości powinien działać w czasie rzeczywistym, natomiast jej dekodowanie może następować z niewielkim opóźnieniem, rzędu kilku sekund. Przekaz steganograficzny nie powinien obniżać jakości sy [...]
 

  • ZAKUP JEDNORAZOWY I DOSTĘP DO WIRTUALNEJ CZYTELNI
  • PRENUMERATA PAPIEROWA

   
Metoda płatności: Płatności elektroniczne (karta kredytowa, przelew elektroniczny)
Dostęp do publikacji (format pdf): 6.00 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 1h: 24.60 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 4h: 43.05 zł
 DO KOSZYKA 
Dostęp do Wirtualnej Czytelni - archiwalne e-zeszyty czasopisma (format swf) - 12h: 73.80 zł
 DO KOSZYKA 
 

Prenumerata

Szanowny Kliencie!
Zamów roczną prenumeratę w wersji PLUS a uzyskasz dostęp do archiwalnych publikacji tego czasopisma.
Nie zwlekaj - skorzystaj z tysięcy publikacji o najwyższym poziomie merytorycznym.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 486.00 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 437.40 zł *)
prenumerata papierowa roczna - 396.00 zł
prenumerata papierowa półroczna - 198.00 zł
prenumerata papierowa kwartalna - 99.00 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »


Bibliografia

[1] Dymarski P., Markiewicz R. 2014. "Robust Audio Watermarks in Frequency Domain", Journal of Telecommunications and Information Technology, 2: 12-21.
[2] Introduction to ACARS Messaging Services. 2006. Application Note ICS-200-01, Int. Communication Group, April.
[3] ITU-T Recommendation P.862: Perceptual evaluation of speech quality (PESQ), an objective method for end-to-end speech quality assessment of narrowband telephone networks and speech codecs, 02/2001.
[4] Janicki A. 2016. “Pitch-based steganography for Speex voice codec", Security and telecommunication networks, 9/15: 2923-2933.
[5] Mazurczyk W., S.Wendzel, I. Azagra Villares, K. Szczypiorski 2016. "On Importance of Steganographic Cost For Network Steganography" - International Journal of Security and Communication Networks, John Wiley & Sons, 9/8: 781-790.
[6] Piotrowski Z. 2010. Uwierzytelnianie abonenta w łączach telekomunikacyjnych z wykorzystaniem techniki cyfrowego znaku wodnego, Wojskowa Akademia Techniczna.
[7] Tachibana R. 2004. "Sonic watermarking", EURASIP Journal on Applied Signal Processing, 13: 1955-1964.
[8] Wu. Z. 2015. “Information Hiding in Speech Signals for Secure Communication", ISBN: 978-0-12-801328-1, Elsevier

Rekomenduj znajomym
  • facebook
  • twitter
  • gplus
  • pinterest

INNE PUBLIKACJE W TYM ZESZYCIE

ANALIZA IMPULSÓW HPM Z WYKORZYSTANIEM BAZY DANYCH - DOI:10.15199/59.2017.8-9.39
Marek Bugaj Rafał Przesmycki Jakub Polita 
W związku z postępującym z dnia na dzień uzależnieniem społeczeństw na całej Ziemi od urządzeń elektrycznych i elektronicznych, stały się one integralną częścią złożonych systemów, od których w dużej mierze uwarunkowane jest prawidłowe działanie światowej gospodarki. O jej rozwoju decydują takie aspekty jak sprawność, niezawodność, czy też żywotność wcześniej wspomnianych urządzeń, a te z kolei zależą przede wszystkim od stopnia wrażliwości na narażenia elektromagnetyczne oraz zaburzenia występujące w otaczającym nas środowisku. Pomiary wrażliwości urządzeń elektrycznych i elektronicznych, a przede wszystkim ograniczanie i kontrola poziomu zaburzeń elektromagnetycznych, są niezwykle ważne. Bardzo ważną grupą sygnałów działających destrukcyjnie na urządzenia elektroniczne są impulsy HPM. 2. STANOWISKO DO POMIARÓW IMPULSÓW HPM Najważniejszymi elementami wymaganymi do przeprowadzenia pomiarów oddziaływania źródeł elektromagnetycznych wysokiej mocy na urządzenia elektroniczne są sonda pomiarowa oraz odbiornik. Pomiary powinny być przeprowadzane w komorach bezodbiciowych celem odizolowania badanego systemu od zakłóceń pochodzących ze środowiska zewnętrznego oraz odizolowaniem środowiska zewnętrznego przed oddziaływaniem impulsów HPM generowanych w trakcie badań. Na rys. 1 przedstawiono schemat blokowy stanowiska pomiarowego do generowania oraz pomiaru impulsów HPM. Główne elementy składowe tego stanowiska to generator HPM DS110F firmy Diehl, oscyloskop DPO70404 firmy Tektronix oraz sonda D-dot firmy Prodyn. Oscyloskop posiada 4 kanały analogowe. Każdy z tych kanałów charakteryzuje się pasmem 4 GHz i 25 GS/s czasu próbkowania. Oscyloskop umożliwia zapamiętywanie próbek w formacie FastFrame, dzięki czemu możliwe jest zapamiętanie szybkich zmian w sygnale i z tego względu możliwe jest zapamiętanie impulsów HPM jako kolejnych rekordów w postaci pojedynczego długiego rekordu. Jest to przydatne z uwagi na możliwość obejrzenia jak więcej »

ANALIZA KOMPATYBILNOŚCI ELEKTROMAGNETYCZNEJ PODCZAS WYZWALANIA SAMOCHODOWYCH PODUSZEK POWIETRZNYCH - DOI:10.15199/59.2017.8-9.96
Rafał Przesmycki Marian Wnuk 
Cechą charakterystyczną współczesnych układów samochodowych jest powszechne wykorzystanie zaawansowanych technologii: elektronicznej i informatycznej. Układy elektroniczne są stosunkowo tanie, lekkie, łatwo konfigurowalne i niezawodne. Dlatego nadają się bardzo dobrze do zastosowań w systemach sterujących, których istotnym elementem jest realizacja algorytmów w czasie rzeczywistym. Nasycenie pojazdów w układy: kontroli, przekazu radiowego, sterowania wymagają badań w zakresie kompatybilności elektromagnetycznej. Biorąc pod uwagę właściwości wyposażenia elektrycznego i zjawiska zachodzące w sieciach elektrycznych pojazdów samochodowych, szczególnie występowanie dużych impulsów napięciowych i prądowych oraz dużej liczby połączeń można wnioskować, że istnieje możliwość zaburzeń pewnych elementów elektronicznych drogą przewodzenia poprzez sprzężenia indukcyjne i pojemnościowe lub zakłócenia poprzez emisję promieniowaną. Zaburzenie elektromagnetyczne pojazdu oznacza wszelkie zjawiska elektromagnetyczne, które mogą zakłócać pracę całego lub części pojazdu, wszelkich zespołów technicznych i innych urządzeń w pobliżu pojazdu. Kompatybilność wewnętrzna pojazdu to nic innego jak zdolność części lub oddzielnych zespołów technicznych do poprawnego działania w pojeździe bez wytwarzania zaburzeń elektromagnetycznych, które mogą zakłócać pracę elementów tego środowiska. Zakłócenia możemy podzielić na zewnętrzne i wewnętrzne. Do tych pierwszych należą źródła poza samochodem, takie jak nadajniki, np. obecne na naszych drogach radary, linie elektroenergetyczne oraz używane przez nas telefony komórkowe łączące się z nadajnikami sieciowymi. Znacznie więcej uwagi konstruktorzy poświęcają wpływowi zakłóceń na działanie podstawowych komponentów pojazdu. W obecnie produkowanych autach mogłoby to zaburzyć np. pracę zapłonu lu więcej »

ANALIZA MOZ˙ LIWOS´CI ZASTOSOWANIA ALGORYTMÓWSPLOTOWYCH DO MODELOWANIA SYSTEMÓWZ DOWOLNYMI STRUMIENIAMI ZGŁOSZE´N - DOI:10.15199/59.2017.8-9.30
Adam Kaliszan Damian Kmiecik 
W pracach [18, 24] zaproponowano algorytm splotowy do modelowania wia˛zki pełnodoste˛pnej, która jest systemem z procesem przyjmowania zgłosze´n niezale˙znym od stanu. W pracach [7, 8, 9, 10] przedstawiono modyfikacje ˛ algorytmów splotowych umoz˙liwiaja˛cych modelowanie systemów z procesem przyjmowania zgłoszen ´ zalez˙nym od stanów, takich jak wia˛zka pełnodoste ˛pna z rezerwacja˛ [24], wia˛zka z ograniczona˛ doste˛pno- s´cia˛ [8], systemów progowych [8] oraz systemów z przelewami [10]. We wszystkich wymienionych powy˙zej modelach zastosowanie algorytmu splotowego ograniczono do modelowania systemów ze skon´czona˛ lub nieskon´- czona˛ liczba˛ poissonowskich strumieni zgłoszen´. Do tej pory nie została podj˛eta analiza mo˙zliwo´sci zastosowania algorytmu splotowego dla innych, ni˙z poissonowskie, strumieni zgłosze´n. W pracach [24, 25, 21, 1, 15, 23, 18, 11, 12, 13] zaproponowano algorytmy rekurencyjne do modelowania wielousługowych systemów zale˙znych i niezale˙znych od stanu. Algorytmy te, podobnie jak wcze´sniej przedstawione algorytmy splotowe, wykorzystywane były tylko do modelowania systemów, którym oferowane sa˛ klasy zgłoszen´ z ograniczona˛ lub nieskon´czona˛ liczba˛ poissonowskich ´zródeł. W pracy [17] zaproponowano model systemu kolejkowego z dyscyplina˛ obsługi cFIFO, w którym rozwa ˙zono wykorzystania algorytmu splotowego do modelowania systemów, którym oferowane sa˛ klasy z innymi, niz˙ wykładniczy, rozkładami opisuja˛cymi czas pomie˛dzy zdarzeniami. Poniewa˙z model systemu cFIFO jest przybli ˙zony, wi˛ec na podstawie otrzymanych rezultatów nie mo˙zna jednoznacznie oceni´c wpływu niepoissonowskich strumieni zgłosze´n na dokładno´s´c modelu. Jak dota˛d nie dokonano analizy moz˙liwos´ci modelowania wielousługowej wia˛zki pełnodoste˛pnej (systemu z procesem przyjmowania zgłosze´n niezale˙znym od stanu), której oferowane sa˛ niepoissonowskie strumienie zgłosze ´n. Nie zbadano te˙z jaki wpływ ma typ rozkładu, więcej »

Analiza symulacyjna wybranych algorytmów dostarczania paczek wiadomości w sieci DTN na Bałtyku - DOI:10.15199/59.2017.8-9.9
Wojciech Gumiński 
Stale rosnące zapotrzebowanie na usługi transmisji danych wywołuje potrzebę zapewniania dostępu do Internetu na obszarach pozbawionych dotychczas stałej infrastruktury teleinformatycznej. Jednym z takich obszarów są morza. Dokonując oceny tego problemu z perspektywy projektu Internet na Bałtyku można stwierdzić, że zaoferowanie swobodnego dostępu do Internetu dla marynarzy, żeglarzy i pasażerów jednostek pływających przyczyni się do zapewnienia łączności z lądem, a - przez realizację usług wspomagających nawigację morską - może w znacznym stopniu przyczynić się do zwiększenia bezpieczeństwa żeglugi. Jest to szczególnie istotne dla małych jednostek pływających, które nie są i - ze względu na koszty - nie będą w najbliższej przyszłości powszechnie wyposażane w łącza satelitarne, zapewniające łączność na dowolnym obszarze [1]. Projekt badawczy Internet na Bałtyku ma na celu odpowiedzieć na pytanie, czy możliwa jest realizacja dostępu do Internetu na obszarze tego morza z wykorzystaniem istniejących, powszechnych technik transmisji bezprzewodowej w samoorganizującej się strukturze sieci wieloskokowej [2, 3]. Internet na Bałtyku Koncepcja zapewnienia dostępu do Internetu dla jednostek pływających w projekcie Internet na Bałtyku zakłada istnienie trzech stref A, B i C [1, 2, 3]. Strefa A obejmuje obszar, na którym statki mają bezpośrednią łączność z lądem. Strefa B to obszar, na którym możliwe jest zapewnienie ciągłej łączności z lądem przy wykorzystaniu innych jednostek pływających jako przekaźników sygnału. Strefa C to obszar, na którym jednostki są pozbawione możliwości bezpośredniej łączności z lądem. W strefie C możliwa jest łączność między mijającymi się jednostkami, ale żadna z nich nie ma w czasie spotkania łączności z lądem.W realizacji usług niewrażliwych na opóźnienia zakłada się konieczność świadczenia tych usług dla jednostek w strefie C. Tolerancja na duże opóźnienia, które w tej strefie mogą trwać godziny, a n więcej »

ANALIZA ZADOWOLENIA ROZMÓWCY NA PODSTAWIE GŁOSU - DOI:10.15199/59.2017.8-9.84
Danuta Ojrzeńska-Wójter Artur Janicki 
Dominująca na rynku forma masowej obsługi klienta w postaci call center w połączeniu z chęcią budowy jak najlepszych relacji z klientem prowadzi do konieczności prowadzenia badań i analiz na dużej ilości materiału głosowego. Do tej pory badania te były prowadzone "ręcznie" przez odsłuch i analizę przez pracowników z działów jakości. Czasochłonność takich analiz jednoznacznie unaocznia korzyści możliwe do odniesienia w wyniku automatyzacji tego procesu. Sygnał mowy poza przekazem semantycznym niesie także informacje dotyczące stanu emocjonalnego rozmówcy. Automatyczne rozpoznawanie emocji na podstawie sygnału mowy ma wiele potencjalnych zastosowań. Jednym z nich jest maszynowa analiza relacji człowiekczłowiek. W przypadku usługi call center może być to analiza zadowolenia rozmówcy, na przykład podczas rozmowy klienta z konsultantem. Badanie takie jest zagadnieniem trudnym, rzeczywiste emocje w mowie spontanicznej mogą stanowić mieszaninę różnych emocji, których rozpoznawalność silnie zależy od odbiorcy. W praktyce dużym utrudnieniem jest subiektywność wstępnej ich klasyfikacji przez słuchaczy, ich ocena w dużym stopniu zależy od indywidualnych cech takich jak: wrażliwość, empatia czy inteligencja emocjonalna. Wszystkie te czynniki powodują, że emocje są trudno uchwytne i niewymierne, co w istotny sposób wpływa na złożoność automatyzacji rozpoznawania emocji w sygnale mowy. 2. BADANIE EMOCJI NA PODSTAWIE GŁOSU Prace nad rozpoznawaniem emocji na podstawie sygnału mowy są prowadzone od ponad 20 lat, jednakże dopiero w ostatnim dziesięcioleciu można zaobserwować intensyfikację badań w tym obszarze. Spowodowane jest to dostępem do coraz to bardziej zaawansowanych obliczeniowo maszyn a także rosnącym zapotrzebowaniem na systemy do komunikacji człowieka z komputerem. Ponieważ głos ludzki jest zarówno łatwo dostępny jak i najszerzej wykorzystywany w komunikacji, stał się on przedmiotem wielu badań nad możliwościami jego zasto więcej »

ATAKI SIECIOWE WYKORZYSTUJĄCE TECHNOLOGIĘ BOTNET - DOI:10.15199/59.2017.8-9.45
Przemysław ŚCIBIOREK Zbigniew PIOTROWSKI 
Współcześnie słowo "bot" oznacza zaawansowane, złośliwe oprogramowanie, które zazwyczaj składa się z wielu elementów takich jak wirusy, robaki, konie trojańskie, rootkity służących propagacji oraz złośliwej integracji obcego systemu poprzez które, funkcjonalności systemu skompromitowanego są dostarczane do strony atakującej [1]. Charakterystyczną [1] cechą botów jest fakt, że łączą się one z centralnym serwerem lub inną zainfekowaną maszyną po skompromitowaniu danego systemu, co tworzy swego rodzaju sieć nazywaną botnetem. Boty dostarczają szereg funkcjonalności, które wykorzystywane są przez odpowiednią jednostkę kontrolującą. Jednostką kontrolującą jest zazwyczaj serwer typu C&C (Command and Control), który zarządza zainfekowanymi maszynami, monitoruje ich status i przesyła instrukcje do wykonania. Taki serwer może być kontrolowany przez jedną lub więcej osób nazywanych botmasterami lub botheaderami, które sterują botnetem poprzez serwer C&C. W zależności od infrastruktury sieci, boty mogą łączyć się między sobą w celu decentralizacji zarządzania siecią. Mogą też funkcjonować samodzielnie, nie mając wiedzy o innych botach. Botnet lub "Bot Network" składa się z dużej ilości zainfekowanych komputerów oraz może być zdalnie sterowany poprzez komendy wysyłane za pośrednictwem sieci Internet[19]. Setki tysięcy takich komputerów mogą jednocześnie działać w celu np. zablokowania ruchu w sieci konkretnej ofiary, zbierania danych lub dystrybuowania spamu, wirusów lub innego złośliwego oprogramowania. Botnety stały się głównym narzędziem w cyberprzestępczości, ponieważ mogą być w prosty sposób zaprojektowane tak, aby bardzo efektywnie w różny sposób zakłócać systemy. Innym plusem tego rozwiązania jest fakt, że użytkownik chcący stworzyć botnet, może bez posiadania dużych umiejętności technicznych rozpocząć działanie w cyberprzestrzeni, poprzez wynajęcie usług botnetowych od cyberprzestępcy. Zainfekowanie komputera mającego być więcej »

BADANIA JAKOŚCI MOWY W SIECI VOIP W SYSTEMIE STORCZYK-2010 - DOI:10.15199/59.2017.8-9.38
Jerzy Dołowski Jarosław Kawerski 
System STORCZYK-2010 jest to polowy system łączności używany powszechnie w Wojsku Polskim podczas prowadzenia działań taktycznych. Pierwotnie system oferował wyłącznie usługę telefonii w ramach komutacji kanałów, zaś obecnie dodatkowo umożliwia wydajny transfer ruchu IP. Ponadto system oferuje także realizację połączeń telefonicznych w ramach Voice over IP, w tym współpracę z podsystemem komutacyjnym. Przeprowadzono badania jakości mowy transmitowanej w systemie STORCZYK-2010 z wykorzystaniem VoIP. Ze względu na charakter i ograniczoną dostępność systemu tego typu badań nie prezentowano wcześniej w literaturze. 2. ARCHITEKTURA SYSTEMU Podsystem komutacyjny w STORCZYK-2010 zasadniczo opiera się na dwóch urządzeniach: łącznicy cyfrowej ŁC-240D [1] oraz krotnicy cyfrowej KX-30M1 [2]. Łącznica cyfrowa jest polową centralą telefoniczną realizującą automatyczną komutację połączeń między abonentami własnymi oraz abonentami innych łącznic. Zaś krotnica zawiera wyposażenia abonenckie i umożliwia dołączenie urządzeń końcowych. Podsystem komutacyjny wykorzystuje własny system sygnalizacji. Oprócz tego obsługuje sygnalizację DSS1, co umożliwia współpracę praktycznie z dowolną komercyjną centralą telefoniczną. Na potrzeby kodowania mowy w podsystemie komutacyjnym wykorzystano algorytm CVSD (ang. Continuously Variable Slope Delta). Dzięki temu zakodowany strumień mowy ma przepływność 16 kbit/s, czyli czterokrotnie mniej, niż typowy strumień mowy w sieci PSTN. Oszczędność pasma była głównym czynnikiem decydującym o wyborze tego typu kodowania. Natomiast podstawowymi elementami odpowiadającym za telefonię Voice over IP w systemie STORCZYK-2010 są: bramka VG-30 [3] oraz łącznicokrotnica więcej »

BADANIE MECHANIZMÓW AKTYWNEJ OBRONY PRZED ATAKAMI W LOKALNEJ SIECI TELEINFORMATYCZNEJ - DOI:10.15199/59.2017.8-9.43
Michał Byłak Grzegorz Różański 
Klasyczny, płaszczyznowo-warstwowy model architektury bezpieczeństwa dla zapewnienia komunikacji "end-to-end" w sieciach prezentowany jest w zaleceniu ITU-T X.805 [14]. Wymaga on jednak szczególnego potraktowania w kontekście heterogeniczności rozwiązań systemowo-technicznych stosowanych w sieciach oraz ich wrażliwości i podatności na różnego rodzaje zagrożenia i ataki. Techniki ataków są coraz bardziej wyrafinowane, przez co trudne do wykrycia. Wzrasta również liczba tzw. zautomatyzowanych ataków, poprzedzonych rekonesansem i wyszukiwaniem podatności infrastruktury sieciowej. W procesie projektowania i analizy sieciowej infrastruktury informacyjnej istotną rolę odgrywa zagadnienie dekompozycji architektur sieciowych, czyli ich podziału na segmenty, zarówno w aspekcie organizacyjnym jak i funkcjonalnym (rys.1). Rys. 1. Segmenty sieci teleinformatycznej Zagadnienie bezpieczeństwa sieciowej infrastruktury informacyjnej wymaga poszukiwania nowych rozwiązań w obszarze mechanizmów reaktywnej i proaktywnej obrony przed zagrożeniami. Korzystne zatem wydaje się obserwowanie komunikacji pomiędzy węzłami sieci oraz wszystkich nowo tworzonych procesów i plików w systemach, w celu zwiększenia ich widoczności (ang. visibility) i wykrywania ataków. Możliwe jest to dzięki zastosowaniu:  mechanizmów reaktywnej obrony opartych o sygnatury, do których możemy zaliczyć NIDS (ang. Network Intrusion Detection System) oraz HIDS (ang. Host-based IDS),  mechanizmów proaktywnej obrony, którymi charakteryzują się systemy honeypot oraz NSM (ang. Network Security Monitoring) [5],  logowania zdarzeń ważnych pod względem bezpieczeństwa na urządzeniach końcowych. Dane zgromadzone przez takie mechanizmy i zarchiwizowane w odpowiedni sposób są nieocenione dla monitorowania bezpieczeństwa oraz zapewnieniu materiałów do analizy dla zespołu reagowania na incydenty CIRT (ang. Computer Incident Response Team). W artykule [2] sk więcej »

BAZA DANYCH DLA POTRZEB MAPY ŚRODOWISKA RADIOWEGO - DOI:10.15199/59.2017.8-9.87
Piotr Bednarek Jerzy Łopatka 
Radiowa technologia kognitywna jest narzędziem umożliwiającym efektywniejsze wykorzystywanie coraz bardziej ograniczonych dostępnych zasobów widmowych. Jej istotą jest gromadzenie i wykorzystywanie przez węzły radiowe wiedzy o środowisku radiowym. Technologia ta jest w fazie intensywnego rozwoju, a jej implementacja jest możliwa dzięki dostępnym realizacjom radia programowalnego. 2. MAPA ŚRODOWISKA RADIOWEGO (REM) Badając technologię kognitywną należy odpowiedzieć sobie na pytanie: w jaki sposób zostanie zapewniona świadomość otoczenia? Wiele opracowań naukowych ogranicza się do stwierdzenia, że świadomość otoczenia CR (ang. Cognitive Radio) uzyskuje poprzez sensing, który rozumiany jest jako monitorowanie środowiska elektromagnetycznego. Jednakże jest to tylko sposób na pozyskiwanie jednego rodzaju informacji. Pełniejszą świadomość zapewnić może baza danych, zawierająca dane pozyskane z prowadzonego monitorowania oraz innych dostępnych źródeł. Dostęp urządzenia do takich informacji umożliwia elastyczne wykorzystanie aktualnie niezajmowanych częstotliwości oraz ochronę użytkowników licencjonowanych przed zakłóceniem ich transmisji. W literaturze możemy znaleźć spójną definicję przedstawiającą REM jako geolokacyjną bazę danych, będącą źródłem ważnych informacji dla pracujących kognitywnych sieci radiowych, która swoim istnieniem uzupełnia proces monitorowania środowiska radiowego [1]. Może być ona wykorzystana jako wsparcie w zarządzaniu sieciami homo i heterogenicznymi bazującymi na podziale pola działania sieci na różnego kształtu i rozmiaru obszary [2]. Rys.1. Rola REM w cyklu kognitywnym [3] Powyższy rysunek przedstawia szereg cyklicznie powtarzanych czynności nazywanych cyklem kognitywnym lub cyklem poznawczym. Zauważyć należy, że REM bierze udział w prawie wszystkich etapach opisywanego cyklu, co świadczy o potrzebie spójnego gromadzenia i przechowywania różnorodnych informacji. Typowy algorytm konstruowania R więcej »

Bezpieczeństwo systemów biometrii głosowej - DOI:10.15199/59.2017.8-9.3
Artur Janicki 
Systemy weryfikacji mówcy ASV (Automatic Speaker Verification) to systemy, które umożliwiają autoryzację użytkownika na podstawie analizy jego głosu. Taka autoryzacja może zostać przeprowadzona podczas uzyskiwania dostępu do urządzenia (np. odblokowywania stacji roboczej lub telefonu mobilnego) lub podczas autoryzacji przed wejściem do chronionego pomieszczenia. Wielką zaletą używania głosu jako cechy biometrycznej jest możliwość dokonywania autoryzacji na odległość podczas zwykłej rozmowy telefonicznej. Weryfikacja mówcy na odległość intensywnie popularyzuje się w Australii, gdzie jest używana np. przez Australijski Urząd Podatkowy [4]. W naszym regionie stosuje ją obecnie między innymi słowacka Tatra Banka [33], zaś w Polsce - Bank Smart [5]. Badanie TNS, w Polsce przeprowadzone w listopadzie 2014 r. na reprezentatywnej grupie 1000 respondentów na zlecenie firmy Nuance, producenta systemów przetwarzania mowy (w tym systemów ASV, takich jak VocalPassword [25]), pokazało, że użytkownicy są zmęczeni używaniem haseł, PIN-ów i kodów. Aż 49% użytkowników z chęcią skorzystałoby z biometrii głosowej [22]. Z drugiej strony 17% respondentów nie ufa tym systemom. Obawy użytkowników są częściowo uzasadnione. W ostatnich latach społeczność naukowa zajmująca się systemami rozpoznawania mówcy coraz częściej wskazuje zagrożenia, na jakie narażone są systemy biometrii głosowej. Niniejszy artykuł ma na celu przybliżenie tej tematyki i zwrócenie uwagi na zagrożenia, które muszą brać pod uwagę projektanci systemów biometrii głosowej. GŁOS JAKO CECHA BIOMETRYCZNA Głos ludzki jest specyficzną cechą biometryczną. Należy do tak zwanych cech fizjologiczno-behawioralnych. Oznacza to, że do pewnego stopnia charakterystyka sygnału mowy, pochodzącego od konkretnego mówcy, jest uwarunkowana jego fizjologą, czyli geometrią aparatu artykulacyjnego, procesami fizjologicznymi zachodzącymi w torze głosowym itd. Na cechy fizjologiczne, podobnie jak np. na t więcej »

BUDOWA ŚWIADOMOŚCI SYTUACJI ELEKTROMAGNETYCZNEJ Z ZASTOSOWANIEM DETEKTORA WIELOKANAŁOWEGO Z ED-ENP W SIECIACH CRN - DOI:10.15199/59.2017.8-9.23
Paweł Skokowski Anna Kaszuba-Chęcińska Radosław Chęciński Jerzy Łopatka 
Monitorowanie środowiska elektromagnetycznego można prowadzić z wykorzystaniem różnego typu detektorów. Detekcja jednokanałowa umożliwia uzyskanie informacji czy dany kanał częstotliwościowy jest wolny czy zajęty, podczas gdy detekcja wielokanałowa pozwala określić zajętość podkanałów i ewentualnie umożliwić współdzielenie kanału z innymi użytkownikami. Detektory jednokanałowe, oparte o wybrany algorytm działają z założenia w całym paśmie sygnału odbieranego przez urządzenie odbiorcze i umożliwiają uzyskanie odpowiedzi, czy w paśmie pracy odbiornika występuje sygnał o zadanych parametrach. Taka informacja wykorzystywana jest przez odbiornik do podjęcia decyzji, czy dany kanał transmisyjny jest wolny czy zajęty i czy można go wykorzystać do własnej transmisji.[1][2] W przypadku systemów szerokopasmowych, występuje jednak możliwość częściowego zajmowania pasma przez systemy wąskopasmowe, co powoduje konieczność stosowania detektorów umożliwiających ocenę zajętości poszczególnych podzakresów częstotliwości. Detektory tego typu stosowane są najczęściej w dwóch przypadkach:  gdy odbiornik radiowy wykorzystuje 2 tunery radiowe: jeden do odbioru transmisji, a drugi, o szerszym paśmie, do monitorowania widma i szybkiego wyszukiwania wolnych kanałów;  gdy w systemie radiowym wykorzystywane jest adaptacyjne kształtowanie charakterystyki widmowej sygnału, umożliwiające współistnienie z systemami wąskopasmowymi poprzez wykorzystywanie jedynie wolnych fragmentów pasma. 2. PROJEKTOWANIE DETEKTORÓW Kluczowym zagadnieniem związanym z projektowaniem detektorów parametrycznych jest wyznaczenie kryteriów decyzyjnych modułu detekcji - np. progu decyzyjnego dla detektora binarnego. Detekcja parametryczna dotyczy z definicji przypadku, kiedy znamy prawdopodobieństwa warunkowe sygnału z przestrzeni obserwacji. Posługując się mechanizmami statystyki matematycznej oraz rachunkiem prawdopodobieństwa można wyznaczyć poszukiwane więcej »

CAŁKOWICIE OPTYCZNA DOSYŁOWA SIEĆ FRONTHAUL WSPIERAJĄCA FUNKCJONOWANIE AKTYWNEGO SYSTEMU ROZPROSZONYCH ANTEN MASSIVE-MIMO - DOI:10.15199/59.2017.8-9.74
Zbigniew Zakrzewski 
Pomysł na konstruowanie systemów rozproszonych anten DAS (Distributed Antenna System) nie jest nowy. Propozycja tego rozwiązania została przedstawiona w [7], gdzie autorzy wskazali możliwość rozbudowania wewnątrzbudynkowych systemów antenowych pod kątem zastosowań w rozwijających się pierwszych cyfrowych systemów komórkowych FDMA/TDMA. Rozwiązania te zdały egzamin w środowiskach typu stadiony, dukty uliczne lub tunele. Integrowanie systemu antenowego wówczas nie wymagało zbyt wysokiej wydajności od sieci dosyłowej, gdyż usługi świadczone przez systemy komórkowe ograniczały się do przesyłania głosu. Współczesne sieci mobilne stanowią trzon w świadczeniu usług związanych z dostępem do Internetu, zaś usługi cechują się bardzo wysokimi wymaganiami zarówno w zakresie zapotrzebowania na bardzo wysoką bitową przepływność, jak też wysokie parametry jakościowe podczas transmisji. Przyszłe sieci mobilne (5G i kolejne generacje) będą potrzebowały bardzo efektywnych rozwiązań w zakresie dystrybucji sygnałów radiowych. Powstawanie i rozwijanie sieci fronthaul jest konieczne ze względu na rosnące zainteresowanie systemami rozproszonych anten. Każda pojedynczy sektor już teraz jest zbudowana z macierzy 4 lub 8 modułów antenowych, zaś zapotrzebowanie na przestrzenne zwielokrotnienie SDM (Space Division Multiplexing) tak gwałtownie wzrasta, że już w systemach 5G jest planowane wprowadzenie 64- lub nawet 128-modułowych systemów antenowych. Komunikacja terminala mobilnego MT (Mobile Terminal) z pojedynczym sektorem stacji bazowe lub punktu bezprzewodowego dostępu nie zapewnia gwarancji dobrej komunikacji oraz dostępu do szerokiego pasma. Tego rodzaju niedogodności mogą być skompensowane, gdy stacja bazowa przyjmie charakter rozproszony, co jest do zrealizowania dzięki DAS. Dosyłowa sieć fronthaul umożliwi połączenie modułów macierzy anten z centrum przetwarzania sygnałów radiowych BBU/RFU Hotel/Cloud - rys. 1. RRH RRH RRH RRH RRH R więcej »

CHARAKTERYSTYKA ILOS´CIOWYCH ATAKÓWNAWARSTWE˛ APLIKACJI - DOI:10.15199/59.2017.8-9.62
Robert Gajewski 
Spowolniony atak na aplikacj˛e, to próba wpłyni˛ecia przez atakuja˛cego na kontrole˛ transmisji. Atak ten polega na otwieraniu wielu poła˛czen´ do serwera docelowego, i pozostawianiu ich tak długo otwartymi, jak to mo˙zliwe. Utrzymuja˛c otwarte poła˛czenia wysyła sie˛ przez nie cyklicznie wiadomos´ci, zmierzaja˛c do osia˛gnie˛cia przez serwer maksymalnej liczby równoczesnych poła˛czen´ i odrzucania kolejnych prób poła˛czenia z usługa˛. Testowanie serwera od strony opó´zniania jego reakcji na otrzymywane pakiety przy zwielokrotnionym ruchu, stwarza atakuja ˛cym moz˙liwos´ci do komponowania wyrafinowanych ataków na aplikacj˛e. W uproszeniu mo˙zna wyró˙zni´c dwa warianty ataku. Przedstawione zostały one w cz˛e´sci po- ´swi˛econej generowaniu ataków DoS. Charakterystyki ataków od strony warstwy transportowej nieznacznie róz˙nia˛ sie˛ od siebie, co zostało pokazane poni˙zej, w cz˛e´sci po´swi˛econej selektywnemu przechwytywaniu pakietów. W kolejnej cz˛e´sci zaproponowano mechanizm wykrywania anomalii. Wykrywanie przez serwer anomalii zwia˛zanych z atakiem odmowy usługi (Denial of Service) wymaga czasu na rozpoznanie. Jednak ze wzgl˛edu na nadmiar danych korzystnie wypada metoda o mniejszych kosztach obliczeniowych, analiza korelacji wielowariantowej [1], która jest w stanie wyodr˛ebni´c anomali˛e od prawidłowego ruchu sieciowego. Metoda ta została opisana w cz˛e´sci po´swi˛econej mechanizmowi wykrywania. 2. GENEROWANIE ATAKÓWDOS W testach, po stronie maszyny atakuja˛cej, do przeprowadzenia ataku zostało wykorzystane narz˛edzie slowhttptest [2]. Za pomoca˛ tego narze˛dzia przeprowadzono dwa ataki: slowloris, i slow_message. Pierwszy, po otwarciu wielu poła˛czen´ do serwera docelowego, polega na cyklicznym przesyłaniu wiadomo´sci o stałej długo´sci, co pozwala na utrzymanie ich w stanie otwartym tak długo, jak to mo˙zliwe. slowhttptest -H -i 10 -r 250 -t GET -u http://{ip_to_victim} -p 1.5 Gdzie -H okre´sla spowolnienie w sek więcej »

CONNECTIVITY CONDITIONS FOR TWO-DIMENSIONAL RADIO NETWORK - DOI:10.15199/59.2017.8-9.85
Jarosław Michalak Wojciech Bednarczyk 
The content of this article was inspired by previous work of authors on maximizing information delivery in a wireless clustered network [1], [2], [3]. The problem relates to messages delivered using peer-to-peer, multicast (MC) and broadcast (BC) methods. The probability of delivery depends on many factors, such as a channel access control method, a transmission protection system, communication and routing protocols, propagation conditions etc. One of the key factors that can have an effect on the results is the network structure. The operation area, the scenario, the number of nodes and their maximum transmission power will have crucial impact on the probability of existence of a connected network (Def. 1). Definition. 1. Connected network. The connected network is a network, in which any of its nodes has at least one connection capable to deliver information to all other nodes within that network. It seems obvious that if the distances between nodes are significantly shorter than their radio range, the network should be connected. However, this kind of planning can lead to increased costs of system deployment (as the number of nodes is increased) and a higher potential level of interference. Therefore, the knowledge of available radio range, the number of nodes and the task area limits within a given operation scenario can be very useful. The problem of connectivity is inherent to any radio network [4], [5], [6], [7], [8], [9], but we focus on wide, hard to control structures containing a large number of nodes. The Wireless Sensor Networks with elements deployed from helicopters, Ad-Hoc, MANET and VANET networks can be good representations of such structures. An example of MANET organized in clusters is described in the following Section (Fig. 1). 2. NETWORK STRUCTURE There are several types of self-organizing networks: adhoc, MANET and VANET - each with different features [10], [11]. One of the goals of the self-organ więcej »

CZASOWO - CZĘSTOTLIWOŚCIOWA METODA SYNCHRONIZACJI SYGNAŁÓW AKUSTYCZNYCH NA POTRZEBY TRANSMISJI STEGANOGRAFICZNEJ - DOI:10.15199/59.2017.8-9.57
Jarosław Wojtuń Zbigniew Piotrowski 
Transmisja steganograficzna rozumiana jest jako przesłanie dodatkowych informacji, które osadzone są w sygnale oryginalnym. Głównym celem steganografii jest ukrycie faktu przesyłania informacji [1, 2, 3]. Aby transmisja steganograficzna mogła mieć miejsce, niezbędne jest posiadanie nośnika, w którym osadzana będzie skryta informacja. Pojawienie się komputerów i rozwój komunikacji cyfrowej spowodował, że współczesne rozwiązania i prace badawcze dotyczące steganografii skupiają się na ukrywaniu informacji w treściach multimedialnych: obrazy cyfrowe (ang. image steganography), pliki dźwiękowe (ang. audio steganography), pliki video, pliki tekstowe [4, 5, 6]. Znane są również metody steganograficzne wykorzystujące jako nośnik informacji sieciowe protokoły komunikacyjne [6, 7]. Jedną z pierwszych metod ukrywania informacji w sygnałach akustycznych była metoda polegająca na modyfikacji najmniej znaczących bitów próbek sygnału oryginalnego (LSB, ang. Least Significant Bits, LBC, ang. Low Bits Codnig). Jest to metoda często opisywana w literaturze i wciąż rozwijana, a swoją popularność zawdzięcza w głównej mierze łatwości w implementacji [8, 9, 10, 11, 12]. Modyfikacja wartości najmniej znaczących bitów próbek sygnału oryginalnego nie wpływa na zmianę parametrów dźwięku i zazwyczaj jest niesłyszalna dla ludzkiego ucha. Metoda ta pozwala na uzyskanie bardzo dużych szybkości skrytej transmisji danych, z drugiej strony metoda ta nie wykazuje odporności na obróbkę dźwięku i większość popularnych przekształceń sygnału bezpowrotnie niszczy osadzoną w sygnale informację. Kolejna bardzo popularna metoda ukrywania informacji w sygnałach akustycznych polega na wykorzystaniu zjawiska echa. W pracach [4, 13] wykazano, że ludzki słuch nie jest w stanie wychwycić faktu istnienia echa sygnału w sygnale oryginalnym o ile amplituda sygnału echa nie przekracza 40% amplitudy w sygnale oryginalnym oraz jeżeli sygnał echa występuje w przeciągu 2m więcej »

DETEKTOR PRZEKROCZENIA STREFY DOZOROWANEJ WYKORZYSTUJĄCY MIKROKOMPUTER RASPBERRY PI I PROTOKÓŁ SMTP - DOI:10.15199/59.2017.8-9.76
Dawid Kukliński Zbigniew Piotrowski 
Obecnie, dzięki rozprzestrzenieniu się szybkiej komunikacji sieciowej i zwiększonego wykorzystania Internetu, wzrasta popularność inteligentnych domów. W dobie informatyzacji rośnie potrzeba nieustannego nadzorowania naszych mieszkań, biur i gabinetów. Zapewnienie bezpieczeństwa realizowanego przez elektroniczne systemy inteligentne stało się wartością priorytetową. Mimo iż, zautomatyzowane systemy zabezpieczeń miejsc zamieszkania są uważane za niezawodne, nie są one w stanie zapewnić w pełni bezpieczeństwa. Komenda Stołeczna Warszawy w okresie styczeńgrudzień 2016 odnotowała 27 206 kradzieży, w tym 7 384 z włamaniem [1]. Według statystyk prowadzonych przez Komendę Główną Policji w Warszawie, przestępczość spadła, ale wciąż tylko połowa popełnionych przestępstw jest wykrywana. Jedną z przyczyn tej sytuacji jest duża podatność tradycyjnych systemów zabezpieczeń naszych domów na działania włamywaczy. W związku z tym budowa i stosowanie inteligentnych systemów zabezpieczeń staje się koniecznością. Podstawowym zadaniem inteligentnych systemów zabezpieczeń jest wykrywanie osób i szybkie informowanie o tym fakcie. Opracowano różne systemy lokalizacji w pomieszczeniach. Wewnętrzne systemy rozpoznawania lokalizacji zostały podzielone na trzy typy według technologii pomiaru: triangulacji, analizy sceny i metod zbliżeniowych. Metoda triangulacji opiera się na wykorzystaniu wiedzy o odległości od znanych punktów. Przykładem tego typu lokalizacji są metody active badges i active bats, które wykorzystują czujniki podczerwieni i czujniki ultradźwiękowe. Metoda analizy sceny opiera się na badaniu widoku z konkretnego punktu obserwacji. Najbardziej znanymi przykładami tej metody są: Easy Living, MotionStar oraz wykrywanie i namierzanie radiowe Microsoft’u (RADAR), które wykorzystują stereoskopowe kamery, czujniki pola magnetycznego DC i sieć bezprzewodową. Z kolei za więcej »

EFEKTYWNA METODA OBRONY PRZED ADAPTACYJNYM ATAKIEM TYPU PUSH-STYLED COMAND AND CONTROL W MOBILNYCH BOTNETACH - DOI:10.15199/59.2017.8-9.46
Michał Ciołek Zbigniew Piotrowski 
Modern methods of combating threats related to data processing and transmission also cover within their scope, and maybe first of all, user end terminals, including the more and more popular smartphones. Mobile operating systems (OS), on which applications are installed and activated must inter alia have integrated and continuously updated mechanisms for protection against harmful software. The potential and expansion of smartphones and tablets influenced the necessity of development of a new branch of operating systems - mobile operating systems. Their main features include intuitive interfaces using touch screens and optimised structure cooperating with limited resources. At present the most popular systems are Android, iOS and Windows Phone. One of the leaders in the development of mobile devices is the operating system Android of the Google brand [1]. Openness of the platform and ease of personalisation make the Android ahead of any other mobile operating systems. The increasing popularity of the Android system also results in the growth of undesirable attacks and threats towards the platform. This is accompanied by enhanced actions aimed at creation of malware. 2. CONTEMPORARY THREADS Together with the appearance of mobile access to the Internet and increasing computing power of smartphones they have become an attractive target for hackers in the course of implementation of mobile botnets. The reports related to security [2] indicate that in 2013 only 1.2% of the entire malware was focused on mobile devices, but as much as 99% on the devices operating on the Android. The number of virus samples increased in the first half of 2014 up to 751 thousand, as compared to 672 thousand in the first half of 2013 [3]. In comparison with the traditional botnets such type of software is aimed at accessing sensitive personal data located on mobile devices and their computational resources. In September 2013 analysts of the comp więcej »

EMPIRYCZNA WERYFIKACJA HIPOTEZY O STOPNIU WEWNĘTRZNYM OSADOWYCH WIELOMIANÓW NIEPRZYWIEDLNYCH NAD GF(2) - DOI:10.15199/59.2017.8-9.33
Paweł Augustynowicz Andrzej Paszkiewicz 
Zakres stosowania teorii dotyczącej wielomianów nieprzywiedlnych nad ciałami skończonymi jest bardzo szeroki. Znajdują zastosowanie między innymi w kryptografii, teorii kodów oraz technikach przetwarzania równoległego. W związku z powyższym efektywne techniki poszukiwania tychże wielomianów nierozkładalnych pozostają w kręgu zainteresowania matematyków i inżynierów z całego świata o czym świadczą liczne eksperymenty obliczeniowe [3][4]. Ze względu na szczególnie dobre właściwości implementacyjne zarówno w zastosowaniach sprzętowych, jak i programowych poszukuje się tylko pewnych postaci wielomianów nieprzywiedlnych, takich jak: trójmiany, wielomiany osadowe, bądź wielomiany, dla których istnieją bazy normalne. W rozpatrywanym przypadku ciał skończonych o charakterystyce 2 nie dla każdego stopnia istnieje trójmian nierozkładalny, bądź wielomian, dla którego jesteśmy w stanie przejść do bazy normalnej. Stąd też weryfikacja hipotez dotyczących sposobów efektywnego poszukiwania nieprzywiedlnych wielomianów osadowych, które istnieją dla każdego stopnia, wydaje się mieć znaczenie podstawowe. 2. PODSTAWY MATEMATYCZNE Definicja 1 Wielomianem osadowym nad ciałem binarnych GF(2) nazywamy wielomian postaci 𝑥𝑛 + 𝑔(𝑥), gdzie 𝑔(𝑥) posiada stopień bliski liczbie 𝑙𝑜𝑔2(𝑛). [2] Definicja 2 Stopniem wewnętrznym wielomianu osadowego postaci 𝑥𝑛 + 𝑔(𝑥) nazywamy stopień 𝑔(𝑥) i oznaczamy jako 𝑑𝑒𝑔(𝑔(𝑥)). Ze względu na ścisłe powiązanie stopnia wewnętrznego wielomianu osadowego zarówno z metodami jego efektywnego wyznaczania jak i złożonością tworzonych na podstawie tego wielomianu arytmetyk właściwość ta okazała się mieć znaczenie podstawowe. W szczególności już w 1996 zostały przebadane wszystkie wielomiany osadowe do stopnia 2000 i na tej podstawie została sformułowana następu więcej »

EMULACJA SEGMENTÓW SIECI W MININET PRZY UŻYCIU NS-3 - DOI:10.15199/59.2017.8-9.48
Piotr Jurkiewicz 
Mininet to bazujące na kontenerach środowisko służące do emulacji sieci [1]. Powstało ono na Uniwersytecie Stanforda, pierwotnie jako narzędzie służące głównie do emulacji sieci SDN. Mininet korzysta z wbudowanych w jądro Linuxa funkcjonalności, takich jak przestrzenie nazw (namespaces) i grupy kontrolne (cgroups), do tworzenia wirtualnych sieci w obrębie systemu operacyjnego. Każdy węzeł sieci uruchamia swoje aplikacje w osobnej network namespace, która zawiera niezależną instancję stosu sieciowego (interfejsy, tablice routingu). Dostęp do zasobów systemowych (czas CPU, pamięć) dla aplikacji działających w odrębnych węzłach ograniczany jest przy użyciu cgroups [2]. Pozwala to na osiągnięcie izolacji węzłów podobnej jak w przypadku pełnej wirtualizacji (tzn. gdy każdy węzeł to osobna maszyna wirtualna) przy praktycznie zerowym narzucie obliczeniowym i pamięciowym (duplikowany jest tylko stos sieciowy, a nie cała instancja systemu operacyjnego). Dzięki temu możliwe jest budowanie w Mininet sieci złożonych z setek węzłów i stabilne osiąganie w nich przepustowości rzędu setek megabitów na sekundę. Interfejsy sieciowe odrębnych węzłów, znajdujące się w osobnych netns, są łączone ze sobą przy użyciu wirtualnych łączy Ethernetowych (veth). W ten sposób budowana jest wirtualna sieć, w której węzłach uruchamiane są w czasie rzeczywistym prawdziwe aplikacje. Domyślnie łącza veth są prostymi połączeniami typu punkt-punkt, z nieograniczoną przepustowością i bez opóźnienia. Przy użyciu Linuxowego narzędzia tc możliwe jest ograniczenie przepustowości łączy, wprowadzenie opóźnienia i strat pakietów, a także konfiguracja modelu kolejki. Na tym możliwości Mininet jednak się kończą. Nie jest możliwa na przykład emulacja łączy ze współdzielonym medium, a w szczególności łączy/sieci bezprzewodowych. W odpowiedzi na to ograniczenie, w 2013 r. w ramach programu Google Sum więcej »

ENERGOOSZCZĘDNE POLA KOMUTACYJNE TYPU BANYAN - DOI:10.15199/59.2017.8-9.65
Mariusz Żal 
Prace obejmuja˛ce sieci s´wiadome energii, czyli sieci da˛z˙a˛ce do redukcji zuz˙ycia energii elektrycznej prowadzone sa˛ od wielu lat. Opublikowano wiele prac skupiaja ˛cych sie˛ na redukcji zuz˙ycia energii w poszczególnych elementach ró˙znych typów sieci [2]. Zdecydowana wi˛ekszo ´s´c prac dotyczy zmniejszenia zu˙zycia energii w płaszczy ´znie danych [1, 4]. Równie˙z w tej pracy zaproponowano ograniczenie zu˙zycia energii w płaszczy´znie danych poprzez wyła˛czanie niewykorzystywanych zasobów we˛- zła komutacyjnego. W˛ezeł komutacyjny jest bardzo wa˙znym elementem sieci telekomunikacyjnej. Jego zadaniem jest niezawodne i optymalne (z punktu widzenie jako´sci realizowanych usług) przenoszenie danych pomi˛edzy ró˙znymi sieciami lub urza˛dzeniami sieciowymi [5]. Ogólna struktura we˛zła przedstawiona została na rys. 1.W˛ezeł mo˙zna podzieli´c na płaszczyzn˛e danych i sterowania. W płaszczy´znie danych obsługiwane sa˛ dane uz˙ytkowników (np. przez przesyłanie ich mi˛edzy interfejsami wej´sciowymi i wyj´sciowymi). Wwarstwie sterowania okre´slane jest, czy w˛ezeł mo˙ze obsłuz ˙yc´ napływaja˛ce dane oraz w jaki sposób dane te maja˛ zostac´ przesłane przez pole komutacyjne, be˛da˛ce central- Interfejsy wejściowe Pole komutacyjne Układ sterowania Moduł zarządzania Interfejsy wyjściowe Płaszczyzna sterowania Płaszczyzna danych Rys. 1. Ogólna budowa w˛ezła komutacyjnego nym elementem w˛ezła. Wyła˛czenie zasobów we˛zła jest procedura˛ bardzo skomplikowana˛. Na przykład, jes´li do interfejsów doła˛- czeni sa˛ uz˙ytkownicy kon´cowi, interfejsy nie sa˛ zasobem, który moz˙e byc´ wyła˛czany. Mechanizmy i zasady wyła ˛czania interfejsów obsługuja˛cych sieci moz˙na znalez´c´ mi˛edzy innymi w pracy [4].Wtej pracy skupimy si˛e jedynie na wyła˛czaniu zasobów pola komutacyjnego. Dalsza cz˛e´s´c pracy została zorganizowana w nast˛epuja ˛cy sposób. W rozdziale drugim wyjas´niono budowe˛ rozwa˙zanego pola komutacyjnego. W rozdziale trzec więcej »

ENERGY-AWARE RESOURCE ALLOCATION IN CLOUD COMPUTING ENVIRONMENTS - DOI:10.15199/59.2017.8-9.79
Jerzy Martyna 
Cloud computing provides applications, hardware platforms, and infrastructure to a large number of private and corporate users. Most of them expect an efficient service from cloud providers, including low cost of ownership. Moreover, the implementation of a number of computing clouds is linked to a number of objectives, such as quality of service, cost-effectiveness, or energy savings. Including these goals, often contradictory, is a serious challenge for cloud computing designers. It is recalled that cloud computing can be defined as ‘a type of parallel and distributed system consisting of a collection of inter-connected and virtualized computers that are dynamically provisioned, and presented as one or more unified computing resources based on servicelevel agreements established through negotiation between the service provider and consumers’ [1]. An available example of a cloud computing infrastructure platforms is Microsoft Azure [2], Google App Engine [3], Aneka [4], etc. The quality of the cloud computing determines the performance of the entire system. If the provider does Fig. 1. Layered cloud computing architecture. not provide service according to Service Level Agreements (SLAs) [5], then the clients will depart from it to find such a service elsewhere. So the key is an efficient resource allocation system. Fig. 1 shows the architecture of a typical cloud computing environment. Its first part is the customers who can rent Virtual Machines (VMs) from cloud providers. During the rental period, customers specify their desire. The key element of the cloud is the scheduler, whose purpose is to schedule the VM requests and connection requests in the fastest possible way. At the same time, requirements such as energy savings or QoS constraints must be met. An attempt to summarize the challenges awaiting designers of cloud computing is presented in the article [6]. The crucial problem of the cloud computing więcej »

EVENTS VISUALIZATION POST IN A DISTRIBUTED TELEINFORMATION SYSTEM FOR THE BORDER GUARD - DOI:10.15199/59.2017.8-9.77
Bartosz Czaplewski Sylwester Kaczmarek Jacek Litka 
Events Visualization Post is part of the STRADAR project [1], which is dedicated to streaming real-time data in distributed dispatcher and teleinformation systems of the Border Guard (BG). The project is implemented for the security and defense and it is funded by the National Centre for Research and Development. The project is the extension of the KONSOLA project [2,3]. The STRADAR project consists of multiple stationary and mobile elements [1], although the most significant are the Center Server (CS), the Archival server (AS) and the Events Visualization Post (EVP) [4]. The CS runs the custom Map Server (MS) application, manages the list of visualization tasks, and performs various management operations. The MS provides access to data on naval situation for visualization on digital maps. The AS provides access to archived data, which can be of various types: files, images, SMS, SDS, video, or audio. Finally, the EVP enables interactive visualization of data, generation of new visualization tasks, and some minor control functions. The Events Visualization Post is a software designed for simultaneous visualization of data of different types in BG headquarters which operates on a PC with a very high resolution multi-screen display for visualization and a standard display for management. In terms of visualization, the EVP allows the operator to visualize files, images, SMS, SDS, video, audio, and current or archival data on naval situation on digital maps. All the visualized data can be synchronized in time. In terms of generation of new visualization tasks, the EVP allows the operator to define a great number of parameters of the task. For both the generation of new tasks and the visualization of data, the EVP communicates with the CS, which, if necessary, communicates with the AS. In regard to visualization of naval situation on digital maps, the discussed fragment of the system can be considered a Vessel Traffic Service więcej »

EWOLUCJA POJĘCIA JAKOŚCI W ŚWIETLE NOWYCH ARCHITEKTUR SIECIOWYCH I MODELI ŚWIADCZENIA USŁUG - DOI:10.15199/59.2017.8-9.29
Marek Średniawa Janusz Klink 
Jednym z głównych celów działalności usługodawców i operatorów sieci jest dostarczanie atrakcyjnej oferty usługowej, z której użytkownicy będą chętnie korzystać. Ważnym czynnikiem mającym wpływ na powodzenie całego przedsięwzięcia, szczególnie w dobie wysokiej konkurencji, jest jakość dostarczanego produktu. Jakość jest pojęciem, które trudno wyrazić w sposób jednoznaczny, a jej definicje ewoluują. Definicja jakości podana przez ISO w latach 90. ubiegłego stulecia określa jakość jako zespół właściwości i charakterystyk liczbowych wyrobów, które wpływają na ich zdolności do zaspokajania potrzeb, zarówno tych aktualnie stwierdzonych, ale również przewidywanych bądź oczekiwanych w przyszłości. Wreszcie, nowa definicja ISO z 2001 roku [18] określa jakość jako "stopień, w jakim zbiór inherentnych właściwości spełnia wymagania". Uszczegółowienia pojęcia jakości, odnoszącego się do usług telekomunikacyjnych, należy szukać m.in. w dokumentach standaryzacyjnych Międzynarodowej Unii Telekomunikacyjnej (ITU) oraz Europejskiego Instytutu Standardów Telekomunikacyjnych (ETSI), wg których jakość usług (Quality of Service - QoS) stanowi zbiorczy efekt wydajnościowych cech usługi, które determinują stopień zadowolenia użytkownika [10, 13]. W drugim rozdziale zaprezentowano klasyfikację pojęć dotyczących jakości usług, z uwzględnieniem różnych punktów widzenia, zarówno od strony usługodawcy jak również usługobiorcy. Trzeci rozdział przedstawia problem modelowania jakości i sposób powiązania jakości wrodzonej z jakością postrzeganą przez użytkownika. Oprócz omówienia generalnych zasad, pokazano również wyniki własnych badań. W rozdziale czwartym autorzy zwracają uwagę na potrzebę rozwoju nowych metod badania jakości, szczególnie w kontekście rozwoju nowych usług i technologii. Końcowa część pracy została zakończona podsumowaniem. 2. KLASYFIKACJA JAKOŚCI USŁUG W procesie świadczenia usług i korzystania z nich, wyróżnić można trzy zasadni więcej »

IDENTYFIKACJA UŻYTKOWNIKÓW SIECI INTERNET - DOI:10.15199/59.2017.8-9.81
Adrian Karbowiak Marcin Niemiec 
W obecnych czasach korzystanie z serwisów internetowych jest powszechną praktyką. Niestety nie każdy użytkownik jest świadomy jak wiele informacji o swojej tożsamości ujawnia w sieci Internet. Niektóre mechanizmy pobierania danych są jawne i użytkownicy są o nich informowani. Przykładem może być rejestracja klientów w sklepie internetowym. Jednak w wielu przypadkach serwisy internetowe nie powiadamiają użytkowników o analizowaniu prywatnych danych. Taką wiedzę można nabyć np. dopiero po analizie kodu źródłowego strony internetowej. Istnieje bardzo wiele takich mechanizmów, które różnią się między sobą rodzajem zbieranych danych. Jedne koncentrują się na zapisie informacji o używanym sprzęcie, oprogramowaniu oraz czynnościach wykonywanych za ich pomocą jak np. popularny Google Analytics [1]. Z kolei inne analizują i zapisują indywidualne cechy użytkownika. Rozwój technik tworzenia aplikacji internetowych, w szczególności AJAX (ang. Asynchronous JavaScript and XML) pozwolił na efektywne wykorzystanie metod rozróżniania osób, w zależności od sposobów w jaki używają klawiatur, myszek komputerowych czy gładzików [2-3]. Dane o ruchach kursora mogą być szybko gromadzone podczas standardowego przeglądania strony internetowej, posiadającej odpowiedni skrypt. Oznacza to, że istnieje szansa identyfikacji osoby odwiedzającej taką stronę, pomimo prób ukrycia tożsamości, np. używając sieci TOR (ang. The Onion Router). Co więcej, mechanizmy te mogą zostać skutecznie ukryte i niewiele osób będzie miało świadomość ich istnienia. Niniejszy artykuł opisuje system, którego zadaniem jest identyfikacja użytkownika odwiedzającego specjalnie przygotowaną witrynę. Składa się ze strony internetowej, skryptów pobierających dane o użytkowniku i zapisujących je w bazie danych oraz programu klasyfikującego osoby na podstawie zebranych od nich informacji o położeniu, akcji i czasie akcji kursora. Założono że program powinien spełnić trzy najważniejs więcej »

IMPLEMENTACJA KONTEKSTOWEJ USŁUGI NIEZAPRZECZALNOŚCI - DOI:10.15199/59.2017.8-9.60
Marcin Alan Tunia 
Niezaprzeczalność jest jedną z usług bezpieczeństwa, która implementowana jest w szerokiej gamie systemów, zarówno cywilnych jak i wojskowych. Przykładem mogą być systemy przetwarzające informacje niejawne, które muszą implementować mechanizmy rozliczalności użytkowników. W literaturze istnieje wiele definicji niezaprzeczalności [1,10,11,12,]. W niniejszej pracy została przyjęta następująca definicja [8]: Niezaprzeczalność jest usługą bezpieczeństwa pozwalającą na jednoznaczne i obiektywne stwierdzenie post factum czy dany podmiot wykonał określoną czynność. Zadaniem usługi niezaprzeczalności jest generowanie, przechowywanie, udostępnianie i weryfikowanie dowodów [4]. Zawartość dowodu może różnić się między implementacjami usługi niezaprzeczalności i zależy od wymagań wynikających z funkcjonalności systemu oraz polityki niezaprzeczalności. Na podstawie dowodów powinno być możliwe stwierdzenie, że zaszło określone zdarzenie, a uczestnicy tego zdarzenia nie mogą zaprzeczyć faktowi uczestnictwa w nim. Analiza dowodów niezaprzeczalności może stanowić część procesu analizy pozdarzeniowej mającej na celu określenie najbardziej prawdopodobnego scenariusza wydarzeń. W związku z tym dowód jest tym bardziej przydatny im zawiera więcej użytecznych informacji na temat rozpatrywanego zdarzenia. Takimi informacjami może być kontekst w jakim znajduje się każda ze stron biorących udział w rejestrowanym zdarzeniu. Kontekst możemy zdefiniować zgodnie z interpretacją Dey’a i in.[2]: Kontekstem jest każda informacja, która może zostać wykorzystana do scharakteryzowania sytuacji pewnego podmiotu. Podmiotem jest osoba, miejsce lub obiekt, który jest uważany za istotny w interakcji między użytkownikiem i aplikacją, włączając w to samego użytkownika i aplikację. Problemem wykorzystania danych kontekstowych na potrzeby usług bezpieczeństwa zajmuje się zagadnienie nazywane bezpieczeństwem kontekstowym. Dzięki wykorzystaniu kontekstu, usłu więcej »

IMPLEMENTACJA SYSTEMU STEGANOGRAFICZNEGO STEGIBIZA W JĘZYKU PYTHON - DOI:10.15199/59.2017.8-9.12
Krzysztof Szczypiorski Wojciech Żydecki 
Ludzkość korzystała ze steganografii na wiele sposobów na przestrzeni dziejów. Pierwsze znane przykłady pochodzą ze starożytnej Grecji [1], ale w miarę postępu technologicznego i kulturowego opracowywano nowe metody steganograficzne. W erze Internetu najwięcej uwagi poświęca się zastosowaniu steganografii w plikach graficznych [2] i w sieciach [3], gdyż jest to obecnie najlepsza platforma ukrytej komunikacji, która stymuluje opracowywanie nowych metod steganografii graficznej i sieciowej. Ostatnimi laty odnotowano wzrost korzystania z radia internetowego i usług strumieniowej transmisji muzyki [4], co zapewnia przestrzeń rozwoju nowych metod steganografii dźwiękowej (audio). W niniejszym artykule przedstawiono implementację metody steganografii muzycznej (jako podzbioru steganografii dźwiękowej) o nazwie StegIbiza (Steganographic Ibiza) [5], która jest używana w celu przekazywania ukrytych wiadomości za pośrednictwem radia internetowego i innych serwisów internetowych. Realizację przeprowadzono w języku programowania Python z wykorzystaniem plików muzycznych MP3 w internetowej stacji radiowej. Do tego celu użyto wyłącznie standardowego komputera, bez specjalnego sprzętu do przetwarzania dźwięków lub sygnałów. Koncepcja StegIbiza polega na kodowaniu informacji poprzez zwiększanie lub zmniejszanie tempa muzyki o niewielki procent, tak by pozostało to niesłyszalne dla ludzkiego ucha. Tempo muzyczne mierzy się uderzeniach (beatach) na minutę (bpm) i musi ono być stałe, by można było zastosować metodę StegIbiza. Niniejszy artykuł składa się z następujących części: W rozdziale 2 opisano pokrótce sztukę steganografii. W rozdziale 3 skoncentrowano się na koncepcji metody StegIbiza i jej wykorzystaniu. W rozdziale 4 przedstawiono ograniczenia stwierdzone w trakcie wdrażania. W rozdziale 5 wyjaśniono i przedstawiono realizację metody StegIbiza w języku programowania Python. W rozdziale 6 pokazano zastosowanie metody w różnych ut więcej »

IMPLEMENTATION OF HIGH-SPEED DATA TRANSMISSION TECHNOLOGICAL DEMONSTRATOR USING SOFTWARE DEFINED RADIO TECHNOLOGY - DOI:10.15199/59.2017.8-9.55
Krzysztof K. Cwalina Paweł T. Kosz Piotr Rajchowski Jarosław Sadowski Jacek Stefański 
Increasing user expectations for maximizing data rates and minimizing delays forced fourth and fifth generation of mobile networks to evolve dynamically. Exchange of the multimedia data, including movies, images and sound, is the main traffic within the network, which forces operators to implement high-speed data transmission systems. Technologies that enable fast highdefinition multimedia broadcasting arouse a lot of interest among special forces, which belong, among others, Polish Maritime Regional Unit of Border Guard. Teleinformatics security systems considered for special applications necessitate the implementation of such a data transmission by dedicated radiocommunication devices, not connected to commercial mobile networks. In this article the development of the high-speed technology demonstrator in software defined radio technology for special applications is presented. The developed system has been characterized, including asymmetric uplink and downlink frame transmission, bandwidth, frequency, modulations, coding, sampling rates that were implemented in technology demonstrator. Presented research work was financed by The National Centre for Research and Development, as a project No DOB-BIO6/09/5/2014 and was carried out in Department of Radiocommunication System and Networks, Gdansk University of Technology. 2. DESCRIPTION OF SYSTEM OPERATION The architecture of the developed system is hierarchical, where mobile stations (MS) communicate and synchronize only with the base station (BS). In Fig. 1. an example implementation of high-speed data transfer system (DTS) for special applications is shown. Fig. 1. An example of system for high-speed data transmission for special services High-definition video transmission from mobile units, such as air units or vessels to the data center (DC) requires the design of a broadband asymmetric radio link in which the amount of uplink (UL) data is significantly higher than i więcej »

Internet rzeczy - wyzwania i zagrożenia - DOI:10.15199/59.2017.8-9.1
Jacek Jarmakiewicz Krzysztof Maślanka 
Nieszczęsnym i dziwacznym zrządzeniem losu stało się tak, że znaczna większość tego, co wyfantazjowałem, zastyga w rzeczywistość [1]. Tak pisał na progu XXI wieku Stanisław Lem, nasz wielki rodak, pisarz i futurolog. Jego wizjonerskie Bajki robotów, Cyberiada, Czy Pan istnieje, Mr Johnes, Bomba Megabitowa, Kongres Futurologiczny i inne dzieła dzisiaj, na naszych oczach, zamieniają się w rzeczywistość. Wizja Internetu rzeczy IoT (Internet of Things), która kusi ludzkość, może stać się urzeczywistnieniem zła niczym jabłko Adama albo zbawieniem i receptą na większy komfort życia. Zarówno pierwsza, jak i druga alternatywa, wydają się równie prawdopodobne. My naukowcy uważamy, że rozwój Internetu rzeczy jest konieczny. Ale czy na pewno rozsądne jest dla własnych sukcesów sprzedawanie przyszłości naszych dzieci? Rozwinięciem myśli zawartej w tytule jest wywiad Stanisława Lema. Udzielając tygodnikowi "Der Spiegel" wywiadu w sprawie antymaterii (tuż po jej syntezie), powiedziałem, że antymaterii obawiam się mniej aniżeli Internetu. Wydawało mi się to trywialnie oczywiste, ponieważ prawdopodobieństwo natrafienia na biologicznie szkodliwą ilość antymaterii jest praktycznie równe zeru. …jakież to ryzyka wiążące się z masowym użytkowaniem Internetu potrafię wymienić, że każda bez wyjątku nowa technologia ma awers korzyści i zarazem rewers nowych, nieznanych dotychczas bied [1]. Wśród artykułów i prac badawczych, które zostały zrealizowane przez autorów w Wojskowej Akademii Technicznej, są prace związane z Internetem nanorzeczy [2], [3], [4], Internetem rzeczy wojskowych [5], jak i elektroniką ubieralną w zastosowaniach telemedycznych [6]. Przekrój prac ukazuje wczesne, śmiałe prace koncepcyjne, związane z nowymi technologicznie problemami wykorzystania nanosensorów przemieszczających się w ciele człowieka do diagnozowania jego stanu zdrowia [2]. Nanosensory mogą identyfikować zwężenia tętnic, zakrzepy, realizować dokładne pomiary więcej »

KLASYFIKACJA EFEKTÓW ELEKTROMAGNETYCZNYCH WYSTĘPUJĄCYCH PRZY NARAŻANIU URZĄDZEŃ INFORMATYCZNYCH IMPULSAMI HPM - DOI:10.15199/59.2017.8-9.49
Rafał Przesmycki 
W ostatnich latach obserwujemy zwiększone zainteresowanie środowiskiem elektromagnetycznym cechującym się występowaniem sygnałów o dużej mocy (HPEM - ang. High Power Electromagnetics Environment), a szczególnie wytwarzaniem impulsowych pól elektromagnetycznych dużej mocy i ich wpływem na elektronikę. W wysokoenergetycznym środowisku elektromagnetycznym dużej mocy źródła mikrofalowe stanowią stosunkowo nowy rodzaj zagrożenia zarówno dla systemów wojskowych, jak i cywilnych. Działanie z wykorzystaniem tego rodzaju źródła jest zazwyczaj określane jako celowe zaburzenie elektromagnetyczne. Środowisko promieniowane HPEM, które jest z natury szkodliwe, może również występować przy częstotliwościach nawet do kilkudziesięciu MHz. Rozwój technologiczny w zakresie mikrofal dużej mocy sprawił, że możliwa jest produkcja bardziej wydajnych źródeł mikrofalowych celem opromieniowania dużych bojowych instalacji. Jednocześnie możliwa jest generacja pól o stosunkowo dużych natężeniach z wykorzystaniem systemów kompaktowych, które mogą mieścić się np. w walizce [1]. Rozwój technologiczny i możliwość generacji pól o stosunkowo dużych natężeniach spowodowały wzrost potencjalnych zagrożeń od mikrofal o dużej mocy HPM (ang. - High Power Microwave). HPM jest środowiskiem o częstotliwościach radiowych, wytwarzanym przez źródła (broń) zdolne emitować dużą moc albo dużą gęstość energii. Typowe częstotliwości pracy HPM zawierają się w zakresie od 100 MHz do 35 GHz, lecz mogą też korzystać z innych częstotliwości stosownie do rozwoju technologii. Źródło może wytwarzać mikrofale w formie pojedynczego impulsu, powtarzalnych impulsów, impulsów o bardziej złożonej modulacji albo w postaci emisji fali ciągłej. Chociaż efekty HPEM takie jak impuls elektromagnetyczny spowodowany wyładowaniem atmosferycznym (LEMP - ang. Lighting Electromagnetic Pulse) i impuls elektromagnetyczny spowodowany wyładowaniem od wybuchu jądrowego (NEMP - ang. Nuclear Electroma więcej »

KONCEPCJA BEZPRZEWODOWEJ SIECI SENSOROWEJ NA POTRZEBY MONITOROWANIA STANU PACJENTA - DOI:10.15199/59.2017.8-9.78
Jarosław Michalak Tomasz Stawicki 
Bezprzewodowa sieć sensorowa może być zdefiniowana jako zbiór węzłów sensorowych współpracujących ze sobą i zorganizowanych w jednej strukturze. Sieć taka na podstawie pomiarów uzyskanych z czujników umieszczonych na poszczególnych węzłach, może badać i kontrolować zadane parametry środowiska [1]. Budowa oraz działanie sieci WSN [2][3] opiera się o dobrze znane topologie [4], lecz zarządzanie takimi strukturami wymaga odmiennego podejścia. Bezprzewodowe sieci sensorowe wykorzystują zwykle rywalizacyjne protokoły dostępu do medium [5], którym najczęściej jest darmowe pasmo ISM [6]. Działanie sieci opiera się o trzy podstawowe płaszczyzny zarządzania: zasobami, ruchem oraz energią [1] oraz liczne mechanizmy wspomagające ich działanie, takie jak mechanizmy fuzji danych [7], [8] oraz mechanizmy klastrowania i agregacji: [9], [10]. Na potrzeby sieci WSN stworzonych zostało wiele nowych standardów działania specyficznie wpisujących się w potrzeby tego typu struktur jak np. nowoczesne i energooszczędne protokoły routingu umożliwiające sprawne zarządzanie często obszernymi strukturami [11], [12]. Te i inne rozwiązania technologiczne tworzą z sieci WSN niezwykle użyteczne narzędzie, które z powodzeniem znajdują swoje zastosowanie w wielu gałęziach życia [1]. 2. ANALIZA LITERATURY W ZAKRESIE MEDYCZNYCH APLIKACJI WSN Jedną z dziedzin, w której bezprzewodowe sieci sensorowe znalazły bardzo szerokie zastosowanie i rozwijają się nieustanie jest opieka zdrowotna oraz medycyna: [13], [14]. Istnieje wiele urządzeń wspierających działanie aplikacji e-Healthcare, które wspierają ich wydajność i precyzyjność [15], [16]. Zainteresowanie związane z tego typu systemami skutkowało w ostatnich latach podjęciem wielu wysiłków badawczych [17]. Bezprzewodowe sieci sensorowe idealnie wpasowują się w potrzeby dzisiejszego świata, pozwalając na monitorowanie stanu zdrowia pacjenta przebywającego poza szpitalem, funkcjonującego w swoich prywatnych wa więcej »

Koncepcja i weryfikacja mechanizmu oceny jakości łączy międzywęzłowych w strefie A bezprzewodowej sieci systemu netBaltic - DOI:10.15199/59.2017.8-9.8
Krzysztof Bronk Adam Lipka Rafał Niski Błażej Wereszko Krzysztof Żurek 
W ramach realizacji jednego z zadań w projekcie Internet na Bałtyku1) zaplanowano opracowanie mechanizmu oceny jakości łączy międzywęzłowych dla urządzeń znajdujących się w różnych strefach zasięgu systemu. Kwestia stworzenia spójnego algorytmu oceny jakości i stabilności łącza bezprzewodowego jest zagadnieniem dość często spotykanym we współczesnej literaturze przedmiotu [1,2]. Zaproponowany w artykule mechanizm umożliwi wybór właściwego (optymalnego) łącza bezprzewodowego dla danej usługi. Ocena jakości łączy będzie odbywała się na podstawie parametru LQI (Link Quality Indicator). Jego wartość będzie wyznaczana dla każdego systemu dostępnego w danym miejscu i czasie. Opisana koncepcja mechanizmu oceny jakości łączy powstała w wyniku analizy danych zgromadzonych podczas dwóch kampanii pomiarowych realizowanych w ramach projektu na wodach Morza Bałtyckiego. Pierwszą kampanię przeprowadzono w dniach 2-12 września 2015 roku. Miała ona na celu wykonanie badań pomiarowych, obejmujących zarówno badania zasięgowe, jak również jakościowe wybranych systemów oraz tzw. badania zajętości wybranych kanałów radiowych, w warunkach morskich, zgodnie z założeniami projektu netBaltic. W trakcie kampanii zarejestrowano niemal 15 tys. punktów pomiarowych dla sieci LTE oraz ok. 5 tys. punktów dla sieci UMTS przy wykorzystaniu mobilnej platformy pomiarowej, opracowanej w IŁ w Gdańsku [3]. Na podstawie wyników tej kampanii powstały założenia metody wyznaczania LQI oraz pierwsza jej weryfikacja. Drugą kampanię pomiarową przeprowadzono w dniach 1-5 marca 2017 roku. Miała ona na celu pozyskanie bardziej szczegółowych danychpomiarowych dotyczących sieci LTE i UMTS na morzu. Pomiary wykonywano z dużo większą częstotliwością i zebrano ich blisko 30 tys. w przypadku sieci LTE oraz ponad 42 tys. dla sieci UMTS. Na podstawie wyników tej kampanii wprowadzono pewne modyfikacje do zaproponowanej już metody wyznaczania LQI oraz przeprowadzono drugą, ostateczn więcej »

KONCEPCJA ZAPEWNIANIA JAKOŚCI PAY&REQUIRE - BADANIA WYDAJNOŚCI Z ZASTOSOWANIEM SYMULATORA NS3 - DOI:10.15199/59.2017.8-9.27
Dariusz Żelasko Jarosław Koźlak Krzysztof Wajda 
Obserwujemy ciągły i spektakularny rozwój technik sieciowych. Tendencja ta związana jest z postępem dotyczącym sprzętu, oprogramowania czy wykorzystywanych protokołów. Bardzo istotną kwestią stała się jakość usługi transmisji danych przez sieć. Zasada besteffort, zgodnie z którą świadczona jest usługa transmisji informacji bez gwarancji jakościowych jest coraz częściej jest niewystarczająca. Zapewnienie jakości transmisji w selektywny sposób w przypadku sieci wielousługowej jest kluczowym problemem. Klienci wymagają, aby transmisja odbywała się na określonym poziomie. Bardzo często dostawcy usług internetowych pobierają opłaty za maksymalną możliwą do uzyskania przepustowość nie dając przy tym gwarancji, że ten parametr kiedykolwiek zostanie osiągnięty. W związku z tym definiowane są różnego rodzaju mechanizmy, dzięki którym jest możliwe różnicowanie oferowanych usług i zagwarantowanie wymaganych parametrów QoS. Pojęcie QoS (Quality of Service) to ogół mierzalnych parametrów usługi, które mają wpływ na zdolność zrozumienia i zaspokojenia potrzeb użytkownika [1,10,13]. Główne założenie QoS to klasyfikacja i priorytetyzowanie ruchu sieciowego w zależności od strumienia informacji, co umożliwia zagwarantowanie parametrów takich jak np. szybkość transmisji, stały poziom opóźnienia, poziom fluktuacji opóźnienia. Do rezerwacji zasobów może zostać wykorzystany protokół RSVP (z ang. Resource Reservation Protocol) [2,11]. Dzięki niemu możliwe jest zapewnienie określonych parametrów transmisji. RSVP umożliwia rezerwację zasobów w jedną stronę (i rozpoczynając od odbiorcy). W protokole tym zdefiniowano format komunikatów, po wymianie których usługa transmisji danych będzie odbywała się zgodnie z ustalonymi parametrami. Na potrzeby klasyfikacji ruchu sieciowego oraz zapewniania parametrów transmisji takich jak przepływność, opóźnienie, fluktuacja opóźnienia, strata pakietów zdefiniowano architekturę DiffServ [9]. Architektura ta p więcej »

MATEMATYCZNY MODEL IZOLACJI USŁUG W SIECIACH PLASTROWYCH - DOI:10.15199/59.2017.8-9.50
Tomasz Nowak 
Nowoczesne sieci telekomunikacyjne muszą sprostać wielu wymaganiom QoS, które nierzadko przy założonych parametrach i architekturze sieci są ze sobą wzajemnie sprzeczne [1, 8]. W przypadku sieci rozpatrywanych na poziomie operatora (np. sieci 4G, 5G) usługi realizowane za pośrednictwem tej sieci mają różne wymagania QoS, QoE [1, 8]. W niniejszym artykule przedstawiona została koncepcja podejścia do tego problemu, która pozwala realizować usługi z szerokim spektrum wymagań jakościowych, przy jednoczesnym maksymalizowaniu zysku z realizacji usług przy pomocy takiej sieci. 2. SIECI PLASTROWE W klasycznej sieci, należy wymagania na poziom QoS, QoE zbiorczo zaspokoić, co prowadzi do konieczności stworzenia i utrzymania sieci z dużym kosztem CAPEX i OPEX. Sieci plastrowe (ang. Slicing Network) wykorzystują inną koncepcję podejścia do realizacji tych wymagań [7]; obecnie sieci 5G są rozwijane pod kątem implementacji podziału na plastry [9]. Sieć dzielona jest na plastry (ang. slice), które pozwalają realizować wyszczególnione usługi. Przydział usług do konkretnych plastrów możliwy jest na podstawie kilku kryteriów: - kryterium osiągalności - w ramach danej instancji plastra możliwe jest zrealizowanie danej instancji usługi (odpowiednie węzły sieci wymagane do realizacji usługi do niej należą), - kryterium zasobów - w ramach danej instancji plastra istnieją zasoby, które można wykorzystać w celu realizacji usługi, - kryterium jakościowe - w ramach danej instancji plastra realizujemy usługi, które mają zbliżone do siebie wymagania QoS i/lub QoE, aby możliwe było efektywniejsze alokowanie zasobów dla tych usług, - kryterium izolacji - w ramach danej instancji plastra realizujemy instancje usług na jakie zezwalają polityki biznesowe i polityki bezpieczeństwa (klienta usługi, serwera usług, operatora, itd.). Koncepcja, ramowo przedstawiona w [7] zakłada, że plaster w sieci jest pewną abstrakcją, która jest konkretyzowana przy pom więcej »

MECHANIZMY BEZPIECZEŃSTWA TRANSMISJI W SYSTEMIE NETBALTIC - DOI:10.15199/59.2017.8-9.36
Tomasz Gierszewski 
Niniejszy artykuł prezentuje zabezpieczenia zaproponowane na potrzeby transmisji systemu netBaltic [3], [9] projektowanego dla akwenu Morza Bałtyckiego. Funkcjonalność dostarczana przez system netBaltic opiewa na kilka przypadków komunikacji zdefiniowanych w tzw. strefach: A, B oraz C. Pierwsz z nich, tj. strefa A obejmuje łączność bezprzewodową, która z wykorzystaniem pojedynczej techniki komunikacyjnej pozwala uzyskać połączenie z siecią Internet z jednostki pływającej. W strefie B systemu przewidziano wykorzystanie samoorganizującej się, wieloskokowej sieci o strukturze kratowej, pozwalającej znacząco rozszerzyć zasięg łączności sieciowej strefy A. Z kolei strefa C dotyczy komunikacji zgodnej z modelem łączności niewrażliwej na opóźnienia - ang. Delay Tolerant Network, DTN. Ze względu na tak zróżnicowane dostarczane funkcjonalności, a także charakter środowiska, w jakim będą pracowały węzły systemu netBaltic, wymagane są dedykowane rozwiązania bezpieczeństwa. W artykule skupiono się na zabezpieczeniu transmisji w strefach A i B systemu. Prace badawcze ograniczają się tutaj do obszaru bezpieczeństwa teleinformatycznego - bezpieczeństwo fizyczne nie jest przedmiotem rozważań. 2. MECHANIZMY BEZPIECZEŃSTWA TRANSMISJI W STREFACH A I B Z punktu widzenia bezpieczeństwa sposób komunikacji w strefie A jest szczególnym, uproszczonym wariantem komunikacji w strefie B, dlatego proponowane są jednolite mechanizmy dla obu przypadków. Konieczne jest tutaj zabezpieczenie zarówno danych użytkowników systemu, jak i sygnalizacji zapewniającej samoorganizację sieci. Przykładem protokołów podlegających zabezpieczeniu są te odpowiedzialne za routing dynamiczny. Ograniczeniem występującym odgórnie jest charakterystyka samych aplikacji. Zabezpieczenia nie można scedować na warstwy sesji i wyższą (np. za sprawą protokołu TLS) - w aplikacjach znajdują się zastane protokoły nieszyfrowane, które na chwilę obecną nie podlegają wymianie. Zatem, więcej »

METAMODEL SYSTEMÓW ZARZĄDZANIA ZAUFANIEM I REPUTACJĄ - DOI:10.15199/59.2017.8-9.34
Marek Janiszewski 
Systemy zarządzania zaufaniem i reputacją (systemy TRM - ang. Trust and Reputation Management systems) wykorzystują pojęcia zaufania i reputacji zaadaptowane z nauk społecznych. W myśl analogii do społeczeństwa złożonego z obywateli nawiązujących relacje społeczne, system teleinformatyczny (sieć) składa się z wielu autonomicznych agentów (węzłów), mogących nawiązywać interakcje i świadczyć oraz otrzymywać różnorodne usługi (np. przekazywanie pakietów, udostępnianie plików, czy dostarczanie danych - odczytów z sensorów). Relacje społeczne mogą zostać scharakteryzowane m.in. poprzez zaufanie pomiędzy dowolną parą obywateli lub poprzez reputację konkretnego obywatela, jaką uzyskał w społeczności. W systemie teleinformatycznym analogiczne pojęcia zaufania lub reputacji mogą zostać wykorzystane jako miary rzetelności agentów. Podobnie jak w społeczeństwie, w ramach systemu teleinformatycznego miara zaufania do innego agenta może być uzależniona od historii interakcji z tym agentem, ale także od rekomendacji (opinii) innych agentów. Kalkulacja miary zaufania lub reputacji w oparciu o system TRM, umożliwia podjęcie racjonalnej decyzji dotyczącej wyboru partnera interakcji spośród wielu agentów, wśród których mogą znajdować się agenty działający samolubnie lub złośliwie. Wobec tego, zastosowanie systemów TRM pozwala na zredukowanie ryzyka w transakcjach i interakcjach pomiędzy autonomicznymi agentami [1]. System TRM określa sposób obliczania wartości parametrów charakteryzujących innych agentów (takich jak zaufanie lub reputacja) oraz wymiany informacji pomiędzy agentami. Przez zaufanie należy rozumieć relację pomiędzy parą agentów (agentem ufającym i agentem zaufanym), dotycząca określonego kontekstu, będąca miarą oceny węzła ufającego co do rzetelności przyszłego zachowania węzła zaufanego. Reputacja może być utożsamiana z globalną opinią o danym węźle, dotyczącą określonego kontekstu, będącą miarą oceny co do rzetelności pr więcej »

METODA AUTOMATYCZNEGO ROZPOZNAWANIA RADIOWYCH SYSTEMÓW TRANSMISYJNYCH - DOI:10.15199/59.2017.8-9.83
Leszek Nowosielski Bogdan Uljasz 
Współcześnie w określonych aplikacjach wojskowych oraz cywilnych w obszarze rozpoznania radiowego są stosowane urządzenia, które w sposób automatyczny rozpoznają, demodulują oraz dekodują sygnały nadawane przez radiowe systemy transmisyjne, które wykorzystują specyficzne dla nich protokoły transmisyjne. Z punktu widzenia operatora urządzenia do automatycznego rozpoznawania i dekodowania radiowych protokołów transmisyjnych ważne jest, aby urządzenie to w sposób automatyczny rozpoznało parametry cechujące dany protokół. Po właściwym rozpoznaniu zastosowanego systemu transmisji danych urządzenie powinno przejść do procesu dekodowania przekazywanej informacji, zgodnie z regułami specyficznymi dla rozpoznanego protokołu transmisyjnego. Ze względu na tajemnicę firm oferujących na rynku urządzenia automatycznego rozpoznania radiowych systemów transmisyjnych w dostępnej literaturze fachowej brak jest dokładnego opisu stosowanych algorytmów rozpoznawania radiowych protokołów transmisyjnych. W powyższym zakresie dostępne są jedynie opisy techniczne oferowanych na rynku systemów rozpoznawania radiowych protokołów transmisyjnych [1][2], w których można jedynie znaleźć parametry techniczne powyższych systemów oraz ich możliwości operacyjne. W niniejszym artykule opisano szczegółowo autorskie metody automatycznego rozpoznawania protokołów transmisyjnych stosowanych w kanałach radiowych bazujące na cechach dystynktywnych odbieranego sygnału radiowego oraz ciągu binarnego występującego na wyjściu demodulatora odbiornika rozpoznania radiowego. W artykule przedstawiono wnioski dotyczące efektywności pracy prezentowanych metod analizy sygnałów oraz możliwości ich wykorzystania w praktyce. Zaproponowano algorytm rozpoznawania radiowych systemów transmisyjnych składajacy się z trzech etapów: - rozpoznania modulacji, - analizy parametrów technicznych ciągu binarnego na wyjściu demodulatora, - klasyfikacji ciągu binarnego. Dla niektórych a więcej »

METODA POMIARU TŁUMIENIA EMC - DOI:10.15199/59.2017.8-9.97
Leszek Nowosielski Bogdan Uljasz 
Kompatybilność elektromagnetyczna (EMC) to zdolność elektronicznego systemu lub podsystemu do niezawodnego działania w przewidywanym środowisku elektromagnetycznym bez reagowania na zakłócenia elektryczne lub generowania niepożądanego szumu elektrycznego. Zakłócenia elektromagnetyczne (EMI) to zakłócenie działania elektronicznego systemu lub podsystemu poprzez niepożądane zakłócenia elektromagnetyczne. Ogólnie napięcie zasilania sieci publicznej jest sinusoidalne, co oznacza, że zawiera ono jedynie częstotliwość podstawową (50 lub 60 Hz) bez jakichkolwiek harmonicznych. Układy czysto rezystywne nie wprowadzaj do sieci dodatkowych składowych harmonicznych. Natomiast nielinearne odbiorniki energetyczne zmieniają charakterystykę częstotliwościową w sieci energetycznej, pomimo sinusoidalnego źródła napięcie zasilającego. Wszystkie nieliniowe odbiorniki powodują wystąpienie składowych harmonicznych, które są wielokrotnością częstotliwości zasilania. Tradycyjnie zanieczyszczenie harmoniczne dotyczyło tylko dużych instalacji, zwłaszcza w energetyce i dystrybucji oraz w przemyśle ciężkim. Obecne nowoczesne małe urządzenia elektroniczne, które odbierają moce rzędu jednostek, dziesiątek watów, jednofazowe (na przykład komputery osobiste), doprowadziły do powstawania harmonicznych również w sieci energetycznej gospodarstwa domowego. Ma to duży wpływ na działanie tych urządzeń [1]. Kompatybilność elektromagnetyczną urządzeń realizuje się między innymi poprzez ograniczenie emisji zaburzeń elektromagnetycznych (ang. Electromagnetic Interferens - EMI) do pewnego ustalonego poprzez normy poziomu, aby zminimalizować ich negatywny wpływ na sąsiednie urządzenia i systemy elektryczne. Emisje powyższe powodują niewłaściwe działanie sprzętu, dlatego też producenci są zmuszeni przedsięwziąć kroki w celu zmniejszenia zaburzeń i ich wpływu na otaczające środowisko. Najczęściej zabezpieczenia EMC są realizowane poprzez stosowanie filtrów zasilan więcej »

METODA REDUKCJI PRAWDOPODOBIEŃSTWA BLOKOWANIA ŻĄDAŃ W SIECI SZKIELETOWEJ OPARTA O MECHANIZM PROGNOZOWANIA KONFLIKTÓW W ZASOBACH PRZEPUSTOWOŚCI - DOI:10.15199/59.2017.8-9.16
Kanstantsin MYSLITSKI 
Dla doboru tras w sieci teleinformatycznej obecnie stosuje się podejścia znane z teorii grafów. Teoria grafów pozwala przedstawić sieć w postaci grafu (zbioru elementów) G=(V, E), gdzie elementy zbioru V=(v1, v2, … ,v|V|) prezentują węzły sieci, a poprzez elementy zbioru E=(e1, e2, …, e|E|) są prezentowane łącza pomiędzy węzłami. Dla wykrycia trasy o najmniejszym koszcie pomiędzy parą węzłów w sieci najczęściej wykorzystany jest algorytm Dijsktry [1], który wykrywa najkrótszą ścieżkę w grafie od źródłowego wierzchołka do pozostałych wierzchołków grafu (lub po modyfikacji do docelowego wierzchołka). Jednak w sieciach o ograniczonych zasobach zastosowanie najkrótszych tras, jak i decentralizowany dobór tras, nie zawsze jest najlepszym rozwiązaniem [2]. Przykładowo: na Rysunku 1 zaprezentowano scenariusz doboru tras pomiędzy trzema parami węzłów: (vs1,vd1), (vs2, vd2) i (vs3, vd3). Jak widać na rysunku, każda trasa zawiera łącza (vs1, vd1) i jeżeli przepustowość łącza (przykładowo: b(vs1, vd1)=1) wynosi mniej niż sumaryczna przepustowość wymagana dla instalacji trzech tras (na przykład: każde żądanie wymaga 0.8), to taka sytuacja prowadzi do blokowania wymaganych tras. W rozległych sieciach szkieletowych powszechnie stosowany jest dobór tras scentralizowany, który charakteryzuje się obecnością centrum zarządzania ruchem sieciowym. Centrum zarządzania ruchem odbiera zbiór wszystkich żądań instalacji tras w sieci D=(d1, d2, …, d|D|), gdzie każde żądanie dj charakteryzuje się węzłem źródłowym vs(dj), węzłem docelowym vd(dj) oraz wymaganą dla instalacji trasy przepustowością c(dj). Rys. 1. Przykład scenariusza 1. Mając informację o wszystkich żądaniach systemu oraz aktualizując koszty metryki łącz sieci po doborze trasy dla każdego żądania (1) można uzyskać rozkład tras w sieci, który redukuje liczbę blokowanych żądań (rys. 2). c (ei)= f (ei)+ε b(ei) (1) gdzie: f(ei) - część przepustowości łącza ei więcej »

MODEL FOR MEASUREMENT OF FLOW INSTALLATION TIME IN SDN SWITCH - DOI:10.15199/59.2017.8-9.70
Sylwester Kaczmarek Jacek Andrzej Litka 
SDN is a novel approach that decouples the control plane from data forwarding plane [1]. This is achievable by designating a controller, which sole role is to design rules for traffic forwarding [1]. Controllers install forwarding rules into switches allowing them to forward traffic accordingly. The most popular protocol for SDN is OpenFlow [1, 2]. OpenFlow packets transport information between controller and switch about the state of the network and switches [3]. A packet incoming is checked with the flow table. When there is a match, a switch does a specified action on the packet, including: forwarding to a different output, dropping it or changing its contents. In a scenario, when there is no matching flow, the packet is encapsulated into OpenFlow’s “Packet-in" packet and sent to the controller [2]. The controller checks if there is a rule for such a packet, after which it either drops it (in case there is no matching rule) or installs appropriate flow into the switch (by sending “Flow-mod" message) and forwards the packet accordingly (with the “Packet-out" message) [4]. From this we may indicate that an example where there is a number of switches connected to a single controller may be undesirable in case there is a high number of match misses and a number of packets is send to the controller for checkups [5]. Time that installation of the flow may take might have an impact on an overall performance of the network. The number of flows being installed in the switches might become an impactful hindrance. The time of a flow installation must be relatively short, as the significant factor is controller’s time of response. In case the packets do not find a matching flow, they are treated accordingly to a special “table-miss" rule [6]. Usually it is declared to send packets to the controller [6]. However, this does not mitigate situation in which more than one packet with the same require więcej »

MODEL SYSTEMU KOLEJKOWEGO Z RUCHEM ADAPTACYJNYM - DOI:10.15199/59.2017.8-9.68
Sławomir Hanczewski Joanna Weissenberg 
Współczesne sieci teleinformatyczne musza˛ byc´ zdolne do przesyłania ogromnych ilo´sci danych. Zgodnie z raportami [1], [2], w 2020 kaz˙dego miesia˛ca uz˙ytkownicy sieci be˛da˛ generowac´ ruch rze˛du 194 374 EB (1 E exa = 1018). Dla porównania w 2015 było to 72 521 EB miesi˛ecznie. Przesyłanie takiej ilo´sci danych nie jest mo˙zliwe bez odpowiednich pojemnos´ci ła˛czy i we˛złów sieci. Dodatkowo, w w˛ezłach sieci implementuje si˛e dobrane odpowiednio mechanizmy kształtowania ruchu. Dzi˛eki temu mo˙zliwe jest optymalne wykorzystywanie dost˛epnych zasobów sieciowych. Do tych mechanizmów nalez˙a˛ na przykład rezerwacja [3], [4], [5] przelewy [6], [7], [8], kompresja [9], [10], [11], [12], kolejkowanie [13], [14], [15] czy te˙z priorytety [16], [17]. We współczesnych sieciach dominuje ruch pakietowy wykorzystuja˛cy protokół IP (IPv4 i IPv6). Z punktu widzenia sposobu generowania pakietów, ruch sieciowy mo˙zemy podzieli´c na ruch o stałej przepływno´sci CBR (stała, niezmienna szybko´s´c bitowa, np. strumienie generowane przez pojedynczy kodek o stałych parametrach) oraz o zmiennej przepływno´sci (VBR). Strumienie VBR maja˛moz˙liwos´c´ dostosowania chwilowej szybkos´ci transmisji (szybko´sci generowania pakietów) do aktualnego stanu obcia˛z˙enia sieci. W literaturze przedmiotu ruch typu VBR nazywany jest ruchem elastycznym lub adaptacyjnym. Mechanizm kompresji zaczyna działa´c w chwili zaj˛ecia wszystkich dost˛epnych zasobów. Dzi˛eki ograniczeniu przepływno´sci ju˙z obsługiwanych strumieni pakietów, w systemie pojawiaja˛ sie˛ wolne zasoby pozwalaja˛ce na obsług ˛e nowego strumienia. W przypadku, gdy ograniczeniu dost˛epnej przepływno´sci towarzyszy wydłu˙zenie czasu obsługi, mówimy o ruchu elastycznym [9], [18]. Dzi˛eki wydłu˙zeniu czasu obsługi ilo´s´c przesyłanych danych nie ulega zmianie. W przypadku gdy czas obsługi pozostaje bez zmian mamy do czynienie z ruchem adaptacyjnym [9], [18] (zostanie przesłanych mniej danych). Ru więcej »

MODEL WIELOWARSTWOWEJ WSPÓŁPRACY SIECI IP Z ELASTYCZNĄ SIECIĄ OPTYCZNĄ - DOI:10.15199/59.2017.8-9.72
Edyta Biernacka Jerzy Domżał Piotr Jurkiewicz Robert Wójcik 
Wraz z rozwojem aplikacji internetowych wzrasta również zapotrzebowanie na wydajną transmisję danych w sieci. Obecnie transmisja danych w warstwie IP (Internet Protocol) odbywa się wzdłuż ścieżki wyznaczonej przez protokół rutingu, np. OSPF (Open Shortest Path First). Nagły i niespodziewany wzrost ilości przesyłanych danych może doprowadzić do przeciążenia łączy w warstwie IP, a tym samym do pogorszenia jakości transmisji w sieci w postaci zwiększonej liczby odrzuconych zgłoszeń. Aby rozwiązać ten problem, stosowane są mechanizmy przekierowania ruchu ze ścieżek zawierających przeciążone łącza IP na inne ścieżki. Zakładając możliwość wykorzystania zasobów warstwy innej niż IP, np. sieci optycznej, proponowany jest mechanizm przekierowania ruchu i przesłania ścieżkami, których zasoby należą do warstwy optycznej. Przykładowo, w pracach [1], [2] założono model współpracy warstwy IP z warstwą sieci optycznej, która korzysta z techniki WDM (Wavelength Division Multiplexing). Na podstawie obciążenia łączy warstwy IP oraz dostępnych zasobów warstwy optycznej tworzona jest nowa ścieżka dla przekierowanej transmisji danych. Biorąc pod uwagę nową koncepcję elastycznej sieci optycznej EON (Elastic Optical Network), która może zastąpić obecną sieć z techniką WDM [3], należy opracować nowy model wielowarstwowej współpracy sieci dla przesłania ruchu ścieżkami sieci EON. W niniejszym referacie przedstawiono model wielowarstwowej współpracy sieci IP z elastyczną siecią optyczną (model IP/EON). Proponowany model IP/EON zakłada możliwość skorzystania z zasobów warstwy EON dla przekierowanej transmisji danych z warstwy IP, jeśli warstwa IP nie może przyjąć tej transmisji. Oznacza to, że w pierwszej kolejności ruch jest przesyłany przez warstwę IP. W sytuacji kiedy warstwa IP odrzuci zgłoszenie, dla tej transmisji szukane są zasoby warstwy EON. Podobnie jak w pracach [2] i [4] zarządzanie transmisją danych i komunikację pomiędzy warstwami więcej »

MODEL ZMIENNOŚCI PRZEPŁYWNOŚCI BITOWEJ TRANSMISJI W SIECIACH LTE OPARTY O ŁAŃCUCHY MARKOWA - DOI:10.15199/59.2017.8-9.88
Konrad Połys Krzysztof Grochla 
W sieciach komórkowych standardu LTE przepływność bitowa transmisji zależy od tłumienności kanału transmisyjnego i zmienia się w zależności od odległości klienta od stacji bazowej oraz poziomu zakłóceń. Stacja bazowa LTE eNodeB dobiera rodzaj użytej modulacji oraz schemat kodowania (ang. Modulation and Coding Scheme) na podstawie zmierzonych przez terminal parametrów kanału transmisyjnego, takich jak np. wartość miary RSRP (ang. Reference Signal Received Power). Gdy użytkownik sieci się porusza, tłumienność kanału transmisyjnego zmienia się w czasie, a w konsekwencji zmienia się użyta w transmisji modulacja oraz użyte schematy kodowania i przepływność bitowa transmisji danych. Standard LTE [5] definiuje 29 poziomów MCS. Celem niniejszej pracy jest opracowanie modelu analitycznego reprezentującego zmiany modulacji i schematu kodowania MCS użytkowników mobilnych sieci LTE. Na bazie wyników analizy obszarów w zasięgu komórki LTE na których dostępne są poszczególne poziomy MCS opisanych w artykule [1] podjęto próbę stworzenia opisu matematycznego, by móc przedstawić model analityczny czasu przebywania urządzeń w danym obszarze sieci komórkowej. W tym celu w oprogramowaniu PyLTEs [4] utworzony został referencyjny model sieci oparty o dwie stacje bazowe, każda o promieniu działania wynoszącym 1666 metrów i mocy transmisji 40 dBm. Na ob więcej »

Modelowanie i ograniczanie skutków ataków uzurpacji uprawnień w systemach teleinformatycznych wspierających różnicowanie poziomu QoS - DOI:10.15199/59.2017.8-9.7
Jerzy Konorski 
W wieloagentowych systemach teleinformatycznych interakcje między agentami zachodzą w paradygmacie klient-serwer. Klient żąda określonego poziomu jakości usług (Quality of Service, QoS), zaś serwer zapewnia wymagany QoS. Dla odzwierciedlenia działania dzisiejszych złożonych systemów, takich jak systemy chmurowe, wielousługowe sieci pakietowe, portale e-commerce, farmy serwerów, rozproszone bazy danych czy aplikacje on-line, paradygmat ten można wzbogacić o moduły nadawcy i odbiorcy. Klient generuje abstrakcyjne obiekty (np. pakiety, zapytania lub transakcje) różnych klas natywnych. Klasa natywna jest właściwością obiektu uprawniającą do określonego poziomu jakości usług. Nadawca, działając na rzecz klienta, dołącza do każdego obiektu zależną od klasy natywnej informację, nazywaną klasą żądaną (np. nagłówek, flagę lub odpowiednie metadane) i przekazuje obiekt do odbiorcy jako żądanie usług. Odbiorca decyduje o klasie przydzielonej (tj. QoS) dla obiektu, działając na rzecz serwera i ochrony jego zasobów, toteż klasa przydzielona może różnić się od klasy żądanej. Następnie obiekt zostaje przekazany do serwera, który udostępnia QoS zgodnie z klasą przydzieloną. Odbiorca jest więc modelem np. tranzytowego węzła sieciowego z działającym mechanizmem rutingu lub równoważenia obciążenia, procesora czołowego z mechanizmem wykrywania usług itp. Poważnym zagrożeniem dla bezpieczeństwa i wydajności systemów teleinformatycznych są ataki uzurpacji uprawnień określane tu metodą fałszywego VIPa, w których nadawca ustawia wyższą klasę żądaną niż klasa natywna obiektu, by zapewnić klientowi nienależny poziom QoS. Powoduje to jednak nadużycie zasobów serwera. Rozważmy np. sieć pakietową, w której węzeł źródłowy (nadawca) umieszcza znaczniki ruchu strumieniowego (voice/video) w pakietach best-effort generowanych przez lokalną aplikację (klienta). W następstwie tego pakiety uzyskują nienależny priorytet w kolejkach najbliższego węzła tranzytowego więcej »

Modelowanie właściwości korelacyjnych i widmowych sygnałów w warunkach ruchu nadajnika/odbiornika w środowisku miejskim - DOI:10.15199/59.2017.8-9.6
Cezary Ziółkowski Jan M. Kelner 
Zjawiska wielodrogowości propagacji i dyspersji kanałowej oraz skutki ruchu obiektów w istotnym stopniu wpływają na deformacje struktur widmowych i korelacyjnych transmitowanych sygnałów. Stąd też opracowanie optymalnych procedur odbioru sygnałów wymaga znajomości modeli opisujących te zjawiska. Dwuwymiarowy izotropowy model Clarka [1] jest jednym z najbardziej popularnych i szeroko wykorzystywanych modeli opisujących właściwości korelacyjne i widmowe odbieranych sygnałów w środowisku zurbanizowanym. Równomierność rozkładu kąta dotarcia sygnału AOA (Angle Of Arrival) w płaszczyźnie azymutu jest jednym z podstawowych założeń tego modelu. Jego widmo PSD (Power Spectrum Density), zwane widmem Jakesa, ma charakter teoretyczny ze względu na występującą nieograniczoność i brak ciągłości funkcji, która je opisuje. Jednym z najprostszych sposobów eliminacji nieograniczoności wartości PSD jest wykorzystanie tzw. rozszerzonego modelu Clarke’a (ECM) [2]. Innym sposobem modelowania PSD i funkcji korelacji autokorelacji ACF (Autocorrelation Function) jest wykorzystanie przestrzennych (3D) modeli obszarów rozproszeń. Jedne z pierwszych modeli 3D, które stanowiły podstawę do wyznaczenia PSD, wprowadzili Aulin [3], Parsons i Turkmani [4] [5]. Wspólnymi założeniami modeli przedstawionych w cytowanych publikacjach są: przestrzenna ciągłość obszaru występowania rozproszeń oraz równomierność funkcji gęstości prawdopodobieństwa PDF (Probability Density Function) kąta AOA w płaszczyźnie azymutu. Model uwzględniający nierównomierność PDF kąta azymutu odbioru sygnału przedstawiono w [6]. W tym przypadku analityczny opis PSD i ACF uzyskano na podstawie rozkładu von Misesa, jako modelu PDF AOA. Wyniki pomiarów wskazują, że w dziedzinie czasu odbierany sygnał tworzą klastry o zróżnicowanych strukturach widm. Uwzględniając to zjawisko, w przedstawionej w [7] analizie widma wykorzystuje się superpozycję składowych, pochodzących od dyskretnie usyt więcej »

MODELWE˛ZŁA DOSTE˛POWEGO SIECI DWDM - DOI:10.15199/59.2017.8-9.51
Slawomir Hanczewski 
Spadaja˛ce ceny usług oraz coraz wie˛ksza do nich doste ˛pnos´c´ sprawiaja˛, z˙e ilos´c´ danych przesyłanych przez ró˙znego rodzaje sieci z roku na rok gwałtownie ro´snie [1], [2]. Taka sytuacja nie byłaby mo˙zliwa gdyby nie rozwój sieci dost˛epowych, szczególnie tych mobilnych oraz optycznych (FTTx). Ten ogrom danych musi zosta´c przesłany przez sieci szkieletowe. Aby sieci szkieletowe mogły realizowac´ swoje zadania prowadzone sa˛ badania nad zwi˛ekszeniem ich mo˙zliwo´sci zwłaszcza w kontek´scie coraz bardziej popularnych usług czasu rzeczywistego. Prace te prowadzone sa˛ w dwóch kierunkach: po pierwsze zwi˛ekszenie dost˛epnej szybko´sci transmisji poprzez coraz g˛estsze zwielokrotnienie DWDM (ang. Dense Wavelength Division Multiplexing) [3], po drugie wykorzystywanie mechanizmów zarza˛dzania ruchem w celu zapewnienia optymalnego wykorzystanie dost˛epnych zasobów oraz zało˙zonego poziomu jako´sci obsługi. Do tych mechanizmów nalez˙a˛: rezerwacja zasobów [4], [5], kompresja [6], [7], [8], [9], przelewy ruchu [10], [11], [12], priorytety [13], [14] czy te˙z kolejkowanie [15], [16], [17]. Zastosowanie wymienionych mechanizmów b˛edzie efektywne tylko po uprzednim ich sparametryzowaniu (tzn. okres´leniu warunków przy których be˛da˛miały optymalny wpływ na działanie sieci). Podstawia˛ procesu parametryzacji moga˛ byc´ odpowiednie modele analityczne. W literaturze przedmiotu mo˙zna znale´z´c wiele ró˙znych modeli analitycznych systemów telekomunikacyjnych. Ws´ród nich na szczególna˛ uwage˛ zasługuja˛ modele systemów niepełnodost˛epnych. Tym bardziej, ˙ze prowadzone w ostatnich latach badania pokazuja˛, z˙e współczesne systemy telekomunikacyjne posiadaja˛ cechy systemów niepełnodost˛epnych [11], [18], [19]. Systemy niepełnodoste ˛pne charakteryzuja˛ sie˛ tym, z˙e zgłoszenia, które pojawiaja˛ sie˛ na wejs´ciu systemu, moga˛ zajmowa ´c tylko zasoby z okre´slonego zbioru, mniejszego od całkowitej pojemno´sci systemu. Ograniczenia więcej »

NIEROZWIĄZANE PROBLEMY DOTYCZĄCE WIELOMIANÓW NIEPRZYWIEDLNYCH NAD CIAŁEM SKOŃCZONYM GF(2) - DOI:10.15199/59.2017.8-9.35
Andrzej Paszkiewicz 
Wielomiany o współczynnikach z ciała skończonego GF(p), nie dające przedstawić się w postaci iloczynu dwóch wielomianów niższego stopnia niż on sam o współczynnikach z tego samego ciała nazywamy nierozkładalnymi albo nieprzywiedlnym nad GF(p). Znajdują one szerokie zastosowanie w teorii kodowania i kryptografii, przede wszystkim do przyspieszania działań w arytmetyce resztowej wielomianów. W zastosowaniach kryptograficznych z uwagi na udogodnienia wynikające z reprezentacji współczynników wielomianów na pojedynczych bitach wykorzystuje się wielomiany nierozkładalne nad ciałem dwuelementowym GF(2). W przypadku ciał GF(2n), istotny wpływ na efektywność działań arytmetycznych ma dobór właściwego typu wielomianu. Najczęściej wybierane są trójmiany nieprzywiedlne o ile istnieją lub pięciomiany, tzn. wielomiany, które posiadają odpowiednio dokładnie trzy lub dokładnie pięć niezerowych współczynników. Innym typem wielomianów nierozkładalnych są wielomiany najmłodsze leksykograficznie. Arytmetyka modularna generowana przez ten typ wielomianów jest równie efektywna pod względem implementacyjnym jak arytmetyka na bazie trójmianów nierozkładalnych. Wszystkim trzem rodzajom wielomianów autor poświęcił wiele uwagi w poprzednich pracach [1], [2], [4], [5] doprowadzając ich badania w roku 2010 do stopnia 50000. W latach 2010- 2012 korzystając z dwóch laboratoriów Zakładu Podstaw Telekomunikacji Politechniki Warszawskiej w czasie wolnym od zajęć ze studentami badania te zostały doprowadzone dla trójmianów i pięciomianów nad GF(2) do stopnia 100000 i dla wybranych stopni do 300000, natomiast dla wielomianów najmłodszych leksykograficznie do stopnia 132000. Dla wielomianów nieprzywiedlnych, które są najmłodsze leksykograficznie oddzielnie przebadano przedział stopni między 256000 i 257000. Szczególny przypadek trójmianów najmłodszych leksykograficznie postaci oraz +1 zbadano dla wszyst więcej »

OCENA IMPLEMENTACJI SCHEMATU PODZIAŁU STRUMIENIA DANYCH MINIMALIZUJĄCEGO ZUŻYCIE ENERGII W TRANSMISJI Z ZASTOSOWANIEM PROTOKOŁU MPTCP - DOI:10.15199/59.2017.8-9.18
Michał Morawski Przemysław Ignaciuk 
Od momentu powstania protokół TCP nadzoruje większość danych przysyłanych w sieciach komputerowych, również w skali globalnej. Z upływem czasu znacząco ewoluował. Głównym przedmiotem prac nad jego udoskonaleniem było wprowadzenie skutecznych metod reagowania na pojawiające się w sieci zatory. Uzyskiwano w ten sposób poprawę wydajności przy milczącym założeniu, że mechanizmy sieciowe utrzymają ciągłość ścieżki transmisji danych. Rozpowszechnienie mobilnych terminali (telefony, laptopy, urządzenia Internetu Rzeczy) poddało to założenie w wątpliwość. Choć typowa stacja jest obecnie wyposażona w wiele interfejsów sieciowych, tylko jeden z nich (np. Wi-Fi) jest używany do obsługi wszystkich połączeń do chwili ich zerwania w warstwie liniowej. Tak może się stać na przykład w wyniku przemieszczenia stacji poza zasięg punktu dostępowego. Następnie używa się innego interfejsu (np. LTE) i utrzymuje połączenie nawet, gdy jakość transmisji jest niska, a stacja dostała się ponownie w zasięg wydajniejszej sieci Wi-Fi. Aby umożliwić transmisję równocześnie wykorzystującą dostępne interfejsy w stopniu odpowiadającym ich aktualnym możliwościom zaproponowano odmianę protokołu TCP - MPTCP (ang. Multipath TCP) [1, 2, 3]. Dużą zaletą tego rozwiązania jest jego niezależność od specyfiki aplikacji i konfiguracji urządzeń sieciowych. Zmiany są dokonywane tylko w jądrze systemu operacyjnego komunikujących się ze sobą uczestników transmisji. Protokół MPTCP jest ciągle rozwijany. Jednym z kierunków tego rozwoju jest określenie sposobu podziału strumienia danych generowanego przez aplikację na podstrumienie zarządzane przez standardowe wersje TCP - SPTCP (ang. Singlepath TCP). Artykuł przedstawia ocenę implementacji algorytmu podziału (ang. scheduler) zrealizowanego w oparciu o podstawy teoretyczne zaprezentowane w [4]. Wykazano znaczący zysk wynikający ze stosowania opracowanego algorytmu w porównaniu z rozwiązaniami standardowymi. 2. PROBLEM BA więcej »

OCENA JAKOŚCI REALIZACJI USŁUGI MONITORINGU WIDEO Z BEZZAŁOGOWYCH STATKÓW POWIETRZNYCH W ŚRODOWISKU HETEROGENICZNYM - DOI:10.15199/59.2017.8-9.28
Martyna Gref Piotr Łubkowski 
Systemy monitoringu (SM) wideo stanowią połączenie urządzeń rejestrujących (sensorów), przesyłających, przechowujących oraz odtwarzających w jedną integralną całość [2]. Umożliwiają obserwację osób czy obiektów w czasie rzeczywistym oraz rejestrację zdarzeń w celu ich późniejszej analizy. Charakterystyczną cechą tych systemów praca w trybie ciągłym, gdzie stosunkowo krótka przerwa w pracy systemu może prowadzić do znaczącej degradacji jego skuteczności. Elementami złożonych systemów monitoringu i akwizycji danych są coraz częściej BSP stanowiące obecnie jeden z najszybciej rozwijających się środków rozpoznania obrazowego. Rosnąca popularność BSP wynika z ich atrakcyjności technologicznej i finansowej, niskich kosztów (produkcja i eksploatacja), wysokiego poziomu zaawansowania technologicznego i uniwersalności zastosowań. Technologia BSP kojarzona do tej pory raczej z działaniami militarnymi coraz powszechniej wykorzystywana jest do działań w obszarze bezpieczeństwa i porządku publicznego oraz bezpieczeństwa powszechnego [3]. BSP znajdują równie zastosowanie w działaniach poszukiwawczych, ratowniczych i związanych z klęskami żywiołowymi. Ważnym obszarem wykorzystania BSP jest również rolnictwo i ochrona środowiska. Wymagania dla systemów monitoringu wideo są zdefiniowane w dziedzinie ograniczeń funkcjonalnych i jakościowych. Niezwykle ważne jest zapewnienie jakości na poziomie sieci (QoS - Quality of Service), co umożliwia prognozowanie wielkości dostępnego pasma oraz poziomu strat w warstwie sieci. Jednak w przypadku systemów monitoringu wykorzystywanych dla celów bezpieczeństwa publicznego znacznie większe znaczenie ma jakość odbioru treści wideo określana jako QoE (Quality of Experience) [4]. Jakość QoE nie obejmuje, jednakże tylko subiektywnego postrzegania treści wideo, ale także skuteczność realizacji zadanych funkcji. Wymaga zatem precyzyjnego zdefiniowania wskaźników jakości obejmujących wszystkie możliwe zakłócen więcej »

OCZEKIWANA OKRESOWOŚĆ WIADOMOŚCI HELLO W MOBILNEJ SIECI KLASTROWEJ - DOI:10.15199/59.2017.8-9.86
Jarosław Michalak Patrycja Borycka Wojciech Bednarczyk 
W ostatnich latach obserwujemy szereg prac nad rozwojem samoorganizujących się sieci [1], [2]. Zależnie od swoich właściwości i przeznaczenia sieci te nazywane są zwykle sieciami Ad-Hoc, MANET (ang. Mobile Ad-Hoc Network) czy VANET (Vehicular Ad-Hoc Network). Jednym z głównych celów procedury samoorganizacji tego typu sieci hierarchicznej jest zdefiniowanie węzłów funkcyjnych (CH i GW, ang. Cluster Head; GateWay), które będą pełnić dodatkowe funkcje w porównaniu z węzłami zwykłymi (ang. Regular Nodes) [3], [4], [5]. Zdolność do utrzymania struktury sieci zależy głównie od algorytmu klasteryzacji, mobilności węzłów i ich liczności na danym obszarze oraz od świadomości otoczenia węzłów zapewnianej przez okresowe przesyłanie widomości Hello. Świadomość ta może się zmieniać ze zmianą okresowości. 2. DOTYCHCZASOWE ROZWIĄZANIA W literaturze można znaleźć wiele algorytmów klasteryzacji, które działają na podstawie różnych funkcji celu (np. [6], [7], [5], [8]). Interesującym i często powoływanym rozwiązaniem jest wagowy algorytm klasteryzacji (WCA, ang. Weighted Claster Head Election Algorithm) opisany szczegółowo w [5] oraz np. w [9], [10], [11], [12]. Opisane tu podejście pozwala na elekcję węzła nadrzędnego (CH) bazując na ważonych wartościach komponentów sumy (zwykle bierze się pod uwagę dystancje pomiędzy węzłami, gęstość sieci, zużytą energię baterii i mobilność węzłów). Algorytm ten możemy opisać ogólnie ja poniżej: 1. Każdy z węzłów wysyła okresowo wiadomość Hello z informacjami o własnym ID, pozycji geograficznej, prędkości i rezerwach baterii 2. Decyzja czy węzeł może pełnić rolę nadrzędną (CH) podejmowana jest na podstawie wiedzy o: a. Liczbie słyszalnych węzłów (jest ona porównywana z maksymalną liczbą, jaką może obsłużyć komunikacyjnie potencjalny CH). b. Sumy dystansów do słyszalnych węzłów. c. Prędkości własnej węzła. d. Rezerw energetycznych węzła. Jednym z prostszych algorytmów klasteryzacji jest algorytm L więcej »

ODPORNOŚĆ INFORMATYCZNYCH NOŚNIKÓW DANYCH NA NARAŻENIA IMPULSAMI HPEM - DOI:10.15199/59.2017.8-9.37
Rafał Przesmycki Marian Wnuk 
Infrastruktura informatyczna, komputery osobiste oraz nośniki informacji są integralną częścią naszej działalności i życia codziennego. W przypadku używania urządzeń informatycznych w infrastrukturze krytycznej lub dla zachowania bezpieczeństwa teleinformatycznego nie jest dopuszczalne wystąpienie jakichkolwiek zakłóceń w środowisku elektromagnetycznym. W środowisku elektromagnetycznym dużej mocy źródła mikrofalowe stanowią stosunkowo nowy rodzaj zagrożenia zarówno dla systemów wojskowych, jak i cywilnych. Działanie z wykorzystaniem tego rodzaju źródła jest zazwyczaj określane jako celowe zaburzenie elektromagnetyczne. Środowisko promieniowane HPEM (ang. High Power Electromagnetic), które jest z natury szkodliwe, może również występować przy częstotliwościach nawet do kilkuset MHz. Wygenerowanie impulsu elektromagnetycznego o bardzo dużej mocy w kierunku danego układu elektronicznego powoduje, że na układach elektronicznych odkłada się bardzo duże napięcie. Takie zjawisko powoduje uszkodzenie elementów obwodu co czyni urządzenie niezdatnym do dalszego funkcjonowania. W przypadku celowego oddziaływania takim impulsem bardzo istotne jest pod względem jego skuteczności aby wygenerować odpowiednio silny impuls na żądanej częstotliwości. 2. IMPULS ELEKTROMAGNETYCZNY WIELKIEJ MOCY Impuls elektromagnetyczny wielkiej mocy określany jako HPEM jest to impuls o bardzo krótkim czasie trwania (rzędu nanosekund) i o wielkiej mocy (rzędu kilkudziesięciu gigawatów w impulsie). Impulsy HPEM po raz pierwszy zaobserwowane zostały jako efekt uboczny przy wybuchach bomb atomowych, okazało się również, że zasięg takiego promieniowania znacznie przekracza dotychczas wykorzystywane środki rażenia. Obecnie opracowano kilka sposobów generacji impulsów HPEM dzięki wyspecjalizowanym generatorom promieniowania elektromagnetycznego. Działanie destrukcyjne bomby E polega na niszczeniu wszelkich urządzeń elektronicznych opartych na technologii półp więcej »

OPERACJA SPLOTU W RACHUNKU SIECIOWYM - INTERPRETACJA GRAFICZNA - DOI:10.15199/59.2017.8-9.47
Andrzej Borys 
Teoria kolejek, nazywana także teorią obsługi masowej, służy do analizy ruchu w sieciach pakietowych. Obecnie nie jest to jedyne narzędzie wykorzystywane w tym celu. Z pojawieniem się prac R. Cruza [1], [2] możemy mówić o powstaniu tzw. rachunku sieciowego (ang. network calculus) [3] - nowego narzędzia ułatwiającego analizę przepływów pakietów w sieciach telekomunikacyjnych, obliczeń wydajności oraz projektowania urządzeń dla takich sieci. Rachunek sieciowy dla systemów obsługi ruchu telekomunikacyjnego może być uważany, jak to pokazano w pracy [1], za odpowiednik klasycznej teorii systemów (KTS) [4], [5], zajmującej się przetwarzaniem i transmisją sygnałów. Jak wiemy, w tej teorii (a dokładniej, w teorii systemów liniowych) kluczową operacją jest operacja splotu - w postaci całki (systemy analogowe) lub sumy splotowej (systemy cyfrowe). Sygnał wejściowy jest "splatany" - przy użyciu odpowiedzi impulsowej systemu - dając w wyniku sygnał na wyjściu danego systemu. Podobna operacja zwana splotem i oznaczona tutaj symbolem więcej »

OPTIMAL POWER ALLOCATION FOR COGNITIVE LTE-FEMTOCELL NETWORKS BASED ON GAME THEORY - DOI:10.15199/59.2017.8-9.90
Jerzy Martyna 
According to the research study given by ATT [1], 70 percent of data services will take place indoors in the next years. Therefore, it is becoming increasingly important to conduct research into the development of the femtocell network, to increase their capabilities, especially for the transmission of multimedia data, which is characterized by the requirements described by the QoS parameters. Moreover, the provision of high transmission capacity to each femtocell requires good, proven techniques, as evidenced by the research papers [2], [3]. Femtocells are cost-effective, small-coverage networking systems, where a femtocell access point (FAP) or femtocell base station is localised at home or in an office. They are connected to a service provider's internet network. The entire overlaid network is referred as a two-tier femtocell network [2]. To fully exploit the benefits of the two-tier architecture, the problems of resource allocation (power control, rate allocation, etc.) are a big challenge for achieving a significant performance level and minimal electricity consumption. Cognitive femtocells are a promising new technique that allows for even better use of radio resources [5]. They have been studied, among others, by [6], [7], [8]. In the first paper, presented by N. K. Gupta et al. [6] power control and subcarrier allocation for an OFDMA based underlay cognitive radio network was introduced. An admission control and channel allocation algorithm based on particle swarm optimization for cognitive cellular networks has been described by A. Martínez-Vargas et al. [7]. In the paper by S. Saadat et al. [8] a QoS guaranteed resource allocation scheme for cognitive femtocells in LTE networks has been proposed. The interference mitigation in the cognitive radio-based femtocells has been carried out by Kpojime et al. [9]. The main goal of this paper is to introduce a new optimal power allocation scheme in the femtocell network. więcej »

OPTYMALIZACJA WIELOKRYTERIALNA NA POTRZEBY ZINTEGROWANEGO SYSTEMU OBSŁUGI TRASOWANIA W SIECIACH STEROWANYCH PROGRAMOWO (SDNROUTE) - DOI:10.15199/59.2017.8-9.20
Piotr Boryło Piotr Chołda Piotr Jaglarz Mirosław Kantor Wiesław Ludwin Grzegorz Rzym 
Koncepcja sieci centralnie sterowanych programowo SDN zakłada rozdzielenie warstwy sterującej siecią - za pomocą sterownika dysponującego możliwie kompletną informację o jej stanie - od warstwy przełączającej dane. Ponieważ sterownik jest instancją programistyczną, czynności związane ze sterowaniem i zarządzaniem siecią generują mniejsze koszty operacyjne, np. przez łatwiejsze wprowadzanie zmian i redukcję nadmiarowości w sieciach, jak również są w mniejszym stopniu narażone na błędy, bowiem procedury konfiguracyjne są przeprowadzane w sterowniku, a nie we wszystkich węzłach sieci [11]. Identyfikacja strumieni danych w sieciach SDN opiera się na koncepcji przepływów, które mogą być definiowane z dowolną dokładnością, np. w oparciu o źródłowy adres MAC, docelowy adres IP czy też numer portu warstwy transportowej [5]. Moduł optymalizacyjny, zaproponowany w tym artykule, jest przygotowywany pod kątem praktycznego wdrożenia w ramach systemu SDNRoute, którego celem jest wspomaganie decyzji nt. trasowania (rutingu) w sieciach sterowanych programowo (SDN). Taki system jest szczególnie wartościowy w kontekście sieci SDN, które pozwalają na podejmowanie tego rodzaju decyzji w sposób dynamiczny i elastyczny. System powstaje w ramach prac projektu LIDER finansowanego przez Narodowe Centrum Badań i Rozwoju. Zadaniem systemu SDNRoute jest opracowanie z wyprzedzeniem dla nadchodzącego okna czasowego odpowiednich polityk rutingu. Polityki te są przygotowywane na podstawie danych pochodzących z wielu źródeł. W pierwszej kolejności są to dane przekazywane przez sterownik sieci i dotyczą aktualnego stanu sieci. Co więcej, dane historyczne są wykorzystywane do predykcji macierzy ruchu w nadchodzącym oknie czasowym. Dodatkowe informacje napływają od aplikacji sieciowych, np. zarządcy chmury obliczeniowej lub operatora sieci mobilnej. Wszystkie te dane zasilają moduł optymalizatora, którego zadaniem jest przygotowanie polityk rutingu. Poli więcej »

PARAMETRY ANTEN DEFINIOWANE W DZIEDZINIE CZASU - DOI:10.15199/59.2017.8-9.41
Anna Witenberg Maciej Walkowiak 
Powszechna dawniej transmisja wąskopasmowa jest coraz częściej wypierana przez transmisję szerokopasmową, ultra szerokopasmową (UWB). W pewnych zastosowaniach anteny generują pojedyncze impulsy, niekiedy o wielkich energiach. Ten kierunek rozwoju radiokomunikacji wymaga nowego podejścia do użytkowych parametrów anten. Parametry użytkowe służą w pierwszej kolejności do projektowania. Tradycyjne - także normatywne - definicje parametrów antenowych wynikały z tradycyjnych zastosowań anten i są w oczywisty sposób ulokowane w dziedzinie częstotliwości. Częstotliwość robocza lub robocza długość fali zwykle jest zmienną w definicjach parametrów anten. Nic więc dziwnego, że tak określone parametry anteny zależą od częstotliwości. Normatywne parametry i charakterystyki anten są niewystarczające do sprawnego projektowania anten UWB i anten impulsowych. W obu typach zastosowań widmo sygnałów jest zbyt szerokie, aby skutecznie stosować parametry zależne od częstotliwości. Przy powszechnym stosowaniu analizy w dziedzinie czasu, właściwe wydaje się zdefiniowanie nowych parametrów, które nie będą funkcjami częstotliwości i lepiej będą oddawały zachowanie się anten. Jednocześnie, parametry te powinny w możliwie dużym stopniu nawiązywać do dotychczasowej wiedzy i praktyki projektantów. 2. ANTENY WĄSKOPASMOWE Najczęściej pojęcie szerokości pasma ustala się rozważając stosunek szerokości pasma roboczego do środkowej częstotliwości pasma. W dalszych rozważaniach będziemy posługiwać się pojęciem wąskopasmowości w inny, specyficzny sposób. Antenę będziemy uważać za wąskopasmową, jeżeli parametry anteny w paśmie roboczym będą zmieniać się na tyle mało, że będzie można parametry te uznać za stałe w obrębie całego pasma. Jeśli choć jeden z parametrów anteny zmienia się istotnie w obrębie pasma, to antena wąskopasmowa nie jest. Istotną zmianą zaś jest taka, która wymaga uwzględnienia przy projektowaniu. Zwróćmy uwagę, że tak rozumiana wąskopas więcej »

Patentowanie wynalazków wspomaganych komputerowo - analiza aktualnego stanu prawnego - DOI:10.15199/59.2017.8-9.4
Jerzy Domżał 
Dynamiczny rozwój gospodarki kraju jest w dużej mierze zależny od stopnia innowacyjności wytwarzanych produktów, świadczonych usług czy realizowanych procesów przemysłowych. Najbardziej dynamicznie rozwijające się kraje zawdzięczają swój sukces gospodarczy opracowanym i wdrożonym nowym technologiom. Umożliwiają one bowiem uzyskanie przewagi konkurencyjnej przez ich właścicieli. Nowe technologie w rozumieniu art. 2 ust. 1 pkt 9 ustawy z dn. 30 maja 2008 r. o niektórych formach wspierania działalności innowacyjnej mogą mieć postać prawa własności przemysłowej, wyników prac rozwojowych lub przemysłowych lub nieopatentowanej wiedzy technicznej [1]. Nowe rozwiązania mogą być objęte ochroną w ramach jednej z form przewidzianych w ustawie z dnia 30 czerwca 2000 r. Prawo własności przemysłowej [2]. Na mocy wskazanej ustawy na wynalazki udziela się patentu, na wzory użytkowe prawa ochronnego, a na wzory przemysłowe prawa z rejestracji. Dopuszczalne są też inne formy ochrony, np. w formie znaków towarowych czy oznaczeń geograficznych. Różne formy ochrony własności intelektualnej zostały zdefiniowane ze względu na fakt, że nie każde nowe rozwiązanie może być uznane za wynalazek. W wielu przypadkach możliwość ochrony nowych rozwiązań jest ograniczona. W praktyce polskie przedsiębiorstwa najczęściej decydują się na utrzymywanie w tajemnicy wiedzy na temat opracowanych przez nie wynalazków czy innych rozwiązań zapewniających uzyskanie przewagi konkurencyjnej na rynku. Jest to odmienne podejście w stosunku do najbardziej innowacyjnych krajów świata, w których patentowanie wynalazków jest naturalną formą ich ochrony. Jak podano w raporcie [3], w 2016 r. polskie podmioty dokonały 408 zgłoszeń patentowych w Europejskim Urzędzie Patentowym EPO (European Patent Office). W tym samym roku liczba zgłoszeń dokonanych przez podmioty niemieckie wyniosła 25 086. Skuteczna ochrona własności intelektualnej jest czynnikiem warunkującym właściwy rozwój p więcej »

Pola komutacyjne SWS1 nieblokowalne w wąskim sensie dla połączeń elastycznych - DOI:10.15199/59.2017.8-9.10
Grzegorz Danilewicz Michał Michalik Wojciech Kabaciński 
W sieci Internet systematycznie rosną wymagania co do szybkości transmisji oraz ilości przesyłanych danych. Mogą one być zaspokojone przez zwiększanie liczby łączy i węzłów komutacyjnych [1]. Przewidywany roczny wzrost ruchu internetowego, który będzie się zwiększał o ok. 22% oraz obserwowany wzrost ilości przesyłanych danych, przekraczający w ubiegłym roku 1 zettabajt [2], wskazują na to, że wspomniane działania nie będą wystarczające. Należy pracować nad doskonaleniem technik transmisyjnych i komutacyjnych. Elastyczne sieci optyczne są rozwiązaniem w kierunku bardziej efektywnego wykorzystania przepustowości sieci [3, 4]. W sieciach tego typu kanały optyczne mogą mieć różną szerokość spektralną. Można ją dopasować do żądanej w połączeniu szybkości transmisji, odległości, jakości przekazu oraz schematu modulacji. W sieci EON pasmo jest podzielone na małe części o szerokości 12,5 GHz. Każda część została nazwana podstawową szczeliną częstotliwościową FSU. Pasmo przyznane kanałowi optycznemu (lub inaczej ścieżce optycznej, połączeniu optycznemu) rozpościera się na pewną liczbę sąsiednich FSU. Gdy ścieżce optycznej przyznawanych jest m FSU, wtedy pasmo zajmowane przez tę ścieżkę jest równe m x 12,5 GHz i jest nazywane szczeliną częstotliwościową (frequency slot). Połączenie takie jest nazywane połączeniem m-szczelinowym [5, 6]. W [3, 7] przedstawiono zależność odległości i szybkości transmisji od wybranego sposobu modulacji oraz liczby szczelin w pojedynczym połączeniu w sieci EON. Sieci EON wymuszają używanie dopasowanych do nich węzłów komutacyjnych, które mają możliwość przełączania połączeń m-szczelinowych. W [5, 6] autorzy zaproponowali nowe struktury pól typu S-W-S i wyznaczyli dla nich warunki nieblokowalności w wąskim sensie. Pola te wykorzystują komutatory przestrzenne BV-SS oraz komutatory konwertujące długość fali BV-WS.Dokładny opis elementów optycznych, które służą do budowy pól typu S-W-S, można znaleźć w [5]. W a więcej »

POLA KOMUTACYJNE SWS1 NIEBLOKOWALNE WW ˛ ASKIM SENSIE DLA POŁ ˛ ACZE´N ELASTYCZNYCH - DOI:10.15199/59.2017.8-9.67
Grzegorz Danilewicz Michał Michalik Wojciech Kabaciński 
W sieci Internet systematycznie rosna˛ wymagania co do pr˛edko´sci transmisji oraz ilo´sci przesyłanych danych. Wymagania te moga˛ byc´ zaspokojone przez zwie˛kszanie liczby ła˛czy i we˛złów komutacyjnych [1]. Przewidywany roczny wzrost ruchu internetowego, który b˛edzie si˛e zwi˛ekszał o ok. 22% oraz obserwowany wzrost ilo- s´ci przesyłanych danych przekraczaja˛cy w zeszłym roku 1 zettabajt [2], wskazuja˛na to, z˙e wspomniane działania nie be˛da˛wystarczaja˛ce. Nalez˙y pracowac´ nad doskonaleniem technik transmisyjnych i komutacyjnych. Elastyczne sieci optyczne sa˛ rozwia˛zaniem w kierunku bardziej efektywnego wykorzystania przepustowo´sci sieci [3, 4]. W sieciach tego typu, kanały optyczne moga˛ miec´ róz˙na˛ szerokos´c´ spektralna˛, która˛ moz˙na dopasowac´ do z˙a˛danej w poła˛czeniu pre˛dkos´ci transmisji, odległos´ci, jako ´sci przekazu oraz schematu modulacji. W sieci EON pasmo podzielone jest na małe cz˛e´sci o szeroko´sci 12,5 GHz. Kaz˙da cze˛s´c´ została nazwana podstawowa˛ szczelina ˛ cze˛stotliwos´ciowa˛ FSU. Pasmo przyznane kanałowi optycznemu (lub inaczej s´ciez˙ce optycznej, poła˛czeniu optycznemu) rozpos´ciera sie˛ na pewna˛ liczbe˛ sa˛siednich FSU. Gdy ´scie˙zce optycznej przyznawanych jest m FSU wtedy pasmo zajmowane przez t˛e ´scie˙zk˛e jest równe m12;5 GHz i pasmo to nazywane jest szczelina˛ cze˛- stotliwos´ciowa˛ (ang. frequency slot). Poła˛czenie takie nazywane jest poła˛czeniem m-szczelinowym [5, 6].W[3, 7] przedstawiono zale˙zno´s´c odległo´sci i pr˛edko´sci transmisji od wybranego sposobu modulacji oraz liczby szczelin w pojedynczym poła˛czeniu w sieci EON. Sieci EON wymuszaja˛ uz˙ywanie dopasowanych do nich we˛złów komutacyjnych, które maja˛moz˙liwos´c´ przeła ˛czania poła˛czen´ m-szczelinowych. W [5, 6] autorzy zaproponowali nowe struktury pól typu S-W-S i wyznaczyli dla nich warunki nieblokowalnos´ci w wa˛skim sensie. Pola te wykorzystuja˛ komutatory przestrzenne BV-SS oraz komutatory konwertuj więcej »

POMIAR ODPOWIEDZI IMPULSOWEJ KANAŁU RADIOWEGO NA OBSZARZE MORSKIM I PRZYBRZEŻNYM - DOI:10.15199/59.2017.8-9.53
Jędrzej Hajduczenia 
Głównym celem projektu DOB-BIO6/09/5/2014, w ramach którego zrealizowane zostały badania przedstawione w tym artykule, jest zapewnienie możliwości szybkiej transmisji danych z pokładów obiektów, poruszających się ze znaczną prędkością na terenie obszarów morskich RP (w szczególności z samolotów i jednostek pływających) do centrum nadzoru zlokalizowanego na lądzie. Zgodnie z założeniami, warstwa fizyczna projektowanego systemu ma być oparta na technice OFDM (ang. Orthogonal Frquenncy Division Multiplexing) w trybie dupleksu czasowego (ang. TDD - Time-Division Duplex) i wykorzystywać kanał częstotliwościowy o szerokości 10 MHz, skupiony wokół częstotliwości środkowej 1457 MHz. Jednym z podstawowych czynników ograniczających przepływności możliwe do uzyskania w systemach radiokomunikacyjnych tego typu są interferencje międzysymbolowe (ang. ISI - Intersymbol interferences), będące efektem propagacji wielodrogowej. Gdy ta ostatnia występuje, sygnał odebrany przez odbiornik może być traktowany jako splot funkcji reprezentującej sygnał nadawany w dziedzinie czasu i odpowiedzi impulsowej kanału radiowego h(τ) (ang. IR - Impulse Response), modelowanej jako suma N impulsów Diraca o różnych amplitudach, fazach i przesunięciach w dziedzinie czasu [1],[2]: h(τ )=Σ n=1 N β n⋅e jθ n⋅δ (τ -τ n), (1) gdzie: βn - względny poziom tłumienia sygnału n-tej ścieżki propagacji wielodrogowej w modelu prążkowym, θn - przesunięcie (opóźnienie) fazowe n-tej składowej, τn - opóźnienie n-tej składowej, N - liczba składowych propagacji wielodrogowej składających się na dany model dyskretnoczasowy. W przypadku techniki OFDM wpływ interferencji międzysymbolowych można ograniczyć wprowadzając przedziały ochronne (ang. Guard Period) przed każdym nadawanym symbolem OFDM. W czasie Tg trwania takiego przedziału przesyła się przedrostek cykliczny danego symbolu (ang. Cyclic Prefix), czy więcej »

POMIARY EFEKTYWNOŚCI WYKORZYSTANIA PASMA NIELICENCJONOWANEGO W LTE - DOI:10.15199/59.2017.8-9.93
Mateusz Baran Janusz Gozdecki Michał Wągrowski 
Dynamiczny rozwój systemów komórkowych oraz realizowanych za ich pośrednictwem usług, generuje coraz większe zapotrzebowanie na pojemność sieci. Poprawę wydajności radiowych sieci dostępowych w niewielkim już stopniu można uzyskać optymalizując wykorzystywane techniki transmisji i współdzielenia zasobów. Aby sprostać rosnącym wymaganiom przepustowości koniecznym jest rozszerzanie pasma radiowego o kolejne zakresy częstotliwości. Ze względu na niedostatek i wysokie koszty wykorzystania pasm licencjonowanych rozważa się uzupełnienie zasobów radiowych komercyjnych sieci komórkowych o zakresy nielicencjonowane. W ramach 3GPP rozwiązania te zostały włączone w zakres standaryzacji dla Release 12 i 13 pod nazwą LTE-U/LAA (LTE-Unlicensed/ License Assisted Access) [1]. Zakresy częstotliwości pasm ISM (Industrial, Scientific, Medical) były dotychczas wykorzystywane głównie przez lokalne sieci bezprzewodowe WiFi, przeważnie do zastosowań niekomercyjnych. Pojawiają się więc wątpliwości czy wykorzystanie pasm ISM na zbyt dużą skalę przez operatorów komórkowych, nie doprowadzi w efekcie do zmiany ich pierwotnego charakteru na stricte komercyjny. Ponadto, brak regulacji dostępu do tych wybranych zakresów częstotliwości sprawia, że charakter i wielkość interferencji są w nich mocno nieprzewidywalne, co uniemożliwia realizację usług o gwarantowanej jakości. Technika WiFi okazuje się mniej wydajna widmowo od LTE [2], a ze względu na istotę rywalizacyjnego (mechanizmy DCF i EDCA w WiFi) oraz rezerwacyjnego (scentralizowane zarządzanie pasmem przez eNodeB) dostępu do zasobów radiowych, w konfrontacji z LTE sieci WiFi przegrywają. Problem współistnienia tych systemów doczekał się licznych analiz literaturowych [3][4], powstały również praktyczne rozwiązania rozszerzające funkcjonalność algorytmów przydziału zasobów radiowych w stacjach bazowych LTE o techniki redukujące negatywny wpływ LTE na pracę bezprzewodowych sieci lokalnych WLAN. W więcej »

PORÓWNANIE DWÓCH METOD GENERACJI ŚCIEŻEK DLA PROBLEMU WYMIAROWANIA SIECI ODPORNYCH NA AWARIE - DOI:10.15199/59.2017.8-9.52
Ilya Kalesnikau 
Global Rerouting (also known as unrestricted flow reconfiguration or dynamic rerouting [1,6]) is a traffic routing and protection strategy applicable to communication networks with multiple partial link failures. Such a network at any instant of time may change its state described by the currently available capacity of each link. In order to realize all demands and at the same time not to exceed the current link capacities, traffic flows should be appropriately controlled. The optimization problem related to the GR strategy can be formulated as a link-path linear program (LP). Such a LP formulation is non-compact due to an exponential number of possible paths in the network graph, so the path generation (PG) algorithm has to be applied. The PG algorithm is based on iterative adding new paths to the problem. Such paths are obtained by solving the so called pricing problem. It happens that the studied optimization can be as well formulated in the node-link notation. The resulting node-link LP unlike the link-path LP is compact, so there is no need to apply path generation. The reason for considering the link-path LP for GR is that such considerations are important for practical network routing protection strategies (GR is not applicable in practice), like flow thinning (FT) [4] or affine flow thinning (AFT) [5]. Using link-path LP for FT and AFT is unavoidable as the corresponding optimizations problems are NP-hard and hence their compact LP formulations are not known. Moreover, path generation for FT and AFT is technically more complicated and time consuming than for GR. In consequence, it is much easier to analyze various options of the path generation algorithm for GR than for FT and AFT, having in mind that the general conclusions from such analytical studies for GR will be valid for FT and AFT as well. In the presented paper we formulate an appropriate GR optimization problem, and derive and study two different versi więcej »

PORÓWNANIE PARAMETRÓW NADAWCZYCH MOBILNYCH STACJI SATELITARNYCH W FUNKCJI WYBRANEGO TRANSPONDERA SATELITARNEGO - DOI:10.15199/59.2017.8-9.92
Bogdan Uljasz Daniel Jaros Jan Kelner Cezary Ziółkowski 
Standard DVB-S (Digital Video Broadcasting - Satellite) został opracowany jako pierwszy ze standardów DVB. Opisuje go norma EN 300 421[4], przyjęta przez organizację ETSI (Eurpean Telecommunications Standards Institute). Standard przeznaczony jest głównie do świadczenia usług dostarczanych bezpośrednio do domu DTH (Direct To Home), które dostępne są dla użytkowników będących w posiadaniu zintegrowanych odbiorników satelitarnych IRD (Integrated Receiver Decoder). DVB-S zaprojektowany został do pracy w zakresie częstotliwości odbiorczych od 10750 MHz do 12750 MHz i zakłada stosowanie modulacji QPSK (Quaternary Phase Shift Keying). Standard EN 301 210 [2], który odnosi się do DVB-S w zastosowaniach na cyfrowych satelitarnych wozach reporterskich DSNG (Digital Satellite News Gathering), przewiduje zastosowanie modulacji o większych wartościowościach: 8PSK, 16QAM i 32APSK. Możliwe jest to dzięki większym antenom (wozu transmisyjnego i ośrodka telewizyjnego) oraz mocą nadajników. Do przesyłania danych wykorzystywany jest strumień zgodny ze standardem MPEG-2 TS [8]. System DVB-S (S2) najczęściej wykorzystuje transpondery satelitarne o paśmie mieszczącym się w granicach od 26 do 74 MHz. Wozy transmisyjne wykorzystują podczas transmisji mniejsze szerokości pasma. 2. KODY KOREKCYJNE I MIARY JAKOŚCI ŁĄCZA SATELITARNEGO Standard dotyczący wozów reporterskich przewiduje przesyłanie jednego strumienia programowego PS (Program Stream). PS powstaje na skutek multipleksacji danych źródłowych, takich jak video, audio, czy dane (sterujące lub użytkowe). Strumień PS dzielony jest na pakiety transportowe TS (Transport Stream). Pakiety TS poddawane są zabezpieczeniu przed błęda więcej »

POSTKWANTOWE ALGORYTMY ASYMETRYCZNE OPARTE NA TEORII KODOWANIA - DOI:10.15199/59.2017.8-9.31
Artur Janoska 
Kryptografia asymetryczna dostarcza wygodnych mechanizmów umożliwiających realizację w sieci usług związanych z bezpieczeństwem. Należą do nich: poufność korespondencji, usługi niezaprzeczalności, podpisy cyfrowe, elektroniczne uwierzytelnienie, możliwość korzystania z wirtualnych urzędów, itd. Koncepcja szyfrowania asymetrycznego została zaproponowana w 1976 roku przez Martina Hellmana i Withfielda Diffie’ego [4]. Obecnie powszechnie wykorzystuje się systemy oparte na problemach z teorii liczb i geometrii algebraicznej. Są to: RSA, ElGamala i ECC1. Wymienione systemy zapewniają obecnie wymagany w praktyce poziom bezpieczeństwa, jednak istnieje uzasadniona obawa skutecznego ataku ze strony komputera kwantowego. Prace nad jego budową są obecnie bardzo zaawansowane Perspektywa pojawienia się komputera kwantowego, spowodowała, że zaczęto intensywniej poszukiwać nowych pomysłów do konstrukcji asymetrycznych systemów szyfrowych. Inspiracji w tej kwestii dostarczają najczęściej:  teoria krat,  teoria kodowania,  funkcje skrótu,  krzywe eliptyczne (izogenie). 1 Elliptic Curve Cryptography Przedłożony artykuł przybliża zagadnienia związane z zastosowaniem teorii kodowania do konstrukcji asymetrycznych systemów szyfrowych. 2. PODSTAWY TEORETYCZNE Kodowanie korekcyjne jest szeroko wykorzystywane w telekomunikacji do zapewnienia integralności przesyłanej wiadomości. Zastosowanie kodów w znaczący sposób usprawniło i poprawiło jakość przesyłanych informacji poprzez łącza w których występują różnego rodzaju zakłócenia. Najpopularniejszą klasą kodów korekcyjnych, są kody dla których funkcja kodująca jest funkcją liniową. Definicja 1. Kod liniowy -kodem liniowym nad ciałem - nazywamy - wymiarową podprzestrzń -wymiarowej przestrzeni , gdzie i są dodatnimi liczbami całkowitymi ( ) i jest potęgą liczby pierwszej. Liczby i nazywamy odpowiednio długością i rozmiarem kodu. Funkcja kodująca przek więcej »

PRAKTYCZNA IMPLEMENTACJA STEGANOGRAFII W VLC - DOI:10.15199/59.2017.8-9.11
Piotr Januszewski Grzegorz Stępniak Krzysztof Szczypiorski 
1.1. Steganografia Steganografia jest to dziedzina nauki zajmująca się przesyłaniem informacji w sposób ukryty, czyli niedostrzegalny dla osób które w niej nie uczestniczą. W odróżnieniu od kryptografii, w której fakt transmisji jest jawny, steganografia opiera swoje bezpieczeństwo na niewykrywalności. Im większa jest niewykrywalność metody steganograficznej, tym trudniej jest ją wykryć osobom mającym świadomość, że taka transmisja może się odbywać. Tego typu komunikacja może być używana do bezpiecznego przesyłania informacji i zwiększania bezpieczeństwa systemów teleinformatycznych. Jednakże nie zawsze używana jest w pozytywnych celach. Może być wykorzystywana także w negatywnych np. do planowania aktów terrorystycznych takich jak na World Trade Center w 2001 roku [4]. Żeby przeciwdziałać tego typu zastosowaniom, należy dokładnie analizować stare jak i nowe protokoły komunikacyjne, sprawdzając możliwość zastosowania w nich steganografii. Poprzez zwiększanie wiedzy na temat działania różnych metod steganograficznych jesteśmy w stanie opracowywać coraz lepsze metody ich wykrywania. 1.2. Visible Light Communication VLC (ang. Visible Light Communication) jest to termin odnoszący się do wszystkich systemów, w których komunikacja odbywa się za pomocą fal o długości z zakresu od 380 nm do 780 nm. Systemy te powstały jako naturalna odpowiedź na wyczerpywanie się cennego zasobu jakim jest pasmo w zakresie fal radiowych oraz ze względu na stan nielicencjonowanych pasm ISM (ang. Industrial, Scientific, Medical). Kupno niewielkiej części licencjonowanego pasma wiąże się kosztami liczonymi w miliardach złotych, zaś zwiększające się zaszumienie w pasmach ISM, spowodowanie swobodnym dostępem do nich, wpływa niekorzystnie m.in na działanie popularnego systemu Wi-Fi. Wykorzystanie szerokiego spektrum częstotliwości z zakresu fal widzialnych pozwala nam ominąć oba te problemy. W przypadku systemów VLC możemy także wykorzystywać istni więcej »

PRIVACY PRESERVING SOLUTIONS FOR SECAAS SERVICES - DOI:10.15199/59.2017.8-9.58
Tytus Kurek 
Security services used to be outsourced to the cloud for many years [18]. With a rapid growth of the cloud market not only a number of Cloud Service Providers (CSPs) continues to grow, but also new types of cloudbased security services become available. A business model of outsourcing security services to the cloud is referred to as Security-as-a-Service (SecaaS) [15]. Although commonly adopted by organizations of a different size and purpose [3], SecaaS services pose a serious risk of confidential information leakage [10]. This is because in SecaaS model customer’s security policy is outsourced to the CSP and must be visible to a security engine running in the cloud. The security policy, defined as the representation of security standards that apply to all systems within an organization and define the security relationship between it and the outside world [2], contains confidential information about customer’s Information Technology (IT) infrastructure. Depending on the security service being outsourced these information can be a public Internet Protocol (IP) addresses, open Transmission Control Protocol (TCP) and User Datagram Protocol (UDP) ports, vulnerabilities, credentials, etc. In order to resolve the problem described above, privacy preserving solutions for SecaaS services have been proposed over the past years. These solutions aim to continue outsourcing the most computationallyexpensive operations to the cloud while preserving the privacy of customer’s security policy. As a result, customers keep taking the advantage of cloud outsourcing while protecting their confidential information from being stolen by an intruder. This PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK XC - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXXVI - nr 8-9/2017 908 DOI: 10.15199/59.2017.8-9.58 cannot be achieved, however, without redesigning the existing model of hosting SecaaS services. The privacy preserving solutions for SecaaS więcej »

PROJEKT PLANARNEJ ANTENY DWUZEKRESOWJ 1800/2600 MHZ - DOI:10.15199/59.2017.8-9.98
Jarosław Bugaj Marian Wnuk Krystian Łata 
W dzisiejszych czasach komunikacja bezprzewodowa jest wykorzystywana w każdym dziale przemysłowym. Każdy z nas używa urządzeń bezprzewodowych, które wykorzystują technologię GSM (Global System for Mobile Communications) oraz LTE (Long Term Evolution). Pasmo pracy dla technologii LTE zawiera się w przedziale 1710-2690 MHz. Głównym celem tej technologii jest zwiększenie prędkości przesyłania danych, zredukowanie opóźnień oraz szersze wykorzystanie technologii telefonicznej przy użyciu nowoczesnych modulacji oraz technologii do przesyłania danych. LTE pracuje w trybie FDD oraz TDD. Rozległy, szybki i gwałtowny rozwój w systemach łączności i technologii komunikacji bezprzewodowej spowodował, że antena stała się kluczowym elementem urządzenia bezprzewodowego. Zaproponowana antena jest mała, lekka, niewielkiej objętości, o cienkim profilu oraz niewielkich kosztach wytworzenia. Są to cechy charakterystyczne dla anteny planarnej. Obsługuje ona pracę w następujących zakresach częstotliwości: GSM 1.8GHz 1710 - 1880 MHz, LTE 1,8 GHz 1805 MHz - 1880 MHz, 1710 MHz -1785 MHz and LTE 2,6 GHz 2620 MHz 2690 MHz, 2500 MHz - 2570 MHz. Symulacja i analiza pr więcej »

PROJEKTOWANIE FILTRÓW KSZTAŁTUJĄCYCH I ODBIORCZYCH METODĄ DMF - DOI:10.15199/59.2017.8-9.80
Piotr Rabęda Marek Blok 
Współczesne systemy telekomunikacyjne to sieci masowej obsługi o wysokiej pojemności. Stale narastające zapotrzebowanie na świadczenie różnorodnych usług multimedialnych oraz magazynowanie, przetwarzanie i przesyłanie dużych ilości danych wymaga rozwijania coraz bardziej wydajnych metod cyfrowego przetwarzania sygnałów, w szczególności w odniesieniu do cyfrowej transmisji sygnałów. Użyteczne i ograniczone pasmo częstotliwości jest współdzielone przez wielu użytkowników. Naturalne jest więc dążenie, aby filtry stosowane do realizacji transmisji wykazywały zdolność do kształtowania widma nadawanego sygnału, tak aby minimalizować wymagane do transmisji pasmo częstotliwości. Odpowiednie ukształtowanie nadawanych impulsów może mieć również wpływ na redukcję wpływu zjawiska interferencji międzysymbolowych na jakość transmisji. Sygnał nadawany do kanału powinien zatem zajmować jak najwęższe pasmo oraz wykazywać odporność na wpływ interferencji międzysymbolowych. Można to osiągnąć stosując do kształtowania nadawanych impulsów tzw. filtry Nyquista o charakterystyce typu podniesiony cosinus (RC - raised cosine) [3]. 2. METODA DMF Projektowanie filtrów cyfrowych typu FIR jest próbą aproksymacji charakterystyki prototypowego filtru idealnego za pomocą charakterystyki filtru cyfrowego opisanego skończonym zbiorem współczynników jego odpowiedzi impulsowej. Ponieważ taka charakterystyka zawsze w pewnym stopniu odbiega od charakterystyk filtrów idealnych, proces aproksymacji jest związany z błędem rozumianym jako różnica wyniku aproksymacji (charakterystyki zaprojektowanego filtru cyfrowego 𝐻𝑁 (𝜔)) i pierwotnego wzorca (charakterystyki filtru idealnego 𝐻𝑖𝑑𝑒𝑎𝑙 (𝜔)), którą można wyrazić za pomocą zespolonej funkcji błędu aproksymacji charakterystyki częstotliwościowej [5]: 𝐸(𝜔) = 𝐻𝑁(𝜔) - 𝐻𝑖𝑑Ү więcej »

PROJEKTOWANIE FILTRÓW UŁAMKOWOOPÓŹNIAJĄCYCH REPREZENTOWANYCH PRZEZ WSPÓŁCZYNNIKI DYSKRETNEJ CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWEJ - DOI:10.15199/59.2017.8-9.82
Marek Blok 
Reprezentacja sygnałów za pomocą ciągu próbek i stosowanie cyfrowych algorytmów ich przetwarzania znacznie ułatwia realizowanie różnego rodzaju skomplikowanego ich przetwarzania zapewniając jednocześnie jego powtarzalność. Z drugiej strony dyskretyzacja chwil, w których znane są wartości sygnału rodzi problem w realizacji opóźniania tak reprezentowanego sygnału o ułamkową część odstępu próbkowania. Takie opóźnianie wymaga bowiem określenia wartości sygnału w chwilach pomiędzy chwilami, w których był on próbkowany. Rozwiązaniem tego problemu jest użycie filtru ułamkowoopóźniającego (FD - fractional delay) [7] o następującej idealnej charakterystyce częstotliwościowej 𝐻𝑖𝑑 = exp(-𝑗2𝜋𝑓𝜏𝑑 ) (1) gdzie 𝜏𝑑 = 𝐷 + 𝑑 jest opóźnieniem całkowitym wyrażonym w odstępach próbkowania [Sa] składającym się z części całkowitej 𝐷 i ułamkowej 𝑑 ∈ [-0,5; 0,5). Taki idealny filtr ułamkowoopóźniający nie jest realizowalny, ponieważ jego odpowiedź impulsowa jest nieskończona i nieprzyczynowa ℎ𝑖𝑑 [𝑛] = sinc(𝑛 - 𝜏𝑑 ) (2) W efekcie, w praktycznych zastosowaniach wykorzystuje się filtry o skończonej liczbie współczynników, których charakterystyka częstotliwościowa aproksymuje charakterystykę idealną [7]. W tej pracy zajmujemy się filtrami FD definiowanymi poprzez współczynniki pozwalające na określenie ich dyskretnej charakterystyki częstotliwościowej ([2],[3],[4]), która dla 𝑁 parzystego ma postać 𝐻[𝑘] = { 𝑊𝑑 𝑁-2𝑘 (𝑐𝑑 - 𝑗𝑠𝑑 ), 𝑊𝑑 𝑁-2𝑘 (𝑐𝑑 - 𝑗𝛼𝑁 2 -𝑘 𝑠𝑑 ) , 𝐻∗[𝑁 - 𝑘], 0 ≤ 𝑘 ≤ 𝑁 2 - 𝑝 𝑁 2 - 𝑝 < 𝑘 więcej »

PROJEKTOWANIE PRZETWORNIC DO ZASILANIA URZĄDZEŃ TELEKOMUNIKACYJNYCH I RADIOKOMUNIKACYJNYCH Z UWZGLĘDNIENIEM WYMAGAŃ EMC - DOI:10.15199/59.2017.8-9.99
Leszek Kachel 
Postęp technologiczny spowodował, że niemal wszystkie urządzenia telekomunikacyjne i radiokomunikacyjne są zasilane energią elektryczną podlegającą przetwarzaniu. Podstawową ich cechą charakteryzującą jest wysoka sprawność w stosunku do urządzeń dotychczas stosowanych dochodzacą do 95% oraz małymi rozmiarami i masą. Część z tych systemów oparta jest o układy podtrzymujące zasilanie po stronie odbiorczej. Z punktu widzenia energetycznej sieci zasilającej urządzenia te należy traktować, jako odbiorniki o nieliniowej charakterystyce obciążenia. Następstwem stosowania tego typu urządzeń jest postępujący wzrost pogarszania parametrów energii elektrycznej, w tym również wzrost poziomu różnego rodzaju zaburzeń elektromagnetycznych (głównie zaburzeń radioelektrycznych). Przetwornice i UPS-y wytwarzają zaburzenia radioelektryczne, które są wprowadzane do energetycznej sieci zasilania i następstwie są przenoszone poprzez przewody. W celu ich ograniczenia należy stosować filtry zarówno na wejściach i wyjściach przetwornic, jak również na wejściach innych urządzeń zasilanych z tej samej sieci energetycznej. Filtry te mogą spowodować przepływ prądu upływowego w przewodzie ochronnym utrudniając tym samym dobór środków ochrony przeciwporażeniowej. Dotyczy to przede wszystkim wyłączników różnicowoprądowych i systemu połączeń wyrównawczych Podstawowym problemem jest, zatem wybór takiego rozwiązania konstrukcyjnego, które spowoduje generowanie możliwie najniższych poziomów zaburzeń radioelektrycznych. Stosowanie filtrów bezpośrednio na wyjściu urządzeń zasilających powinno być środkiem ostatecznym, jeżeli wszystkie inne zawiodą. Na rynku krajowym występuje wiele firm specjalizujących się w sprzedaży urządzeń zasilających. Nie mniej zachodzi czasami konieczność zbudowania przetwornicy o niestandardowych parametrach. Taka sytuacja może mieć miejsce np. w kolejnictwie, służbie zdrowia, siłach zbrojnych itd. W referacie przedstawiona będzie więcej »

PRZEGLĄD I ANALIZA ŹRÓDEŁ INFORMACJI O POPRAWKACH BEZPIECZEŃSTWA - DOI:10.15199/59.2017.8-9.59
Marek Janiszewski Anna Felkner Jakub Olszak 
Artykuł [1] pokazuje szeroki zakres źródeł informacji o podatnościach, nie analizując jednakże źródeł informacji o poprawkach i aktualizacjach, stworzonych w celu wyeliminowania podatności. Nie analizowano także źródeł podających informacje o podatnościach tylko dla jednego rodzaju oprogramowania. Celem było wyodrębnienie jednego źródła, które będzie w stanie dostarczyć jak najszerszy zakres wiedzy o istniejących podatnościach. Jednakże, gdybyśmy chcieli użyć powyższych informacji w rzeczywistym systemie, co jest celem naszych dalszych działań, okazałoby się, że zakres dostarczanych przez to źródło informacji nie jest wystarczający. Ostatnie nasze badania pokazują, że konieczne jest pozyskiwanie danych z wielu dodatkowych źródeł w celu skutecznego wdrożenia mechanizmów zarządzania oprogramowaniem w kontekście cyberbezpieczeństwa. Istnieje zatem potrzeba korzystania również ze źródeł dostarczanych bezpośrednio przez twórców oprogramowania, jak również niezależnych analityków bezpieczeństwa. Warto podkreślić, że od czasu analizy opisanej w przywoływanym artykule, w wielu analizowanych źródłach zaszły istotne zmiany lub rozszerzenia, co z jednej strony odzwierciedla dynamiczny charakter tych źródeł, jak i całej problematyki nadzoru nad podatnościami, a z drugiej strony wymusza przeprowadzenie ponownej ich analizy w stosunku do niektórych obszarów. W niniejszym artykule dokonano bardziej szczegółowej analizy w celu wskazania źródeł tych informacji, które mogłyby okazać się przydatne dla kompleksowego systemu zarządzania podatnościami. Pomimo, że możliwe jest wyszukanie w Internecie wielu danych w stosunku do konkretnej podatności, czy poprawki bezpieczeństwa, to konieczne jest dokonanie tego przez analityka, a co więcej, nie jest to osiągalne w przypadku każdej podatności. Wobec tego, zaprezentowane przez autorów podejście zakłada analizę tych źródeł, które umożliwiają pozyskiwanie informacji w sposób automatyczny, to znaczy więcej »

PRZEGLĄD METOD I TECHNIK STEGANOGRAFII RADIOWEJ - DOI:10.15199/59.2017.8-9.15
Łukasz Staniak 
Spośród wszystkich znanych metod zabezpieczania informacji przed nieautoryzowanym dostępem, na szczególną uwagę zasługuje steganografia, czyli technika ukrywania informacji (ang. content) w innym przekazie informacyjnym, tzw. nośniku informacji (ang. carrier). Przewagą tej metody, w porównaniu z dobrze znaną kryptografią, jest konieczność stwierdzenia samego faktu istnienia przekazu steganograficznego, co dopiero w dalszej konsekwencji pozwala na podjęcie prób ekstrakcji osadzonej w nośniku informacji (ang. embedded information). Na przestrzeni ostatnich lat obserwowany jest niezwykle prężny rozwój metod steganograficznych, w szczególności jako osadzanie ukrytych przekazów w plikach audio (audio s.) [1], obrazach (image s.), plikach wideo (video s.), pakietach danych (network s.) czy też w przekazach "na żywo", gdzie informacja osadzana jest w bieżącej transmisji audio lub wideo [2] (np. w korespondencji radiowej, rozmowie telefonicznej, sesji wideokonferencyjnej itp.). Szczegółowy przegląd wraz z klasyfikacją tego typu metod zawarto w publikacjach [3] [4]. Na szczególną uwagę, poza metodami wymienionymi powyżej, zasługuje steganografia radiowa (ang. radio steganography), gdzie nośnikiem informacji jest transmisja radiowa - w ogólności transmisja na częstotliwościach fal radiowych RF. Jakość oraz wierność takiej transmisji jest dyktowana warunkami propagacyjnymi w kanale radiowym, które wpływają na końcowe opóźnienie, przesunięcie w fazie, zaniki czy zniekształcenia amplitudowe sygnału rejestrowanego po stronie odbiorczej. Zwykle, tego typu zjawiska są niepożądane, gdyż wpływają na obniżenie jakości odbieranego sygnału, wyrażanej w miarach SNR (ang. Signal to Noise Ratio), BER (ang. Bit Error Rate), opóźnienie (ang. system delay), itp. W przypadku steganografii radiowej, pod pozorem tychże zjawisk możliwe jest dyskretne osadzenie kontentu w taki sposób, aby potencjalny niepożądany odbiorca nie był w stanie jednoznacznie więcej »

PRZEGLĄD TECHNOLOGII STOSOWANYCH W WOJSKOWYCH SYSTEMACH ŁĄCZNOŚCI BEZPRZEWODOWEJ - DOI:10.15199/59.2017.8-9.71
Janusz Mikołajczyk Dariusz Szabra Robert Matyszkiel Bogusław Grochowina 
Powszechna potrzeba realizacji usług szerokopasmowych (np. transmisja obrazu wideo) wymusza wykorzystanie środków łączności będących w stanie, z odpowiednią jakością, ją zapewnić powodując zwiększenie zapotrzebowania na pasmo częstotliwości, które jest zasobem rzadkim i które przy obecnej polityce statycznego przydziału częstotliwości szybko doprowadzi do powstania jego deficytu. Jednym z głównych problemów, który staje przed środowiskami regulatorów i zarządców widma, jest optymalny dynamiczny przydział częstotliwości zapewniający korespondentom sieci radiowych realizację usług z określonym poziomem jakości. Nasycenie urządzeniami emitującymi fale radiowe narasta, powodując przeciążanie widma częstotliwości, a zatem zwiększenie poziomu zakłóceń. Ilustracją tego zjawiska może być prognoza wzrostu wykorzystania fragmentu widma przeznaczonego dla szerokopasmowych systemów mobilnych, opracowana przez narodowego regulatora USA (FCC - Federal Communications Commision), przewidująca w niedalekiej przyszłości wystąpienie znaczącego deficytu widma częstotliwości. Stosowane dotychczas statyczne metody zarządzania i użytkowania widma prowadzą do drastycznie niskiej efektywności jego wykorzystania. Na podstawie pomiarów przeprowadzonych w różnych częściach świata stwierdzono, że w zakresie częstotliwości poniżej 3 GHz średni poziom wykorzystania widma nie przekracza 10% [1]. Spostrzeżenia te stały się przyczyną podjęcia badań z jednej strony nad zwiększeniem efektywności wykorzystania widma poprzez stosowanie tzw. dynamicznego dostępu do niego (ang. Dynamic Spectrum Access - DSA). Innym sposobem rozwiązania tego problemu jest zastosowanie innych alternatywnych środków łączności bezprzewodowych niewymagających przydziału częstotliwości (pracujących w innym zakresie częstotliwości nieobjętym regulacjami zarządcy widma (Wojskowe Biuro Zarządzania Częstotliwościami). Takim sposobem może być np. zastosowanie bezprzewodowej łączności więcej »

PRZESTROJENIA WPOLACH KOMUTACYJNYCH O MAŁEJ POJEMNO´SCI DLA ELASTYCZNYCH SIECI OPTYCZNYCH OBSŁUGUJ ˛ ACYCH KILKA RODZAJÓW POŁ ˛ ACZE - DOI:10.15199/59.2017.8-9.63
Wojciech Kabaciński Remigiusz Rajewski Atyaf Al-Tameemi 
Elastyczne sieci optyczne sa˛ rozszerzeniem dotychczasowych sieci optycznych bazuja˛cych na stałej szeroko- ´sci kanałów optycznych [7, 12, 16]. Chocia˙z ´swiatłowody dostarczaja˛ szerokiego pasma, umoz˙liwiaja˛cego transmisje ˛ danych z bardzo duz˙a˛ szybkos´cia˛, wraz ze wzrostem ruchu internetowego efektywne zarza˛dzanie pasmem, tak- ˙ze w sieciach optycznych, staje si˛e powoli coraz istotniejszym problemem. Problem ten staje si˛e jeszcze bardziej istotny, gdy charakter ruchu w sieci optycznej zmienia si˛e ze statycznego na dynamiczny, czyli gdy ´scie˙zki optyczne sa˛ cze˛sto zestawiane i rozła˛czane. W elastycznych sieciach optycznych pasmo jest przydzielane dla ´scie˙zki optycznej w zale˙zno´sci od wymaga´n u˙zytkownika. Pozwala to na elastyczne i efektywne wykorzystanie widma dost˛epnego w ´swiatłowodach. Pasmo przypisane do kanału optycznego zale˙zy od wymaganej szybko´sci transmisji, odległos´ci, na która˛ maja˛ byc´ przesłane dane, jako´sci ´scie˙zki optycznej, odst˛epu mi˛edzy kanałami, a tak- ˙ze zastosowanej metody modulacji [7, 12, 18, 19]. W celu efektywnego przydzielania pasma, całe spektrum optyczne jest podzielone na wa˛skie szczeliny cze˛stotliwos´ciowe, a kanał optyczny mo˙ze zajmowa´c kilka takich szczelin cz˛estotliwo´sciowych. Szczelina cz˛estotliwo´sciowa jest cz˛esto w literaturze okre´slana skrótem FSU (ang. Frequency Slot Unit). Ogólnie, pasmo przydzielone do jednej ´scie˙zki optycznej mo˙ze zajmowa´cmszczelin cz˛estotliwo- ´sciowych, przy czym istotnym ograniczeniem jest to, ˙ze musza˛ to byc´ sa˛siednie szczeliny cze˛stotliwos´ciowe. Poła ˛czenie zajmuja˛ce m szczelin cze˛stotliwos´ciowych jest nazywane poła˛czeniem m-szczelinowym. Poła˛czenia realizowane w elastycznych sieciach optycznych musza˛ byc´ tak˙ze obsługiwane w w˛ezłach tych sieci. W˛ezły te nazywane sa˛ elastycznymi we˛złami optycznymi ba˛dz´ tez˙, mówia ˛c s´cis´lej o samym polu komutacyjnym takich we˛złów, elastycznymi polami komut więcej »

REDUKCJA LICZBY ZMIENNYCH DO REPREZENTACJI FUNKCJI GENEROWANIA INDEKSÓW - DOI:10.15199/59.2017.8-9.32
Tomasz Mazurkiewicz Tadeusz Łuba 
Jednym z ważniejszych zadań w analizie danych jest zadanie wyodrębniania właściwych danych z ogromnej masy danych niepotrzebnych - w literaturze przedmiotu obejmowane nazwą generatorów adresu. Jest to zagadnienie o ogromnym znaczeniu m.in. w zadaniach dystrybucji adresów IP, skanowaniu wirusów czy konwersji kodów. Jednocześnie zadania te są obarczone wymaganiem częstych aktualizacji. Z tych powodów w realizacjach generatorów adresu stosowane są struktury programowalne i stanowią one wystarczające rozwiązanie dla układów modyfikacji adresu pamięci ROM przechowujących adresy (indeksy) wzorców. Niestety, kolejną barierą ograniczającą syntezę układów generowania indeksów są ogromne wymagania na pojemność pamięci. Pojedynczy adres IPv4 ma 32 bity, natomiast adres MAC - 48. Z tych powodów głównym zadaniem w projektowaniu generatorów adresu są procedury redukcji i kompresji argumentów. Problem redukcji argumentów był intensywnie badany i uzyskano wystarczająco skuteczne rozwiązanie [1], [2], [5], [6]. Niestety sama procedura redukcji argumentów w wielu przypadkach jest niewystarczająca w syntezie generatorów adresu. Typowym przykładem są funkcje koderów m z n, dla których procedury redukcji argumentów zmniejszają wymiar adresu pamięci ROM zaledwie o 1 bit. Dlatego w ostatnich latach pojawiły się propozycje nowych metod syntezy generatorów adresu. Szczególnie intensywnie prowadzone są prace dotyczące tzw. dekompozycji liniowej [7], [10], [12]. Cechą charakterystyczną tych prac jest obliczanie dekompozycji liniowej metodą stosowaną w dekompozycji funkcjonalnej, tzn. za pośrednictwem tablic dekompozycji (decomposition charts) [11]. Naszym zdaniem znacznie skuteczniejsza jest metoda wykorzystująca tzw. zbiór niezgodności, sygnalizowana już w [1], a pierwotnie zaproponowana w [5]. Celem niniejszego artykułu jest dalsze rozwinięcie tej metody oraz wskazanie jej konkurencyjności względem dotychczasowych propozycji. 2. DEKOMPOZYCJA LI więcej »

RESEARCH AND ANALYSIS OF HIGH-SPEED DATA TRANSMISSION RADIO LINK DESIGNED FOR MARITIME ENVIRONMENT - DOI:10.15199/59.2017.8-9.54
Paweł T. Kosz Piotr Rajchowski Krzysztof K. Cwalina Jarosław Sadowski Jacek Stefański 
Realization of point to point high-speed data transmission is an object of interest of public institutions and economic entities which aim to implement, e.g. autonomous and independent monitoring systems. Actually, there is a need to send operational data between executive units, e.g., patrol helicopter and command center. To realize these type of radio link, it is not possible to use commercially available high-speed data transmission radio systems, mainly due to safety rules and too low offered bitrate in radio interface over distance of more than 10 km. Potential users expectations of this type of solutions are much higher. Therefore, there is a need to develop a dedicated solution, which has utility features suitable for implementation in security systems, e.g., protection of maritime state border. In this article, the realization of digital radio link designed for high-speed data transmission for coastal environments using USRP (Universal Software Radio Peripheral) devices, was presented. Types of used digital modulations, methods of their implementation and techniques for receiving digital radio signals using non-synchronized devices, were discussed. In addition, measurement studies of designed radio link in laboratory conditions were also commented. 2. DESCRIPTION OF RADIO LINK CONCEPTION Realization of digital radio link for high-speed data transmission was preceded by determination of the most important design assumptions. The key factor, which determines the types of used digital modulations and time and frequency synchronization mechanisms, is target working environment, i.e., area of the Baltic Sea coastal waters. This fact is connected with the need to immunize a realization of radio transmission against multipath propagation phenomenon (approximated by two-path electromagnetic wave propagation model) and Doppler effect (caused by possible high-speed of movement of the mobile unit, e.g., aircraft) [3, 4]. więcej »

SENSING KOOPERACYJNY SCENTRALIZOWANY VS. LOKALNY W KOGNITYWNYCH SIECIACH RADIOWYCH - DOI:10.15199/59.2017.8-9.91
Paweł Skokowski Krzysztof Malon Jerzy Łopatka 
Monitorowanie widma (ang. Signal Sensing) zostało zdefiniowane jako kluczowa funkcjonalność radia inteligentnego. Wykrywanie "dziur widmowych/białych przestrzeni" (ang. spectrum holes/white spaces) jest istotnym wymaganiem dla radiostacji inteligentnej. Białe przestrzenie odnoszą się do częstotliwości przeznaczonych dla usług transmisyjnych, ale nie używanych lokalnie. Na podstawie wypracowanych rezultatów bloku monitorowania widma skuteczniej można zarządzać zasobami radiowymi (ang. Spectrum Management) w celu przystosowania się do różnych warunków oraz zwiększenia elastyczności w przeskakiwaniu z kanału na kanał bez błędów transmisyjnych.[1][2][3] Elastyczność tej warstwy wymagana jest także do dynamicznego dostosowywania się do planów kodowania, modulacji oraz przepustowości. W skutek poprawnej detekcji dziury widmowej użytkownikowi może zostać przypisane najlepsze dostępne pasmo częstotliwości by sprostać jego wymaganiom komunikacyjnym. Radiostacja inteligentna powinna zdecydować o wyborze najlepszego podpasma w celu zapewnienia jakości usług ze wszystkich dostępnych podpasm oraz zapewnić zgodność z istniejącymi systemami.[4][5] 2. MONITOROWANIE WIDMA W radiostacji inteligentnej blok monitorowania widma (ang. Sensning Block - SB) może detekować dostępne pasmo korzystając z metody poza- lub współpasmowej. W metodzie pozapasmowej radio kognitywne (ang. Cognitive Radio - CR) monitoruje kanały częstotliwościowe, które nie są aktualnie wykorzystywane do pracy. Celem takiego podejścia jest zagwarantowanie sobie alternatywnych kanałów pracy, które mogą zostać wykorzystane w przypadku zakłóceń, interferencji bądź innych czynników uniemożliwiających transmisję na własnym kanale. W przypadku utraty łączności lub pogorszenia się jakości transmisji gwarantującej realizację żądanej usługi (rozpoznane poprzez wzrost FER) radiostacja ma możliwość przejścia na alternatywny kanał pracy. Proces monitorowania pasma może być wykonywa więcej »

SKANER KONFIGURACJI SERWERA WEB - PROJEKT I IMPLEMENTACJA - DOI:10.15199/59.2017.8-9.75
Jakub Olszak 
Analiza rynku bezpieczeństwa IT wykazała, że istnieje mała ilość oprogramowania pozwalającego zautomatyzować czynności związane z bezpieczeństwem. Pod wpływem tego doświadczenia podjęta została decyzja o stworzeniu skanera konfiguracji serwera Web, który jest ogólnodostępnym oprogramowaniem. Projekt został zrealizowany w składzie: Jakub Olszak, Kamil Magryta, Tomasz Motyka. Skaner potrafi wykrywać błędy konfiguracji danego serwera, powiadamiać o nich użytkownika i sugerować sposoby rozwiązania problemów. Należy zaznaczyć, że jest to wczesna wersja projektu, która będzie rozwijana w przyszłości. W ramach wprowadzenia do tematu zostaną przedstawione definicje podstawowych pojęć niezbędnych do zrozumienia treści dokumentu. Aby zrozumieć prezentowany artykuł czytelnik powinien posiadać podstawową wiedzę na temat informatyki. Serwer Web w zwięzłym znaczeniu jest oprogramowaniem, które ‘rozumie’ adresy URL i protokół HTTP. Rola serwera Web polega na udzielaniu przewidzianych przez protokół odpowiedzi na zapytania klienta formułowane przy pomocy protokołu HTTP[4]. Protokół HTTP jest to protokół komunikacyjny służący do przesyłania dokumentów hipertekstowych. Za pomocą protokołu HTTP przesyła się głównie żądania udostępnienia dokumentów WWW. Jest to protokół bezstanowy, tzn. ani serwer, ani klient nie przechowuje informacji o tym, jakie zapytania klient kierował do serwera w przeszłości. Tę bezstanowość można obecnie obejść przy pomocy tzw. ciasteczek[2]. Używane w projekcie metody protokołu HTTP: - GET - pobranie zawartości - POST - wysłanie informacji - PUT - umieszczenie pliku/folderu - DELETE - usunięcie pliku/folderu - HEAD - pobranie samych nagłówków - TRACE - wykonanie echa żądania 2. ANALIZA ISTNIEJĄCYCH ROZWIĄZAŃ Przeanalizowane zostały dwa popularne skanery konfiguracji serwerów HTTP: - Nikto jest najpopularn więcej »

SOCIALSTEGDISC: WYKORZYSTANIE STEGANOGRAFII W SIECIACH SPOŁECZNOŚCIOWYCH DO STWORZENIA SYSTEMU PLIKÓW - DOI:10.15199/59.2017.8-9.14
Jędrzej Bieniasz Krzysztof Szczypiorski 
Coraz więcej scenariuszy gospodarki cyfrowej wymaga uwzględnienia i zastosowania mechanizmów bezpieczeństwa w przechowywaniu, przekształcaniu , czy udostępnianiu wrażliwych danych. Większość systemów komputerowych wykorzystuje masowe pamięci zewnętrzne (tj. niewbudowane bezpośrednio do procesora) do przechowywania danych o różnych rozmiarach. Dostęp i zarządzanie ich fizyczną postacią zapewnia system plików. Masową pamięć zewnętrzną, określaną jako dysk uznaje się za dysk bezpieczny, gdy implementacja fizyczna i software'owa rozpatrywanego dysku realizuje usługi bezpieczeństwa: poufność, autentyczność oraz integralność danych. Jako czwartą, pożądaną cechę bezpiecznych dysków rozpatruje ukrywanie wykonywania podstawowych operacji w systemie plików. Sposobem ukrywania komunikacji z dyskami czy wykonywania operacji dyskowych może być steganografia. Celem steganografii jest ukrycie informacji w nośniku tej informacji w sposób niezauważalny dla obserwatora. Na przestrzeni lat, zastosowania steganografii w pamięci masowej ewoluowały w oddzielną tematykę badań, określane jako File System Steganography. Jako kamień milowy tego obszaru badań należy wskazać pracę Andersona, Needhama i Shamira [1]. Zaproponowali oni steganograficzny system plików pozwalający na zaprzeczenie istnienia całych katalogów plików. W ogólności steganograficzne systemy plików stanowią zastosowanie steganografii, stąd ich rozwój często poprzedza pojawienie się nowych technik steganograficznych. Niniejsza praca jest przykładem takiego sprzężenia. W 2016 roku w pracy [2] zaproponowano nowy rodzaj techniki steganograficznej o nazwie StegHash, W systemie tym materiały multimedialne umieszczone w otwartych internetowych sieciach społecznościowych (ang. OSN - Open Social Networks) stanowią nośnik ukrytych informacji. Istotą systemu jest istnienie logicznego połączenia między nimi za pomocą szeroko stosowanego w OSN mechanizmu hashtagów, czyli znaczników tekstow więcej »

Sposoby realizacji rutingu wielościeżkowego w sieciach opartych na przepływach - DOI:10.15199/59.2017.8-9.2
Jerzy Domżał 
Sieci teleinformatyczne umożliwiają transmisję danych z różną szybkością i jakością obsługi. Wskutek stałego wzrostu ilości transmitowanych danych, konieczne jest ciągłe monitorowanie stanu sieci i dokonywanie interwencji w przypadkach przeciążeń lub uszkodzeń. W małych, lokalnych sieciach przerwy czy spowolnienie transmisji są zwykle w pewnym zakresie akceptowane. Jednak w dużych sieciach operatorskich, obejmujących sieci MAN (Metropolitan Area Networks) czy WAN (Wide Area Networks), jakość i niezawodność transmisji są podstawowymi cechami, które muszą być zapewnione na możliwie najwyższym poziomie. Operatorzy zwykle niechętnie implementują zaawansowane mechanizmy wspierające wysoką jakość transmisji. Bardzo często łącza sieciowe są przewymiarowane. Ich przepustowość jest zwykle znacznie większa, niż wskazywałoby na to średnie zapotrzebowanie na zasoby. Dzięki temu do przeciążeń w dużych sieciach dochodzi zwykle rzadko. Wadą tego rozwiązania jest jednak konieczność utrzymywania przewymiarowanych zasobów, a to bezpośrednio przekłada się na zwiększony koszt obsługi i utrzymania sieci. Podstawowym sposobem wyboru tras w sieciach IP (Internet Protocol) jest korzystanie z protokołu rutingu, który umożliwia automatyczne wyznaczanie ścieżek do miejsc docelowych. Zwykle jednak protokoły rutingu wskazują na pojedynczą trasę pomiędzy dwoma punktami i dane pomiędzy nimi są transmitowane wyznaczoną trasą nawet w sytuacji przeciążenia któregoś z łączy wchodzących w jej skład. W artykule skupiono się na rozwiązaniach rozszerzających tę koncepcję, a więc umożliwiających przesyłanie danych wieloma trasami. Mechanizmy rutingu wielościeżkowego, choć znane od lat, wciąż nie są zbyt popularne w sieciach. Jest to spowodowane głównie problemami związanymi ze skalowalnością znanych rozwiązań, jak i wydajnością urządzeń sieciowych. Problem stanowi również możliwość zaburzenia kolejności pakietów docierających do węzła docelowego. Jest to szczegól więcej »

STABILNOŚĆ POLA CLOSA TYPU SMM Z ALGORYTMEM DSRR - DOI:10.15199/59.2017.8-9.64
Janusz Kleban Jarosław Warczyński 
Sposób łączenia jednosekcyjnych pól (komutatorów matrycowych) w większe struktury, n zywane polami Closa, został zaproponowany przez C. Closa w 1953 roku [1]. W tamtym czasie pola kom tacyjne znajdowały zastosowanie w centralach telef nicznych, gdzie umożliwiały zestawianie połączeń gł sowych między abonentami. Obecnie pola komutacyjne są stosowane w urządzeniach sieciowych przełączniki i routery, gdzie zastąpiły one zbyt wolne magistrale. Pola komutacyjne pozwalają na jednoczesne zestawienie dróg połączeniowych i przesyłanie pakietów między portami wejściowymi i żądanymi portami wy ściowymi. Dzięki możliwości jednoczesnego zestawi nia dróg połączeniowych nawet między wszystkimi portami wejściowymi i wyjściowymi nie następuje sp wolnienie szybkości transmisji pakietów, co było ni uniknione w przypadku stosowania magistral. cyjne pola typu crossbar są stosowane w urządzeniach o średniej pojemności, natomiast w sprzęcie klasy oper torskiej stosuje się pola wielosekcyjne, a nawet wiel . Warszawa, 13- CLOS-NETWORK SWITCH UNDER THE DSRR ALGORITHM ) planowania Round- ). przepola wykorzystaniu erymentów Memory-Memory) of this ) This work ion investigations of planowanie ole algorithms, crossbar ) nami . komudowały telefoliwiały głopola dzeniach sieciowych, takich jak ry, cyjne ściowymi wyj- zestawieniowych mi spowolnienie nieuniknione Jednoseksą operatorskiej wielopłaszczyznowe, gdzie każda płaszczyzna jest polem wielosekcyjnym. W związku z poszukiwaniem nowych rozwiązań dla przełączników/routerów o wielkiej p jemności, pola Closa cieszą się niesłabnącym zainter sowaniem, głównie ze względu na modułową struktu i możliwość łatwego zwiększania pojemności cyjnej pola. Przykładowo, wielopłaszczyznowe pole komut cyjne jest wykorzystywane przez firmę CISCO w rach klasy operatorskiej. Początkowo była to seria GSR (Gigabit Switch Router) 12000, a potem seria CRS ( rier Routing System). Najnowsze routery z tej serii więcej »

STACYJNE I MOBILNE ŹRÓDŁO CZASU I CZĘSTOTLIWOŚCI - DOI:10.15199/59.2017.8-9.66
Łukasz Matuszewski Paweł Kubczak Mieczysław Jessa 
Praca współczesnej sieci teleinformatycznej oraz jej utrzymanie wymagają ciągłego dostarczania sygnałów synchronizacji. Do dystrybucji sygnału synchronizacji wykorzystuje się w większości zegary istniejących urządzeń cyfrowych. Sygnał wzorcowy jest jednak wytwarzany w dedykowanym urządzeniu, nazywanym pierwotnym zegarem odniesienia PRC (ang. Primary Reference Clock) [1]. Istnieje także potrzeba "oczyszczania" z nadmiernych fluktuacji fazy sygnałów synchronizacji wytwarzanych przez zegary istniejących urządzeń, które swoją częstotliwość synchronizują do częstotliwości zegara PRC według metody nadrzędnypodrzędny, nazywanej hierarchicznym master-slave (ang. Hierarchical Master-Slave) [2-4]. Funkcję tę realizują tzw. zegary SSU (ang. Synchronization Supply Unit). Wymagania na zegary PRC, SSU oraz na zegary urządzeń cyfrowych podlegają standaryzacji międzynarodowej. Podstawową wadą metody nadrzędnypodrzędny jest brak alternatywnych dróg dla sygnału synchronizacji od zegara PRC. Ich utworzenie jest kosztowne i nie zabezpiecza sieci przed skutkami awarii zegara PRC i zegarów SSU. Problem ten jest obecnie rozwiązywany na dwa sposoby. Pierwszy polega na wyposażeniu zegarów SSU w wysokiej klasy generatory rubidowe, które zapewniają długoterminowy błąd częstotliwości mniejszy od 10-11, wymagany zaleceniem ITU-T G.811, przez czas niezbędny do usunięcia awarii, np. przez 5 dni. Jest to tzw. praca w podtrzymaniu przy braku sygnału synchronizacji (ang. hold-over) [4]. Koszt takiego rozwiązania to około 50% kosztów zakupu wzorca cezowego średniej klasy. Drugie rozwiązanie polega na zainstalowaniu w węzłach oddzielnych urządzeń, których częstotliwość jest synchronizowana sygnałami satelitarnych systemów nawigacyjnych GPS GLONASS, BeiDou, czy Galileo. Użycie odbiorników wielosystemowych pozwoliło na zmianę sposobu myślenia o synchronizacji sieci. Dotychczas podstawowy sygnał synchronizacji pochodził z sieci telekomunikacyjnej, a sygnał więcej »

STAN BEZPIECZEŃSTWA CERTYFIKATÓW X.509 NAJPOPULARNIEJSZYCH POLSKICH STRON INTERNETOWYCH - DOI:10.15199/59.2017.8-9.61
Piotr Białczak 
Jedną z podstaw bezpiecznej wymiany danych w teraźniejszym Internecie jest wykorzystanie protokołu HTTPS (Hypertext Transfer Protocol Secure). Zapewnia on m.in. tajność wymienianych informacji oraz broni przed ingerencją w treść przesyłanych wiadomości. Używany jest w szerokiej gamie usług i serwisów jak choćby bankowość internetowa, dostęp do portali społecznościowych czy używanie poczty elektronicznej przez stronę internetową. Mimo że dla normalnych użytkowników jest najczęściej przezroczysty jeśli chodzi o interfejs, to w rzeczywistości składa się z wielu technologii takich jak np. protokół TLS (Transport Layer Security), infrastruktura PKI (Public Key Infrastructure) oraz standard X.509. Całość jego działania jest złożonym procesem, a poniższy opis pomija wiele elementów dla jasności prezentacji późniejszych informacji. Na początku wymiany danych w protokole TLS (w typowym scenariuszu) klient wysyła do serwera wiadomość ClientHello, na którą serwer odpowiada wiadomością ServerHello, po której wysyła rekord Certificate zawierający certyfikat danego serwera. Jest to certyfikat X.509 wystawiony przez odpowiedni urząd certyfikacji (Certificate Authority), który potwierdza, że dany klucz publiczny należy do serwera o nazwie domenowej wskazanej w odpowiednim polu certyfikatu.[4] Certyfikat X.509 jest strukturą w języku ASN.1, która wymieniana jest między komputerami w kodowaniu DER. Najważniejszymi elementami certyfikatu są:  nazwa domenowa, dla której wystawiono certyfikat,  okres ważności,  określenie wystawcy certyfikatu,  podpis certyfikatu,  klucz publiczny. Przy wejściu na stronę internetową przeglądarki internetowe dokonują weryfikacji certyfikatu i w razie jakichkolwiek problemów informują o nich użytkownika. Brak ostrzeżeń przeglądarki o zagrożeniach jest ważny dla wielu podmiotów ze względów wizerunkowych i biznesowych. Całkowicie osobnym aspektem, o którym nie wolno zap więcej »

STANDARD STANAG 5066 JAKO ELEMENT WARSTWY TRANSPORTOWEJ DYNAMICZNEJ ARCHITEKTURY SYSTEMÓW TAKTYCZNYCH - TACTICS - DOI:10.15199/59.2017.8-9.19
Dariusz Nogalski Joanna Śliwa Damian Duda 
Potencjalna różnorodność technologii radiowych (VHF, UHF, WiFi, SAT itp.) występująca w ramach jednego systemu łączności taktycznej prowadzi do konieczności stosowania dedykowanych protokołów transportowych dla konkretnych segmentów sieci taktycznej. Architektura TACTICS [1] [2] proponuje wykorzystanie potencjalnie różnych protokołów transportowych w ramach danej transmisji e2e (ang. end to end) w zależności od jakości (QoS) segmentu sieci po którym wiadomość jest przesyłana np. : (a) DTN (ang. Disruption Tolerant Network) np. IBR-DTN, (b) protokół dla komunikacji wąskopasmowej HF np. STANAG 5066 [3], czy (c) protokół UDP dla połączeń bez-sesyjnych. Niniejszy artykuł pokazuje wyniki badań rozwiązania transmisji danych STANAG 5066 w środowisku laboratoryjnym, zapewniającym emulację łączy UHF, VHF i SATCOM oraz przedstawia wybrane wyzwania 1 Praca realizowana w ramach projektu kat. B współfinansowanego przez Europejską Agencję Obrony pk. TACTICS. 2 oprogramowanie RDC 9000 WMS w.3.0 OBR CTM S.A. związane ze stosowaniem różnorodnych mechanizmów transportowych w ramach jednego systemu. 2. ŚRODOWISKO SYMULACYNE 2.1. Środowisko symulacyjne Badania symulacyjne wykonano w zestawie testowym wykorzystującym maszyny wirtualne z oprogramowaniem funkcjonalnym i bazowym STANAG 5066 - Rys.1. Maszyny wirtualne A i B, poprzez zdefiniowane interfejsy sieciowe, dołączone były do fizycznych urządzeń zapewniających emulację łącza radiowego oraz synchronizację ich zegarów systemowych. Jako emulator łącza wykorzystano urządzenie LANforge ICE WAN Emulator. Usługę synchronizacji zapewniał serwer NTP Galleon 6000. Routery Rtr1 i Rtr2 to routery programowe wykorzystujące system OpenBSD. Machine A (virtual) 10.50.10.151 (st: 1.1.1.1) Stanag 5066 SIS Server <> (3) Radio Link Emulator (5b) Stanag 5066 SIS Client <> (2) Application <> (1) Wireshark <> (4) Ethernet (I1) Rtr1 (5a) więcej »

STEGOBW - KANAŁ SKRYTY OPARTY NA PRZEPŁYWNOŚCI W SIECI TELEINFORMATYCZNEJ - DOI:10.15199/59.2017.8-9.13
Krzysztof Sawicki Zbigniew Piotrowski 
Steganografia sieciowa jest popularnym tematem badań w zakresie bezpieczeństwa sieci teleinformatycznych. Badania ukierunkowane są zarówno na poszukiwanie nowych metod steganograficznych jak i na nowe metody przeciwdziałania ich wykorzystaniu. Dane przesyłane kanałami skrytymi (tworzonymi przy pomocy metod steganografii sieciowej) w porównaniu do wszystkich danych przesyłanych w sieci Internet stanowią ich niewielki ułamek. Nie można jednak bagatelizować ich istnienia. To właśnie fakt, że tych danych przesyłanych jest tak mało stanowi największe zagrożenie z punktu widzenia bezpieczeństwa teleinformatycznego - często administratorzy sieciowi oraz specjaliści ds. bezpieczeństwa nie mają świadomości szkód, które może wyrządzić nieautoryzowany wyciek informacji z firmy np. przez skryty kanał. Poszukiwanie nowych kanałów skrytych jest paradoksalnie szansą na to, że osoby odpowiedzialne za bezpieczeństwo w swoich instytucjach, zdobędą świadomość tego zagrożenia oraz zaczną mu przeciwdziałać. 1.1. Powiązane prace Zjawisko kanałów komunikacji skrytej w sieciach teleinformatycznych jest znane już od wielu lat. Jeden z pierwszych i szerokich opisów tego problemu pojawił się już w 1989 roku [1] i przedstawia on ogólny zarys problemu oraz zasady, które nadal są aktualne. W ramach rozwoju badań w tej tematyce pojawiały się kolejne, bardziej skomplikowane mechanizmy umożliwiające skrytą transmisję. Konieczne stało się wprowadzenie klasyfikacji kanałów skrytych. Jednym z możliwych podziałów jest podział na kanały pojemnościowe, kanały czasowe oraz kanały hybrydowe łączące cechy kanałów czasowych i pojemnościowych. Podział ten został zaproponowany w [2]. Najpopularniejszymi kanałami skrytymi są kanały pojemnościowe. Wynika to z ich prostej budowy, a co za tym idzie prostej implementacji. Kanały pojemnościowe w szczególności tworzone są przez modyfikacje nagłówków protokołów sieciowych oraz modyfikacje istniejących pól uzupełnień (p więcej »

SYMULACJA MODYFIKACJI REFLEKTORA GENERATORA HPM DS 110 - DOI:10.15199/59.2017.8-9.40
Marek Bugaj Marian Wnuk Doległo Marcin 
Impulsy elektromagnetyczne HPM DS są promieniowaniem elektromagnetycznym o szerokim widmie stosunkowo niskich częstotliwości (z reguły poniżej 600- 700 MHz), krótkim czasem trwania (rzędu nanosekund) oraz bardzo dużym natężeniu pola (rzędu kilkudziesięciu lub kilkuset kV/m). Wygenerowanie takiego impulsu może spowodować wyłączenie, zakłócenie pracy czy nawet zniszczenie przetwarzanych danych i urządzeń telekomunikacyjnych. Analiza cech pracy źródeł impulsowego promieniowania elektromagnetycznego dużej mocy pozwala stwierdzić, że szczególne zainteresowanie budzi problem oceny progu odporności elektromagnetycznej urządzeń w sytuacji oddziaływania impulsu dużej mocy zakresu mikrofal (High Power Microwave - HPM). Dokładne określenie oddziaływania wymaga specjalistycznych badań i wielu testów, a stosowane ekranowanie i filtracja to ograniczone zabezpieczenie. Szczególnie, że wiązkę promieniowania impulsowego można dowolnie ukierunkować, tj. zbudować źródło, jako urządzenie z energią skierowaną używając odpowiednich reflektorów i anten. Największym zagrożeniem dla urządzeń elektronicznych są elektromagnetyczne impulsy o dużej mocy, które mogą być generowane przy użyciu bomb elektromagnetycznych - generatorów o niewielkich rozmiarach fizycznych. 2. GENERATOR IMPULSÓW HPM Impulsy HPM zostały odkryte jako źródło uboczne, podczas pierwszych wybuchów jądrowych, jednakże dopiero znacznie później pojawił się pomysł włączenia ich do arsenału wyposażenia armii. Uświadomiono sobie, że eksplozja bomby atomowej na znacznej wysokości nad terytorium wroga więcej »

SYMULATOR SIECI RADIA KOGNITYWNEGO (SCORE) - DOI:10.15199/59.2017.8-9.24
Krzysztof Malon Paweł Skokowski Jerzy Łopatka 
Nowadays, in light of dynamic and rapid development of Cognitive Radio (CR) algorithms and methods, including dynamic spectrum access, it is necessary to provide a comprehensive simulation environment, which would enable quick and reliable verification of the proposed solutions. SCORE - Simulator of COgnitive Radio nEtwork was developed to meet these demands. First section of the paper contains an overview of the SCORE solution and a short description of the simulator components. Next section contains example results for a prepared simulation scenario and cognitive solutions. A brief summary at the end of the article presents the conclusions and advantages of developed software. 2. SIMULATOR OVERVIEW SCORE is a convenient tool for building and analysis of radio networks, and works the in Matlab/Simulink environment. The tool is modular, with each module responsible for a different part of simulation. Fig.1 presents general overview of the developed software and simulation flow. Fig. 1. Simulator of Cognitive Radio Network (SCORE) - general overview The SCORE solution consists of the following modules: Scenario Creator (SC), Radio Environment Preparation (REP), Simulation Options (SO), Model Creator (MC) and Re więcej »

SYNCHRONIZACJA ŁĄCZY WIRTUALNYCH ZARZĄDZANYCH METODĄ SZEREGOWANIA OPARTĄ NA CYKLU - DOI:10.15199/59.2017.8-9.69
Maciej Sosnowski Wojciech Burakowski 
Jednym z kluczowych aspektów dla zagadnień związanych z wirtualizacją jest zapewnienie izolacji pomiędzy systemami wirtualnymi, które współdzielą te same zasoby fizyczne. Izolacja ta jest zapewniona jedynie wtedy, kiedy wydajność działania jednego wirtualnego systemu nie zależy od obciążenia ruchowego pozostałych wirtualnych systemów dzielących pomiędzy sobą dany zasób, czyli węzeł sieci i łącza. W artykule skupimy się jedynie na problemach związanych ze współdzieleniem łącza. Łącza wirtualne o żądanej przepływności bitowej zostały ustanowione z zastosowaniem podziału czasowego tak jak to ma miejsce w systemach TDMA (ang. Time Division Maltiplexing Access) Jednym z wyników realizacji projektu "Inżynieria Internetu Przyszłości" [1, 2, 3] było zbudowanie prototypu Systemu IIP charakteryzującego się zastosowaniem podwójnej wirtualizacji infrastruktury sieciowej. System ten umożliwia uruchomienie na jednej infrastrukturze fizycznej kilku równolegle działających systemów wirtualnych, tj. w tym przypadku kilku Równoległych Internetów (RI). Równoległe Internety z założenia, mogą różnić się zarówno rozwiązaniami dla płaszczyzny sterowania jak i rozwiązaniami dla płaszczyzny przekazu danych, w szczególności formatem przekazywanych bloków danych. W Systemie IIP zdefiniowano 3 Równoległe Internety [4]: RI-IPv6 QoS (ang. Internet Protocol Quality of Service), RI-CAN, czyli sieć świadomą przekazywanej treści (ang. Content Aware Network), oraz RI-DSS, czyli sieć oferującą emulację kanałów o stałej szybkości bitowej (ang. Data Streams Switching). W ramach każdego z systemów wirtualnych możliwe jest uruchomienie wielu sieci wirtualnych, co stanowi drugi poziom wirtualizacji. RI 1 RI 2 RI N Łącze wyjściowe Mechanizm szeregowania bazujący na cyklu T1 T2 TN cykl Rys. 1. Tworzenie łączy wirtualnych w Systemie IIP We wspomnianym Systemie IIP zapewniono izolację pomiędzy łączami wirtualnymi przez czasowy podział łącza fizycznego, czy więcej »

TACTICS - ARCHITEKTURA USŁUGOWA DLA SYSTEMÓW TAKTYCZNYCH - WYNIKI PROJEKTU - DOI:10.15199/59.2017.8-9.21
Joanna Śliwa Dariusz Nogalski Kamil Gleba Damian Duda Adam Flizikowski Krzysztof Samp 
Architektura systemu C4I (ang. Command, Control, Communications, Computers and Intelligence) dla działań sieciocentrycznych różni się w znaczący sposób od architektur dotychczas stosowanych. Bazuje ona na rozwiązaniach umożliwiających łączenie |współpracujących domen systemowych oraz współdzielenie informacji i wiedzy o polu walki. Efektywność procesu dowodzenia często zależy od jakości i wiarygodności informacji, na bazie których dowódca podejmuje decyzję oraz od czasu, w jakim jest w stanie te informacje otrzymać. Niezwykle istotne jest więc zastosowanie mechanizmów pozwalających na tworzenie świadomości sytuacyjnej na wszystkich szczeblach dowodzenia oraz zapewniających synchronizację współpracujących jednostek. Architektura tego typu powinna być architekturą otwartą, pozwalającą na interoperacyjność, skalowalną, umożliwiającą efektywną pracę w różnego typu konfiguracjach systemu, zapewniać pełną dostępność źródeł danych, a także rozproszone ich działanie i utrzymanie. Odpowiedzią na te potrzeby oraz wymagania jest zastosowanie architektury zorientowanej usługowo SOA (ang. Service Oriented Architecture). Jest ona architekturą rekomendowaną przez NATO w Studium Wykonalności NEC (NNEC FS [1]), bazującą na modelu Internetu oraz podstawą budowy infrastruktury teleinformatycznej NATO, w tym sieci FMN (ang. Federated Mission Network). Podstawową cechą systemów zbudowanych na bazie SOA jest orientacja usługowa. Wszystkie funkcje systemu, nawet te, które wcześniej były postrzegane, jako część infrastruktury (np. bezpieczeństwo, zapewnienie jakości usług) oraz te, które zazwyczaj należą do dedykowanych aplikacji systemu informatycznego (np. podawanie czasu, kalkulacje, itp.), a także standardowe usługi telekomunikacyjne (np. wideo, głos), widziane są w SOA, jako usługi i udostępniane użytkownikom jako funkcje rozproszone. Podejście to umożliwia tworzenie modułowych systemów, dostosowanych do aktualnych wymagań, wykorzystywa więcej »

USŁUGA TRANSLACJI NAZW DLA APLIKACJI W SIECI TAKTYCZNEJ ZORIENTOWANEJ NA USŁUGI - KONCEPCJA I REALIZACJA - DOI:10.15199/59.2017.8-9.42
Damian Duda Piotr Pyda Andrzej Stańczak 
System nazw domenowych (ang. Domain Name Service, DNS), to złożony system serwerów, protokołów komunikacyjnych oraz usługa, która umożliwia przekształcanie mnemonicznych (łatwych do przyswojenia przez człowieka) nazw urządzeń i usług dołączonych do Internetu na adresy wymagane przez urządzenia sieciowe. Podobne zastosowanie DNS ma miejsce w sieciach * Prezentowane wyniki uzyskane w ramach prac projektu TACTICS EDA B 0980 GP taktycznych IP, gdzie również bardziej praktyczne jest posługiwanie się nazwami niż adresami numerycznymi poszczególnych węzłów. Dostępnych jest wiele implementacji internetowej usługi translacji nazw - zarówno komercyjnych, jak i otwartych (ang. open source). Reprezentatywnymi przykładami są: oprogramowanie BIND (aktualnie w wersji 9), Microsoft DNS, CISCO Network Registrar, Unbound, NSD i wiele innych. Oprogramowanie to zapewnia funkcje zebrane w szeregu dokumentów RFC, mających na celu zapewnienie jednolitego interfejsu dla tej usługi i interoperacyjności między różnymi producentami oprogramowania DNS [6] i powiązane RFC. Zgodność ze specyfikacją IETF może być zarówno zaletą, jak i wadą: w przypadku sieci komercyjnych pozwala na dobór implementacji na podstawie wymagań funkcjonalnych, bez zbytniego przywiązania do producenta danego oprogramowania, a w kontekście sieci taktycznych oznacza mniejszą elastyczność w dostosowaniu danego oprogramowania do indywidualnych potrzeb tego środowiska. W ramach prowadzonego projektu TACTICS wymagania w stosunku do usługi translacji nazw odnosiły się do obsługi mobilności węzłów i wielokrotnego dowiązania do sieci (tzw. multi-homing) oraz dopasowania do architektury zorientowanej na usługi (ang. Service Oriented Architecture, SOA). Z tego też względu została zaproponowana nowa usługa translacji nazw - TACTICS Name Service (TNS), zdefiniowana jako komponent z interfejsem usługi, gotowym do wykorzystania przez pozostałe usługi funkcjonalne w ramach systemu TACTI więcej »

WIELOANTENOWY SENSING WIDMA W SZUMIE IMPULSOWYM I NIEZNANEJ WARIANCJI - DOI:10.15199/59.2017.8-9.95
Krystian Grzesiak 
Systemy kognitywne poszukując dostępnych zasobów widma potrafią wykrywać (dokonywać detekcji) sygnały użytkownika pierwotnego (PU) w zadanym paśmie częstotliwości. Wykrywanie sygnałów wiąże się z problemem odróżniania ich od szumów i zakłóceń. Jest to szczególnie skomplikowane w przypadku sygnałów szerokopasmowych oraz przy małym stosunku energii sygnału do energii szumów i zakłóceń. Wśród stosowanych metod sensingu widma należy przede wszystkim wyróżnić detektory energii, filtry dopasowane oraz detektory cyklostacjonarności. Każda z nich ma swoje zalety i wady. Najbardziej optymalną metodą są odbiorniki oparte na filtrach dopasowanych, ale wymagają one nie tylko pełnej znajomości sygnału PU, ale także pełnej synchronizacji. W przypadku braku współdziałania między PU a użytkownikiem nielicencjonowanym (co ma miejsce w oportunistycznym dostępie do widma) staje się to nierozwiązywalnym problemem. Detektory cyklostacjonarności wymagają znajomości struktury sygnału PU, w tym częstotliwości cyklicznych i są dość wrażliwe na warunki propagacyjne, co może ograniczać ich zastosowanie. Detektor energii, w przeciwieństwie do poprzednich metod, nie wymaga znajomości sygnału PU, ale do podjęcia decyzji wymaga znajomości wariancji szumu (zarówno środowiskowych, jak i układów odbiorczych). Niepewność szumu (noise uncertainty) jest czynnikiem ograniczającym zastosowanie detektorów energii i stąd też próby znalezienia rozwiązań od niego niezależnych. W artykule analizowany jest detektor MME [5]. Jego zasada działania bazuje na teorii macierzy losowych i oparta jest na wartościach własnych macierzy kowariancji. Dobre właściwości detekcyjne, niewielkie wymagania co do parametrów sygnału i szumu czynią z tej metody bardzo popularny kierunek rozwoju. MME można rozpatrywać jako realizację detektora korelacyjnego, w którym wykorzystuje się zależność, że sygnał PU zwykle wykazuje właściwości korelacyjne (funkcja korelacji niezerowa dla nieze więcej »

WIELOŚCIEŻKOWA TRANSMISJA Z WYKORZYSTANIEM MECHANIZMU AGREGACJI PRZEPŁYWÓW W SIECI STEROWANEJ PROGRAMOWO - DOI:10.15199/59.2017.8-9.73
Grzegorz Rzym Piotr Chołda Zbigniew Duliński 
Koncepcja sieci sterowanych programowo (SDN, Software Defined Networks) została pierwotnie zaproponowana dla rozwiązań kampusowych [1], [2]. Wraz z jej rozwojem dostrzeżono szerokie pole zastosowań w sieciach operatorskich, centrach danych i chmurach obliczeniowych. Dodatkowo, elastyczna definicja przepływów implementowana m.in. przez szeroko przyjęty protokół OpenFlow [3], pozwala na uproszczenie zarządzania tego typu sieciami. Jednakże wielkość sieci operatorów, a także sieci centrów danych, uwidoczniły podstawowe problemy związane z ograniczoną wielkością tablic przepływów w dostępnych urządzeniach. Stosowane przez producentów szybkie pamięci TCAM (Ternary Content Addressable Memory) nie pozwalają na obsługę ogromnych tablic przełączania [4], [5], [6]. Proponowany w niniejszym artykule mechanizm rozwiązuje ten problem dzięki redukcji liczby wpisów w tablicach. W przeciwieństwie do tradycyjnie stosowanych protokołów rutingu pakietów, podejście oparte na sterowaniu ruchem przepływów pozwala na równoczesną, wielościeżkową transmisję między tymi samymi węzłami końcowymi (tj. przepływy ulegają tzw. bifurkacji). Ponadto, w klasycznym podejściu niemożliwa jest dynamiczna reakcja na zmiany ruchu (tzw. inżynieria ruchu, TE, traffic engineering), ponieważ próba częstych modyfikacji wartości metryk (powodujących zmiany tras) mogłaby całkowicie zdestabilizować pracę sieci [7]. Standardowo wykorzystywanym protokołem w celu implementacji TE jest wieloprotokołowa komutacja etykietowa MPLS (Mutliprotocol Label Switching) [8], niemniej jednak jest to rozwiązanie statyczne. Proponowany mechanizm wykorzystuje zarówno możliwość dynamicznej modyfikacji metryk jako reakcję na zmiany w obciążeniach łączy, jak również przełączanie oparte na przepływach. Takie przełączanie zapewnia stabilną, tj. używającą tej samej ścieżki (trasy), transmisję pakietów należących do jednego przepływu. Ponadto, dzięki zastosowaniu procedury agregacji przepływ więcej »

WPŁYW STRATY PAKIETÓW I OPÓŹNIENIA E2E NA JAKOŚĆ USŁUGI VOIP - DOI:10.15199/59.2017.8-9.26
Tadeus Uhl Stefan Paulsen Janusz Klink 
Koncepcja VoIP jest znana już od wielu lat, stąd obecnie usługa ta jest dobrze ustandaryzowana (ITU-T H.323 [1], IETF SIP [2]) i obszernie opisana w wielu książkach (patrz·[3-5]). Wielu operatorów sieciowych stosuje obecnie tę technologię w praktyce z dużym sukcesem. Usługa ta funkcjonuje z reguły dobrze, jednakże ze względu na brak zapewnienia 100% transmisji pakietów w platformie IP, nadal problemem jest jej jakość. Użytkownicy końcowi korzystający z klasycznych sieci telefonicznych są przyzwyczajeni do dobrej jakości usługi głosowej i oczekują tego samego w przypadku usługi VoIP. Jak ją zapewnić w sieciach pakietowych? Aby odpowiedzieć na to pytanie, koniecznym jest przeprowadzenie badań mających na celu identyfikację i pomiar podstawowych parametrów QoS dla usługi VoIP. Otrzymane w tego rodzaju badaniach wyniki powinny być dogłębnie przeanalizowane, celem wyciągnięcia wniosków i opracowania zasad dla implementacji usługi VoIP w praktyce. Temu tematowi poświęcona jest niniejsza praca. Najpierw przedstawiona zostanie klasyfikacja metod pomiarowych QoS w sieciach z usługami typu Triple Play. W dalszym punkcie przedstawiona zostanie krótko technika PESQ i pokazane zostanie czy jest ona w stanie uwzględniać wpływ tzw. opóźnienia E2E na jakość oferowanej usługi głosowej w sieci IP. Kolejny punkt przedstawi dwie techniki pomiaru QoS na bazie zarejestrowanych parametrów sieciowych, tzn. E-model i E(IP)-model. Również tutaj zostanie pokazane, czy techniki te są w stanie uwzględniać opóźnienia E2E. Zdobyte w powyższych badaniach wyniki będą przedstawione graficznie oraz zinterpretowane. Pracę zakończy podsumowanie i zarys pól do dalszych badań. 2. KLASYFIKACJA METOD POMIAROWYCH QOS Metody do pomiaru QoS mogą zostać sklasyfikowane na bazie dwóch modeli: a) modelu dwustronnego i b) modelu jednostronnego (patrz Rys. 1, [6]). Model dwustronny wykorzystuje dwa sygnały: a) sygnał referencyjny i b) sygnał testowany. Oba sygna więcej »

WYKORZYSTANIE PROTOKOŁU BLUETOOTH LOW ENERGY DO KOMUNIKACJ I W SIECIACH MOBILNYCH - DOI:10.15199/59.2017.8-9.22
Andrzej Sikora Mateusz Krzysztoń 
Jednym z trendów obserwowanych w ostatnich latach w światowej telekomunikacji jest stały wzrost liczby telefonów komórkowych (tzw. smartfonów) oraz rozwój Internetu Rzeczy (IoT). Urządzenia mobilne mają coraz większe zasoby obliczeniowe, pojemniejsze baterie i bogatszą funkcjonalność oraz wyposażenie (np. czujniki, kamera, moduł lokalizacji). Jednym z elementów tego wyposażenia są interfejsy do komunikacji bezprzewodowej (np. WiFi, Bluetooth). Służą one przeważnie do wymiany danych z urządzeniami peryferyjnymi (np. słuchawkami, zestawem głośnomówiącym, itp.) lub innymi telefonami i komputerami. Pozwalają także na integrację telefonów komórkowych z elementami infrastruktury IoT. Jednym ze znanych ograniczeń tego typu rozwiązań są zasoby energetyczne urządzeń. W celu zmniejszenia zużycia energii zaproponowano protokół komunikacyjny Bluetooth Low Energy (BLE), który jest częścią standardu Bluetooth od wersji 4.0 [1]. Najczęstsze zastosowania protokołu BLE to komunikacja krótkiego zasięgu typu P2P, sieci IoT oraz rozwiązania z wykorzystaniem tanich urządzeń rozgłaszających (ang. beacon). Obszary, w których sieci BLE mogą znaleźć swoje zastosowanie, to również budowa sieci ad hoc i komunikacja lokalna w sieciach mobilnych. Powstały pierwsze implementacje i wdrożenia sieci ad hoc opartych na protokole BLE [2,3]. Istotnym obszarem badań są aktualnie również sieci bezprzewodowe typu SPANs (Smart Phone Ad hoc Networks). Sieci tego typu budowane są z przenośnych urządzeń wykorzystujących komunikację WiFi lub Bluetooth działającą w trybie ad-hoc (np. smartfonów, tabletów, itp.). Podstawowymi zaletami sieci SPAN jest niezależność od operatora sieci komórkowej (np. istotna na terenach z ograniczonym zasięgiem, w przypadku awarii lub blokady komunikacji) oraz niezależność od posiadanego planu taryfowego - komunikacja w trybie ad-hoc jest bezpłatna. Pojawiające się pierwsze zastosowania sieci tego typu obejmowały działania na obszarac więcej »

WYKRYWANIE SPAMU NA PODSTAWIE IMPLEMENTACJI SMTP - DOI:10.15199/59.2017.8-9.44
Piotr Bazydło Adam Kozakiewicz 
Poczta elektroniczna jest jedną z kluczowych usług występujących w internecie. W dzisiejszych czasach jest ona niezbędna do prawidłowego funkcjonowania wielu firm czy urzędów oraz powszechnie wykorzystywana w celach prywatnych. Jako że liczba użytkowników tego kanału komunikacji jest bardzo duża (w tym duża liczba użytkowników nieświadomych niebezpieczeństw czyhających w internecie), jest on powszechnie wykorzystywany do nielegalnych bądź złośliwych aktywności. Spam, czyli niepożądana wiadomość elektroniczna (email), jest często wykorzystywana do propagowania złośliwych załączników (np. wirusy, ransomware lub trojany) lub tzw. kampanii "phishingowych", których celem jest wyłudzenie od użytkownika pewnych poufnych danych, np. hasła do bankowości elektronicznej. Według badań, spam stanowi ponad połowę wszystkich wysyłanych emaili [1]. Jest on więc też odpowiedzialny za chociażby zapychanie pasma lub przestrzeni dyskowej na serwerach pocztowych. Pierwszym podejściem do filtrowania spamu było analizowanie nagłówków wiadomości oraz pól przeznaczonych do identyfikacji nadawcy [2]. Jako że spam pochodził zazwyczaj ze źle skonfigurowanych bądź przejętych serwerów pocztowych, filtracja była prosta przy użyciu tzw. "blacklist" - list niezaufanych nadawców. Jako że spam jest nie tylko wektorem rozprzestrzeniania złośliwego oprogramowania, ale również źródłem dochodów (dobrze poprowadzona kampania spamu może przynieść dochody od 400000 $ do 1000000$ [8]), powstały zdecydowanie bardziej zaawansowane techniki rozsyłania niepożądanych wiadomości. Główną z nich są botnety, które poza aktywnościami jak ataki DoS czy kopanie bitcoinów są w stanie rozsyłać wiadomości pocztowe posługując się przy tym komputerem ofiary (spambot). Botnet składający się z kilku bądź kilkunastu tysięcy zainfekowanych maszyn jest w stanie zapewnić bardzo efektywną infrastrukturę do rozsyłania wiadomości email [3, 5]. Jako że spam otrzymywany jest z ogromnej więcej »

WYNIKI BADAŃ POLSKIEJ RADIOSTACJA POLA WALKI IMPLEMENTUJĄCEJ WAVEFORM SZEROKOPASMOWY - DOI:10.15199/59.2017.8-9.89
Robert Matyszkiel Paweł Kaniewski Robert Tomasik Rafał Polak 
Współczesne systemy kierowania i dowodzenia w celu zapewnienia prawidłowej pracy wymagają użycia systemów łączności radiowej będących w stanie realizować usługi szerokopasmowe (np. transmisja obrazu wideo w czasie rzeczywistym). Systemy takie oprócz niewątpliwych zalet wynikających z wykorzystania radiostacji szerokopasmowych (większa przepływność kanału) posiadają również wady, do których możemy zaliczyć mniejszy zasięg działania w porównaniu do systemów bazujących na radiostacjach wąskopasmowych oraz mniejszą odporność na zakłócenia celowe (z uwagi na pracę w szerokim kanale i zwiększoną podatność na wykrycie i zakłócenie) [1]. W artykule zostanie przedstawiony aktualny stan prac nad powstaniem wojskowego waveformu szerokopasmowego pozwalającego na zapewnienie koalicyjnej pracy między radiostacjami dostarczanymi przez różnych producentów (obszary trudne do standaryzacji). W dalszej części artykułu zostaną przedstawione wyniki badań zasięgowych wybranej radiostacji szerokopasmowej polskiego producenta. Dzięki zastosowaniu zaawansowanego waveformu szerokopasmowego możliwe było w czasie rzeczywistym ocenić stan kanałów pracy radiostacji (SNR, RSNR) i wybranie kanału o aktualnie najlepszych parametrach pracy. Otrzymane wyniki przeprowadzonych testów pokazują na potencjalną możliwość wykorzystania tej radiostacji, jako radiostacji szerokopasmowej w systemach klasy BMS. 2. AKTUALNY STAN PRAC NAD WAVEFORMEM SZEROKOPASMOWYM Nowoczesny, horyzontalny sprzęt radiowy dla zastosowań taktycznych może, w zależności od obszaru zastosowania, implementować następujące rodzaje waveformu: PRZEGLĄD TELEKOMUNIKACYJNY - ROCZNIK XC - WIADOMOŚCI TELEKOMUNIKACYJNE - ROCZNIK LXXXVI - nr 8-9/2017 1063 DOI: 10.15199/59.2017.8-9.89 1. Wąskopasmowy (ang. Narrow Band Waveform - NBWF), pracujący obecnie w zakresie od 30 do 512 MHz, wykorzystujący kanały radiowe o dotychczasowej szerokości 25 kHz (z możliwością wykorzystania dwóch kanałów sąsiednic więcej »

WYZNACZANIE WYBRANYCH PARAMETRÓW KANAŁU RADIOWEGO W PAŚMIE ISM 2,4 GHZ - DOI:10.15199/59.2017.8-9.94
Ryszard Studański 
Znajomość właściwości kanału radiowego jest niezwykle istotna przy konstruowaniu systemów telekomunikacyjnych. Propagacja sygnału w środowisku miejskim powoduje, że do odbiornika dociera różnymi drogami wiele replik nadanego sygnału. Wywołuje to interferencje międzysymbolowe tym istotniejsze im rozproszenie opóźnień poszczególnych replik jest większe a ich poziomy energetyczne są porównywalne. Jak przedstawiono między innymi w [1, 2, 3, 6] stosunkowo łatwo można wyznaczyć estymatę odpowiedzi impulsowej kanału. Do podstawowych parametrów kanału radiowego należą: czas pamięci kanału Tm, pasmo koherencji Bcoh, przesuniecie częstotliwości DfD wywołane dynamiczną zmianą drogi sygnału między odbiornikiem a nadajnikiem, czas koherencji Tcoh. W artykule przedstawiono przykłady wyznaczania powyższych parametrów w oparciu o otrzymane estymaty odpowiedzi impulsowych kanału. 2. OPIS ZESTAWU POMIAROWEGO Badania przeprowadzono w oparciu o układ pomiarowy przedstawiony na rys. 1 a opisany między innymi w [3, 6]. Część nadawczą stanowił wektorowy generator sygnałowy. Promiennikiem sygnału była antena tubowa SAS 571 [9] o paśmie roboczym w zakresie od 0,7 GHz do 18 GHz, o zysku energetycznym 9 dBi dla częstotliwości 2,4 GHz i szerokości wiązki głównej dla polaryzacji pionowej 48° oraz 30° dla polaryzacji poziomej. Emitowany sygnał, o częstotliwości nośnej 2,42 GHz, był zmodulowany ciągiem pseudoprzypadkowym o długości 511 bitów. Zastosowano modulację BPSK o szybkości 20Mb/s. Komputer PC Generator sygn. wcz Odbiornik Przemiennik częstotliwości B=20MHz Karta przetwornika A/C fp.cz=57,4 fs=250 Msample/s MHz Zestaw nadawczy Zestaw odbiorczy Rys. 1. Schemat blokow więcej »

ZAPEWNIENIE SYNCHORNIZACJI CZASU PRZY CZĘŚCIOWYM WSPARCIU SIECI - DOI:10.15199/59.2017.8-9.25
Igor Wielebski Sylwester Kaczmarek 
W ostatnich latach nastąpił dynamiczny rozwój technologii związanej z synchronizacją częstotliwości, fazy i czasu w sieciach ethernetowych. Wynika to z dużego zapotrzebowania na jej wysoką dokładność. Przykładową usługą wymagającą zapewnienia dokładnej syntonizacji (częstotliwości) jest LTE-FDD, a w przypadku synchronizacji fazy i czasu LTE-TDD lub w przyszłości LTE-A. Dla usług mobilnych wymagania synchronizacyjne dla interfejsów radiowych są kluczowe. Bez niej zapewnienie odpowiedniej jakości usług było by niemożliwe. Dzięki niej możliwe jest zapewnienie stabilizacji częstotliwości radiowych wykorzystywanych przez stacje bazowe, zwiększenie efektywności wykorzystania widma, zmniejszenie interferencji pomiędzy sąsiadującymi komórkami czy nieprzerwana praca przy przełączaniu między stacjami bazowymi [1]. Na problematykę zapewnienia synchronizacji składa się między innymi wykorzystywana technologia, wsparcie sieci w urządzeniach świadomych przekazywania synchronizacji, odległość od zegara głównego PRTC (Grand Master) oraz rodzaj i natężenie ruchu sieciowego. W artykule przedstawiono wyniki badań i sposób ich realizacji w zaprojektowanej sieci synchronicznej bazującej na modelu HRM-1[2] wraz z symulacją ruchu. Badanie miało na celu sprawdzenie czy możliwe jest spełnienie rygorystycznych wymagań dla usług LTE-TDD przy częściowym wsparciu czasowym sieci. 2. SYNCHRONIZACJA CZĘSTOTILIWOŚCI, FAZY I CZASU 2.1. Pakietowe protokoły synchronizacji czasu Zastosowanie protokołu PTP ma kilka zalet, względem popularnego protokołu synchronizacji czasu NTP. Po pierwsze protokół PTP wymaga, aby stemple czasowe otrzymywane były już na poziomie warstwy fizycznej interfejsu sieciowego, a nie na poziomie jądra systemu operacyjnego. Po drugie zapewnia relatywnie szeroki wachlarz wykorzystania jak i możliwości jego implementacji. Organizacje reprezentujące różne branże technologiczne mogą zaproponować profile, które dostosowywane są do pot więcej »

ZASTOSOWANIE MPLS-TP DO WSPARCIA MOBILNOŚCI UŻYTKOWNIKÓW W SIECIACH DOSTĘPOWYCH - DOI:10.15199/59.2017.8-9.17
Marcin Pijanka Grzegorz Różański 
Rozwój nowych technologii usług informacyjnych powoduje nieustanny wzrost liczby użytkowników sieci mobilnych. W społeczeństwie informacyjnym standardem staje się posiadanie przynajmniej kilku urządzeń pozwalających na bezprzewodowy dostęp do zasobów Internetu. Trendy te generują potrzebę poszukiwania rozwiązań zapewniających realizację różnorodnych usług w sieci z gwarantowaniem zarówno określonych parametrów ruchowych jak i jakościowych. W środowisku telekomunikacyjnym powszechnie znane jest pojęcie NGN (Next Generation Networks), które określa kluczowe zmiany zachodzące w architektach sieciowych w celu zwiększenia ich efektywności i spełniania coraz bardziej zaawansowanych wymagań użytkowników. Problem dekompozycji architektur sieciowych, ich podziału na segmenty, stanowi istotny element w projektowaniu i analizie sieci zarówno w aspekcie organizacyjnym jak i funkcjonalnym. Wprowadzanie nowych technologii i protokołów komunikacyjnych w segmentach dostępowych czy też agregacyjnych (dystrybucyjnych) wpływa na efektywność zapewnienia mobilności użytkowników sieci. Kluczową rolę, oprócz gwarancji ruchowych i jakościowych, odgrywa spełnienie wymagań ciągłości komunikacji dla użytkowników mobilnych. Wobec powyższego zapewnienie mobilności stanowi istotne wymaganie dla sieci dostępowych nowych generacji. Heterogeniczność rozwiązań systemowotechnicznych stosowanych w sieciach dostępowych, w szczególności w systemach mobilnych jest istotnym impulsem do poszukiwania unifikacji technologii. Taką techniką jest MPLS (Multi Protocol Label Switching), który został opracowany dla wsparcia transmisji danych pakietowych z wykorzystaniem protokołu IP w segmentach szkieletowych sieci telekomunikacyjnych. Klasyczne trasowanie datagramów IP zostało zastąpione procedurą tzw. przełączania etykiet (Labels) wzdłuż wyznaczonej drogi połączeniowej (ścieżki LSP). Przekazywanie danych na bazie komutacji etykiet (etykieta jest elementem 4-bajtowe więcej »

  • Aktualnoś›ci
  • Bestsellery
2019-10-28

Program priorytetowy "Mój Prąd"»

2019-04-04

ZAKOŃCZENIE III KONGRESU ELEKTRYKI POLSKIEJ - KOMUNIKAT »

2019-04-01

Przygotowania do obchodów 100-lecia SEP»

2018-12-12

100-LECIE POWSTANIA SEP»

2018-11-28

Posiedzenie Rady-Naukowo-Technicznej SEP»

2018-09-25

Targi Energetyczne ENERGETICS 2018»

2018-03-26

Rada Firm SEP»

2017-12-07

innogy dodaje energii na Sylwestra»

2017-11-16

Herkules wygrał przetarg GSM-R dla PKP PLK»

2017-11-15

Zasilanie dla metra»

Przekładniki prądowe niskiego napięcia

ELEKTROINSTALATOR
(2019-8)»

Badanie bezpieczeństwa urządzeń elektrycznych

ELEKTROINSTALATOR
(2019-8)»

Aktualne zagrożenia mikrobiologiczne Listeria monocytogenes

PRZEMYSŁ SPOŻYWCZY
(2019-10)»

Linia brzegu w pracach geodezyjnych - stosowanie § 82a w geodezyjnych opracowaniach jednostkowych i w procedurze modernizacji ewidencji gruntów i budynków

PRZEGLĄD GEODEZYJNY
(2019-10)»

Jeszcze raz o granicach nieruchomości

PRZEGLĄD GEODEZYJNY
(2019-10)»

Ustalenie linii brzegu w trybie ustawy Prawo wodne i pomiaru sytuacyjnego linii brzegu opisanego w § 82a rozporządzenia egib

PRZEGLĄD GEODEZYJNY
(2019-11)»

Diagnostyka falownika i silnika elektrycznego w 5 krokach

ELEKTROINSTALATOR
(2019-9)»

Multimetr cęgowy małych prądów AC/DC CENTER 262

ELEKTROINSTALATOR
(2019-9)»

Narzędzia do obróbki kabli i przewodów

ELEKTROINSTALATOR
(2019-9)»

Zanim zjedziesz na nartach ze stoku, najpierw musisz na niego bezpiecznie wjechac. Kolejki linowe pod lupa dozoru technicznego

DOZÓR TECHNICZNY
(2019-5)»

LISTA CZASOPISM

  • ATEST - OCHRONA PRACY
  • AURA OCHRONA ŚRODOWISKA
  • CHŁODNICTWO
  • CIEPŁOWNICTWO, OGRZEWNICTWO, WENTYLACJA
  • DOZÓR TECHNICZNY
  • ELEKTROINSTALATOR
  • ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA
  • GAZ, WODA I TECHNIKA SANITARNA
  • GAZETA CUKROWNICZA
  • GOSPODARKA MIĘSNA
  • GOSPODARKA WODNA
  • HUTNIK - WIADOMOŚCI HUTNICZE
  • INŻYNIERIA MATERIAŁOWA
  • MASZYNY, TECHNOLOGIE, MATERIAŁY - TECHNIKA ZAGRANICZNA
  • MATERIAŁY BUDOWLANE
  • OCHRONA PRZED KOROZJĄ
  • ODZIEŻ
  • OPAKOWANIE
  • POLISH TECHNICAL REVIEW
  • PROBLEMY JAKOŚCI
  • PRZEGLĄD ELEKTROTECHNICZNY
  • PRZEGLĄD GASTRONOMICZNY
  • PRZEGLĄD GEODEZYJNY
  • PRZEGLĄD MECHANICZNY
  • PRZEGLĄD PAPIERNICZY
  • PRZEGLĄD PIEKARSKI I CUKIERNICZY
  • PRZEGLĄD TECHNICZNY. GAZETA INŻYNIERSKA
  • PRZEGLĄD TELEKOMUNIKACYJNY
  • PRZEGLĄD WŁÓKIENNICZY - WŁÓKNO, ODZIEŻ, SKÓRA
  • PRZEGLĄD ZBOŻOWO-MŁYNARSKI
  • PRZEMYSŁ CHEMICZNY
  • PRZEMYSŁ FERMENTACYJNY I OWOCOWO-WARZYWNY
  • PRZEMYSŁ SPOŻYWCZY
  • RUDY I METALE NIEŻELAZNE
  • SZKŁO I CERAMIKA
  • TECHNOLOGIA I AUTOMATYZACJA MONTAŻU
  • WIADOMOŚCI ELEKTROTECHNICZNE
  • WOKÓŁ PŁYTEK CERAMICZNYCH

WYSZUKIWANE FRAZY

AURA żywność ekologiczna inżynieria materiałowa konserwanty suszenie przemysł chemiczny elektronika grafen haccp logistyka cukier herbata gospodarka mięsna miód materiały budowlane gospodarka wodna transglutaminaza dodatki do żywności pszenica Żarczyński ksylitol Przegląd Elektrotechniczny chleb ryby olej lniany pieczywo amarantus olej rzepakowy Jakość atest 7 KUKURYDZA czekolada gluten GMO antyoksydanty kaizen mleko ocena ryzyka drożdże błonnik przemysl chemiczny makaron ochrona przed korozją pompy ciepła Kociołek-Balawejder przemysł spożywczy Problemy jakości żywność funkcjonalna Przegląd papierniczy wino lody przegląd mleczarski orkisz proso kawa WZBOGACANIE ŻYWNOŚCI antocyjany ekstruzja zamrażanie nanotechnologia polifenole kakao kiełki kontakt aluminium zielona herbata ANALIZA SENSORYCZNA błonnik pokarmowy sól opakowania mięso reologia ocena ryzyka zawodowego rokitnik olejki eteryczne aronia opakowania aktywne enzymy karotenoidy jęczmień masło dynia kofeina mąka czerwińska biogaz kefir liofilizacja ścieki fotowoltaika żyto jakość żywności wiadomości elektrotechniczne CELIAKIA salmonella przyprawy probiotyki piwo znakowanie
  • WYDAWNICTWO | PRENUMERATA | REKLAMA | DRUKARNIA | KOLPORTAŻ | REGULAMIN E-USŁUG
Projekt i wykonanie: Pragma Software