55-lecie pracy naukowo-dydaktycznej profesora Mariana Zientalskiego
Niniejszy - dziewiąty zeszyt Przeglądu Telekomunikacyjnego i Wiadomości Telekomunikacyjnych - wydany w związku z XXVI KSTiT, jest okazją do nakreślenia w kilku zdaniach osiągnięć profesora Zientalskiego, który w bieżącym roku obchodzi 55 lat pracy naukowo-dydaktycznej1), a jednocześnie jest utożsamiany przez polskie środowisko telekomunikacyjne z KSTiT. W pracy zawodowej Profesora można wyróżnić kilka istotnych obszarów aktywności, których wspólnym mianownikiem jest telekomunikacja. W początkowym okresie obejmowały one działalność w rodzimej Alma Mater, która to działalność z czasem przeniosła się na poziom krajowy. W każdym z tych obszarów widoczny jest bardzo duży wkład w rozwój telekomunikacji, w tym w szczególności w zakresie prac dydaktycznych i rozwoju kadry, prac naukowo-badawczych, prac rozwojowych na rzecz przemysłu, ekspercko-doradczych oraz organizacyjnych. Przygoda Profesora z telekomunikacją rozpoczęła się podczas studiów na Wydziale Elektrycznym Politechniki Gdańskiej, gdy już na czwartym roku w 1955 r. został zastępcą asystenta. Studia te ukończył w 1957 roku jako magister inżynier łączności na Wydziale Łączności utworzonym w 1952 roku. Wówczas to z jednej z dwóch istniejących katedr, tzn. Katedry Teletechniki, zostały wyłonione: Katedra Techniki Przenoszenia Przewodowego, kierowana przez prof. Ł. Dorosza oraz Katedra Teletechniki Łączeniowej, kierowana przez prof. Wiktora Szuksztę. W 1954 roku po śmierci prof. Ł. Dorosza kierownictwo Katedry Techniki Przenoszenia Przewodowego objął prof. Feliks Błocki. Po nim, w roku 1957 r., kierownikiem został prof. Józef Sałaciński. Została też zmieniona nazwa Katedry na Katedrę Teletransmisji Pr[...]
Katedra Sieci Teleinformacyjnych
Rys historyczny
Utworzona w 2006 roku Katedra Sieci Teleinformacyjnych
powstała w wyniku połączenia istniejących wcześniej: Katedry
Systemów i Sieci Telekomunikacyjnych (kierowanej przez prof.
dr. inż. Mariana Zientalskiego) oraz połowy składu osobowego
istniejącej od 1971 roku Katedry Systemów Informacyjnych (kierowanej
przez prof. zw. dr. hab. Wojciecha Sobczaka).
Mimo że formalnie jest to Katedra bardzo młoda, to jej rodowód
sięga początków Politechniki Gdańskiej. Dorobek tego tak
długiego czasu istnienia oraz stała konieczność i potrzeba sprostania
dynamice zmian w obszarze telekomunikacji i związanej
z tym działalności naukowo-dydaktycznej stanowią wyznacznik
rozwoju Katedry. Początek historii Katedry Systemów i Sieci
Telekomunikacyjnych sięga roku 1945, kiedy to na ówczesnym
Wydziale Elektrycznym Politechniki Gdańskiej istniała Katedra
Teletechniki kierowana przez prof. Łukasza Dorosza. Stanowiła
ona wraz z Katedrą Radiotechniki zalążek przyszłego Wydziału
Łączności, utworzonego w 1952 roku. Wówczas to z Katedry
Teletechniki wyłoniono: Katedrę Techniki Przenoszenia Przewodowego
kierowaną przez prof. Ł. Dorosza, oraz Katedrę Teletechniki
Łączeniowej kierowaną przez prof. Wiktora Szuksztę.
W 1954 roku, po śmierci prof. Ł. Dorosza, kierownictwo
Katedry Techniki Przenoszenia Przewodowego objął prof. Feliks
Błocki. Po nim w roku 1957 kierownikiem został prof. Józef Sałaciński.
Zmieniona została też nazwa na Katedrę Teletransmisji
Przewodowej, skrócona następnie na Katedrę Teletransmisji. W
tym okresie pracowali w niej wybitni nauczyciele akademiccy,
organizatorzy oraz kierownicy przyszłych zakładów i katedr: prof.
dr hab. inż. Michał Białko, członek rzeczywisty PAN, prof. dr hab.
inż. Ludwik Spiralski, doc. dr inż. Walerian Gruszczyński i prof. dr
hab. inż. Henryk Wierzba. Po reorganizacji Wydziału Elektroniki
w roku 1969 i utworzeniu instytutów (zmiana nazwy Wydziału
nastapiła w roku 1966) Katedrę przekształcono w Zakład T[...]
W 110. rocznicę urodzin Prof. dr hab. inż. Wiktor Szukszta DOI:
W życiu społeczności i instytucji pojawiają się ludzie, którzy
swoim działaniem i postawą mają wpływ nie tylko na czas
ich aktywności. Skutki ich oddziaływania mają zasięg daleko
wykraczający poza ten okres niezależnie od wydarzen historii.
W obszarze telekomunikacji taką postacią był prof. Wiktor Szukszta.
Większość swego życia przeznaczył na pracę zawodową,
edukację i kształcenie kadr oraz działalność badawczo-rozwojową
w dziedzinie telekomunikacji. Pracując w środowisku akademickim
na Politechnice Gdańskiej, nie ograniczał swojego zaangażowania
jedynie do dydaktyki i nauki, lecz także widział potrzebę
współpracy z firmami telekomunikacyjnymi. Takie podejście było
wynikiem drogi życiowej, jaką Profesor przeszedł w okresie swoich
studiów, gdy musiał jednocześnie pracować, a także podczas
okupacji i po wojnie.
Urodził się 21 września 1906 roku w Wilnie. Tam uczęszczał
do szkoły średniej i bezpośrednio po jej ukończeniu w 1924 roku
wstąpił na Uniwersytet Wileński, gdzie przez dwa lata studiował
matematykę na Wydziale Matematyczno-Przyrodniczym. W 1926
roku, po zdaniu obowiązujących egzaminów, rozpoczął studia na
Wydziale Elektrycznym Politechniki Warszawskiej, które ukończył
w 1937 roku, otrzymując dyplom magistra inżyniera elektryka
w specjalności teletechnika. Podczas st[...]
Działalność w obszarze grantów realizowana przez katedrę sieci teleinformacyjnych DOI:10.15199/59.2016.7.6
Przedstawiono działalność Katedry Sieci Teleinformacyjnych
PG WETI w obszarze grantów finansowanych przez instytucje
centralne, przy czym główny nacisk położono na scharakteryzowanie
aktualnie realizowanych projektów. Opisano
dwa projekty finansowane przez NCBiR. Pierwszy dotyczy koncepcji oraz
implementacji integracji informacji w rozproszonych elementach systemu
wymiany danych Straży Granicznej, natomiast drugi strumieniowej transmisji
danych czasu rzeczywistego w rozproszonych systemach dyspozytorskich
i teleinformatycznych Straży Granicznej.
Słowa kluczowe: granty, Straż Graniczna, systemy nadzoru, bezpieczeństwo.W swej długiej historii Katedra Sieci Teleinformacyjnych PG
była aktywna w działalności badawczo-rozwojowej. Wyrażało się
to między innymi w pozyskiwaniu grantów finansowanych przez
jednostki centralne lub przemysł. W ostatnich latach Katedra
realizowała projekty grantowe o następującej tematyce:
- badawczo-rozwojowy o nazwie: STRADAR, z zakresu bezpieczeństwa
i obronności państwa pt.: Strumieniowa transmisja
danych czasu rzeczywistego w rozproszonych systemach
dyspozytorskich i teleinformatycznych Straży Granicznej
(DOB-BIO6/10/62/2014);
- badawczo-rozwojowy o nazwie: KONSOLA, z zakresu bezpieczeństwa
i obronności państwa pt.: Koncepcja oraz implementacja
integracji informacji w rozproszonych elementach systemu
wymiany danych Straży Granicznej (DOBR/0022/R/ID1/2013/03);
- badawczy pt.: Filtry cyfrowe ułamkowoopóźniające - projektowanie
metodą okien, NCN (N N517 553939);
- badawczy pt.: Anomalies detection in high-frequency signals
with the use of Instantaneous Complex Frequency, umowa
zawarta między Politechniką Gdańską a Agilent Technologies
Foundation (08EU-535UR);
- badawczo-rozwojowy pt.: Rozwój platformy komunikacji multimedialnej
integrującej infrastrukturę IP (VoIP) z sieciami abonentów
mobilnych (GSM, WiFi) i stacjonarnych (PSTN, ISDN)
na potrzeby niezawodnych i wydajnych aplikacji rozproszonych
(0504/[...]
System budżetowania parametrów jakościowych dla połączeń wielodomenowych
Koncepcja globalnej infrastruktury informacyjnej GII i jednego
z jej elementów w postaci sieci następnej generacji NGN (Next-
Generation Network) [6,8,9] oraz próba realizacji tego elementu
jako IMS/NGN (IP Multimedia Systems NGN) [5] wymaga rozwiązania
wielu problemów bezpośrednio związanych z gwarancją
jakości usług udostępnianych przez te sieci. Rozwiązanie to jest
złożone ze względu na dwa przenikające się aspekty. Pierwszy
z nich to wieloklasowość usług z różnicowaniem wymagań jakościowych,
drugi to wielodomenowość realizacji połączeń między
terminalami użytkowników. Wymagania co do jakości usług od
końca do końca (E-t-E), tzn. w relacji terminal - sieć - terminal,
sprecyzowane przez ITU-T, ujmują kompleksowo zbiór wielkości
i klas jakości bez wnikania, jak jest zrealizowana sieć. W dokumencie
[7] przedstawiono prosty model odniesienia obliczania tych
wielkości. W proponowanym podejściu nie bierze się pod uwagę
możliwości optymalizacji wykorzystania zasobów uwzględniającej
gwarancje jakości usług. Wynika ona w ogólności z przebiegu
obsługi strumienia pakietów przez wiele domen. Zapewnia to
możliwość budżetowania poszczególnych wielkości jakościowych
do poszczególnych domen, gdzie kryterium stanowi spełnienie
wymagań jakościowych od końca do końca, ale w taki sposób, aby można było przyjąć do obsługi jak największą liczbę strumieni,
a dokładniej ilość ruchu. Problemowi rozwiązania gwarancji
jakości od końca do końca było poświęconych wiele projektów.
Jednakże niewiele prac dotyczyło optymalizacji i budżetowania
parametrów jakościowych w przypadku połączeń wielodomenowych.
Rozwiązanie tego problemu wymaga nie tylko propozycji
algorytmu obliczania parametrów jakościowych w zależności od
klasy strumienia, stanu i ilości zasobów sieci oraz wyboru drogi,
ale także przezwyciężenia trudności w określeniu zbioru wielkości
i sposobu ich przekazywania między domenami. Szczególnie ten
ostatni warunek jest trudny do spełnienia, poniew[...]
ZAPEWNIENIE SYNCHORNIZACJI CZASU PRZY CZĘŚCIOWYM WSPARCIU SIECI DOI:10.15199/59.2017.8-9.25
W ostatnich latach nastąpił dynamiczny rozwój
technologii związanej z synchronizacją częstotliwości,
fazy i czasu w sieciach ethernetowych. Wynika to z
dużego zapotrzebowania na jej wysoką dokładność.
Przykładową usługą wymagającą zapewnienia dokładnej
syntonizacji (częstotliwości) jest LTE-FDD, a w
przypadku synchronizacji fazy i czasu LTE-TDD lub w
przyszłości LTE-A. Dla usług mobilnych wymagania
synchronizacyjne dla interfejsów radiowych są
kluczowe. Bez niej zapewnienie odpowiedniej jakości
usług było by niemożliwe. Dzięki niej możliwe jest
zapewnienie stabilizacji częstotliwości radiowych
wykorzystywanych przez stacje bazowe, zwiększenie
efektywności wykorzystania widma, zmniejszenie
interferencji pomiędzy sąsiadującymi komórkami czy
nieprzerwana praca przy przełączaniu między stacjami
bazowymi [1]. Na problematykę zapewnienia
synchronizacji składa się między innymi
wykorzystywana technologia, wsparcie sieci w
urządzeniach świadomych przekazywania
synchronizacji, odległość od zegara głównego PRTC
(Grand Master) oraz rodzaj i natężenie ruchu
sieciowego. W artykule przedstawiono wyniki badań i
sposób ich realizacji w zaprojektowanej sieci
synchronicznej bazującej na modelu HRM-1[2] wraz z
symulacją ruchu. Badanie miało na celu sprawdzenie czy
możliwe jest spełnienie rygorystycznych wymagań dla
usług LTE-TDD przy częściowym wsparciu czasowym
sieci.
2. SYNCHRONIZACJA CZĘSTOTILIWOŚCI,
FAZY I CZASU
2.1. Pakietowe protokoły synchronizacji czasu
Zastosowanie protokołu PTP ma kilka zalet,
względem popularnego protokołu synchronizacji czasu
NTP. Po pierwsze protokół PTP wymaga, aby stemple
czasowe otrzymywane były już na poziomie warstwy
fizycznej interfejsu sieciowego, a nie na poziomie jądra
systemu operacyjnego. Po drugie zapewnia relatywnie
szeroki wachlarz wykorzystania jak i możliwości jego
implementacji. Organizacje reprezentujące różne branże
technologiczne mogą zaproponować profile, które
dostosowywane są do pot[...]
KONCEPCJA WSPÓŁPRACY SYSTEMU STRUMIENIOWEJ TRANSMISJI DANYCH CZASU RZECZYWISTEGO STRADAR Z EUROPEJSKIM SYSTEMEM EUROSUR DOI:10.15199/59.2018.8-9.50
1. WPROWADZENIE
Istotnym elementem integracji państw członkowskich
w ramach Unii Europejskiej jest utworzenie strefy
Schengen, czyli strefy swobodnego przemieszczania się,
bez granic wewnętrznych, co wiąże się ze wspólną odpowiedzialnością
państw należących do niej za zapewnienie
spójnych standardów zarządzania granicami i
bezpieczeństwem na granicach zewnętrznych. Strefa
Schengen bez granic wewnętrznych może istnieć jedynie
pod warunkiem zagwarantowania skutecznego zabezpieczenia
i ochrony jej granic zewnętrznych.
Niezbędna jest ścisła współpraca państw wchodzących
w skład strefy Schengen i koordynacja działań
związanych z ochroną zewnętrznej granicy tej strefy, co
wymaga sprawnego przepływu informacji w czasie zbliżonym
do rzeczywistego, pomiędzy instytucjami i służbami
zaangażowanymi w działania na tych granicach w
poszczególnych krajach. W komunikacji pomiędzy państwami
członkowskimi zadanie to spełnia system EUROSUR,
łączący ze sobą Agencję FRONTEX [1] i centra
komunikacyjne w poszczególnych krajach Unii,
które mają bezpośredni dostęp do swoich systemów krajowych.
Agencja zapewnia wymianę kluczowych informacji
wszystkim służbom granicznym. Zadaniem systemu
EUROSUR (Europejski system nadzorowania granic
- European Border Surveillance System) [2] jest
utworzenie wspólnych ram umożliwiających wymianę
informacji, mającą na celu poprawę zarządzania granicami
zewnętrznymi Europy. Podstawą działania systemu
EUROSUR jest sieć Krajowych Centrów Koordynacyjnych
- KCK (NCC - National Coordination Centre).
Główną rolą KCK jest koordynacja działań związanych
z nadzorem granicznym na poziomie krajowym i
służenie w charakterze punktu wymiany informacji.
Krajowe centrum koordynacji (KCK) koordynuje i
prowadzi wymianę informacji między wszystkimi organami
krajowymi odpowiedzialnymi za ochronę lądowych
i morskich granic zewnętrznych, a także z pozostałymi
krajowymi ośrodkami koordynacji i z Agencją.
Dane przetwarzane przez persone[...]
STEROWANIE OPTYCZNĄ SIECIĄ WIELODOMENOWĄ Z HIERARCHICZNĄ STRUKTURĄ PŁASZCZYZN STEROWANIA DOI:10.15199/59.2019.7.27
1. WSTĘP
Rozwój technologii i usług na rynku telekomunikacyjnym
oraz gwałtowny wzrost ruchu internetowego
związanego z realizacją połączeń VoIP (Voice over IP)
czy świadczeniem usług VoD (Video on Demand) wymusza
zapotrzebowanie na coraz większe przepływności.
Na brzegu sieci pojawia się coraz więcej ruchu, a
rdzeń sieci musi być tak zaprojektowany, aby zagwarantować
obsługę zagregowanego ruchu przy zachowaniu
odpowiedniej jakości usług QoS (Quality of Service).
Zastosowanie w rdzeniu sieci tradycyjnych technologii
sieci optycznej SDH (Synchronous Digital Hierarchy),
WDM (Wavelength Division Multiplexing) bądź
DWDM (Dense Wavelength Division Multiplexing) daje
możliwość zwiększenia dostępnego pasma, lecz nie
umożliwia automatycznego zagwarantowania jakości
świadczonych usług. Główną przyczyną jest problem
przeniesienia ruchu pakietowego przy wykorzystaniu
techniki optycznej z zachowaniem rozróżnienia klas
usług przy jednoczesnej maksymalizacji wykorzystania
zasobów. Jednocześnie fakt konwergencji usług, sieci
operatorskich i technologii jest dodatkowym czynnikiem
utrudniającym realizację usług o zróżnicowanej jakości
w relacji od końca do końca. Wynika to z prostego faktu,
iż operatorzy sieci chcą pozostać niezależni oraz posiadać
autonomiczne wewnętrzne struktury sieci i nie chcą
udostępniać pełnych informacji pozostałym operatorom
o swojej sieci.
O ile realizacja połączenia i zagwarantowania jakości
wewnątrz pojedynczej domeny (obszaru) pozostaje w
gestii operatora, o tyle realizacja połączeń poprzez łańcuch
domen przy wykorzystaniu niepełnych informacji
nie jest zagadnieniem trywialnym. Wymaga to wydzielenia
płaszczyzny sterowania połączeniami od końca do
końca, umożliwiającej zagwarantowanie jakości usług
oraz określenia na potrzeby tej płaszczyzny reprezentatywnych
informacji, które zechcą udostępnić operatorzy,
a koniecznych dla realizacji algorytmu sterowania połączeniami.
Organizacje standaryzacyjne ITU-T (Inte[...]
Overview of scalability and reliability problem in sdn networks DOI:10.15199/59.2016.5.3
In the paper an overview of scalability and reliability in the
SDN (Software Defined Networks) networks has been presented.
Problems and limitations for guaranteeing scalability
and reliability in SDN networks have been indicated. Known
methods for assuring scalability and reliability in SDN networks have been
described. Projects from research communities for resolving issues with scalability
and reliability in SDN networks have been presented. Scientific projects
have been categorized based on their common features and the methods for
resolving the issues with scalability and reliability. A future field of scientific
research has been outlined and all of the presented projects have been graded
based on their functionality.
Key words: SDN network, scalability, reliability, SDN switch, SDN controller,
load balancing, failover, Onix, HyperFlow, DIFANE, DISCO, Kandoo, DevoFlow.In the paper an overview of scalability and reliability in the
SDN (Software Defined Networks) networks has been presented.
Problems and limitations for guaranteeing scalability
and reliability in SDN networks have been indicated. Known
methods for assuring scalability and reliability in SDN networks have been
described. Projects from research communities for resolving issues with scalability
and reliability in SDN networks have been presented. Scientific projects
have been categorized based on their common features and the methods for
resolving the issues with scalability and reliability. A future field of scientific
research has been outlined and all of the presented projects have been graded
based on their functionality.
Key words: SDN network, scalability, reliability, SDN switch, SDN controller,
load balancing, failover, Onix, HyperFlow, DIFANE, DISCO, Kandoo, DevoFlowIn its principal SDN divides control plane and transport plane
into separate network entities. SDN-enabled switches and SDN
controllers work as a bulk of an SDN network. This division was
su[...]
MODEL FOR MEASUREMENT OF FLOW INSTALLATION TIME IN SDN SWITCH DOI:10.15199/59.2017.8-9.70
SDN is a novel approach that decouples the control
plane from data forwarding plane [1]. This is achievable
by designating a controller, which sole role is to design
rules for traffic forwarding [1]. Controllers install forwarding
rules into switches allowing them to forward traffic
accordingly.
The most popular protocol for SDN is OpenFlow [1,
2]. OpenFlow packets transport information between controller
and switch about the state of the network and
switches [3].
A packet incoming is checked with the flow table.
When there is a match, a switch does a specified action on
the packet, including: forwarding to a different output,
dropping it or changing its contents. In a scenario, when
there is no matching flow, the packet is encapsulated into
OpenFlow’s “Packet-in" packet and sent to the controller
[2]. The controller checks if there is a rule for such a
packet, after which it either drops it (in case there is no
matching rule) or installs appropriate flow into the switch
(by sending “Flow-mod" message) and forwards the
packet accordingly (with the “Packet-out" message) [4].
From this we may indicate that an example where
there is a number of switches connected to a single controller
may be undesirable in case there is a high number
of match misses and a number of packets is send to the
controller for checkups [5]. Time that installation of the
flow may take might have an impact on an overall performance
of the network. The number of flows being installed
in the switches might become an impactful hindrance.
The time of a flow installation must be relatively
short, as the significant factor is controller’s time of response.
In case the packets do not find a matching flow, they
are treated accordingly to a special “table-miss" rule [6].
Usually it is declared to send packets to the controller [6].
However, this does not mitigate situation in which more
than one packet with the same require[...]