Wyniki 1-7 spośród 7 dla zapytania: authorDesc:"Halina Tarasiuk"

Oszacowanie pojemności łączy na podstawie dyspersji par pakietów ICMP

Czytaj za darmo! »

Jednym ze sposobów umożliwiających oszacowanie pojemności łączy w sieci IP jest wykonanie pomiarów bezpośrednio w jej węzłach. Jednak z jednej strony wymagają one dostępu do tych węzłów, z drugiej zaś ze względu na bezpieczeństwo nie powinny być stosowane w większej części sieci teleinformatycznej, nawet tego samego operatora. Innym podejściem jest oszacowanie na podstawie dyspersji próbkujących par pakietów ICMP (Internet Control Message Protocol). Metodę tę zastosowano w [2], gdzie przedstawiono badanie łącza będącego wąskim gardłem na wybranej ścieżce między źródłem i ujściem pakietów próbkujących sieć. Jednak wyniki uzyskane dla tej metody cechuje mała dokładność oszacowań. Metoda ta wymaga również umieszczenia dwóch punktów pomiarowych na początku i na końcu badanej ścież[...]

BADANIA PROGRAMOWYCH ROZWIĄZAŃ SIECIOWYCH W ŚRODOWISKU TESTOWYM PL-LAB NA POTRZEBY PRZYSZŁYCH ZASTOSOWAŃ W SIECI 5G DOI:10.15199/59.2018.8-9.14


  1. WSTĘP Mniej więcej od dekady trwają intensywne prace nad siecią nowej generacji, która w początkowym etapie była określana jako Internet Przyszłości, a obecnie jest nazywana siecią 5G [1]. Rysunek 1 przedstawia przykładowy schemat sieci 5G uwzględniający jej główne elementy, nad którymi trwają intensywne prace zarówno w ciałach standaryzacyjnych (np. 3GPP, ITU-T, ETSI), jak i projektach badawczych. Kluczowym rozwiązaniem sieci brzegowej jest urządzenie określane jako serwer MEC (Multi-access Edge Computing Server). Serwer MEC łączy różne techniki dostępu bezprzewodowego z brzegową siecią szkieletową, a jednocześnie przechowuje zasoby i usługi bliżej użytkownika końcowego. Pozostałe główne elementy sieci 5G, to sieć tranzytowa (symbolicznie nazwana na rysunku, jako sieć Internet), centra danych, a także różne zastosowania aplikacyjne, w tym Internet Rzeczy, które mogą być obsługiwane przez sieć, jako wydzielone usługi (slices). Dla sieci 5G bardzo ważnym wymaganiem jest spełnienie gwarancji QoS (quality of service), w tym na brzegu sieci rzędu 1-kilku milisekund dla wybranych zastosowań. We wszystkich wymienionych obszarach sieci 5G kluczową rolę odgrywa technika wirtualizacji oraz technika SDN, która umożliwia operatorom sieci konfigurację urządzeń sieciowych i usług zgodnie z wymaganiami danego operatora. Intensywne prace nad techniką SDN są wspomagane badaniami w eksperymentalnych sieciach testowych. Przykładami takich sieci mogą być: krajowa sieć PL-LAB [2], federacja sieci testowych Fed4FIRE, w szczególności SOFTFIRE i 5GINFIRE. Przydatne w tworzeniu nowych rozwiązań SDN i wirtualizacji sieci oraz ich testowaniu jest tzw. otwarte oprogramowanie, np. Open vSwitch [3], który jest switchem programowalnym wspierającym m.in. protokół OpenFlow [4]. Open vSwitch może zostać zastosowany jako switch w sieci brzegowej, szkieletowej, w centrum danych, jak również w serwerze MEC. W tym celu można wykorzystać serwer wraz z o[...]

BADANIE WIARYGODNOŚCI POMIARÓW WYKORZYSTANIA ŁĄCZA W SIECI SDN Z PROTOKOŁEM OPEN FLOW DOI:10.15199/59.2018.8-9.47


  1. WSTĘP Koncepcja sieci programowalnych SDN (software defined networking - sieci programowalne) polega na rozdzieleniu warstwy sterowania i warstwy danych [5]. Takie podejście umożliwia zastosowanie w sieci uproszczonych switch’y, których działanie sprowadza się do przekazywania pakietów pomiędzy odpowiednimi portami. Warstwa danych korzysta z tablic reguł przygotowanych przez warstwę sterowania. Główną rolę w warstwie sterowania pełni sterownik SDN, który współpracuje z tzw. aplikacjami SDN. Warstwa aplikacji SDN pozwala m.in. na tworzenie oraz zarządzanie usługami sieciowymi. Sterownik posiada dwa interfejsy: "północny" (ang. northbound API) - służy do komunikacji z aplikacjami oraz "południowy" (ang. southbound API) - obsługuje komunikację pomiędzy sterownikiem a urządzeniami sieciowymi, wykorzystuje m.in. protokół OpenFlow [4]. Technika SDN jest postrzegana przez operatorów sieci, jako rozwiązanie dotychczasowych problemów związanych z heterogenicznością systemów zarządzania pochodzących od producentów różnych urządzeń. Protokół OpenFlow oferuje również nowe możliwości monitorowania sieci [2]. Switch OpenFlow [6] udostępnia interfejs, dzięki któremu sterownik SDN może odpytywać switch’e o gromadzone pomiary (tzw, statystyki), np. liczbę bitów przekazywanych przez dany interfejs. Protokół OpenFlow umożliwia przesyłanie statystyk do sterownika. Dzięki temu dostarcza aplikacjom SDN wartości odpowiednich metryk pomiarowych, które mogą być zastosowane np. w procesie sterowania ruchem, monitorowania i zarządzania siecią. Badania nad techniką SDN cały czas trwają, prowadzone są również intensywne prace standaryzacyjne w tym kierunku [8]. Obecnie najpopularniejsze metody monitorowania sieci wymagają użycia dodatkowych urządzeń, ich instalacji oraz konfiguracji w sieci. Proces jest dosyć złożony i kosztowny do zrealizowania. Powszechnie używanymi protokołami do przeprowadzania pomiarów w sieci są SNMP oraz Net[...]

Architektura systemu IIP


  Internet przyszłości jest obecnie tematyką wiodącą, realizowaną w ramach 7. Programu Ramowego Unii Europejskiej. Rokrocznie odbywają się dwa spotkania, dotyczące Internetu przyszłości (Future Internet Assembly) zrzeszające wykonawców projektów europejskich i narodowych, reprezentantów gremiów standaryzacyjnych (ITU-T, IETF, ETSI) oraz przemysłu, operatorów sieci i dostawców usług. Jednym z podstawowych zagadnień jest opracowanie architektury dla Internetu przyszłości. Rolę koordynacyjną w pracach nad tym zagadnieniem pełni Grupa FIArch (Future Internet Architecture Group). Dlaczego ta tematyka jest obecnie tak ważna? Internet w obecnej wersji odniósł ogromny sukces na świecie. Uważa się, iż jego rozwój jest wręcz wskaźnikiem rozwoju cywilizacji. Oczekuje się, iż w dającej się przewidzieć przyszłości (tj. do ok. roku 2020) liczba nowych urządzeń przyłączonych do Internetu będzie 10 razy większa niż obecnie. Wiąże się to z nowymi oczekiwaniami w wyniku wprowadzenia nowych zastosowań, w takich dziedzinach, jak e-zdrowie, e-edukacja, sieci otoczenia człowieka (domowe, samochodowe) itd. Jednocześnie powszechnie uznano, iż dalszy rozwój Internetu oparty na protokole IP będzie stanowił istotną barierę dla wprowadzenia nowych zastosowań. Podsumowanie ograniczeń obecnie działającego Internetu można znaleźć np. w [1]. Główne przyczyny tego stanu rzeczy wynikają z własności sieci TCP/IP. Ogólnie ujmując, sieć ta jest zbyt prosta, co powoduje iż dodanie do niej nowych funkcji powoduje powstanie skomplikowanych systemów, trudnych do zaimplementowania i utrzymania przez operatorów sieci. Przykładem rozwiązań sieciowych, które zostały przetestowane w prototypach, a jeszcze nie zaimplementowane, jest sieć NGN (Next Generation Network), która wymaga wprowadzenia sygnalizacji i rezerwacji zasobów do realizacji połączeń z tzw. gwarancją jakości przekazu pakietów, co jest z kolei wymagane dla wielu aplikacji. Jak wspomniano, zagadnienie opracowan[...]

Internet przyszłości – nowe wyzwanie dla telekomunikacji (i nie tylko)

Czytaj za darmo! »

Zespół Technik Sieciowych (tnt.tele.pw.edu.pl) jest częścią Zakładu Teleinformatyki i Telekomunikacji, wchodzącego w skład Instytutu Telekomunikacji. Zespół ten, kierowany przez prof. Wojciecha Burakowskiego, tworzą: dr Halina Tarasiuk (adiunkt), dr Andrzej Bęben (adiunkt), dr Jarosław Śliwiński (adiunkt naukowy), dr Jordi Mongay Batalla (adiunkt naukowy), mgr Piotr Krawiec (doktorant), mgr Witold Góralski (asystent), mgr Piotr Wiśniewski (doktorant), mgr Przemysław Sagało (doktorant). Główne obszary aktywności Zespołu skupiają się wokół zagadnień związanych z architekturami sieci nowych generacji, opracowywaniem mechanizmów i algorytmów do sterowania przekazem informacji w sieciach, badaniami symulacyjnymi, projektowaniem i implementacją prototypowych rozwiązań, budowaniem instalacji pilotowych oraz ich testowaniem. Prowadzone badania dotyczyły lub dotyczą technik sieciowych opartych na ATM (Asynchronous Transfer Mode), IP (Internet Protocol), bezprzewodowych sieci LAN (Wireless LAN), xDSL (X Digital Subscriber Line) i ostatnio Internetu przyszłości (Future Internet), w tym również tzw. sieci świadomych przekazywanej treści (Content-Aware Networking). Rozw ój infrastruktury telekomunikacyjnej i stan obecny Infrastruktura sieci telekomunikacyjnych podlega ciągłym zmianom, przy czym zmiany te niekiedy mają charakter ewolucyjny, a niekiedy są raczej rewolucyjne. Przykładem zmiany ewolucyjnej było zastosowanie techniki NISDN (Narrowband Integrated Service Digital Network), która poszerzała funkcjonalność sieci telefonicznych o możliwości komutacji kanałów o różnych szybkościach bitowych (n x 64 kbit/s) oraz wprowadzała usługę przekazu pakietów. Z kolei wprowadzenie sieci Internet opartej na stosie protokołów TCP/IP (Transport Control Protocol/ Internet Protocol) można uważać jako przykład rewolucyjnego rozwoju infrastruktury telekomunikacyjnej. W porównaniu z sieciami opartymi na komutacji kanałów, w których główny nacisk poł[...]

W kierunku Internetu przyszłości: równoległe internety DOI:10.15199/59.2015.2-3.10


  Infrastruktura sieciowa obecnego Internetu opiera się głównie na protokole IPv4. Jednocześnie trwa transformacja z wersji IPv4 na wersję IPv6, co jest podyktowane koniecznością zwiększenia puli adresowej. Zasadniczymi cechami obecnego Internetu są: zapewnienie możliwości połączenia "każdy z każdym" (connectivity) oraz ogólnoświatowy zasięg. Sieć Internet nazywa się siecią sieci. Nie ma w niej bowiem zaimplementowanych mechanizmów sterowania całą siecią i odbywa się ono na zasadzie współpracy pomiędzy sąsiadującymi (połączonymi) ze sobą domenami. Podstawową usługą oferowaną obecnie w sieci Internet jest usługa best effort, zaś jakość przekazu danych polepsza się przez zwiększanie, tam gdzie jest to możliwe, przepływności łączy transmisyjnych. Niestety, zwiększanie to jest ograniczone, zwłaszcza w sieciach bezprzewodowych. Należy też podkreślić, co jest niezmiernie ważne, że pomimo stale rozbudowywanej sieci Internet, dotychczas nie było poważnej i rozległej terytorialnie jego awarii. Korzystanie z Internetu staje się coraz powszechniejsze. Stale pojawiają się nowe jego zastosowania dotyczące różnych dziedzin, począwszy od rozrywki do profesjonalnych aplikacji np. z obszaru e-zdrowie. Dlatego też dalszy rozwój Internetu w kierunku zwiększania jego zdolności obsługowych jest podstawowym zagadnieniem badawczym i wdrożeniowym na świecie. Ma to również odzwierciedlenie w obszarach badawczych określonych w realizowanym obecnie głównym programie europejskim Horyzont 2020 [1]. Sektor aktywności badawczej związanej z rozwojem Internetu jest umieszczony w dziale Technologii Informacyjno- Komunikacyjnych TIK (Information and Communications Technologies - ICT). Tak duże znaczenie rozwoju Internetu wynika z jego użyteczności i połączenia z rozwojem cywilizacyjnym, na przykład dotyczącym budowy inteligentnych miast. Chociaż zawsze z pewną ostrożnością należy patrzeć na prognozy, to jednak zakłada się, iż sieć Internet będzie się rozwijała [...]

Rozległe sieci badawcze dla testowania rozwiązań nowych generacji internetu DOI:10.15199/59.2015.8-9.1


  Obserwowany w ostatniej dekadzie intensywny rozwój technik komunikacyjnych spowodował, iż stale pojawiają się nowe propozycje rozwiązań w obszarze komunikacji: człowiek - człowiek, człowiek - maszyna oraz maszyna - maszyna. Rozwiązania te, z sukcesem testowane w małych laboratoriach firm i instytucji, nie zawsze spełniają wymagania stawiane przed nimi w docelowym rozproszonym środowisku technik informacyjnych i komunikacyjnych (Information and Communication Technology - ICT). W związku z tym powstało zapotrzebowanie na duże rozproszone laboratoria sieciowe, umożliwiające testowanie produktów w środowisku niemalże zbliżonym do docelowych warunków, w których mają być wdrożone. Ponadto obecna infrastruktura sieciowa w ogromnej mierze opiera się na rozwiązaniach sprzed ponad trzech dekad. Nie odpowiadają one dzisiejszym potrzebom i stanowią ograniczenie dla dalszego rozwoju globalnej sieci. Wyeksploatowanie puli adresów IPv4, rosnące koszty i niska wydajność obecnego modelu rutingu pakietów IP, problemy z bezpieczeństwem i brak skalowalności, brak gwarancji jakości przekazu pakietów i nieefektywne metody obsługi mobilności użytkowników to główne wady dzisiejszej sieci Internet, wstrzymujące jej rozwój. Dążąc do rozwiązania tych problemów, rozpoczęto badania nad alternatywnymi architekturami, szybkimi i skalowalnymi, które odpowiadałyby potrzebom nie tylko dzisiejszych czasów, ale również przyszłych. Jednakże ze względu na mnogość protokołów i ich implementacji, a także stosowanie różnego typu sprzętu w sieci Internet, ogromną trudność sprawia walidacja nowych rozwiązań w rzeczywistym środowisku sieciowym. W artykule przedstawiono rozwój laboratoriów i sieci testowych w ciągu ostatnich lat w Europie, na świecie i ostatnio w Polsce. Przedstawiono także motywację i główne cele tworzenia dużych rozproszonych laboratoriów zrzeszających wiele jednostek badawczych. Omówiono ewolucję infrastruktur badawczych, kładąc nacisk na opis infr[...]

 Strona 1