Wyniki 1-10 spośród 14 dla zapytania: authorDesc:"Tadeusz ŁUBA"

Technika cyfrowa w telekomunikacji


  Jednym z głównych czynników determinujących rozwój telekomunikacji jest dynamiczny rozwój technik cyfrowych. W formie cyfrowej zanikają różnice pomiędzy różnymi typami sygnałów, co znacznie przyspiesza i upraszcza wszelkie procesy związane z przechowywaniem, przekazywaniem i przetwarzaniem różnych typów informacji. Multimedialność, będąca jednym z ważniejszych czynników napędowych Internetu, mogła nabrać realnych kształtów właśnie dlatego, że w systemie cyfrowym w zasadzie nie ma żadnej różnicy pomiędzy nagraniem dźwiękowym, tekstem, zakodowanym rysunkiem, zeskanowanym obrazem lub cyfrowo zapisanym filmem. Komputer, sieć łączności i oprogramowanie zawsze "widzą" dokładnie to samo: zestawy odpowiednio dobranych kodów cyfrowych. Różnice pojawiają się dopiero na etapie prezentacji informacji użytkownikowi. Jeden ciąg cyfr zostaje zamieniony na ciąg liter oraz znaków formatujących tekst, inny steruje odtwarzaniem mowy lub muzyki, jeszcze inny jest zamieniany na statyczne lub dynamiczne obrazy. W dynamicznym rozwoju techniki cyfrowej obserwuje się ogromne zmiany w metodach projektowania układów i systemów cyfrowych oraz w technologiach ich wytwarzania. Postęp technologii układów cyfrowych umożliwia wzrost gęstości upakowania i zmniejszania rozmiaru tzw. minimalnego wymiaru charakterystycznego - komórki atomowej (minimum feature size), co zapewnia obniżanie napięcia zasilania. Mniejszy rozmiar komórki daje mniejsze opóźnienie sygnału i umożliwia zwiększenie częstotliwości taktowania układu. Następuje też zmniejszenie emisji energii cieplnej. Należy także zauważyć imponujący postęp w dziedzinie światłowodowych systemów połączeń sieciowych, umożliwiających uzyskanie przepływności ponad 500 Gbit/s w jednym włóknie. Ostatnio wytworzono pierwsze układy scalone, umożliwiające szybką transformację sygnałów optycznych na elektryczne i odwrotnie. O nowej jakości mikroelektroniki i jej ogromny[...]

Nowe metody sprzętowo-programowego przetwarzania sygnałów i obrazów dla potrzeb systemów informacyjnych


  W dniu 15 stycznia 2005 r. Polska i Singapur podpisały porozumienie: Memorandum of Understanding, w którym Ministerstwo Nauki i Informatyzacji oraz singapurska Agency for Science, Technology and Research A*STAR zadeklarowały realizację wspólnych projektów badawczych. Następnie ogłoszono konkurs polskosingapurski dotyczący współpracy naukowo-technicznej Singapore- Poland Science & Technology Co-operation. Zgłoszenia można było nadsyłać do 31 grudnia 2005 r. i w efekcie 17 sierpnia 2006 roku w Singapurze na specjalnym posiedzeniu Polsko-Singapurskiego Komitetu Sterującego wyłoniono ostatecznie do finansowania i realizacji listę 8 wspólnych projektów badawczych. Na osiem grantów - dwa przypadły Wydziałowi Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Jeden z nich to: Nowe metody sprzętowo-programowego przetwarzania sygnałów i obrazów dla potrzeb systemów informacyjnych (Novel digital signal and image processing software and hardware for information systems), którego inicjatorem, a następnie kierownikiem był prof. dr. hab. inż. Tadeusz Łuba. Tematyka badawcza grantu1) powierzonego Zakładowi Podstaw Telekomunikacji koncentrowała się wokół zagadnień cyfrowego przetwarzania sygnałów i obrazów, ze szczególnym uwzględnieniem realizacji sprzętowych. Powszechnie wiadomo, że błyskawiczny rozwój cyfrowego przetwarzania sygnałów i obrazów zyskał ostatnio dodatkowy czynnik przyspieszający, jakim jest rozwój technologii układów scalonych VLSI (Very Large Scale of Integration), a w szczególności układów programowalnych przez użytkownika FPLD (Field Programmable Logic Devices). Jednak pełne wykorzystanie wszystkich możliwości, jakie zapewniają najnowsze struktury VLSI, wymaga nowych metod syntezy - lepiej przystosowanych do typowych "wąskich gardeł" struktur VLSI. Należą do nich przede wszystkim trudności wynikające z ogromnej gęstości upakowania elementów logicznych, których rezultatem są bariery: połączeń, wyprowadzeń, moc[...]

REDUKCJA LICZBY ZMIENNYCH DO REPREZENTACJI FUNKCJI GENEROWANIA INDEKSÓW DOI:10.15199/59.2017.8-9.32


  Jednym z ważniejszych zadań w analizie danych jest zadanie wyodrębniania właściwych danych z ogromnej masy danych niepotrzebnych - w literaturze przedmiotu obejmowane nazwą generatorów adresu. Jest to zagadnienie o ogromnym znaczeniu m.in. w zadaniach dystrybucji adresów IP, skanowaniu wirusów czy konwersji kodów. Jednocześnie zadania te są obarczone wymaganiem częstych aktualizacji. Z tych powodów w realizacjach generatorów adresu stosowane są struktury programowalne i stanowią one wystarczające rozwiązanie dla układów modyfikacji adresu pamięci ROM przechowujących adresy (indeksy) wzorców. Niestety, kolejną barierą ograniczającą syntezę układów generowania indeksów są ogromne wymagania na pojemność pamięci. Pojedynczy adres IPv4 ma 32 bity, natomiast adres MAC - 48. Z tych powodów głównym zadaniem w projektowaniu generatorów adresu są procedury redukcji i kompresji argumentów. Problem redukcji argumentów był intensywnie badany i uzyskano wystarczająco skuteczne rozwiązanie [1], [2], [5], [6]. Niestety sama procedura redukcji argumentów w wielu przypadkach jest niewystarczająca w syntezie generatorów adresu. Typowym przykładem są funkcje koderów m z n, dla których procedury redukcji argumentów zmniejszają wymiar adresu pamięci ROM zaledwie o 1 bit. Dlatego w ostatnich latach pojawiły się propozycje nowych metod syntezy generatorów adresu. Szczególnie intensywnie prowadzone są prace dotyczące tzw. dekompozycji liniowej [7], [10], [12]. Cechą charakterystyczną tych prac jest obliczanie dekompozycji liniowej metodą stosowaną w dekompozycji funkcjonalnej, tzn. za pośrednictwem tablic dekompozycji (decomposition charts) [11]. Naszym zdaniem znacznie skuteczniejsza jest metoda wykorzystująca tzw. zbiór niezgodności, sygnalizowana już w [1], a pierwotnie zaproponowana w [5]. Celem niniejszego artykułu jest dalsze rozwinięcie tej metody oraz wskazanie jej konkurencyjności względem dotychczasowych propozycji. 2. DEKOMPOZYCJA LI[...]

Synteza generatorów indeksów metodami dekompozycji liniowej i funkcjonalnej DOI:10.15199/59.2018.5.3


  Metody projektowania funkcji generowania indeksów, ze względu na ważne zastosowania (dystrybucja adresów IP, skanowanie wirusów, wykrywanie niepożądanych danych), są ostatnio przedmiotem intensywnych badań naukowych. Celem tych badań jest metodyka syntezy logicznej układów cyfrowych, umożliwiających wyodrębnianie właściwych danych z ogromnej masy danych niepotrzebnych. Dane te są wprowadzane do układu w postaci binarnych wektorów reprezentujących silnie nieokreślone funkcje boolowskie o dużej liczbie argumentów. Synteza takich funkcji jest wyzwaniem dla twórców algorytmów redukcji i kompresji argumentów, któremu nie potrafią sprostać nawet najlepsze zespoły na świecie. Na przykład cytowana w [8] funkcja boolowska (10 wektorów, 40 argumentów), obliczona przez Sasao [18], jest redukowana do 5 zmiennych. Program Lightning, opracowany przez dyplomanta Ośrodka Kształcenia na Odległość Politechniki Warszawskiej, oblicza dla tej funkcji 2261 reduktów 4-argumentowych. Warto podkreślić, że wspomniany program może wygenerować tablicę prawdy tej funkcji dla każdego reduktu. Badania omawiane w artykule dotyczą zarówno standardowych metod syntezy logicznej, jak też metod heurystycznych, wykorzystujących zaawansowane miary złożoności obliczeniowej. W pierwszym przypadku rozwijane są przede wszystkim modele zależności funkcjonalnych funkcji boolowskich, takie jak redukcja argumentów oraz dekompozycja funkcjonalna, a w drugim poszukiwane są metody z zakresu teorii ciał skończonych, a w szczególności metody dekonwolucji [1]. W związku z różnorodnością tych metod, przy jednoczesnym coraz powszechniejszym i ważniejszym ich zastosowaniu, głównym celem artykułu jest przegląd tych metod, umożliwiający czytelnikowi odpowiedni wybór. Z tych powodów omawiane są zarówno metody i algorytmy dekompozycji liniowej, jak też dekompozycji funkcjonalnej, stwarzającej szanse opracowania uniwersalnych metod syntezy generatorów indeksów. Pełne wykorzystanie t[...]

METODY WYBORU DEKOMPOZYCJI DLA ALGORYTMU Z WYKORZYSTANIEM ZBIORÓW NIEZGODNOŚCI I ICH WPŁYW NA MINIMALIZACJĘ GENERATORÓW INDEKSÓW DOI:10.15199/59.2018.8-9.36


  1. WPROWADZENIE Funkcjami generowania indeksów [8] lub po prostu generatorami indeksów nazywamy cyfrowe układy sprzętowe, których zadaniem jest wyodrębnianie ze strumienia danych poszukiwanych wartości. W dobie Internetu Rzeczy (Internet of Things) oraz Big Data, zadanie to zyskuje coraz bardziej na znaczeniu. Generatory indeksów znajdują zastosowanie w kontrolerach TAC (Terminal Access Controller) czy tablicach trasowania adresów IP, a także w skanerach antywirusowych oraz realizacjach pamięci CAM (Content Adressable Memory). Istotną barierą w implementacjach funkcji generowania indeksów są duże rozmiary pamięci niezbędnych do ich realizacji. Pojedynczy adres MAC ma 48 bity, co oznacza, że realizacja sprzętowa powinna umożliwiać przechowywanie ustalonej wartości dla dowolnego z 248 możliwych adresów. Głównym zadaniem staje się zatem opracowanie procedury efektywnej redukcji i kompresji argumentów, która pozwoli zminimalizować wykorzystanie pamięci. Dla problemu redukcji argumentów udało się opracować skuteczne rozwiązania [2], [4]. Okazują się one jednak niewystarczające w przypadku funkcji generowania indeksów. Dla koderów m z n, używanych jako standardowe benchmarki, uzyskiwana jest redukcja liczby zmiennych zaledwie o 1. Spowodowało to rozwój nowych metod syntezy tego typu funkcji, m.in. z wykorzystaniem dekompozycji liniowej [1], [5], [9]. Celem niniejszego artykułu jest dalsze rozwinięcie metody zaproponowanej w [2] poprzez zaproponowanie nowej metody wyboru dekompozycji w poszczególnych iteracjach działania algorytmu. Dodatkowo wskazano konkurencyjność opracowanego rozwiązania względem rozwiązań dostępnych w literaturze dających najlepsze wyniki [1], [9]. 2. DEKOMPOZYCJA Z BRAMKAMI XOR Liczba zmiennych do reprezentacji funkcji boolowskiej może zostać zmniejszona dzięki zastosowaniu algorytmu dekompozycji liniowej. Algorytm ten pozwala na realizację funkcji za pomocą układu z warstwą liniową oraz warstwą funkc[...]

Układy logiczne – niewykorzystane szanse techniki cyfrowej dla telekomunikacji i teleinformatyki

Czytaj za darmo! »

W dzisiejszych czasach trudno sobie wyobrazić dziedzinę tech- niki, w której cyfrowe przetwarzanie sygnałów DSP (Digital Signal Processing) i obrazu DIP (Digital Image Processing) nie miałoby zasadniczego znaczenia dla systemów informacyjnych stosowa- nych w elektronice, telekomunikacji, a nawet medycynie. Można tu wymienić takie przykłady, jak: modemy telefoniczne, systemy cyfrowego szerokopasmow[...]

Zastosowanie dekompozycji w projektowaniu układów cyfrowych


  Podstawowym elementem każdego układu FPGA są różnej wielkości bloki pamięci. Występują one w postaci komórek logicznych i bloków pamięci ROM. Sercem komórki logicznej jest LUT (Look-Up Table) - niewielki blok pamięci o rozmiarze 2 N × M, gdzie N to liczba bitów wejściowych, a M - wyjściowych. Bity wejściowe stanowią adres tych zmiennych przechowywanych w pamięci, które mają zostać przekazane na wyjście komórki. Oprócz tego komórki logiczne są wyposażone w przerzutnik opóźniający i dodatkowe układy wejścia/wyjścia ułatwiające komunikację między komórkami. Te ostatnie nie są jednak istotne z punktu widzenia projektanta, ponieważ nie ma on wpływu na ich użycie. Zajmują się tym algorytmy syntezy kompilatora. Alternatywą dla komórek logicznych w przypadku implementacji układów kombinacyjnych modelowanych tablicami prawdy są bloki pamięci ROM, które pełnią podobną rolę jak LUT, jednak liczba bitów wejściowych i wyjściowych tych bloków jest zdefiniowana przez użytkownika. Programowanie układu FPGA polega na wypełnieniu używanych bloków pamięci danymi, a następnie skonfigurowaniu połączeń między nimi. Zajmują się tym narzędzia syntezy, dostarczone przez producenta wykorzystywanej platformy. Zadaniem projektanta jest odwzorowanie układu w języku opisu sprzętu (VHDL lub Verilog), natomiast kompilator dokonuje syntezy układu i alokacji zasobów. Ponieważ w komórce logicznej w praktyce nie są wykonywane żadne działania, a jedynie zostaje podany na wyjście wektor przechowywany w pamięci, proces minimalizacji funkcji logicznej staje się zbędny. Konieczne jest natomiast podzielenie tablicy prawdy opisującej działanie układu na kilka tablic dostatecznie małych w taki sposób, aby można było umieścić je w zastosowanych blokach pamięci. Proces ten jest nazywany dekompozycją funkcji logicznej. Trzeba podkreślić, że narzędzie to można wykorzystywać jedynie w przypadku układów kombinacyjnych, w których wektor wyjściowy zależy tylko od wartości b[...]

Hierarchiczna indukcja reguł decyzyjnych DOI:10.15199/59.2015.2-3.4


  Indukcja reguł decyzyjnych jest jednym z najważniejszych zadań w eksploracji danych. Cel indukcji ukierunkowanej na predykcję to wygenerowanie z danych zbioru reguł, które będą użyte do klasyfikowania nowych obiektów. Przez nowe obiekty rozumie się takie, które nie służyły do indukcji. Znany jest ich opis za pomocą wartości atrybutów, natomiast celem klasyfikowania jest przyporządkowanie obiektu do odpowiedniej klasy decyzyjnej. Jeżeli dla klasyfikowanego obiektu znana jest ponadto jego rzeczywista klasyfikacja, to nazywa się go przykładem testowym, gdyż możliwe jest wtedy porównanie proponowanej decyzji klasyfikacyjnej z rzeczywistą. Klasyfikowanie obiektów opiera się na dopasowaniu opisu obiektu do części warunkowych reguł decyzyjnych. Należy podkreślić, że zarówno rozwój algorytmów indukcji reguł, jak i sposób ich oceny, ukierunkowany jest przede wszystkim na perspektywę klasyfikowania nowych obiektów. Ponieważ zbiór reguł traktuje się wtedy jako klasyfikator, poprawność klasyfikowania jak największej liczby obiektów stanowi główną miarę oceny. Problem znalezienia minimalnego zbioru reguł, który obejmuje zbiór przykładów i poprawnie je klasyfikuje, jest NP-zupełny. W dowodach wykorzystuje się transformację tego problemu do problemu minimalnego pokrycia zbioru [1]. Najbardziej znane z dotychczas zaproponowanych opierają się na zasadzie generowania kolejnych pokryć (sequential covering). Polegają one na uczeniu się pojedynczej reguły, usuwaniu przykładów, które ona obejmuje i powtarzaniu procesu dla pozostałych przykładów. W rezultacie powstaje zbiór reguł obejmujących rozważany zbiór przykładów. Inną metodę indukcji reguł zastosowano w algorytmie LEM2 zaproponowanym przez Grzymałę-Busse [8]. Ta podstawowa metoda doczekała się wielu modyfikacji i jest stosowana w systemie RSES [23]. Niestety, mimo wielu modyfikacji algorytmów, generowane przez nie reguły klasyfikują obiekty ze zbyt małą precyzją. Bezpośrednią przyczyną jest[...]

Redukcja i kompresja zmiennych w syntezie funkcji generowania indeksów DOI:10.15199/59.2016.10.3


  Reduction and compression of variables in synthesis of index generation functions DOI: 10.15199/59.2016.10.3 Index Generation Functions may be useful in distribution of IP addresses, virus scanning or undesired data detection. In this paper an original method is proposed. The proposed multilevel logic synthesis method based on argument reduction and functional decomposition uses gates instead of logic cells. Furthermore, it preserves advantages of functional decomposition and is well suited for ROM-based synthesis of Index Generation Functions. Key words: Index Generation Functions, functional decomposition, argument reduction, logic cells Funkcje generowania indeksów znajdują zastosowanie w dystrybucji adresów IP, skanowaniu wirusów oraz wykrywaniu niepożądanych danych. Proponowana w artykule metoda syntezy jest modyfikacją metody redukcji argumentów i dekompozycji funkcjonalnej, polegającej na stosowaniu bramek zamiast komórek logicznych. Metoda zachowuje zalety dekompozycji funkcjonalnej i jest dostosowana do syntezy w strukturach z pamięciami ROM. Słowa kluczowe: funkcje generowania indeksów, dekompozycja funkcjonalna, redukcja argumentów, komórki logiczne Generatory indeksów to cyfrowe układy sprzętowe, których rozwój jest związany z potrzebą klasyfikacji i identyfikacji danych reprezentowanych długimi ciągami binarnymi (np. 48 bitów). Ich zastosowanie dotyczy dystrybucji adresów IP, skanowania wirusów, wykrywania niepożądanych danych, konwersji kodów itp. Metodom syntezy takich układów poświęca się coraz większą liczbę prac naukowych publikowanych w artykułach i referatach konferencyjnych [12 - 16]. Jedną z przyczyn tej sytuacji jest specyfika działania takich układów sprowadzająca ich syntezę do syntezy silnie nieokreślonych funkcji boolowskich, których cechą charakterystyczną jest ogromna liczba zmiennych, a w konsekwencji potrzeba stosowania pamięci stałych typu ROM oraz ich mniejszych odpowiedników w postaci komó[...]

 Strona 1  Następna strona »