Wyniki 1-8 spośród 8 dla zapytania: authorDesc:"Grzegorz BOROWIK"

Efektywna procedura uzupełnienia funkcji boolowskich i jej zastosowanie w eksploracji danych DOI:10.15199/59.2015.2-3.5


  W dzisiejszych czasach gromadzimy ogromne ilości danych. Wiadomości trafiające do nas mogą pochodzić z wielu źródeł, np. ankiet, mediów, urządzeń, a w szczególności z Internetu. Żaden człowiek nie dysponuje taką ilością czasu, żeby na bieżąco akumulować i analizować informacje ze wszystkich źródeł. Napływ danych jest tak wielki, że trzeba wybierać spośród dostępnych informacji jedynie te najciekawsze lub najbardziej użyteczne. W świecie maszyn istnieje podobna sytuacja. Ilość danych napływająca do systemów w postaci surowej staje się coraz bardziej kłopotliwa, a z czasem wręcz niemożliwa do przetworzenia. Dlatego - tak jak ludzie w życiu codziennym - systemy komputerowe muszą poddawać dane selekcji lub agregacji przed przystąpieniem do konkretnych działań (w szczególności obliczeń). Następnie dokonuje się proces nazywany uczeniem się maszyn, w którym maszyna - po przetworzeniu zestawu danych wejściowych, zwanych również danymi treningowymi - potrafi podjąć decyzję w nowych sytuacjach. We wszystkich etapach przetwarzania danych mogą okazać się przydatne metody optymalizacji układów kombinacyjnych znane z techniki cyfrowej. Mogą one posłużyć w procesie automatycznej analizy danych do wydobycia informacji ukrytych dla człowieka (data mining). W konsekwencji możliwe jest uzyskanie reguł, na podstawie których można na przykład zdiagnozować pacjenta, wykryć nielegalny transfer pieniędzy lub niepowołany dostęp do danych. W artykule przedstawiono sposób redukcji danych z wykorzystaniem innowacyjnej metody syntezy logicznej - procedury Unate Complement. Podstawowym powodem, dla którego powstał ten artykuł, jest możliwość zastosowania proponowanej metody analizy danych w medycynie i telekomunikacji [15, 16]. Wykorzystanie metod eksploracji danych, a zatem i omawianego algorytmu, nie ogranicza się jednak do tych dziedzin; ich liczne zastosowania of the 23 International Conference on Systems Engineering, Advances in Intelligent Systems [...]

Zastosowanie dekompozycji w projektowaniu układów cyfrowych


  Podstawowym elementem każdego układu FPGA są różnej wielkości bloki pamięci. Występują one w postaci komórek logicznych i bloków pamięci ROM. Sercem komórki logicznej jest LUT (Look-Up Table) - niewielki blok pamięci o rozmiarze 2 N × M, gdzie N to liczba bitów wejściowych, a M - wyjściowych. Bity wejściowe stanowią adres tych zmiennych przechowywanych w pamięci, które mają zostać przekazane na wyjście komórki. Oprócz tego komórki logiczne są wyposażone w przerzutnik opóźniający i dodatkowe układy wejścia/wyjścia ułatwiające komunikację między komórkami. Te ostatnie nie są jednak istotne z punktu widzenia projektanta, ponieważ nie ma on wpływu na ich użycie. Zajmują się tym algorytmy syntezy kompilatora. Alternatywą dla komórek logicznych w przypadku implementacji układów kombinacyjnych modelowanych tablicami prawdy są bloki pamięci ROM, które pełnią podobną rolę jak LUT, jednak liczba bitów wejściowych i wyjściowych tych bloków jest zdefiniowana przez użytkownika. Programowanie układu FPGA polega na wypełnieniu używanych bloków pamięci danymi, a następnie skonfigurowaniu połączeń między nimi. Zajmują się tym narzędzia syntezy, dostarczone przez producenta wykorzystywanej platformy. Zadaniem projektanta jest odwzorowanie układu w języku opisu sprzętu (VHDL lub Verilog), natomiast kompilator dokonuje syntezy układu i alokacji zasobów. Ponieważ w komórce logicznej w praktyce nie są wykonywane żadne działania, a jedynie zostaje podany na wyjście wektor przechowywany w pamięci, proces minimalizacji funkcji logicznej staje się zbędny. Konieczne jest natomiast podzielenie tablicy prawdy opisującej działanie układu na kilka tablic dostatecznie małych w taki sposób, aby można było umieścić je w zastosowanych blokach pamięci. Proces ten jest nazywany dekompozycją funkcji logicznej. Trzeba podkreślić, że narzędzie to można wykorzystywać jedynie w przypadku układów kombinacyjnych, w których wektor wyjściowy zależy tylko od wartości b[...]

Dyskretyzacja danych numerycznych metodami przekształceń boolowskich


  Dyskretyzacja danych numerycznych stanowi część przetwarzania wstępnego (rys. 1 [19, 31]), niezbędnego w typowych procesach odkrywania wiedzy i eksploracji danych, których znaczenie we współczesnej telekomunikacji trudno przecenić. Przekształcenie ciągłych wartości atrybutów na ich dyskretne odpowiedniki umożliwia dalszą analizę za pomocą algorytmów eksploracji danych, takich jak redukcja atrybutów lub indukcja reguł, które z natury rzeczy wymagają danych symbolicznych. Nawet w przypadku braku takiego wymagania dyskretyzacja umożliwia przyspieszenie procesu eksploracji danych oraz zwiększenie dokładności (accuracy) przewidywań (klasyfikacji) [12].Typowym przykładem zastosowań odkrywania wiedzy z baz danych z dyskretnymi wartościami atrybutów jest wykrywanie anomalii w sieciach telekomunikacyjnych. Są to systemy pracujące według typowego schematu maszynowego uczenia, gdyż kombinacja reguł oraz algorytmów klasyfikacji służy do wykrywania anomalii na podstawie analizy danych treningowych. System w fazie nauki tworzy bazę wiedzy, zawierającą wzorce analizowanych anomalii. Następnie, z wykorzystaniem algorytmu podejmowania decyzji i klasyfikacji, można utworzyć zbiór reguł decyzyjnych klasyfikujących bieżące dane. Baza danych Spambase Data Set [2] (źródło: Mark Hopkins, Erik Reeber, George Forman, Jaap Suermondt, Hewlett-Packard Labs, Palo Alto, California, USA), jest zbiorem danych, dla którego celem jest uzyskanie reguł klasyfikujących wiadomości według następujących sytuacji: y_spam (wiadomość jest spamem), n_spam PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK LXXXVII  nr 10/2014 1335 butu a ∈ A, U × A → V jest funkcją informacji, taką że f (a,x) ∈ Va dla każdego a ∈ A i x ∈ U. Zamiast funkcji informacji f można rozpatrywać jednoparametrową rodzinę funkcji fx: A → V, taką że fx (a) = f (a,x) dla każdego a ∈ A i ustalonego x ∈ U, zwaną dalej informacją o elemencie x ∈ U w[...]

Hierarchiczna indukcja reguł decyzyjnych DOI:10.15199/59.2015.2-3.4


  Indukcja reguł decyzyjnych jest jednym z najważniejszych zadań w eksploracji danych. Cel indukcji ukierunkowanej na predykcję to wygenerowanie z danych zbioru reguł, które będą użyte do klasyfikowania nowych obiektów. Przez nowe obiekty rozumie się takie, które nie służyły do indukcji. Znany jest ich opis za pomocą wartości atrybutów, natomiast celem klasyfikowania jest przyporządkowanie obiektu do odpowiedniej klasy decyzyjnej. Jeżeli dla klasyfikowanego obiektu znana jest ponadto jego rzeczywista klasyfikacja, to nazywa się go przykładem testowym, gdyż możliwe jest wtedy porównanie proponowanej decyzji klasyfikacyjnej z rzeczywistą. Klasyfikowanie obiektów opiera się na dopasowaniu opisu obiektu do części warunkowych reguł decyzyjnych. Należy podkreślić, że zarówno rozwój algorytmów indukcji reguł, jak i sposób ich oceny, ukierunkowany jest przede wszystkim na perspektywę klasyfikowania nowych obiektów. Ponieważ zbiór reguł traktuje się wtedy jako klasyfikator, poprawność klasyfikowania jak największej liczby obiektów stanowi główną miarę oceny. Problem znalezienia minimalnego zbioru reguł, który obejmuje zbiór przykładów i poprawnie je klasyfikuje, jest NP-zupełny. W dowodach wykorzystuje się transformację tego problemu do problemu minimalnego pokrycia zbioru [1]. Najbardziej znane z dotychczas zaproponowanych opierają się na zasadzie generowania kolejnych pokryć (sequential covering). Polegają one na uczeniu się pojedynczej reguły, usuwaniu przykładów, które ona obejmuje i powtarzaniu procesu dla pozostałych przykładów. W rezultacie powstaje zbiór reguł obejmujących rozważany zbiór przykładów. Inną metodę indukcji reguł zastosowano w algorytmie LEM2 zaproponowanym przez Grzymałę-Busse [8]. Ta podstawowa metoda doczekała się wielu modyfikacji i jest stosowana w systemie RSES [23]. Niestety, mimo wielu modyfikacji algorytmów, generowane przez nie reguły klasyfikują obiekty ze zbyt małą precyzją. Bezpośrednią przyczyną jest[...]

Indukcja reguł decyzyjnych z dwustopniowym procesem selekcji reguł


  Postęp w dziedzinie techniki komputerowej, jaki dokonał się w ostatnich latach, umożliwia gromadzenie ogromnej ilości danych. Jednak celem nadrzędnym nie jest gromadzenie samych danych, a otrzymywanie z nich wiedzy - pewnych wzorców, reguł, które umożliwią lepszą systematyzację i wyjaśnienie obserwowanych zjawisk. Odpowiedzią na te potrzeby jest odkrywanie wiedzy z baz danych (Knowledge Discovery in Databases - KDD). Obejmuje ono eksplorację danych jako jeden z elementów składowych związany z użyciem konkretnego algorytmu w celu ekstrakcji wybranej reprezentacji wiedzy z danych. Eksploracja danych umożliwia rozwiązywanie problemów klasyfikacji, czyli odkrywanie zależności między wartościami atrybutów a klasami obiektów, istniejących w zbiorze, w celu określania przewidywanej decyzji dla nowego przypadku. Wspomaganie podejmowania decyzji jest istotnym zadaniem eksploracji danych. Nie ma najmniejszych wątpliwości, że eksploracja danych jest dziedziną interdyscyplinarną, zarówno pod względem zastosowań, jak i wykorzystywanych metod badawczych. Coraz częściej stosuje się ją w naukach przyrodniczych (wyodrębnianie cech określających przynależność gatunkową), w medycynie (systemy wspomagania diagnostyki), ekonomii i bankowości (wstępna analiza możliwości kredytowych). Odkrywanie wiedzy z baz danych jest również stosowane w marketingu, wykrywaniu defraudacji oraz identyfikacji i przewidywaniu błędów w sieciach telekomunikacyjnych, a także przy klasyfikowaniu wiadomości mailowych. Eksploracja danych integruje metody badawcze, takie jak: teoria zbiorów przybliżonych, przekształcenia boolowskie, logika rozmyta czy metody statystyczne. Wykorzystuje również techniki i metody przekształceń boolowskich, powszechnie stosowane w syntezie logicznej układów cyfrowych [14]. Różnorodność i wielość metod eksploracji danych, wywodzących się często z różnych dyscyplin badawczych, utrudnia potencjalnym użytkownikom identyfikację metod, które są n[...]

Wybrane aspekty praktyczne modelowania i prognozowania rozwoju przestępczości DOI:10.15199/59.2018.11.3


  Współcześnie rozwój wiedzy w jej obszarach aplikacyjnych, w tym także w kryminalistyce i kryminologii, zależy głównie od sposobu tworzenia i przekazywania użytecznej informacji. Wiedza tworzona na podstawie danych i przetwarzanej informacji może być wykorzystana w modelowaniu i prognozowaniu procesów, a także masowych zjawisk społecznych lub indywidualnych zachowań, w tym w odniesieniu do skomplikowanego zjawiska przestępczości [22]. Zastosowanie wielkoskalowych narzędzi do analityki danych jest również obecne w obszarach zarządzania procesami biznesowymi powiązanymi z aspektami społecznymi [26]. Stało się więc koniecznością używanie tych technik do modelowania i prognozowania zjawisk społecznych, a w tym przestępczych [22]. Przenikanie się wielu dziedzin społeczno-politycznych w domenie informacyjnej podkreśla ich wewnętrzne związki (przez tzw. zmien- ne endogeniczne) i konieczność wydobywania wiedzy w celu tworzenia modeli wyjaśniających (eksplanacyjnych) opartych na obserwacjach (danych eksperymentalnych) [38]. W organizacjach Policji i organów ścigania wielu państw funkcjonuje duża liczba zautomatyzowanych systemów zarządzania. Metody predykcyjne w technikach policyjnych są obecnie szeroko stosowane i na ich podstawie organy ścigania rutynowo podejmują decyzje operacyjne [32]. W tych procesach znajdują zastosowanie klasyczne i teoretyczne dziedziny wiedzy (matematyka, fizyka czy chemia) wspierane technologiami informacyjnymi, np. badanie semantycznego obrazu, dźwięku i tekstu [1]. Metaanalizy wykazały, że zarządzanie i oddziaływanie policyjne typu predictive policing mają istotne znaczenie dla zmniejszania przestępczości [33], [34]. Rozwój modeli predykcyjnych w zastosowaniu do prognozowania zdarzeń przestępczych, na podstawie analizy obserwowanych danych, wymaga dostarczenia rzeczywistych informacji o zdarzeniach. Pociąga to za sobą konieczność autoryzowanego (ograniczonego) prawa dostępu osób do danyc[...]

Logic synthesis strategy for FPGAs with embedded memory blocks

Czytaj za darmo! »

With the evolution of programmable structures, that become more heterogeneous, the process of mapping a design into these structures becomes more and more complex. Modern FPGA chips are equipped with embedded memory blocks that can be used to increase the implementation quality of the design. The paper presents a logic synthesis method based on balanced decomposition that uses the concept of radmissibility to efficiently utilize possibilities provided by memory blocks embedded in modern FPGA architectures. Results presented in this paper prove the effectiveness of proposed approach. Streszczenie. Wraz z rozwojem struktur programowalnych, które mają coraz bardziej heterogeniczną budowę, proces odwzorowania projektowanego systemu w tych strukturach staje się coraz bardziej złożony. Nowoczesne układy FPGA są wyposażone w zagrzebane bloki pamięciowe, które mogą być wykorzystane do zwiększenia efektywności projektowanego systemu. W artykule zaprezentowano metodę syntezy logicznej opartej na dekompozycji zrównoważonej, która wykorzystuje koncepcję r-przydatności w celu efektywnego wykorzystania możliwości oferowanych przez wbudowane bloki pamięciowe. Rezultaty zaprezentowane w artykule potwierdzają skuteczność zaproponowanej metody. (Strategia syntezy logicznej dla układów FPGA z wbudowanymi blokami pamięciowymi) Keywords: logic synthesis, functional decomposition, FPGA, technology mapping, wavelet filters. Słowa kluczowe: synteza logiczna, dekompozycja funkcjonalna, układy FPGA, odwzorowanie technologiczne, filtry falkowe. Introduction The technological advancements in Field Programmable Gate Arrays (FPGAs) in the past decade have opened new paths for digital systems design engineers. The FPGA maintains the advantages of custom functionality like an ASIC while avoiding the high development costs and the inability to make design modifications after production. The FPGA also adds design flexibility and adaptability with optimal device utiliza[...]

Rola i znaczenie syntezy logicznej w eksploracji danych dla potrzeb telekomunikacji i medycyny


  Metody syntezy logicznej są wykorzystywane głównie do optymalizacji systemów cyfrowych przetwarzających sygnały binarne. Ich podstawowym zadaniem jest poprawa implementacji oraz możliwości realizacji systemów w różnych technologiach. Można jednak wykazać, że wiele metod syntezy logicznej, a w szczególności tych wykorzystywanych do optymalizacji kombinacyjnych układów logicznych, może być z powodzeniem zastosowanych w typowych zadaniach przetwarzania i wyszukiwania informacji, odkrywania/eksploracji wiedzy, optymalizacji baz danych, a także w dziedzinie systemów ekspertowych, maszynowego uczenia czy sztucznej inteligencji [3, 5]. Przez eksplorację danych, znaną również pod nazwą odkrywania wiedzy w bazach danych, rozumie się proces automatycznego pozyskiwania z baz danych znaczących, ale dotychczas nieznanych informacji. Dlatego te informacje określa się jako "ukryte", a celem jest te informacje wyekstrahować. W wyniku eksploracji danych można na pewnym poziomie abstrakcji: zdiagnozować pacjenta, przeprowadzić sondaż, np. przed wyborami prezydenckimi, klasyfikować dane internetowe czy podjąć decyzję o przyznaniu bądź odrzuceniu kredytu. Jednym z ważniejszych zastosowań algorytmów eksploracji danych w telekomunikacji jest wykrywanie anomalii w systemach i sieciach telekomunikacyjnych. Ponieważ decyzja o wykryciu anomalii jest podejmowana na podstawie kombinacji reguł decyzyjnych wygenerowanych przez algorytm dla danych treningowych, algorytm jest typową procedurą uczenia się maszyn. System tworzy bazę wiedzy, zawierającą wzorce analizowanych anomalii, a następnie - przy użyciu algorytmu podejmowania decyzji i klasyfikacji - klasyfikuje bieżące dane. Charakterystycznym przykładem danych treningowych jest baza dla klasyfikacji poczty elektronicznej [21], która zawiera 58 042 rekordów reprezentowanych przez 64 atrybuty, natomiast celem algorytmu jest uzyskanie reguł decyzyjnych klasyfikujących dane zgodnie z następującymi warunk[...]

 Strona 1