Wyniki 1-4 spośród 4 dla zapytania: authorDesc:"Wiesław SIEŃKO"

Oscylacyjny model sieci neuronowej jako system wbudowany DOI:10.15199/ELE-2014-150


  Celem niniejszego artykułu jest prezentacja pewnego neuromorficznego modelu systemu inteligencji obliczeniowej. Model taki uzyskano przez wbudowanie filtru ortogonalnego, wykorzystującego strukturę hamiltonowskiej sieci neuronowej, w sieć sprzężonych pętli fazowych. Koncepcja wykorzystującą sieci sprzężonych oscylatorów fazowych do implementacji oscylujących modeli neuromorficznych nie jest nowa [1, 2, 3, 4]. Wydaje się jednak, że w/w koncepcja struktury wbudowanej nie jest opisana w literaturze przedmiotu. Hamiltonowskie sieci neuronowe i filtry ortogonalne Jak wiadomo, autonomiczny system hamiltonowski opisany jest równaniem stanu o postaci: (1) gdzie: x - wektor stanu, [...]

Zastosowanie macierzy Hurwitza-Radona w uczeniu maszynowym DOI:10.15199/13.2016.10.7


  Streszczenie W artykule przedstawiono zastosowanie macierzy Hurwitza-Radona do syntezy systemu uczenia maszynowego. Jako przykład zastosowania systemu wybrano predykcję ciągów czasowych generowanych przez chaotyczne równanie Mackey-Glass’a. Słowa kluczowe: uczenie maszynowe, kwantowe przetwarzanie sygnałów, predykcja szeregów czasowych, macierze Hurwitza-Radona Abstract The purpose of this article is to present a model of the machine learning system which is based on a Hurwitz-Radon matrices. This system is used to predict time series genereted by the Mackey-Glass equation. Keywords: machine learning, quantum signal processing, time series prediction, Hurwitz-Radon matrices Jedną z zasadniczych grup metod przetwarzania sygnałów, takiego jak separacja i filtracja, są transformacje dokonujące projekcji analizowanych sygnałów na zbiory wektorów bazowych. W ogólności transformacje takie, wykorzystujące odpowiednie macierze, dzieli się na ortogonalne, w przypadku ortogonalnego systemu wektorów bazowych, oraz biortogonalne bez zachowania warunku ortogonalności wektorów bazy. Warto zwrócić uwagę, że także transformacje biortogonalne mogą być bezstratne w przypadku odwracalności macierzy transformacyjnej. Inną kategoryzację w/w transformacji uzyskuje się przez ich podział na transformacje o ustalonych wektorach bazy, jak na przykład Dyskretna Transformacja Fouriera (DFT), oraz na transformacje zależne od właściwości przetwarzanych sygnałów. Do tej kategorii zalicza się przede wszystkim transformacje ortogonalne PCA (Principal Component Analysis) oraz ICA (Independent Component Analysis) [1]. Obydwie te transformacje wykorzystuje się obecnie do tzw. ślepej separacji sygnałów (BBS - Blind Signal/Source Separation). Jak pokazano w szeregu pracach [2, 3] także macierze Hurwitza-Radona można wykorzystać do tworzenia z[...]

Realizacja pamięci skojarzeniowej z zastosowaniem modelu uczenia maszynowego DOI:10.15199/48.2017.08.20

Czytaj za darmo! »

W pracach [1, 2] zaprezentowano model nauczania maszynowego wykorzystując, oparte na macierzach Hurwitza-Radona transformacje biortogonalne i ortogonalne. Podstawową funkcją tego modelu jest implementacja pewnego odwzorowania d = F(x), d  Rm, x  Rn, generowanego przez zbiór treningowy 1 { , }N i i i S x d  . Ważną cechą modelu jest jego uniwersalność pozwalająca na realizację podstawowych funkcji systemów uczących się, takich jak kojarzenie wzorców (Pattern Association), rozpoznawanie i klasyfikacja wzorców (Pattern Recognition) oraz modelowanie odwrotne (Inverse Modelling). Własność kojarzenia wzorców została w niniejszej pracy zilustrowana przykładem rekonstrukcji obrazu Leny. Kojarzenie/Rekonstrukcja wzorców (obrazów) Struktura systemu uczenia maszynowego opartego na macierzach Hurwitza-Radona została zaprezentowana we wcześniejszych pracach w których pokazano zastosowania do predykcji ciągów czasowych generowanych w deterministycznych układach chaotycznych [2]. Badany system uczenia maszynowego można wykorzystać także do rekonstrukcji obrazów na podstawie niepełnych wzorców. W niniejszej pracy przedstawiono rekonstrukcję obrazów czarno-biały[...]

Zastosowanie modelu uczenia maszynowego do realizacji procesora analogowego DOI:10.15199/48.2018.09.14

Czytaj za darmo! »

W pracach [1, 2, 3] zaprezentowano, bazujący na analizie spektralnej model uczenia maszynowego wykorzystujący transformacje biortogonalne i ortogonalne zrealizowane w oparciu o macierze Hurwitza-Radona [4]. Podstawową funkcją tego modelu jest implementacja pewnego odwzorowania d = F(x), d  Rn, x  Rm, generowanego przez zbiór treningowy S = {xi, di}N i=1. Należy podkreślić, że model ten charakteryzuje się uniwersalnością, pozwalającą na realizację podstawowych funkcji systemów uczących się, takich jak kojarzenie (Pattern Association), rozpoznawanie i klasyfikacja wzorców (Pattern Recognition) oraz modelowanie odwrotne (Inverse Modelling). Ze względu na własności użytych w modelu transformat wykazuje on cechy pozwalające na zakwalifikowanie go do dziedziny kwantowego przetwarzania sygnałów (Quantum Signal Processing). Wspomniany model został w niniejszej pracy wykorzystany do syntezy analogowego procesora wykonującego operacje dodawania i mnożenia liczb rzeczywistych. We wcześniejszych pracach pokazano także możliwość zastosowania takiego modelu uczenia maszynowego do predykcji ciągów czasowych generowanych przez układy chaotyczne [2] oraz do rekonstrukcji obrazów na podstawie uszkodzonych wzorców [3]. Struktura modelu uczenia maszynowego Strukturę rozważanego modelu uczenia maszynowego pokazano na rys.1. Jego podstawową funkcją jest implementacja pewnego odwzorowania d = F(x), zadanego w punktach treningowych {xi, di}N i=1. Rys.1. Struktura modelu uczenia maszynowego Zadany zbiór treningowy S = {xi, di}N i=1, gdzie xi  Rn, di  Rm transformuje się do zbioru wektorów ui o postaci: (1) ;i 1, ,N d x u i i i         gdzie : dim ui = n + m, n + m = 2k, k = 2, 3, (Powyższe założenie wynika z własności macierzy Hutwitza-Radona) Transformacja ortogonalna T(·) z wykorzystaniem macierzy Hurwitza-Radona [...]

 Strona 1