Wyniki 1-10 spośród 22 dla zapytania: authorDesc:"Andrzej Czyżewski"

Katedra Systemów Multimedialnych


  Rys historyczny Dzisiejsza Katedra Systemów Multimedialnych ma ponad 40-letnią historię rozwoju. Jej kamieniami milowymi są następujące daty: 1968 - powstanie Zakładu Elektrofonii, będącego częścią Instytutu Telekomunikacji, wchodzącego w skład Wydziału Elektroniki; głównym inspiratorem powstania Zakładu była doc. dr inż. Marianna Sankiewicz; 1982 - objęcie kierownictwa Zakładu przez doc. dr. inż. Gustawa Budzyńskiego, jednocześnie zmiana nazwy na Zakład Inżynierii Dźwięku; doc. dr inż. Gustaw Budzyński kierował Zakładem przez 9 kolejnych lat, tworząc program pierwszej w kraju - i przez długie lata jedynej podówczas - specjalności pod nazwą inżynieria dźwięku; 1985 - zorganizowanie przez Zakład Inżynierii Dźwięku I Sympozjum Inżynierii i Reżyserii Dźwięku, na którym przedstawiono wyniki prac naukowych z tej dziedziny; od tej pory Sympozjum to jest organizowane co dwa lata przez różne ośrodki naukowe w Polsce; 1991 - reorganizacja Wydziału Elektroniki; kierownictwo Zakładu objął dr hab. inż. Andrzej Czyżewski, ponadto - dzięki owocnej pracy naukowej wszystkich pracowników Zakładu - otrzymano zgodę ze strony władz Audio Engineering Society na utworzenie polskiej sekcji tego międzynarodowego towarzystwa naukowego - w ciągu pierwszych dwóch lat jej istnienia członkami zostało ponad 150 osób z całego kraju; kolejne uczelnie krajowe zaczynają realizować specjalności związane z inżynierią dźwięku; 1995 - zmiana nazwy macierzystego Wydziału na Wydział Elektroniki, Telekomunikacji i Informatyki; 1995 - wybór doc. dr inż. Marianny Sankiewicz na wiceprezydenta międzynarodowego towarzystwa naukowego Audio Engineering Society; powstanie w Zakładzie Polskiej Sekcji Studenckiej tego towarzystwa; 1997 - przekształcenie Zakładu w samodzielną jednostkę - Katedrę Inżynierii Dźwięku; 2000 - w wyniku poszerzenia zakresu prac badawczych, prowadzonych w Katedrze, zmiana jej nazwy na Katedra Inżynierii Dźwięku i Obrazu; 2003 - wybór prof. Boż[...]

Real-time speech stretching for supporting hearing impaired schoolchildren

Czytaj za darmo! »

In many applications it is necessary to modify sound signal by stretching or shrinking it in the time-domain. Time scale modifi cation (TSM) is often used in radio and television to adjust the time of a program to the available on-air time. For example when the duration of the TV interview is 40 s and it has to be presented in 35 s, lectors speech should be shrunk [4]. Other application of TSM algorithms is in the audio books. Time of the lector speech is modifi ed according to users preferences [9]. As it was shown in literature [9] time stretching has a benefi cial infl uence on speech understanding for children with hearing impairments. It is possible to improve speech recognition using complex speech signal processing, such as changing the level of sound in various frequen[...]

Automatyczna lokalizacja źródła dźwięku w obecności zakłóceń z wykorzystaniem wektorowych czujników akustycznych


  Przedmiotem opracowania jest zastosowanie technologii wektorowych czujników akustycznych do lokalizowania źródeł dźwięku. Wektorowy czujnik akustyczny AVS (ang. Acoustic Vector Sensor) umożliwia bezpośredni pomiar wybranej składowej prędkości cząstek powietrza zamiast ciśnienia akustycznego, mierzonego za pomocą konwencjonalnych mikrofonów. Dzięki temu możliwy jest bezpośredni pomiar natężenia dźwięku. Pojedynczy czujnik umożliwia pomiar jednej składowej wektora prędkości. Odpowiednie ustawienie trzech czujników umożliwia pomiar trzech wzajemnie ortogonalnych składowych wektora prędkości. Dzięki temu możliwe jest dokładne lokalizowanie źródła dźwięku w przestrzeni 3D. Dodatkowo, oprócz czujników prędkości, w kompletnej sądzie 3D dołączony jest również miniaturowy mikrofon pojemnościowy. Taka konfiguracja i budowa sondy natężeniowej cechuje unikatowa funkcjonalność i duża różnorodność zastosowań. Na rysunku 1 przedstawiono wygląd i rozmiary kompletnego czujnika wektorowego 3D. Zastosowanie dodatkowych metod cyfrowego przetwarzania sygnału (filtracja pasmowa, rozplot) umożliwiają określanie kierunku dobiegania dźwięku dla wielu źródeł jednocześnie [1, 5]. Określenie "jednocześnie" oznacza, że w tej samej chwili czasu wiele różnych źródeł wytwarza energię akustyczną, przy czym amplitudy sygnałów pochodzących z różnych źródeł mogą być zbliżone. Schemat opracowanego algorytmu pasywnego radaru akustycznego przedstawiono na rys. 2. Rys. 2. Schemat blokowy algorytmu pasywnego radaru akustycznego Fig. 2. The block diagram of the passive acoustic radar algorithm Pojedynczy czujnik AVC jest zbudowany z dwóch rezystancyjnych drucików podgrzewanych do temperatury około 200°C. Ruch powietrza prowadzi do spadku temperatury. Spadek temperatury jest proporcjonalny do kwadratu prędkości cząstek. Mierząc bezwzględną zmianę temperatury możliwe jes[...]

Aktywny system RFID do lokalizacji i identyfikacji obiektów w wielomodalnej infrastrukturze bezpieczeństwa


  Coraz szybszy rozwój techniki, elektroniki, teleinformatyki, radiokomunikacji oraz innych dziedzin nauki jest zorientowany na tworzenie przestrzeni tzw. inteligentnych miast (Smart Cities). Jeden z podstawowych paradygmatów rozwoju takich miast stanowi interoperacyjność wielu z pozoru niezależnych dziedzin nauki i techniki. Istotnym obszarem związanym z koncepcją inteligentnych miast jest bezpieczeństwo publiczne. Obserwowane na przełomie ostatnich lat zagrożenia bezpieczeństwa i spowodowany nimi wzrost zaniepokojenia społecznego skłoniły Komisję Europejską do ufundowania - w ramach Siódmego Programu Ramowego - oddzielnej puli grantów, przeznaczonej wyłącznie na badania i rozwój w tej dziedzinie. Rozwój nauki i technologii, skoncentrowany w obszarze bezpieczeństwa, przyczynił się do zdefiniowania pojęcia inteligentnego monitoringu (smart surveillance). Termin ten określa grupę systemów teleinformatycznych, potrafiących automatycznie analizować otrzymywane dane w celu wykrywania zdarzeń i zachowań potencjalnie niebezpiecznych. Inteligentne systemy bezpieczeństwa w większości opierają się na analizie strumieni wizyjnych [1]. Działanie takich systemów polega na przetwarzaniu danych wizyjnych w celu detekcji [2] i klasyfikacji obiektów [3], śledzenia tych obiektów [4], wykrywania twarzy [5], zliczania obiektów oraz analizy zachowań tłumu. Odpowiednia konfiguracja procesu analizy umożliwia automatyczną detekcję zdefiniowanych zdarzeń złożonych, np. takich, jak przekroczenie wirtualnej bariery, poruszanie się obiektu niezgodnie z obowiązującym kierunkiem ruchu, przebywanie w zastrzeżonym obszarze czy pozostawienie bagażu bez nadzoru. Stosowanie inteligentnych systemów bezpieczeństwa ma na celu automatyzację procesu analizy danych oraz bezobsługowe informowanie personelu o wykrytych zagrożeniach i zdarzeniach niebezpiecznych. Decyzja o ewentualnej interwencji jest podejmowana przez pracowników ochrony na podstawie obserwacji i anal[...]

Adaptive acoustic crosstalk cancellation in mobile computer device DOI:10.15199/ELE-2014-007


  Recently one of the main paradigms in audio engineering is enhancement of spatial perception of sound. In that field, Virtual Acoustic Space (VAS) technique emerges. It is based on creating an illusion of 3D audio experience by exploiting the physical foundations of spatial hearing. The well-known Head- Related Transfer Functions (HRT Fs) are often used to that end [1]. While the creation of virtual sound sources is relatively easy to achieve using headphones, obtaining a VAS using loudspeakers remains a challenge. The task is particularly difficult in mobile conditions, while using a mobile computer as a playback device. We focus on investigating the practical possibility of creating a virtual sound experience using a typical mobile computer. The examined method relies on the acoustic crosstalk cancellation algorithm. The acoustic crosstalk cancellation algorithm (often denoted XTC ) is a known tool used to eliminate the signals transmitted from the left loudspeaker to the right ear (and vice versa) in freefield listening. The goal is to enable clear transmission of signals to the ipsilateral ears, thus providing a similar auditory experience to headphone listening. It is commonly referred to as binaural audio through loudspeakers (BAL) [2]. The benefit of such an effect is advanced control of the stereo image. Ideally, spatial cues encoded in HRT Fs can be used to create virtual sound sources outside the loudspeaker area. This leads to widening of the stereo image and an enhanced audio experience. Meanwhile, the BAL effect achieved with XTC algorithm is not perfect. The cancellation of signals transmitted to the contralateral ears is achieved only to a limited area - the sweet spot. Outside the sweet spot the crosstalk cancellation fails and perceived sound is degraded due to spectral coloration. Due to the physical constraints of the algorithm even a slight displacement of the head can deteriorate the XTC efficiency. In ou[...]

Modified dynamic time warping method applied to handwritten signature authenticity verification DOI:10.15199/13.2017.4.4


  A signature verification system based on static features and time -domain functions of signals obtained using a tablet has been presented in the paper. The signature verification method, based mainly on dynamic time warping coupled with some signature image features, has been described. The FRR measures reflecting the method’s efficiency have been evaluated for verification attempts performed directly after obtaining model signatures and for delayed attempts made after two days. The FAR measures have been assessed both: for simple and for skilled forgeries. The dynamic time warping-based verification has been also examined after applying it to the signals obtained using the developed biometric pen. Obtained results are presented and discussed in the paper. Keywords: handwritten signature verification; dynamic time warping; optimal path tracing; biometric pen.I. Introduction There can be distinguished two main approaches to the verification of signature authenticity, namely static (also called off-line or feature-based) and dynamic (also called on-line or function-based) analysis. In the first approach only the signature image or the signature trajectory formed on the basis of samples taken at particular time moments is analyzed considering such features as number of crossings, pixel density or gravity center distance [1]. In the second approach, time-domain functions describing parameters such as velocity, acceleration, pressure or pen inclination are analyzed. The common methods used in this approach are dynamic time warping [2, 3] and Hidden Markov Models [4, 5] with the first one generally outperforming the latter one, although when enough model signatures are available the contrary can be claimed [6]. In some approaches the methods typically associated with on-line verification, such as dynamic time warping, are used in the off-line analysis based on template matching [7]. In the paper, a method based on both static[...]

Estimation of object size in the calibrated camera image

Czytaj za darmo! »

Video surveillance systems are becoming a common tool for improving the public security. However, the efficiency of these systems is limited by a fact that a human operator has to observe constantly a large number of monitors for detection of events occurring in the images captured by cameras. One method of improving the efficiency of the discussed systems is introduction of the automatic tool that assists the human operator by automatically analysing the camera images and informing the operator about important events that were detected [1]. However, accurate detection of events in the camera images requires that the detected moving objects are assigned to proper classes and this classification requires that the physical size of the tracked object (not the size in image pixels[...]

Infl uence of accelerometer signal pre-processing and classifi cation method on human activity recognition

Czytaj za darmo! »

Human activity recognition (AR) plays an important role in many of the R&D projects concerning Quality of Life or eHealth [1-3]. Not only the amount of movements but also precise information about the movement type are crucial in nowadays context-aware computer applications. For example recognizing particular activities, such as walking or hands positioning, enables disease symptoms recognition and analysis for Parkinson’ disease patients [4, 5]. Most popular techniques for AR utilize accelerometer data [6-8]. Modern 3-axis accelerometers, being small and light electronic devices [6], allow capturing movement characteristics for different body positions [6-8]. The resulting data can be processed by different classifi ers in order to recognize various activities of analyz[...]

Badanie rozpoznawania twarzy przez człowieka z wykorzystaniem systemu śledzenia fiksacji wzroku Cyber-Oko


  Pomimo ponad 40 lat prac nad rozwojem algorytmów rozpoznawania twarzy do tej pory nie udało się osiągnąć zadowalającej skuteczności w warunkach rzeczywistych. Z początkiem lat 90-tych metody całościowe takie jak Eigenface [4] czy Fisherface [5], polegały na traktowaniu zdjęć całej twarzy jako wektora wejściowego, który był przekształcany matematycznie w celu stworzenia wektora cech. Podejście lokalne, popularne w drugiej połowie lat 90-tych, obejmowało tworzenie wektora cech na podstawie punktów szczególnych twarzy i dopasowaniu do nich elastycznego grafu (EBGM [9], AAM [2]). Od początku XXI wieku najpopularniejsze stały się metody hybrydowe, łączące podejścia lokalne i globalne, z wykorzystaniem technik trójwymiarowych (morfowalne modele 3D [8]). Ostatnio są często rozwijane algorytmy hybrydowe, w których - opierając się na położeniu punktów szczególnych - wydziela się obszary twarzy (tzw. komponenty), które są przetwarzane metodami całościowymi i następnie dokonuje się ekstrakcji cech [1]. Ostatnie prace podkreślają wysoką skuteczność metod hybrydowych, zorientowanych na wyodrębnienie komponentów, w tym stosunkowo dużą tolerancję na zmiany pozy [1]. W pracy przedstawiono wyniki nowatorskich eksperymentów badawczych, dotyczących sposobu zapamiętywania i rozpoznawania twarzy przez człowieka. Okazuje się, że człowiek analizuje twarze w sposób bardzo podobny do zasadny działania algorytmów zorientowanych na wyodrębnienie komponentów. Przedstawione wyniki mogą przyczynić się do ulepszenia algorytmów automatycznego rozpoznawania twarzy oraz w pewnym stopniu osłabiają rozpowszechniony pogląd o niezwykłej skuteczności rozpoznawania twarzy przez człowieka. System Cyber-Oko Cyber-Oko jest systemem śledzenia punktu fiksacji wzroku osoby siedzącej przed monitorem komputera. System został opracowany w Katedrze Systemów Multimedialnych Politechniki Gdańskiej. Główne cechy funkcjonalne tego [...]

 Strona 1  Następna strona »