Wyniki 1-10 spośród 39 dla zapytania: authorDesc:"A. KARWOWSKI"

Reconstructing wide-band system response from full-wave electromagnetic simulation by adaptive frequency sampling and implicit rational macromodeling

Czytaj za darmo! »

System performance evaluation over a broad frequency range is a crucial issue in many electromagnetic engineering problems. In this paper, a simple adaptive frequency sampling scheme employing interval bisection technique combined with the Cauchy method supported by Stöer- Bulirsch algorithm is examined as a tool for interpolating wide-band system responses from electromagnetic (EM) simulation. Emphasis is placed on examining the convergence of the method. The overall approach does not require matrix inversion, is derivative-free and capable to perform interpolation over a wide frequency band with a single implicitly constructed rational interpolant. The relevant algorithms are easily interfaced with existing EM simulators. Good performance of the method in terms of computational efficiency and accuracy is demonstrated in the context of the method of moments on a sample numerical example involving broadband evaluation of the impedance of a wire radiator. Streszczenie. Okreslenie własciwosci systemu (obiektu) w szerokim zakresie cz˛estotliwosci jest kluczowym problemem w wielu zagadnieniach in- ˙zynierii pola elektromagnetycznego. W tym artykule omawiamy prosty algorytm cz˛estotliwosciowego próbkowania adaptacyjnego, oparty na połowieniu przedziału i poła˛czony z metoda˛ Cauchy’ego interpolacji wymiernej, jako skuteczna˛ metode˛ szerokopasmowej interpolacji/ekstrapolacji wyników pełnofalowej analizy elektromagnetycznej obiektu promieniuja˛cego. Makromodel wymierny wysokiego rze˛du jest konstruowany implicite za pomoca˛ algorytmu Stöera-Bulirscha bez koniecznosci rozwia˛zywania układu równan na współczynniki funkcji interpoluja˛cej i obliczania pochodnych. Wszystkie cza˛stkowe algorytmy interpolacji łatwo doła˛czyc do istnieja˛cych software’owych symulatorów elektromagnetycznych. Skutecznosc omawianego podejscia w poła˛czeniu z metoda˛momentów zademonstrowano na przykładzie szerokopasmowej analizy prostej anteny cienkoprzewodowej. (R[...]

PRZEGLĄD MECHANIZMÓW ZAPEWNIAJĄCYCH PRYWATNOŚĆ W SIECI INTERNET DOI:10.15199/59.2015.8-9.40


  Prezentowana praca jest próbą odpowiedzi na pytanie : "Czy można korzystać z Internetu i nie być śledzonym, podczas gdy korzysta się z powszechnie dostępnych narzędzi?" . W tym celu przedstawiono metody śledzenia użytkowników, które są wykorzystwane przez witryny zamieszczające treści jak i firmy niezawiązane bezpośrednio z treścią strony pierwowtnej. Ponadto, na podstawie pięciu podstawowych elementów: ETag, JavaScript, Set-Cookies, Image, Cookies zweryfikowano skuteczność rozszerzeń do przeglądarek, których zadaniem jest zapewnienie anonimowości internaucie. 1. WSTĘP W obecnych czasach dostęp do sieci Internet wykazuje tendencję wzrostową. Powołując sie na dane Głównego Urzędu Statystycznego, w Polsce w zeszłym roku ponad 71% procent gospodarstw domowych posiadało dostęp do Internetu [1]. Za pomocą Internetu coraz częściej dokonywane są między innymi zakupy, które pobudzają nie tylko rynek sprzedaży, ale także marketing i reklamę. Poza rynkiem reklamowym, w ostatnim roku media informowały o projekcie PRISM [2]. Fragmenty prezentacji, które przedostały się do mediów za pośrednictwem Edwarda Snowdena, pokazują usilne próby instytucji takich jak NSA (National Security Agency) do całkowitej inwigilacji i śledzenia każdego użytkownika. Chcąc ochronić użytkownika przed śledzeniem, należy przedstawić najpopularniejsze systemy operacyjne oraz przeglądarki internetowe. Powołując się na badania dominujących systemów operacyjnych przeprowadzone przez firmę Netmarketshare [3] - liderem jest Windows 7, dlatego to na jego bazie przeprowadzone zostaną badania. Drugim niezbędnym elementem do korzystania z Internetu jest przeglądarka internetowa. Podział segmentu zgodnie z aktualnymi trendami przedstawia się następująco: Tabela 1. Procentowy podział udziałów w rynku przeglądarek , lipiec 2014 [4] Przeglądarka Internetowa Udział w rynku Chrome 48.69% Internet Explorer 23.52% Firefox 19.25% Safari 4.12% Powyższa tabela ukazuje, [...]

Diagnostyka sieci trakcyjnej i monitoring odbieraków prądu DOI:10.15199/74.2015.7.4


  Górna sieć trakcyjna jest obecnie najefektywniejszym sposobem zasilania kolejowych pojazdów elektrycznych o mocach 5-10 MW i prędkościach do 250 km/h w systemie prądu stałego i nawet większych mocach dla prędkości powyżej 300 km/h w systemie prądu przemiennego [9, 12, 13]. Brak możliwości technicznych zapewnienia redundancji zasilania pojazdów powoduje, że osiągnięcie wysokiej niezawodności funkcjonowania sieci jezdnej jest niezbędnym warunkiem jej eksploatacji. Dlatego przywiązuje się duże znaczenie do rozwiązań konstrukcyjnych sieci i odbieraków oraz systemów diagnostycznych zarówno pojazdów, jak i infrastruktury trakcji elektrycznej [9]. Niewłaściwie zaprojektowany lub nieprecyzyjnie wyregulowany układ sieć jezdna - odbierak prądu, w niekorzystnych warunkach lokalnych może prowadzić do uszkodzeń sieci lub odbieraka. Zarządy kolejowe analizują m.in. skutki występowania awarii sieci jezdnej i odbieraków prądu względem wszystkich usterek i awarii tego systemu transportowego. Liczba usterek sieci trakcyjnej jest niewielka, ale te sporadycznie występujące awarie wprowadzają znaczące opóźnienia w ruchu pociągów [9, 14]. Wskazywane znaczne koszty awarii sieci i odbieraków [14] obejmują również pociągi dużej prędkości (TGV, Pendolino) i nowoczesną infrastrukturę. Podobne warunki eksploatacyjne będą występowały na polskiej sieci kolejowej, biorąc pod uwagę rewitalizacje linii i zakup nowoczesnych pojazdów [12, 13]. W związku z tym konieczne jest utrzymanie górnej sieci trakcyjnej w stanie ciągłej sprawności, co można zapewnić dzięki okresowej diagnostyce, np. tej w systemie DST [4] i regularne monitorowanie interakcji sieci i odbieraków prądu poruszających się pojazdów, np. jak w systemie MOP [7, 11]. Intensywnie rozwijane są komputerowe narzędzia symulacyjne, zwłaszcza do analizy interakcji sieci jezdnej i odbieraków prądu [6, 15, 16]. Walidacja wyników symulacji, uzyskanych z wykorzystaniem określonego modelu dynamicznego i meto[...]

Ewolucja czy rewolucja? Dwie dekady rozwoju metod kompresji wizji DOI:10.15199/59.2018.6.6


  Transmisja czy magazynowanie obrazu ruchomego w jego oryginalnej postaci wymagają operowania na olbrzymich wręcz zbiorach danych. W przypadku danych, które opisują sekwencję obrazów o wysokiej jakości (rozdzielczość przestrzenna obrazu równa 1920 x 1080 przy 60 obrazach na sekundę), związany z nimi strumień bitowy to aż 3 Gbit/s! Jest zatem oczywiste, że praca z tak potężnym strumieniem bitów byłaby w praktyce bardzo kosztowna, a w niektórych zastosowaniach po prostu technicznie niemożliwa. Obrazy sekwencji należy więc wcześniej poddać kompresji. To właśnie ona otwiera możliwość wydajnej transmisji i zapisu obrazu. Jej celem jest opisanie obrazów sekwencji w alternatywny, inny sposób, który nie wymaga aż tak dużych nakładów bitowych. Celem jest wielokrotna (w praktyce więcej niż sto razy) redukcja liczby bitów, które przedstawiają obrazy, przy zachowaniu ciągle zadowalającej ich jakości po kompresji i dekompresji. Ten cel przyświeca badaczom już od kilku dekad. Z punktu widzenia tego, jak dzisiaj opisywany jest obraz, szczególnie istotne są osiągnięcia ostatnich 2-3 dekad. W tym czasie rozwijano różne podejścia do wydajnej reprezentacji obrazu [1-7]. Jednak z perspektywy kompresji ruchomego obrazu największe znaczenie praktyczne zyskała jedna technika - kodowania hybrydowego z przewidywaniem treści obrazu [1-6]. W porównaniu z innymi technikami jej wydajność okazała się po prostu najlepsza. Z tego właśnie powodu technika kompresji hybrydowej była przez lata przedmiotem licznych ulepszeń oraz modyfikacji. Kolejne odsłony tej technologii zostały ujęte w koderach obrazu kolejnych generacji, które stały się przedmiotem wielu rynkowych wdrożeń [1-6]. W artykule podjęto próbę oceny stopnia rozwoju, jakiego w ciągu ostatnich dwóch dekad doświadczyły kodery ruchomego obrazu. Celem pracy było ponadto pokazanie różnicy w wybranych parametrach koderów kolejnych generacji. Co nas czeka w najbliższych latach? Podjęto próbę odpowiedzi ró[...]

 Strona 1  Następna strona »