profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania (Małgorzata Tartanus, Tadeusz Antczak )
We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Obtaining 3D information from 2D images (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Modern surveillance systems are based on the analysis of CCT V cameras. One of the problems that are encountered when trying to use an image for further analysis in terms of surveillance is the lack of information about the perspective. It is possible to use stereovision, but such a solution is expensive and complicated. Normal image does not have information about the perspective. By doing some reference measurements we can obtain the spatial information about the scene observed by the camera [5]. Scene configurator 2.5D allows obtaining 3D information from 2D image captured by a single camera by performing the following procedure when setting up the system and using it at a later stage image processing. Scene configurator 2.5D Configurator 2.5D allows the model to determine the perspective of the observed scene from a series of images. It is necessary to prepare and use a pattern in the form as shown in Figure 1.Pictures should be taken so that the lower bar pattern was on the floor and the top was at right angle to the floor. Lower bar should also be at right angle to the axis focal length of the lens. Pattern should be visible on image and pattern should not be photographed directly from the front or above, because these situations do not allow reference measurements. The example picture with a pattern is shown in Figure 2. To run the program the MATLAB Compiler Runtime (MCR ) version R2012b (32-bit) must be first installed, you can download the appropriate version for your operating system from: http://www.mathworks.com/products/compiler/mcr/index.htmlWhen the scene configurator is run, the main window shown in Figure 3 is displayed. Now the real image must be loaded to analyse it. For that purpose the user must click on the button and load the file from the hard drive. On the right side there are the following buttons located: ● Button top, ● Button left down, ● Button middle down, ● Button ... więcej»

Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych (PAWEŁ DĄBAL, RYSZARD PEŁKA)
Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

Synteza 128-bitowych komparatorów hierarchicznych w strukturach CPLD/FPGA (MAREK GRUSZEWSKI)
Komparator binarny (nazywany dalej komparatorem) należy do układów kombinacyjnych i służy do porównywania wartości dwóch słów binarnych, np. A i B. Komparator tradycyjny (rys. 1) ma trzy wyjścia i realizuje następujące funkcje: G (A > B), E (A = B), L (A < B), gdzie A = at ... a1 oraz B = bt ... b1.Komparatory należą do podstawowych komponentów systemów cyfrowych. Są kluczowymi elementami w szerokim zakresie zastosowań, tj.: w procesach obliczeniowych (grafika oraz przetwarzanie obrazów/sygnałów [1]), w układach testujących (analizatory sygnatur, wbudowane układy samotestujące [2]), w procesach poszukiwania i sortowania danych [3], jako komponenty w procesorach ogólnego przeznaczenia: pamięci asocjacyjne (skojarzeniowe), bufory TLB (Translation Lookaside Buffer), bufory BTB (Branh Target Buffer) i wiele innych bloków porównywania argumentów w CP U [4]. Rozbudowany układ cyfrowy na ogół przedstawiany jest jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych. Do takich bloków funkcjonalnych należą m.in. komparatory. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CP LD) oraz bezpośrednio programowalne macierze bramek (FPGA) [5]. W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przetwarzania i przesyłania informacji. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy komparatorów w strukturach CP LD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach. Przy syntezie komparatorów wystarczy zrealizować tylko dwie funkcje G i E. Funkcja L zawsze może być określona na podstawie dwóch pierwszych na podstawie zależności: (1) Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy. W ostatnich latach zwraca się dużą uwagę na projektowanie komp... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora (Bartłomiej Półtorak, Jacek Szatkowski )
W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 k&#937; i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 &#937;. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Elektrochemiczny czujnik samopolaryzujący do naskórnego pomiaru prężności tlenu w krwi tętniczej (Tadeusz Pałko, Włodzimierz Łukasik, Józef Przytulski)
Prężność tlenu pO2 we krwi tętniczej jest ważnym parametrem obrazującym ilość tlenu rozpuszczonego w osoczu, wyrażonym w jednostkach ciśnienia oddziaływującego na osocze. W warunkach prawidłowych w krwi tętniczej pO2 &#8776; 80 mm Hg (10,6 kPa), a w powietrzu atmosferycznym pO2 &#8776; 154 mm Hg (21 kPa). Parametr ten umożliwia wykrycie zarówno niedotlenienia krwi tętniczej jak i groźbę wystąpienia zatrucia tlenowego, co może ujawnić się w trakcie leczenia w komorze hiperbarycznej lub leczenia czystym tlenem. Przedmiotem niniejszego artykułu jest elektrochemiczny czujnik samopolaryzujący do nieinwazyjnego naskórnego pomiaru prężności tlenu we krwi tętniczej oparty na ogniwie galwanicznym zwanym też komor-pomiarową Mackeretha oraz wyposażony w układ termoregulacji do grzania i termostatowania badanego miejsca obszaru tkankowego skóry i wnętrza czujnika, aby zapewnić wystarczająco dobrą dyfuzję tlenu z krwi w naczyniach kapilarnych do komory pomiarowej czujnika. Dotychczas znane i stosowane czujniki do nieinwazyjnego pomiaru prężności tlenu pO2 we krwi tętniczej metodą naskórną działają na zasadzie opisanej przez Clarka w artykule [1] odnoszącym się do pomiaru pO2 bezpośrednio w krwi metodą in vitro. Na przełomie lat 1970-tych i 1980-tych i później, zasada ta została zmodyfikowana, udoskonalona i rozszerzona do nieinwazyjnych pomiarów naskórnych pO2 w krwi tętniczej. Główna modyfikacja czujników naskórnych w stosunku do mierzących pO2 bezpośrednio w krwi polegała na wprowadzeniu układu termoregulacji do podgrzewania obszaru pomiarowego. W czujnikach pO2 opartych na zasadzie Clarka wykorzystuje się zjawiska oksyredukcyjne zachodzące na powierzchni, odpowiednio dobranych i spolaryzowanych z zewnętrznego źródła napięcia, elektrod zanurzonych w odpowiednim wodnym elektrolicie, najczęściej KCl do którego dyfunduje tlen przez membranę o właściwościach hydrofobowych tzn. nieprzepuszczającą cząsteczek wody z badanego środowiska. Na... więcej»

Implementacja interfejsu 1-Wire w systemie FreeRTOS dla mikrokontrolera AVR (Bernard Wyrwoł)
Warstwa aplikacji systemu wbudowanego, zrealizowanego z wykorzystaniem mikrokontrolera w warstwie sprzętowej, może bazować na dedykowanym oprogramowaniu lub wykorzystywać system operacyjny czasu rzeczywistego RTOS. To drugie rozwiązanie ma te niepodważalne zalety, że umożliwia pracę wielozadaniową, kod oprogramowania można przenieść na dowolną platformę (wspieraną przez system operacyjny), sam system operacyjny wspomaga mechanizmy obsługi wyjątków i ochrony pamięci (o ile wspierany jest przez architekturę mikrokontrolera), ułatwiona jest współpraca zespołu programistów nad aplikacją, a także zachowana jest duża skalowalność projektu (w łatwy sposób można dopasować funkcje systemu operacyjnego do wymagań realizowanego projektu). Dodatkową zaletą niektórych systemów operacyjnych, w tym także systemu operacyjnego FreeRTOS [3], jest możliwość ich bezpłatnego wykorzystania nawet w komercyjnych aplikacjach. System operacyjny czasu rzeczywistego posiada zaimplementowany zegar czasu rzeczywistego tzw. zegar systemowy, który to wyznacza najmniejszy możliwy czas rozróżniany przez system. Częstotliwość zegara systemowego można zmieniać w pewnych granicach, zwykle przyjmuje się jego wartość z zakresu od 10 Hz do 1 kHz, co daje rozdzielczość pomiaru czasu odpowiednio od 100 ms do 1 ms. Mała częstotliwość wydłuża czas reakcji systemu operacyjnego na zdarzenia jakie zachodzą wewnątrz tego systemu (np. przekazywanie danych pomiędzy zadaniami) lub na zdarzenia pochodzące z zewnątrz (np. odczyt stanu wejść). Z drugiej strony zbyt duża częstotliwość prowadzi do zmniejszenia wydajności systemu (system operacyjny zużywa dużo więcej zasobów czasowych niż realizowane zadania). W systemach wbudowanych zewnętrzne układy peryferyjne komunikują się z mikrokontrolerem za pośrednictwem sprzętowych interfejsów zarówno równoległych (np. wykorzystujących porty równoległe ogólnego przeznaczenia) jak i szeregowych (np. USART, SPI, TWI). Jednym z szeregowyc... więcej»

Model przepływomierza tarczowego (Paweł Pliszka, Elżbieta Wróblewska, Artur Andruszkiewicz)
W Instytucie Techniki Cieplnej i Mechaniki Płynów Politechniki Wrocławskiej prowadzone są prace dotyczące wyznaczenia charakterystyk metrologicznych różnego typu przepływomierzy. Zbudowano m.in. model przepływomierza oscylacyjnego i wyznaczono jego charakterystykę [1], przeanalizowano pracę przepływomierza ultradźwiękowego w niestandardowych warunkach pracy i dla wysokiej temperatury przepływającego płynu [2]. Aktualnie prowadzone są prace nad przepływomierzem tarczowym. Zbudowano jego model, a także wyznaczono jego charakterystyki metrologiczne. Przepływomierze te charakteryzują się tym, że można je wykorzystywać do pomiarów płynów zabrudzonych zanieczyszczeniami stałymi, a także pęcherzami gazu [3]. Można je również stosować w pomiarach płynów o wysokich ciśnieniach i temperaturach, a jego dokładność jest rzędu dokładności klasycznych przepływomierzy np. zwężkowych. Celem artykułu jest opisanie budowy przepływomierza tarczowego wraz ze sposobem rejestracji sygnału od siły naporu hydrodynamicznego płynu na tarczkę, a także przedstawienie przykładowych jego charakterystyk. Model przepływomierza tarczowego Rysunek 1 przedstawia szkic przepływomierza tarczowego, który służy do wyprowadzenia równania pomiaru. Pisząc równanie Bernoulliego dla przekrojów 1-1 i 2-2, równanie ciągłości oraz wzór na siłę naporu na tarczkę kołową umieszoną w środku rurociągu, strumień objętości czy masy przepływającego płynu w rurociągu można wyznaczyć z równania 1 lub 2 [4]: (1) (2) q =  ... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R &#8901; fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e j&#969;Ts/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Badanie przepływomierza ultradźwiękowego z nakładkami izolującymi od wysokiej temperatury przepływającego czynnika i w niestandardowych warunkach pracy (Konrad Tajchman, Paweł Pliszka, Wiesław Wędrychowicz, Artur Andruszkiewicz)
Niniejsza publikacja jest kontynuacją wcześniejszego artykułu [1], którego tematyka dotyczyła pomiarów strumieni przepływów płynu przy użyciu przepływomierza ultradźwiękowego z podkładkami separującymi głowice od wysokiej temperatury przepływającego czynnika. W poprzednim artykule wskazano najlepszą konfigurację parametrów jakie należy wprowadzić do jednostki centralnej przepływomierza w celu minimalizacji błędu spowodowanego wprowadzeniem podkładek separujących pod czujniki ultradźwiękowe. Przeprowadzone pomiary pokazały, że najlepszym rozwiązaniem jest dodanie do zmierzonej wartości średnicy połowy grubości nakładki teflonowej i wprowadzenie tej wartości jako średnicy do jednostki centralnej przepływomierza. Należy wprowadzić również rzeczywistą grubość ścianki rurociągu, a odległość czujników przepływomierza ustawić zgodnie z obliczoną wartością przez jednostkę centralna przepływomierza. Pomija się całkowicie materiał z jakiego składa się nakładka. Prace pomiarowe zostały przeprowa... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF (Janusz DUDCZYK, Adam KAWALEC)
Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło &#957;(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Global-extreme-training of specific neural networks to find laws ruling empirical data (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
A need to create symbolic descriptions of unknown laws governing a given set of empirical data and to model the data set features is encountered in many situations and concerns plenty of physical systems. First papers on applying particular neural networks with exp(.) and ln(.) activation functions to solve the problem under consideration ware reported in [1-8]. Recently, specific networks with reciprocal-function activation-operators have been proposed in [9], [10]. Such networks allow us to describe the data set behavior be means of rational or polynomial functions, where the latter can be regarded as a particular case of the rational one. Coefficients of the rational or polynomial functions are determined in a way of training the specific neural network. As compared to the previously presented networks, the reciprocal-function-based ones lead to simpler network structures, include a lower number of the network elements and enable more effective network learning. Despite the introduced improvements, learning the networks is still a problem, [11], [12], and we devote plenty of time to make progress in this field. Improving the training technique is the goal of our research and this is the issue to be presented in this paper. Learning problems connected with gradient calculations Neural network learning can be realized in a variety of ways [11-12]. There are methods that are good in finding global optimum and can effectively omit local extremes. Another group is made by techniques which are fast and well suited for local area operations. Ability to generalize the data set behavior outside the range of the training variables is another required feature of the learning methods. For example, so called gradient descent (GD) techniques, where gradient of an objective function is calculated, often fail in case of very large networks [12]. From our experience results that learning the networks under consideration by means of the GD... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Architektura sprzętowego modułu predykcji wewnątrzramkowej Intra dla standardu H.265/HEVC (Andrzej Abramowski, Grzegorz Pastuszak)
Ostatnie lata charakteryzują się gwałtownym rozwojem technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu. Postępy w tych dziedzinach wiążą się z dość znaczącym wzrostem ilości przesyłanych informacji wideo, co znacząco obciąża obecnie istniejące łącza telekomunikacyjne. W efekcie bardzo duża liczba firm oraz instytucji naukowych pracuje nad sposobami ograniczenia rozmiaru tego typu danych oraz wymaganej przez nie przepływności. Zarazem współcześni konsumenci są zainteresowani zdecydowanym wzrostem jakości oglądanych materiałów. Aby pogodzić te sprzeczne zapotrzebowania w 2010 r. grupa ekspertów Joint Collaborative Team on Video Coding rozpoczęła prace nad nowym standardem kompresji wideo pod kodową nazwą High Efficiency Video Coding (HEVC). Za cel postawiono sobie ograniczenie o połowę przepływności zakodowanej sekwencji wideo w porównaniu do H.264/AVC (Advanced Video Coding), przy jednoczesnym zachowaniu jakości ocenianej miarami subiektywnymi. Rozwój standardu trwał ponad trzy lata i zakończył się ostatecznym jego przyjęciem w 2013 r. przez ISO (International Organization for Standardization) i ITU Telecommunication Standardization Sector jako H.265/HEVC ([1]). Składnia standardu H.265/HEVC wykorzystuje regularne struktury drzewiaste, zapisywane w strumieniu wyjściowym. W porównaniu do jego poprzednika, H.264/AVC, istotnie rozbudowana została predykcja wewnątrzramkowa (Intra), predykcja międzyramkowa (Inter) oraz algorytmy transformacji. Wiąże się to ze zwiększoną złożonością obliczeniową, jednak wybrane rozwiązania powinny umożliwić zrównoleglenie znaczącej części operacji. W chwili obecnej opracowywane są dalsze rozszerzenia m. in. wersja skalowalna oraz dostosowana do kodowania sekwencji trójwymiarowych. Predykcja wewnątrzramkowa (Intra) Jedną z podstawowych technik w kodowaniu wideo jest predykcja wewnątrzramkowa. Wykorzystuje ona uprzednio zakodowane próbki z danej ramki do przewidywania poprze... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Przestrzenne charakterystyki wiązek promieniowania emitowanego przez lasery półprzewodnikowe (BOHDAN MROZIEWICZ, EMILIA PRUSZYŃSKA-KARBOWNIK, KAZIMIERZ REGIŃSKI)
Przestrzenny rozkład natężenia pola w wiązce emitowanej przez laser jest z punktu widzenia jego użytkownika jedną z najważniejszych, obok mocy wyjściowej i długości fali, charakterystyką tego urządzenia. Kształt i wewnętrzna struktura polowa emitowanej wiązki decyduje bowiem o możliwości jej dalszej obróbki optycznej i przystosowania jej do wymaganych celów, np. do uzyskania możliwie wysokiego natężenia napromienienia (W/cm2), lub zogniskowania wiązki na możliwie małym obszarze. Wymagania takie stawiane są w odniesieniu do układów optycznych stosowanych w telekomunikacji światłowodowej czy też w otwartej przestrzeni, a także np. w urządzeniach do spektroskopii. Szczególnie istotne okazały się one w przypadku budowanych ostatnio urządzeń laserowych do cięcia metali lub innych materiałów z wykorzystaniem zjawiska ablacji przy jednoczesnym uniknięciu odparowywania naświetlanego materiału w wyniku jego nagrzewania. Te ostatnie zastosowania nie dotyczą wprawdzie jak dotąd kwantowych laserów kaskadowych, ale okazały się już szczególnie ważne w odniesieniu do laserów diodowych. Mierniki rozkładu natężenia pola w wiązce laserowej zwane potocznie profilometrami (ang. profilers), dedykowane do pomiarów wiązek generowanych przez lasery różnych rodzajów, są obecnie produkowane przez wiele firm i w zasadzie jako takie przestały być przedmiotem specjalnych badań. Stosowane w tych miernikach metody pomiaru rozkładu natężenia pola można ogólnie podzielić na dwie grupy: - metody oparte na wykorzystaniu matryc detektorowych, - metody oparte na mechanicznym skanowaniu i pomiarze pola w przekroju poprzecznym wiązki za pomocą pojedynczego detektora. Te ostatnie dzielą się na 3 podgrupy a mianowicie: skanowanie szczelinowe, skanowanie krawędziowe (tzw. knife-edge) oraz skanowanie dwuwymiarowe detektorem o małej aperturze. Każda z tych technik ma swoje zalety i wady zależnie od parametrów mierzonej wiązki laserowej (patrz ref. [1-3]). W szczególno... więcej»

Analiza układu integratora kluczowanego z nieidealnym kluczem (Grzegorz Domański, Bogumił Konarzewski, Robert Kurjata, Janusz Marzec, Krzysztof Zaremba , Michał Dziewiecki, Marcin Ziembicki, Andrzej Rychter)
Jednym z powszechnie stosowanych układów odbioru sygnału z fotodiod w systemach dyfuzyjnej tomografii optycznej [1] jest układ integratora kluczowanego [2]. Szum w takim układzie ma kilka przyczyn, a jedną z nich jest nieidealny charakter klucza. Rzeczywisty, nieidealny klucz, wstrzykuje ładunek podczas swojego przełączania oraz wykazuje skończoną rezystancję w stanie otwarcia. Ten drugi czynnik, czyli rezystancja klucza, może mieć znaczenie wszędzie tam, gdzie ze względu na niski poziom sygnału, stosowane są długie czasy integracji prądu z fotodiody, a więc na przykład w systemach tomografii optycznej. Analiza szumowa integratora kluczowanego sprzężonego z fotodiodą Ogólny schemat układu fotodiody dołączonej do integratora kluczowanego przedstawiono na rys. 1.Zawiera on fotodiodę podłączoną do wejścia odwracającego wzmacniacza operacyjnego. W pętli sprzężenia zwrotnego umieszczony jest klucz K o rezystancji Rf w stanie rozwarcia oraz dołączona równolegle pojemność Cf . Załóżmy, że na fotodiodę padają w losowych chwilach fotony, które generują impulsy prądowe ze średnią częstością re. Zgodnie z pierwszym twierdzeniem Campbella [4] średnia wartość sygnału wyjściowego uwy jest równa (1) gdzie he(t) - odpowiedź układu na pobudzenie jednoelektronowe. Wariancja sygnału wyjściowego &#963; 2uwy jest, zgodnie z drugim twierdzeniem Campbella [4], równa: (2) Analiza odpowiedzi układu w dziedzinie częstotliwości i czasu Dla dowolnej częstotliwości, przy pominięciu wpływu charakterystyki częstotliwościowej... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Metrologiczne aspekty toru pomiarowego spektrofotometru z fotopowielaczem (Zbigniew Krawiecki)
W metodach pomiarowych, w których sygnałem użytecznym jest promieniowanie optyczne, stosuje się specjalistyczną aparaturę, taką jak np.: spektrometry i spektrofotometry. Przyrządy te wykorzystuje się do pomiaru absorbancji, transmitancji, reflektancji, w badaniach jakościowych oraz ilościowych zawartości substancji, do wyznaczania właściwości optycznych materiałów [1-4]. Przykłady te można mnożyć, podając zastosowania z zakresu medycyny, przemysłu, nauki i wielu innych dziedzin. Pomiar natężenia promieniowania optycznego przechodzącego przez ośrodek lub odbijającego się od jego powierzchni jest zadaniem stosunkowo trudnym. Nierzadko użytkownicy przyrządów są przekonani, że pomiary z sygnałem optycznym należą do łatwych, a sprzęt "rozwiązuje" większość problemów metrologicznych. Bardzo często możliwości aparatury nie są wystarczające do wykonania poprawnych badań. Ważna jest świadomość i znajomość zachodzących zjawisk, gdyż ma to znaczenie dla poprawnego zinterpretowania wyników. Zjawiska, które występują na etapie realizacji pomiaru, mogą w różnym stopniu powodować "przekłamanie" otrzymywanych wyników i dlatego tak ważna jest wiedza o tych czynnikach. Rezultaty zamieszczone w pracy przedstawiają wybrane aspekty metrologiczne związane z torem pomiarowym spektrofotometru, które mogą mieć wpływ na wynik pomiaru transmitancji optycznej próbki materiału. Prezentowane wyniki dotyczą wykorzystania metody spektrofotometrycznej w pomiarach i zostały opracowane na podstawie danych uzyskanych z pomiarów spektrofotometrem dwuwiązkowym. Aparatura pomiarowa Obecne spektrofotometry to urządzenia konstrukcyjnie, z reguły bardzo złożone zarówno pod względem mechanicznym, jak i elektrycznym. Wyposażone są w magistrale komunikacyjne oraz oprogramowanie do obsługi przyrządu i rejestracji wyników. Ogólne dążenie do komputeryzacji technik pomiarowych również tutaj znajduje swoje odzwierciedlenie. Producenci oferują sterowane komputerowo stanowi... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 &#956;m [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 &#937;. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow&#8209;tie w szczelinowo pobudzany monopol. Z... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Impedance matching between antenna and chip in RFID transponder of UHF Band (Piotr Jankowski-Mihułowicz, Wojciech Lichoń, Grzegorz Pitera, Mariusz Węglarski)
Radiative coupling radio frequency identification (RFID) systems of the UHF band (860 to 960 MHz) [1] work in the range of far field where emitted wave (of frequency f0) is not only a data carrier but first of all an energy source (of power density S). The electromagnetic field is generated by a read/write device (RWD). The RWD antenna together with transponder antennas comprise a radio communication arrangement which has to be wave and impedance matched. It should be emphasised that the classical impedance matching of a transmitter and receiver is established only between the RWD output and connected antenna (50 &#937;). If a transponder appears in the interrogation zone (IZ), it can be supplied with energy and the data can be exchanged (Fig. 1a) but the backscattering modulation is used to send answers back to the RWD. In the transponder backscattering response the emitted wave is only partially reflected towards the RWD because of switching load impedance of the internal chip - this process is extremely power-saving but also conveyed energy has limited amount. The minimal power PTmin (chip sensitivity) is required for activating communication process (Fig. 1b). Appropriate communication mechanisms are defined by ISO protocols, e.g. ISO/IEC 18000-6 (EPC Class 1 Gen 2), 18000-4 for UHF band. They determine the interrogation zone which is a basic application parameter of RFID systems. The IZ is a space zone around the RWD antenna which boundaries are dependent first of all on the transponder antenna construction and impedance matching to the chip input and can be estimated by using e.g. Monte Carlo method [2]. So, the specific parameters of the chip and target application have to be... więcej»

Direct current method of supercapacitors parameters identification (Grzegorz Błąd, Mariusz Pilecki&#8201;, Jerzy Potencki, Grzegorz Tomaszewski)
Supercapacitors are relatively new elements, particularly in the area of their applications in low-current and low-voltage electronic circuits (already used on a large scale in high-energy and highvoltage systems). Design of circuits which contains supercapacitors requires good knowledge of their internal parameters and behavior, especially in dynamic operation states (charging and discharging processes). The mechanism of charge separation in these elements is different in comparison to the conventional capacitors. Generally, there are two different mechanisms: the double electrical layer or the redox reaction. Both take place here, which makes that the standard capacitor models become insufficient. In the literature, it can be found a wide range of different approaches to the process of supercapacitors properties modeling; starting from the complex models coming out of construction and physical phenomena, which occur in the supercapacitor by a purely mathematical (based on the analysis of supercapacitor responses over a large variety of stimulus) to a very simplified electrical models. Unfortunately, only a few of them are suitable for direct implementation in a wide variety of professional EDA (Electronic Design Automation) programs [1-3]. Generally, models and practically useful parameters of supercapacitors are not available, except for the capacitance, which is given by the manufacturers. Even in this case, when the data is not accurate. For example it does not take into account a capacitance changes in f... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states&#8220;to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»