profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Realizacja systemu blokad międzypolowych z użyciem standardu IEC 61850 (Andrzej Gacek, Leszek Książek)
Blokady międzypolowe to sygnały przesyłane pomiędzy polami rozdzielczymi stacji w ramach realizacji algorytmów obejmujących więcej niż jedno pole rozdzielcze. Przykładem automatyk realizujących skomplikowane funkcje przełączeniowe, wykorzystujących sygnały blokad międzypolowych są m.in.: SZR, AUPZ, AWSC. W klasycznych rozwiązaniach stacji rozdzielczych połączenia pomiędzy polami rozdzielczymi wykonywane są w postaci przewodów elektrycznych. Jest to rozwiązanie dość kosztowne i narażone na działanie zakłóceń elektromagnetycznych. Rozwój techniki, w szczególności systemów teleinformatycznych, umożliwił przesyłanie sygnałów pomiędzy polami rozdzielczymi za pomocą interfejsów komunikacyjnych. W energetyce od niedawna stosowany jest specjalizowany standard IEC 61850 uwzględniający specyfikę tej dziedziny przemysłu, wykorzystujący sieć światłowodową. Wprowadzenie ujednoliconego standardu komunikacyjnego, jakim jest IEC 61850, pozwala na bezpośrednie współdziałanie urządzeń różnych producentów. Specjalna usługa wchodząca w skład tego standardu o nazwie GOOSE, pozwala na bardzo szybkie przekazywanie w obrębie sieci teletransmisyjnej informacji o zdarzeniach zaistniałych w urządzeniach podstacji. Standard IEC 61850 opiera się na komunikacji urządzeń stacyjnych za pomocą sieci lokalnej typu Ethernet z prędkością 100 Mbit/s. W warstwie sieciowej i transportowej stosowany jest stos protokołów TCP/IP, zaś w warstwie aplikacji wykorzystuje się protokół MMS. Standard IEC 61850 zawiera zalecenia dotyczące wymiany informacji na poziomie stacji (magistrala stacji), na poziomie urządzeń pierwotnych (magistrala procesu), jak również bezpośredniej wymiany informacji pomiędzy urządzeniami na zasadzie "każdy z każdym". Standard określa też struktury danych przedstawiające elementy funkcjonalne urządzeń oraz mówi w jaki sposób należy je użyć, by uzyskać strukturę reprezentującą daną funkcjonalność urządzenia stacji. Standard IEC 61850 stosuje obiek... więcej»

Badania rentgenowskie zespołów elektronicznych (Krzysztof Lipiec, Grażyna Kozioł, Konrad Futera)
Coraz bardziej postępująca miniaturyzacja i zwiększenie gęstości upakowania układów elektronicznych, powoduje powstawanie większej ilości różnego rodzaju wad podczas wytwarzania zarówno samej płytki obwodu drukowanego, jak również w czasie procesu montażu elektronicznego. Dlatego konieczna jest odpowiednia kontrola wykonania gotowego wyrobu. Wykorzystywane są do tego celu urządzenia automatycznej inspekcji optycznej, pozwalające na szybkie i dokładne sprawdzenie jakości połączeń lutowanych po wykonaniu montażu elementów elektronicznych. Jednakże inspekcja optyczna nie dostarcza informacji o jakości powstałych połączeń lutowanych pod obudową podzespołu elektronicznego, tak jak to ma miejsce w przypadku wielowyprowadzeniowych struktur BGA, CSP lub nieobudowanych struktur półprzewodnikowych typu flip chip (rys. 1). Szczegółowych informacji na temat jakości połączeń tych podzespołów i struktur dostarcza automatyczna kontrola rentgenowska [1]. Badania rentgenowskie w Instytucie Tele- i Radiotechnicznym wykonywane są na urządzeniu do inspekcji rentgenowskiej Nanome/ X 180 NF, umożliwiającym obserwację badanego obiektu nie tylko w jednej płaszczyźnie, ale również pod kątem do 70°. Jest to niezwykle pomocne podczas kontroli połączeń lutowanych elementów w obudowach z wyprowadzeniami sferycznymi, gdyż tylko wtedy można prowadzić bardziej złożone analizy jakości połączeń po procesie lutowania [2]. Wykonując analizę rentgenowską należy pamiętać, że na jakość połączenia lutowanego ma wpływ wiele czynników. Wykryte wady w wyniku badania rentgenowskiego w połączeniach lutowanych można... więcej»

Selektywna katalityczna redukcja tlenków azotu jako sposób ograniczenia emisji zanieczyszczeń do środowiska (Artur WITOWSKI, Krzysztof JASEK)
Zanieczyszczenia gazowe, ze względu na swoją mobilność, stanowią najbardziej niebezpieczną grupę czynników degradujących środowisko naturalne. Wśród zanieczyszczeń gazowych najbardziej istotnymi, ze względu na wielkość emisji i zagrożenie dla środowiska, poza dwutlenkiem siarki, tlenkami węgla, lotnymi związkami organicznymi, pyłami, są tlenki azotu. Powodują one silną degradację środowiska - są odpowiedzialne między innymi za powstawanie kwaśnych deszczy oraz smogu [1, 2]. Spośród występujących w przyrodzie tlenków azotu (N20, NO, N2O3, NO2, N2O4, N2O5) w gazach poreakcyjnych emitowanych do do atmosfery dominuje tlenek azotu (NO) oraz ditlenek azotu (NO2). Dlatego też, w inżynierii ochrony środowiska, za kryterium wielkości emisji tlenków azotu do środowiska przyjęto sumę zawartości NO i NO2 (w przeliczeniu na NO2). Ta sumaryczna wielkość oznaczana jest w literaturze technicznej symbolem NOx. Emisja tlenków azotu w gazach wypuszczanych do środowiska podlega uregulowaniom prawnym poszczególnych państw oraz UE. W Polsce dopuszczalne wielkości emisji tlenków azotu, w zależności od mocy cieplnej źródła i stosowanego paliwa, określa Rozporządzenie Ministra Środowiska z dnia 2011 r. (Dz. U. 2011Nr 95 poz. 558) [3]. Zgodnie z jego treścią, obecnie dopuszczalne wielkości emisji tlenków azotu do atmosfery zostaną zaostrzone od 2016 r. Związane to jest z dostosowywaniem polskich uregulowań prawnych do Dyrektywy Unii Europejskiej 2010/75/UE [4]. W Polsce emisja tlenków azotu stanowi ok. 10% łącznej krajowej wielkości emitowanych zanieczyszczeń gazowych [5]. Głównymi źródłami emisji do atmosfery tlenków azotu są takie gałęzie polskiej gospodarki jak: przemysł energetyczny, chemiczny oraz transport. W ostatnich latach, jak wynika z danych Krajowego Ośrodka Bilansowania i Zarządzania Emisjami (KOBiZE), notuje się stopniowe zmniejszanie emisji do środowiska zanieczyszczeń tlenkami azotu [6]. Ilustruje to tabela 1. Tab. 1. Zestawienie dany... więcej»

System SKF 11 do kontroli jakości filtrów przeciwzakłóceniowych (Marcin Karliński, Włodzimierz Mocny, Janusz Wójcik, Jerzy Zając )
Kontrola jakości produktów nie ogranicza się do sprawdzenia jakości wyrobów, ale oczekuje się także, że dostarczy ona producentowi informacji zwrotnych związanych z jakością i efektami działań produkcyjnych. Procesy pomiarowe prowadzone w różnych etapach produkcji są głównym źródłem informacji o jakości. Producenci oczekują także, że pomiary zostaną powiązane z automatyzacją operacji, transportem międzyoperacyjnym wyrobów, segregacją dobry/wadliwy, znakowaniem, archiwizacją wyników pomiarów itp. [3, 7, 8]. Wraz ze zmniejszaniem zaangażowania personelu w krytyczne operacje produkcyjne rośnie powtarzalność uzyskiwanych rezultatów, a liczba błędów maleje. Łatwiejsze jest także uzyskanie formalnej zgodności procesu kontroli jakości z zasadami systemów zapewnienia jakości (np. ISO 9001) [5]. Rezultatem takich wymagań jest znaczny koszt i złożoność systemów, ale jest to kompensowane przez wysoką wydajność systemu i niskie koszty jednostkowe operacji pomiarowych. We wcześniejszych publikacjach [3, 4, 10] przedstawiono wymagania stawiane produkcyjnym systemom kontroli jakości oraz wybrane rozwiązania zastosowane w systemie kontroli jakości filtrów przeciwzakłóceniowych SKF 06 opracowanym w Przemysłowym Instytucie Elektroniki. Podobne wymagania musiał spełniać także wcześniej opisywany system kontroli kondensatorów przeciwzakłóceniowych [6]. Po kilku latach, z inicjatywy producenta filtrów, ten sam zespół podjął opracowanie nowego, podobnego systemu do kontroli jakości filtrów oznaczonego SKF 11. W systemie tym wykorzystano wcześniejsze doświadczenia i wprowadzono nowe rozwiązania usprawniające dostrzeżone niedoskonałości poprzednika. Zwiększono możliwości produkcyjne producenta filtrów i poprawiono jego pozycję konkurencyjną dzięki obniżeniu kosztów i podniesieniu jakości produkcji. Nowy system wymagał uwzględnienia następujących okoliczności: 1) Wprowadzenie do produkcji nowych typów filtrów w nowych obudowach, 2) Zwiększenie wy... więcej»

Metodyka pomiarowa i urządzenia do badania upływności kabli i przewodów elektroenergetycznych stosowanych w podziemnych sieciach górniczych (Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk, Radosław Przybysz, Paweł Wlazło)
Jedną z najczęstszych przyczyn powstania wybuchu metanu i pyłu węglowego jest iskrzenie z wadliwej instalacji elektrycznej. Aby do tego nie dopuścić w kopalniach stosowany jest ciągły monitoring rezystancji upływności kabli i przewodów elektroenergetycznych. Podstawową metodą jest badanie rezystancji upływności kabli i przewodów elektrycznych prądem stałym lub przemiennym stosowany w urządzeniach do zabezpieczeń upływnościowych. Badanie upływności kabla lub przewodu elektrycznego powinno odbywać się przy prądzie pomiarowym odpowiednio dobranym dla przestrzeni zagrożonych wybuchem. Przy stwierdzeniu zbyt dużej upływności kabel nie może być używany. Należy go odłączyć i wymienić, co przy długich odcinkach kabla jest procesem kosztownym i długotrwałym. Warunkiem bezpiecznej eksploatacji przewodów oponowych ekranowanych jest równoczesne stosowanie w sieci systemów zabezpieczających. Przy braku zabezpieczeń lub ich niesprawnym działaniu, eksploatacja przewodów może stanowić zagrożenie. Parametry oraz funkcjonalność działania zabezpieczeń muszą być dostosowane do indywidualnych własności konstrukcyjnych przewodu i rodzaju żył oraz ekranów i ich wzajemnej konfiguracji. Powszechnie przyjętym rozwiązaniem jest łączenie ekranu z potencjałem żyły ochronnej. W tych warunkach uszkodzenie izolacji żył roboczych względem ekranu jest równoznaczne z uszkodzeniem izolacji doziemnej sieci. Klasyfikacja metod lokalizacji uszkodzeń W przypadku sieci zasilających stosowanych w podziemnych zakładach górniczych istnieją pewne specyficzne uwarunkowania rzutujące na metodologię i dobór metod przeprowadzania lokalizacji linii energetycznych. Można wyodrębnić trzy grupy metod związane z określaniem miejsca uszkodzenia [2, 4]: - lokalizacja odcinkowa związana z zabezpieczeniem blokującym, które umożliwia identyfikacje i odłączenie od sieci odcinka, w którym nastąpiło uszkodzenie. To uniemożliwia podanie napięcia na uszkodzony odcinek sieci zasilaj... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Fotodioda RGB w niskiej temperaturze (Jakub Pająkowski)
Temperatura pracy podzespołów elektronicznych poniżej 200K nie jest typowym zakresem temperatur przewidzianym przez ich producentów. Jednak wiele urządzeń znajduje zastosowanie w niższych przedziałach temperaturowych, na przykład w badaniach z dziedziny ciała stałego, badaniach kosmicznych, w medycynie, krioterapii, czy w przemyśle spożywczym. Prowadzone wcześniej badania wykazały, że fotodiody zachowują swoje właściwości detekcyjne w niskich temperaturach [1, 9], a wzmacniacze operacyjne wykonane w technologii BiFET zachowują swoje właściwości wzmacniające w temperaturze wrzenia ciekłego azotu (77 K). Przebadano wzmacniacze operacyjne typu LF411 i TL081: ich wzmocnienia różnicowe KUR przy temperaturze 77K równe są odpowiednio 80dB i 90dB [2]. Wybrane typy wzmacniaczy operacyjnych CMOS są zdolne do pracy w temperaturze poniżej 50 K (przykładowo wzmacniacz typu LMC6041: w temperaturze 45 K jego wzmocnienie różnicowe KUR = 100dB) [3]. Wzmacniacz operacyjny wykonany w technologii CMOS typu AD8594 wzmacnia nawet w temperaturze wrzenia ciekłego helu (4,2 K) - jego wzmocnienie różnicowe KUR = 60 dB [4]. Również diody elektroluminescencyjne zachowują zdolności emisyjne przy 77 K [5]. W zakresie temperatury od 77 K do 300K przetestowano diody: czerwoną typu... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Model przepływomierza tarczowego (Paweł Pliszka, Elżbieta Wróblewska, Artur Andruszkiewicz)
W Instytucie Techniki Cieplnej i Mechaniki Płynów Politechniki Wrocławskiej prowadzone są prace dotyczące wyznaczenia charakterystyk metrologicznych różnego typu przepływomierzy. Zbudowano m.in. model przepływomierza oscylacyjnego i wyznaczono jego charakterystykę [1], przeanalizowano pracę przepływomierza ultradźwiękowego w niestandardowych warunkach pracy i dla wysokiej temperatury przepływającego płynu [2]. Aktualnie prowadzone są prace nad przepływomierzem tarczowym. Zbudowano jego model, a także wyznaczono jego charakterystyki metrologiczne. Przepływomierze te charakteryzują się tym, że można je wykorzystywać do pomiarów płynów zabrudzonych zanieczyszczeniami stałymi, a także pęcherzami gazu [3]. Można je również stosować w pomiarach płynów o wysokich ciśnieniach i temperaturach, a jego dokładność jest rzędu dokładności klasycznych przepływomierzy np. zwężkowych. Celem artykułu jest opisanie budowy przepływomierza tarczowego wraz ze sposobem rejestracji sygnału od siły naporu hydrodynamicznego płynu na tarczkę, a także przedstawienie przykładowych jego charakterystyk. Model przepływomierza tarczowego Rysunek 1 przedstawia szkic przepływomierza tarczowego, który służy do wyprowadzenia równania pomiaru. Pisząc równanie Bernoulliego dla przekrojów 1-1 i 2-2, równanie ciągłości oraz wzór na siłę naporu na tarczkę kołową umieszoną w środku rurociągu, strumień objętości czy masy przepływającego płynu w rurociągu można wyznaczyć z równania 1 lub 2 [4]: (1) (2) q =  ... więcej»

Wykorzystanie sensorów radiowych w procesie lokalizacji emiterów (Grzegorz Czopik, Tomasz Kraszewski)
Przedsięwzięcie związane z budową rozproszonego systemu lokalizacji aktywnych emiterów radiowych było już sygnalizowane na łamach Elektroniki [1, 2]. W niniejszym artykule przedstawiono całość projektu ze szczególnym uwzględnieniem sensora radiowego i jego parametrów. Jako podstawowy element służący do budowy systemu, musiał zostać przebadany pod kątem parametrów, które uznano za najważniejsze ze względu na realizowane zadania. W systemie opracowanym w ramach projektu wykorzystano 5 urządzeń odbiorczych N6841A (RF Sensor) firmy Agilent [3] (rysunek 1). Są to szerokopasmowe odbiorniki pracujące w zakresie częstotliwości od 20 MHz do 6 GHz. Posiadają one dwa kluczowane wejścia sygnałowe RF, co pozwala na jednoczesne podłączenie dwóch anten. Odebrane i przechwycone dane mogą zostać zapisane w buforze wewnętrznym.Dużą precyzję synchronizacji pomiarów oraz oznaczanie danych pomiarowych sygnaturami czasowymi zapewnia wbudowany odbiornik GPS wraz z aktywną anteną. Sterowanie urządzeniem oraz odbiór danych w postaci ciągłego strumienia danych odbywa się z wykorzystaniem uniwersalnej magistrali sieciowej z wykorzystaniem protokołu TCP/IP [3]. Schemat blokowy wewnętrznej struktury odbiornika przedstawiony został na rysunku 2. Urządzenie pracuje tylko i wyłącznie pod kontrolą specjalizowanych aplikacji programowych definiowanych przez użytkownika. Zestaw wbudowanych w urządzenie elementarnych funkcji sterujących nakierowany jest na monitorowanie widma i detekcję sygnałów obecnych w kontrolowanej przez moduły N6841A przestrzeni. Potencjalny zakres zastosowań urząElektronika 5/2014 43 Rys. 3. Pomiar czułości stycznej - układ pomiarowy Fig. 3. The measurement of the tangential sensitivity Czułosc styczna -118 -116 -114 -112 -11... więcej»

INTERNETOWA POLONIA a nowe narzędzia edukacji i promocji kultury narodowej na bazie szerokopasmowego dostępu do Internetu (Andrzej M. Wilk)
Polska - Polonia i Polacy za granicą Polska w czternastym roku trzeciego tysiąclecia, w ćwierć wieku od transformacji ustrojowej przeżywa kolejny trudny okres w swej historii. W wyniku dwudziestu pięciu lat transformacji, gospodarka Polska stała się silnie asymetryczna własnościowo w stosunku do naszych głównych partnerów gospodarczych, co, obok typowych tego skutków dla krajowej gospodarki, powoduje również stały, znaczny odpływ kapitału za granicę. W połączeniu z rosnącym poziomem długu publicznego, zbliżającym się do krytycznej dla budżetu granicy i uzależniającym Polskę od życzliwości instytucji finansowych, powstała groźna mieszanka czynników, ograniczająca szanse rozwojowe i pole manewru każdego kolejnego rządu. Brak Polskich lokomotyw gospodarczych, generujących zapotrzebowanie na kooperację i powstawanie łańcuchów zaopatrzeniowych, złożonych w dużej części z małych i średnich krajowych przedsiębiorstw, utrudnia również proces powstawania i rozwoju tych firm w Polskiej gospodarce. Rezultatem tych wieloletnich procesów jest utrata znacznej liczby miejsc pracy, będąca również wynikiem automatyzacji wielu procesów produkcyjnych i usługowych. Powszechnie krytykowana, niesprzyjająca krajowym firmom, praktyka administracyjna i skarbowa, utrudnia również ich rozwój, pogłębiając brak pracy, powodujący ograniczenie perspektyw życiowych, szczególnie wśród młodych osób, wkraczających na rynek pracy. Skutecznie zniechęca ich również do podejmowania na większą skalę wysiłku poszukiwania miejsc pracy w Kraju, lub inicjowania działalności gospodarczej, mimo relatywnie dobrego przygotowania zawodowego i determinacji w działaniu. W połączeniu ze zmianami cywilizacyjnymi, dotyczącymi wzorców życia i pracy, skutkuje to narastającą w wielu środowiskach społeczną frustracją, dramatycznym spadkiem liczby urodzeń w Polsce i nasiloną, masową emigracją młodych i aktywnych zawodowo osób. Tam też, na emigracji, przychodzi na świat kolejne (cz... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Adaptacyjna transmisja sygnału EKG z użyciem predykcji interwałów R-R za pomocą odpornej funkcji regresji (Paweł Kowalski, Michał Momot, Arkadiusz Stankiewicz, Rafał Wiśniowski, Krzysztof Różanowski)
Jednym z zagadnień, które można zaliczyć do obszaru inżynierii biomedycznej jest telemedycyna, która stanowi formę opieki zdrowotnej łączącą telekomunikację, informatykę i medycynę. Stwarza to między innymi możliwość przełamywania barier geograficznych i zwiększa efektywność wykorzystania potencjału istniejących struktur służby zdrowia. W celu usprawnienia funkcji realizowanych przez placówki medyczne korzystnej wydaje się wykorzystywanie nowoczesnych technologii teleinformatycznych. Nieodzownym elementem procesu diagnostyczno-terapeutycznego jest wymiana informacji pomiędzy jednostkami ochrony zdrowia na różnych poziomach. Konsultacja medyczna realizowana w sposób klasyczny wiąże się z koniecznością transportu badanej osoby, czasami również towarzyszącego lekarza oraz dokumentacji medycznej pomiędzy poszczególnymi placówkami ochrony zdrowia. Realizacja konsultacji przy pomocy łączy telekomunikacyjnych zapewniających odpowiednią jakość przekazu pozwala przyspieszyć ten proces. Zdalne techniki medyczne należą do najbardziej rozwojowych narzędzi monitorowania, diagnostyki i leczenia. Nieomal w każdej dziedzinie i specjalności medycznej można polegać na telekonsultacji lub telediagnostyce. Wśród systemów leżących w obszarze telemedycyny można znaleźć takie, które są związane z transmisją sygnałów elektrodiagnostycznych [1]. Do takich sygnałów należą między innymi, sygnały elektrokardiograficzne (EKG), elektroencefalograficzne (EE G), czy elektromiograficzne. Sygnały te, podlegają akwizycji z ciała osoby badanej na drodze pomiaru wielkości elektrycznych, w szczególności napięcia lub rezystancji. Wielkości elektryczne, rejestrowane na powierzchni ciała mogą być, po uprzednim wzmocnieniu i wstępnym przetworzeniu, zamienione na postać cyfrową. Dalsze ich przetwarzanie odbywa się poprzez realizację programów komputerowych, w komputerach stacjonarnych, urządzeniach mobilnych lub mikrokontrolerach. Praca przedstawia zagadnienie selekt... więcej»

Metoda wyznaczania parametrów składowych wielotonów wybranych idiofonów (Andrzej Meyer, Marek Portalski)
Idiofony to grupa instrumentów muzycznych, w których źródłem dźwięku (wibratorem) jest ciało stałe mające niezmienną, naturalną sprężystość. Tym źródłem jest najczęściej cały instrument. Idiofony mogą wydawać dźwięki o charakterze szumowym lub o określonych częstotliwościach - wielotony. Zależy to od właściwości fizycznych elementu drgającego. Większość idiofonów to instrumenty perkusyjne. Należą do nich np. wibrafon, dzwony, gongi czy stosowane w terapii misy dźwiękowe [2]. Analiza dźwięków takich instrumentów jest zagadnieniem trudnym ze względu na ich wybitnie niestacjonarny charakter. Dlatego też wykorzystanie typowego spektrogramu nie daje tu zadawalających wyników. Autorzy skoncentrowali się w swoich badaniach na wybranej grupie idiofonów wydającej dźwięki będące wielotonami, na ogół wielotonami nieharmonicznymi. Wynikła stąd potrzeba napisania specjalistycznego programu pozwalającego na wyznaczenie najważniejszych parametrów takich dźwięków. Wielotony i ich parametry Wielotony to sygnały będące sumą składowych sinusoidalnych. W przypadku całkowitych krotności częstotliwości podstawowej mamy wielotony harmoniczne, czyli sygnały odkształcone posiadające okres pierwszej harmonicznej. W przypadku niecałkowitych zależności pomiędzy częstotliwościami składowych powstają wielotony nieharmoniczne, w których mogą powstawać dudnienia, a okres sygnału zależny od najmniejszej wspólnej wielokrotności częs... więcej»

Analiza technik biometrycznych do uwierzytelniania osób (Mirosława Plucińska, Jarosław Wójtowicz)
Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

Zastosowanie stereowizji we wspomaganiu operatorów monitoringu wizyjnego (Julian Balcerek, Adam Dąbrowski, Adam Konieczka)
Wśród zagrożeń występujących we współczesnym środowisku zurbanizowanym rozróżniamy katastrofy naturalne, wypadki i popełniane przestępstwa. Na przestrzeni wielu lat ludzie wypracowali metody przeciwdziałania zagrożeniom. Techniczne metody są oparte na obserwacji, wykrywaniu i, w miarę możliwości, na eliminacji lub ograniczeniu skutków występowania zagrożeń. Jednym ze sposobów obserwacji są systemy monitoringu wizyjnego. Obsługa systemu monitoringu nastręcza jednak wielu problemów. Długotrwałe oglądanie obrazu przez operatora jest monotonne i nużące. W związku z tym po pewnym czasie słabnie uwaga i koncentracja operatora. W ostatnich latach są rozwijane techniczne możliwości wspomagania obsługi systemu monitoringu wizyjnego, odnoszące się do obserwowanych osób i obiektów. Osoby mogą być automatycznie wykrywane, śledzone i liczone [1]. Rozpoznawane są twarze, płeć i sposób chodu [2]. Wykrywane jest przekraczanie linii na dworcach kolejowych, przechodzenie na czerwonym świetle, czy też pozostawianie bagaży przez podróżnych [1, 3]. Dym i ogień również mogą być wykrywane [3]. Istnieją metody do automatycznego wykrywania, rozpoznawania, śledzenia i zliczania pojazdów oraz do wykrywania zatorów drogowych [4, 5]. Zabronione manewry wykonywane przez kierujących pojazdami, takie jak: parkowanie i skręcanie w niedozwolonych miejscach lub jazda w niewłaściwym kierunku na drogach jednokierunkowych również są wykrywane [3]. Numery tablic rejestracyjnych mogą być automatycznie odczytywane, a kolizje i wypadki drogowe wykrywane [6, 7]. Techniczne możliwości wspomagania operatorów monitoringu wideo poprawiają wydajność w przypadku średnio skomplikowanych zadań. Jednak dowiedziono, że operator, który jest skupiony na prostym zadaniu, ma nawet lepszą wydajność, kiedy nie korzysta z systemów do automatycznej analizy sygnału wideo [8]. Jednym z głównych wymogów stawianych operatorowi monitoringu wizyjnego jest zdolność utrzymywania koncentracji... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF (Janusz DUDCZYK, Adam KAWALEC)
Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło ν(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Analiza układu integratora kluczowanego z nieidealnym kluczem (Grzegorz Domański, Bogumił Konarzewski, Robert Kurjata, Janusz Marzec, Krzysztof Zaremba , Michał Dziewiecki, Marcin Ziembicki, Andrzej Rychter)
Jednym z powszechnie stosowanych układów odbioru sygnału z fotodiod w systemach dyfuzyjnej tomografii optycznej [1] jest układ integratora kluczowanego [2]. Szum w takim układzie ma kilka przyczyn, a jedną z nich jest nieidealny charakter klucza. Rzeczywisty, nieidealny klucz, wstrzykuje ładunek podczas swojego przełączania oraz wykazuje skończoną rezystancję w stanie otwarcia. Ten drugi czynnik, czyli rezystancja klucza, może mieć znaczenie wszędzie tam, gdzie ze względu na niski poziom sygnału, stosowane są długie czasy integracji prądu z fotodiody, a więc na przykład w systemach tomografii optycznej. Analiza szumowa integratora kluczowanego sprzężonego z fotodiodą Ogólny schemat układu fotodiody dołączonej do integratora kluczowanego przedstawiono na rys. 1.Zawiera on fotodiodę podłączoną do wejścia odwracającego wzmacniacza operacyjnego. W pętli sprzężenia zwrotnego umieszczony jest klucz K o rezystancji Rf w stanie rozwarcia oraz dołączona równolegle pojemność Cf . Załóżmy, że na fotodiodę padają w losowych chwilach fotony, które generują impulsy prądowe ze średnią częstością re. Zgodnie z pierwszym twierdzeniem Campbella [4] średnia wartość sygnału wyjściowego uwy jest równa (1) gdzie he(t) - odpowiedź układu na pobudzenie jednoelektronowe. Wariancja sygnału wyjściowego σ 2uwy jest, zgodnie z drugim twierdzeniem Campbella [4], równa: (2) Analiza odpowiedzi układu w dziedzinie częstotliwości i czasu Dla dowolnej częstotliwości, przy pominięciu wpływu charakterystyki częstotliwościowej... więcej»

Zastosowanie metody wariancji Allana do analizy źródeł błędów losowych czujników inercjalnych (Jacek Paszek, Piotr Kaniewski)
Czujniki inercjalne są szeroko stosowane w systemach nawigacyjnych, aplikacjach autopilotów, układach stabilizacji położenia platform, czy w systemach digitalizacji ruchu (Motion Capture). Niezależnie od aplikacji, implementowany w systemie czujnik musi spełniać jej specyficzne wymagania. Producenci czujników inercjalnych zwykle podają jedynie ich podstawowe parametry, które pozwalają określić tylko przybliżoną dokładność pozycjonowania w systemie INS [1, 2]. Dokładniejszą informację o parametrach szumowych czujników można uzyskać wyznaczając na podstawie serii pomiarów funkcję gęstości widmowej mocy PSD (Power Spectral Density) lub korzystając z metody analizy w dziedzinie czasu, tzw. metody wariancji Allana AV (Allan Variance). Analiza metodą wariancji Allana Metoda AV do badania parametrów szumowych sensorów inercjalnych została opisana w normach IEEE po raz pierwszy w 1997 r. Opublikowany dokument dotyczy procedur testowania i formatowania dokumentacji dla jednoosiowych interferometrycznych giroskopów optycznych [3]. W 2005 r. organizacja IEEE opublikowała normę dotyczącą praktyk testowania, zbierania oraz analizy danych pomiarowych sensorów inercjalnych [4]. W tym samym roku norma ta została zatwierdzona przez organizacje ANSI (American National Standards Insitute) i IEEE -SA Standards Board. Pierwotnie metoda AV wykorzystywana była do mierzenia stabilności oscylatorów [5]. Obecnie wykorzystuje się ją również do określania rodzaju i oceny źródeł zakłócających dane pomiarowe dowolnych przyrządów. Analiza danych przy pomocy metody AV realizowana jest w dziedzinie czasu, a charakteryzowane procesy są funkcją czasu uśredniania zbiorów pomiarowych τ. Metoda polega na obliczeniu i graficznym przedstawieniu odchylenia standardowego σ (τ) różnic wartości średnich y- wielkości mierzonej x w sąsiadujących ze sobą przedziałach czasowych o długości τ, przy założeniu stałego czasu próbkowania oraz nieskończenie... więcej»

Analiza możliwości przesyłu energii elektrycznej produkowanej w elektrowniach solarnych na bardzo duże odległości (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Obecnie wiodącym tematem w elektroenergetyce są bez wątpienia odnawialne źródła energii. Według różnych opinii szersze wykorzystanie tego typu generacji energii elektrycznej doprowadzi do wręcz rewolucyjnych zmian w całej branży [1, 2]. Spośród różnych propozycji wykorzystania niekonwencjonalnych źródeł energii w opinii autorów najbardziej perspektywiczne wydaje się wykorzystani energii solarnej, powstającej w wyniku przemian termojądrowych zachodzących wewnątrz Słońca. Jako ciekawostkę można tylko podać, że powstały wewnątrz Słońca w wyniku reakcji termojądrowej foton (kwant promieniowania elektromagnetycznego) na dotarcie do jego powierzchni (tzw. fotosfery) potrzebuje około miliona lat, czyli docierające do nas ze Słońca promieniowanie elektromagnetyczne jest bezpośrednim skutkiem procesów zachodzących w jego wnętrzu w bardzo odległej przeszłości [3]. Energia generowana w wyniku procesów termojądrowych zachodzących we wnętrzu Słońca jest z punktu widzenia istnienia naszej cywilizacji w zasadzie niewyczerpalna. Według różnych szacunków Słońce powinno świecić w sposób podobny, jak ma to miejsce obecnie, jeszcze przez okres co najmniej jednego miliarda lat. Następnie temperatura powierzchni Słońca zacznie systematycznie wzrastać, czemu będzie towarzyszyło powiększanie się jego promienia, a co za tym idzie, również i objętości. Proces ten bezpośrednio spowodowany będzie kurczącymi się na Słońcu zapasami wodoru i rozpoczęciem procesu syntezy atomów helu i przejściem na tzw. cykl węglowy związany ze zwiększeniem się mocy promieniowania [3]. Wszystko to spowoduje, że temperatura na Ziemi podniesie się do takich wartości, że życie biologiczne na naszej planecie przestanie być już możliwe. Na szczęście, jak już zresztą uprzednio wspomniano, przez co najmniej najbliższy miliard lat taki scenariusz bynajmniej nam nie grozi. Ponadto, gdy porównamy ów miliard lat z czasem istnienia gatunku homo sapiens, który jest szacowany na nieco ... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 Ω. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow‑tie w szczelinowo pobudzany monopol. Z... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański )
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros )
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Real-time gas recognition system based on the gas sensor array responses and portable computer Raspberry PI (Ewa Ardanowska, Paweł Kalinowski, Łukasz Woźniak, Grzegorz Jasiński, Piotr Jasiński)
Artificial olfaction systems based on gas sensors and data analysis system are potentially an attractive instruments for a large number of applications, where precise detection of measured volatile compounds is required. They can be used for air quality monitoring [1], in medicine, for detection of diseases [2] or in food industry, i.e. for monitoring the freshness of products [3]. Such instruments, commonly referred to as electronic noses, have the ability for qualitative and quantitative characterization of target gases. In electronic nose systems instead of single sensors, an array of partially selective sensors is used. The response of the array generates a multidimensional dataset, which is then processed using various feature extraction and pattern recognition methods. The most commonly used methods in e-nose systems are Principal Components Analysis (PCA), Partial Least Squares (PLS), Support Vector Machine (SVM) various type of artificial neural networks (ANN) like i.e. Backpropagation Neural Network (BPNN), Radial Basis Function Neural Networks (RBF) or Probabilistic Neural Networks (PNN) [4-5]. Although the properties of electronic noses are very attractive for practical applications, they are often still limited to the laboratory implementations. This is related to the issue of long term stability, which is the most challenging problems in such instruments. The drift phenomenon causes a problem with maintaining the proper ability of precise determination of the target gases in the long period of time. Another issue is connected with complexity of some concepts. The proposed calculation algorithms are rather complicated, i.e. d... więcej»

Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Światłowodowe czujniki wielkości chemicznych, środowiskowych i biologicznych - EWOFS2013 (Ryszard S. Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych (OFS) kilka lat temu dała początek cyklicznym Europejskim Warsztatom Czujników Światłowodowych (EWOFS). Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe, jak np. konferencja Photon we Francji. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich Zastosowania", organizowanych naprzemiennie przez ośrodki technologiczne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbędzie się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014. Pierwsza krajowa konferencja z tego cyklu odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. z niezapomnianym uczestnictwem profesorów J. Groszkowskiego, A. Waksmundzkiego, A. Smolińskiego, B. Paszkowskiego, Z. Szpiglera. Obecnie w krajowych konferencjach Światłowody i ich Zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z kraju oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały lu... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski )
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»