profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły

ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik ISSN 0033-2089

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2015-6

zeszyt-4411-elektronika-konstrukcje-technologie-zastosowania-2015-6.html


 
 
 
W numerze m.in.:
Monolityczny mikrofalowy układ scalony GaN/AlGaN DOI:10.15199/13.2015.6.1
(Lech Dobrzański, Piotr Caban, Andrzej Kowalik, Jarosław Podgórski, Mariusz Rudziński, Krzysztof Góra, Andrzej Jagoda, Beata Stańczyk, Dariusz Wojnowski, Andrzej Kozłowski, Krystyna Przyborowska, Arkadiusz Lewandowski, Wojciech Wiatr, Regina Paszkiewicz)

Azotek galu jest półprzewodnikiem z szeroką przerwą zabronioną. Przyrządy wykonane z GaN mogą poprawnie pracować w temperaturze wyższej niż przyrządy krzemowe. Półprzewodniki potrójne AlGaN i InGaN mają inną szerokość przerwy zabronionej niż GaN i na granicach warstw GaN/Al- GaN InGaN/AlGaN pojawia się dwuwymiarowa warstwa ładunku, którego nośniki mogą osiągać dużą prędkość. Węglik krzemu (SiC), który jest powszechnie stosowany w energoelektronice i ma jeszcze lepsze parametry cieplne niż GaN, nie może posłużyć do konstrukcji tranzystorów szybkich, ponieważ w tym systemie nie można uzyskać dwuwymiarowego gazu elektronowego na granicy półprzewodników o różnym składzie. Podobnie jak w materiale SiC w systemie GaN/AlGaN pole krytyczne, przy którym występuje zjawisko przebicia lawinowego osiąga dużą wartość, co umożliwia konstrukcję wydajnych przyrządów mocy. Zatem azotek galu jest idealnym materiałem do wykonania mikrofalowych przyrządów mocy. Wadą systemu GaN/AlGaN jest brak monokrystalicznych podłoży GaN o dużej średnicy, dobrej jakości i niskiej cenie. Obecnie główny rynek przyrządów z GaN/AlGaN to białe żródła światła. Diody elektroluminescencyjne z GaN/AlGaN są wykonywane na podłożach krzemowych o średnicy 200 mm i 300 mm. Dioda emituje światło niebieskie lub ultrafioletowe, którego konwersję realizuje warstwa luminoforu fosforowego. W elektronice mikrofalowej, cywilnej i wojskowej przyrządy z GaN/AlGaN są wykonywane na podłożach z węglika krzemu o średnicy 125 mm i 150 mm dlatego, że jakość krystaliczna warstw na podłożu SiC jest znacznie lepsza niż na podłożu krzemowym. W ITME opracowano technologię trzyrządów HEMT z GaN/AlGaN na podłożach szfirowych i podłożach z węglika krzemu. Szafir jest tanim i dobrze poznanym podłożem dla systemu GaN/AlGaN, ale źle przewodzi ciepło. Wiele elementów docelowej technologii GaN/AlGaN na podłożu SiC można opracować na podłożach szafirowych. Zarówno przyrządy HEMT jak układ scalony MMI... więcej»

Wpływ wymiarowości cząstek na właściwości elektryczne materiałów i ich zastosowanie DOI:10.15199/13.2015.6.7
(Kornelia Kadac, Jacek Nowaczyk)

Cząstka w popularnym rozumieniu, to każdy fragment materii, który jest na tyle mały, iż nie można go zobaczyć "gołym okiem". Stanowi ona podstawę wielu badań z pogranicza chemii, fizyki i inżynierii materiałowej już od wieków. Współcześnie na szczególną uwagę zasługują obiekty nanometryczne, o rozmiarach od 10-9 do 10-12 m [1]. Są one istotnym punktem zainteresowania naukowców w skali całego świata, bowiem wykazują szereg zdumiewających i pożądanych cech, które trudno pojąć w kategoriach makroskopowych wyobrażeń zmysłowych. Z powodu dużej powierzchni, uzależnionej od wymiarowości i struktury, nanomateriały wykazują interesujące i różnorodne właściwości fizykochemiczne. W pracy zostaną przedyskutowane właściwości elektryczne nanocząstek metalicznych i półprzewodnikowych, jako cechy istotne w rozwoju mikroelektroniki i technologii odnawialnych źródeł energii. Nanocząstki reprezentują stan materii w obszarze przejściowym pomiędzy objętościowym ciałem stałym, a pojedynczą molekułą. W konsekwencji, ich właściwości fizyczne i chemiczne zmieniają się począwszy od cech typowych dla stanu stałego, a skończywszy na właściwościach pojedynczych cząsteczek. Nanocząstki z uwagi na swoje rozmiary leżą pomiędzy molekularną granicą gęstości dyskretnych stanów energetycznych, a przedłużoną krystaliczną granicą pasm ciągłych. Oznacza to, iż orbitale molekularne tych układów nie tworzą typowych pasm energetycznych charakterystycznych dla krystalicznych ciał stałych, ale też nie mają typowej budowy poziomów energetycznych spotykanych w cząsteczkach i atomach izolowanych. W nanocząstkach stosunek powierzchni do objętości jest bardzo duży, a znacząca część atomów znajduje się na powierzchniach, w obrębie granic międzyziarnowych lub międzyfazowych. Toteż właściwości powierzchniowe nanomateriałów mają istotny wpływ na właściwości tych substancji. Powstawanie struktur nanometrycznych danego materiału, skutkuje zmianą właściwości w porównaniu z wyjśc... więcej»

Antena monoimpulsowa z niesymetrycznymi dipolami ćwierćfalowymi DOI:10.15199/13.2015.6.2
(ANDRZEJ JEZIORSKI, EDWARD SĘDEK, RAFAŁ SŁOMSKI)

Anteny monoimpulsowe znalazły zastosowanie w radiolokacji i radiopelengacji. System radiolokacji monoimpulsowej (wielokanałowej) umożliwia określenie w sposób jednoznaczny współrzędnych kątowych śledzonego obiektu poprzez analizę informacji uzyskanej przy odbiorze pojedynczego impulsu [1-3, 7]. Ta właściwość jest jego podstawową zaletą w stosunku do stosowanych wcześniej metod jednokanałowych - z przełączaniem wiązek lub z analizą stożkową za pomocą wirującej wiązki [1, 2]. Wszystkie anteny monoimpulsowe składają sie z dwóch funkcjonalnych elementów - układu promienników (minimum dwóch, odpowiednio ustawionych względem siebie) oraz układu sumacyjno - różnicowego, przekształcającego sygnały z promienników na sygnały sumacyjny i różnicowe (w zależności od wariantu, albo w jednej albo w dwóch płaszczyznach). Namierzanie monoimpulsowe może być realizowane w jednej lub dwóch prostopadłych płaszczyznach. Na wyjściu systemu monoimpulsowego uzyskuje się informację o poziomie napięcia wyjściowego w funkcji współrzędnych kątowych alfa i beta śledzonego obiektu. Informacja ta przedstawiana jest w postaci charakterystyki pelengacyjnej S(ALFA, BETA) [1, 7].Antena układu monoimpulsowego składa się z dwóch promienników (w najprostszym przypadku, przy namierzaniu w jednej płaszczyźnie) różnie względem siebie ustawionych, w zależności od typu układu w którym pracują [1-3, 7]. W chwili obecnej istnieje potrzeba pozyskania prostych anten (sensorów) char... więcej»

Rozwój branży produkcyjnej sprzętu medycznego w Polsce DOI:10.15199/13.2015.6.10
(Joanna Małyska, Tadeusz Pałko)

Korzenie polskiego przemysłu medycznego sięgają początków XIX wieku. W okresie tym powstawały pierwsze zakłady i fabryki zajmujące się konstruowaniem i produkcją sprzętu do szpitali i placówek medycznych. W 1819 r. Gustaw Dawid Mann otworzył pierwszą w Polsce wytwórnię narzędzi chirurgicznych - "Alfons Mann i Syn". Fabryka była głównym dostawcą narzędzi dla wojska polskiego, a w dwudziestoleciu międzywojennym została przekształcona w spółkę akcyjną. Po zakończeniu II wojny światowej została odbudowana, znacjonalizowana i przekształcona w Fabrykę Narzędzi Lekarskich "FNL" [15, 24]. Drugą, istotną z punktu widzenia rozwoju przemysłu medycznego w Polsce, była założona w 1871 r. firma: "Konrad, Jarnuszkiewicz i Spółka". Zajmowała się ona produkcją: noszy do karetek pogotowia, łóżek i aparatów ekstensywnych, wózków inwalidzkich zmechanizowanych, wyposażenia gabinetów lekarskich, a w późniejszym czasie również foteli dentystycznych, aparatów do znieczulania oraz uniwersalnych stołów operacyjnych. Wysoka jakość wyrobów była zapewniona przez stałą współpracę z wybitnymi postaciami ze świata medycyny (m.in. położnik dr Ludwik Bryndza-Nacki, doc. dr Adam Gruca). Rozwój spółki był stymulowany przez chłonny rynek rosyjski, co przyczyniało się do otwierania nowych składów i sklepów (w 1915 r. firma zatrudniała ok. 750 pracowników). Wybuch I Wojny Światowej zahamował intensywny rozwój tej firmy. Zakład uległ poważnym zniszczeniom, a w czasie II Wojny Światowej znalazł się w obszarze getta żydowskiego, co utrudniało dostęp pracownikom do ich pracy. Powstanie Warszawskie prawie w całości zniszczyło zabudowania firmy. Ważną rolę odegrał wtedy wieloletni prokurent - W. Ślizowski, który przewodniczył robotnikom odbudowującym fabrykę. W 1947 r. firma została upaństwowiona i zmieniała nazwę na Warszawskie Zakłady Wyrobów Metalowych "WZWM" (liczyła wtedy 337 pracowników). Cztery lata później do firmy przyłączono małe zakłady: Artykuły Dentystyc... więcej»

Zastosowanie kodowania liczbą impulsów zboczy sygnałów dwustanowych w celu minimalizacji energii pobieranej przez elementy separacji optycznej DOI:10.15199/13.2015.6.9
(Tomasz Molenda, Sławomir Chmielarz, Damian Nowak)

Wraz z rozwojem techniki na przestrzeni lat można zaobserwować znaczny postęp w redukcji zapotrzebowania na energię urządzeń o podobnej funkcjonalności. W przypadku realizacji separacji galwanicznej znacznym postępem było zastosowanie oprócz elementów optoelektronicznych rozwiązań opartych również o inne zjawiska fizyczne. Elementy te wykorzystują sprzężenie indukcyjne poprzez transformatory zintegrowane w układach scalonych (np. technologia iCoupler Analog Devices [1]), materiały GMR, jak również różnicowe sprzężenie pojemnościowe (np. technologia ISO Texas Instruments [2]). W porównaniu z elementami optoelektronicznymi charakteryzują się one znacznie niższym poborem energii oraz dużo większymi szybkościami transmisji danych. Pomimo tych oczywistych zalet nowych rozwiązań, wykorzystujące je, dostępne na rynku gotowe elementy nie zapewniają odstępów izolacyjnych właściwych elementom optoelektronicznym. Wynika to z samej zasady ich działania (sprzężenie za pośrednictwem pola elektrycznego albo magnetycznego), a także z ograniczeń technologii ich wytwarzania. W przypadku stosowania separacji światłowodowej odstępy izolacyjne mogą być kształtowane praktycznie dowolnie. Konieczność zapewnienia odpowiednich odstępów izolacyjnych może być narzucona wymaganiami normy (w przypadku urządzeń iskrobezpiecznych PN‑EN 60079‑11 [3]). Energia wyjściowa iskrobezpiecznych źródeł zasilania musi być odpowiednio ograniczona w celu zapewnienia bezpieczeństwa przeciwwybuchowego. Dopuszczalna pojemność i indukcyjność obciążenia źródła iskrobezpiecznego maleją ze wzrostem jego maksymalnego napięcia i prądu wyjściowego. W rozbudowanych i rozległych systemach automatyki wymusza to konieczność dzielenia ich na osobne obwody iskrobezpieczne zasilane z oddzielnych źródeł, co z kolei narzuca stosowanie separacji celem umożliwienia komunikacji pomiędzy tymi obwodami, jak również po spełnieniu odpowiednich wymagań - pomiędzy obwodami iskrobez... więcej»

Zobacz wszystkie publikacje »

2015-7

zeszyt-4452-elektronika-konstrukcje-technologie-zastosowania-2015-7.html


 
 
 
W numerze m.in.:
Rozwój biometrii mobilnej na tle innych zastosowań DOI:10.15199/13.2015.7.15
(Mirosława Plucińska, Jan Ryżko)

Obszar zastosowań biometrii rozszerza się wraz z upływem czasu i o ile przed laty ograniczał się do wdrożeń w kryminalistyce, a później kontroli dostępu, to obecnie pojawiło się wiele nowych rozwiązań. Wśród nich najbardziej znaczące są zastosowania biometrii w urządzeniach mobilnych, a zwłaszcza w smartfonach. Tabela 1 przedstawia dane dotyczące wybranych obszarów zastosowań. Tabela 1 wyraźnie wskazuje na duży rozwój biometrycznych urządzeń mobilnych. Najnowsze prognozy [17] podają jeszcze większe wartości rynku urządzeń mobilnych, przekraczające nawet dane dla całego globalnego rynku biometrycznego podawane przez inne źródła. Bardziej szczegółowe informacje odnośnie tego rynku, możemy znaleźć w [18]. Ich uproszczoną wersję pokazano na rys. 1. W prognozie rozwoju biometrii mobilnej, często uwzględnia się silnie rozwijający się obecnie rodzaj techniki, który nosi w języku angielskim nazwę "wearable" (różnego rodzaju opaski, inteligentne zegarki, okulary - np. Google Glass, biżuteria). Przykładem takiego podejścia jest artykuł [19], którego autor z firmy Goode Intelligence przewiduje, iż w roku 2019 ponad 70% mieszkańców ziemi (łącznie z niemowlętami) będzie użytkownikami tych dwóch rodzajów urządzeń. Wyższe tempo wzrostu liczbowego smartfonów w stosunku do wartościowego w tabeli 1 świadczy o ciągłym spadku ich ceny. Natomiast duży udział zastosowań biometrii w dziedzinie przestrzegania prawa można Technika Informatyczna Elektronika 7/2015 75 tłumaczyć nieostrymi podziałami między poszczególnymi zastosowaniami. Problemem okazało się również znalezienie aktualnych danych odnośnie zastosowań w kontroli dostępu i rejestracji czasu pracy, mimo spotykanych stwierdzeń [20], że to właśnie zapotrzebowanie na kontrolę dostępu pobudza rynek biometryczny. Można też łatwo znaleźć doniesienia o osiągnięciach chińskiej firmy ZKTeco w obszarze rejestracji czasu pracy [21]. Znaczny postęp można zaobserwować w zastosowaniach finansow... więcej»

Internet korzyści czy sieć zagrożeń?
82,1%. internautów obawia się o swoje bezpieczeństwo w sieci, ale jedynie 19,8%. z nich korzysta z zaawansowanych rozwiązań zabezpieczających - takie wnioski płyną z badania przeprowadzonego na zlecenie firmy Intel wśród polskich użytkowników Internetu. Dane nie napawają optymizmem, tym bardziej, że problem zagrożeń w sieci dotyczy coraz większej liczby Polaków. Z informacji Głównego Urzędu Statystycznego wynika, że w ubiegłym roku aż w 10 mln polskich domów znajdował się przynajmniej jeden komputer, a dostęp do Internetu miało 74%. gospodarstw domowych. Z Internetu w Polsce regularnie korzysta ponad 66%. osób w wieku 16-74 lat. Od poczty elektronicznej, wyszukiwania informacji o produktach i usługach, po bankowość elektroniczną i zakupy w sieci - coraz chętniej korzy... więcej»

Cztery dekady rozwoju nauki i techniki światłowodowej w kraju - część 1 (Ryszard S. Romaniuk, Jan Dorosz, Waldemar Wójcik)
Artykuł jubileuszowy dedykujemy pamięci pionierów techniki światłowodowej w Polsce, którzy byli promotorami i współtwórcami jej początkowego rozwoju: prof. Adam Smoliński, prof. Zenon Szpigler, prof. Andrzej Waksmundzki, prof. Bohdan Paszkowski, prof. Maksymilian Pluta, prof. Krzysztof Holejko, dr Jan Wójcik, prof. Jan Rayss, dr Stanisław Sońta. W niniejszej pierwszej części artykułu opisano rozwój techniki światłowodowej w kraju, w aspektach technologicznych, w okresie 1975-1983, na tle stanu techniki światowej. Wspomniano pierwsze krajowe spotkania środowiska naukowo- technicznego technologii światłowodowej w Jabłonnej od 1976 roku a następnie w Lublinie i Krasnobrodzie, Białymstoku i Białowieży. W drugiej części, po krótkim podsumowaniu historii rozwoju krajowej technologii, wracamy do współczesności przedstawiając syntetycznie stan prac w trzech laboratoriach: Lubelskim (UMCS), Białostockim (Politechnika) i Warszawskim (ITME). Obecny stan prac będzie podsumowany na kolejnej Konferencji "Światłowody i Ich Zastosowania" w Nałęczowie, we wrześniu br. Światłowodami w aspekcie transmisji obrazów i energii świetlnej interesowano się w latach pięćdziesiątych 20 wieku. Za początek techniki światłowodowej w aspekcie transmisji sygnałów uznaje się powszechnie rok 1966 i publikację Ch.Kao. W roku 1973 w Laboratoriach Bella zastosowano na świecie po raz pierwszy do produkcji światłowodów modyfikowaną metodę CVD. W kraju technologię światłowodów rozpoczęto w roku 1975 prawie jednocześnie w trzech ośrodkach w Lublinie, Warszawie i Białymstoku. Zaledwie w kilka lat później bo w roku 1978 tą metodę MCVD zastosowano wyjątkowo efektywnie w Zakładzie Chemii Fizycznej (potem Zakładzie Technologii Światłowodów) na Wydziale Chemii UMCS w Lublinie otrzymując włókna optyczne o tłumieniu poniżej 5 dB/ km w pierwszym oknie transmisyjnym [1-3]. W tym czasie rozpoczęto też prace nad metodą plazmową PACVD. Wczesne i perfekcyjne opanowanie technol... więcej»

Wybrane zagadnienia budowy automatycznych generatorów struktur gramatycznych języków naturalnych. Część 2 - generatory typu SVO DOI:10.15199/13.2015.7.16
(Mirosław Gajer, Zbigniew Handzel, Joanna Dybiec-Gajer )

Niniejszy artykuł jest drugim z dłuższej serii artykułów dotyczących prowadzonych przez autorów badań nad budową tzw. generatorów struktur gramatycznych [1]. Rozważane generatory struktur gramatycznych zaliczane są do szerszej kasy narzędzi komputerowych typu MAHT (ang. Machine-Aided Human Translation) lub HAMT (ang. Human-Aided Machine Translation), czyli albo mogą pełnić funkcję programów wspomagających pracę tłumacza, albo mogą same tłumaczyć teksty języka naturalnego, bazując na współpracy z człowiekiem, który na bieżąco rozwikłuje powstałe podczas procesu translacji różnego rodzaju wątpliwości i wieloznaczności języka naturalnego pojawiające się nagminnie na poziomie leksyki, morfologii i składni [2-5]. Ogólnie rzecz ujmując, generator struktur gramatycznych jest programem komputerowym, który umożliwia użytkownikowi budowanie poprawnych pod względem składniowym zdań w języku naturalnym, którego użytkownik ten może nawet w ogóle nie znać [6]. W poprzednim z artykułów omówiono zasady funkcjonowania najprostszego z tego typu generatorów struktur gramatyc... więcej»

Suboptymalny algorytm wyboru trybu predykcji wewnątrzobrazowej dla standardu H.265/HEVC DOI:10.15199/13.2015.7.12

Dostęp do wysokiej jakości materiałów wideo jest jednym z podstawowych wymagań dzisiejszego konsumenta treści multimedialnych. Jednakże, pomimo szybkiego rozwoju technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu, przepustowości łączy wciąż okazują się niewystarczające. Jednym z proponowanych rozwiązań jest zastąpienie powszechnie stosowanego standardu kodowania wideo H.264/AVC (ang. Advanced Video Coding) opracowanym niedawno standardem H.265/HEVC (ang. High Efficiency Video Coding) [ HYPERLINK \l "ITU13" 1 ]. Obecnie prowadzone badania wskazują, że powinno umożliwić to ograniczenie wymaganej przepływności o ok. 20% dla predykcji wewnątrzobrazowej i ok. 40% dla predykcji międzyobrazowej. Nowy standard przystosowano do obsługi sekwencji o wysokich rozdzielczościach poprzez wykorzystanie jednostek składni o rozmiarach do 64x64. Rozbudowano także algorytmy predykcji, transformacji i kodowania entropijnego oraz wprowadzono nowy filtr, modyfikujący wartości współczynników w zależności od ich kategorii. Niestety zmiany spowodowały także znaczący wzrost złożoności obliczeniowej, szczególnie po stronie kodera. Składnia standardu H.265/HEVC Podstawą składni standardu H.265/HEVC jest Jednostka Kodowa Drzewa - CTU (ang. Coding Tree Unit), odpowiadająca kwadratowemu obszarowi ramki o rozmiarze 16×16, 32×32 lub 64×64. CTU zawiera jeden lub cztery równe bloki, zwane Jednostkami Kodowymi - CU (ang. Coding Unit). Podział CTU może być następnie rekurencyjnie powtarzany dla kolejnych CU, tworząc strukturę drzewa czwór... więcej»

Zobacz wszystkie publikacje »

2015-5

zeszyt-4379-elektronika-konstrukcje-technologie-zastosowania-2015-5.html

 
W numerze m.in.:
Bliższa chmura, czyli usługi obliczeniowe we mgle DOI:10.15199/13.2015.5.6
(Wojciech Nowakowski )

Usługi chmury obliczeniowej stały się już popularne. Okazało się jednak, że Cloud Computing, czyli chmura obliczeniowa lub przetwarzanie danych w chmurze ma pewne wady, które szczególnie wyraźnie wystąpiły w wyniku szybkiego rozpowszechnienia się zastosowań mobilnych i nowych internetowych technologii sieciowych. By przedstawić problem, przypomnijmy na czym polegają obliczeniowe usługi chmurowe. Cloud Computing (chmura obliczeniowa) Cloud Computing to po prostu obliczanie (czy szerzej, przetwarzanie danych) w chmurze, czyli nie wiadomo gdzie. Ale na pewno nie tam, gdzie jesteśmy razem ze swoim sprzętem: komputerem czy laptopem. Mówiąc krótko: nasz sprzęt jest tylko końcówką, urządzeniem wejścia-wyjścia, resztę mamy gdzieś. A to oznacza w istocie wolność: niepotrzebne nam serwerownie, aktualizacje oprogramowania lub ich reinstalacje, odzyskiwanie danych i dbanie o ciągłe, bezprzerwowe zasilanie grożące utratą danych. Cloud Computing nie jest ani nową technologią, ani nowym pomysłem. Jest to po prostu model zdecentralizowanego przetwarzania danych za pomocą usług zewnętrznych. Model przecież najbardziej pierwotny, który powstał u zarania informatyki, w połowie ubiegłego wieku, kiedy to dostęp do zasobów obliczeniowych wielkich ówczesnych komputerów uzyskiwano za pomocą prostych urządzeń końcowych. Korzystanie na przykład z dużych centrów obliczeń numerycznych, w których pracowały te wielkie komputery, polegało na kupowaniu usług przetwarzania danych - dostarczało się fizycznie wsad do obliczeń (taśmy lub pakiety kart dziurkowanych), a wyniki odbierało się w postaci wielostronicowych wydruków. Dopiero pojawienie się komputerów osobistych połączonych w sieci informatyczne, lokalne i zdalne, wprowadziło nowe możliwości rozproszonego przetwarzania danych i rozwoju zdalnych mocy obliczeniowych. Tak naprawdę jedyną nowością jaką wniosła ogłoszona w roku 2010 technologia Cloud Computing to romantyczna nazwa, bo wzrost szybkości i... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 5 DOI:10.15199/13.2015.5.11
(Ryszard S. Romaniuk)

Bibliometria współczesna, zmieniona zupełnie niedawno z raczej biernej, ciepłej, spokojnej, klasycznej, relatywnie prostej i nie budzącej kontrowersji metody dokumentacji wyników badań, do obecnej aktywnej i dość agresywnej postaci w ciągu bardzo krótkiego czasu budzi najwyższe zainteresowanie nas wszystkich, uczonych, autorów publikacji, dydaktyków, publicystów naukowych, całego środowiska naukowego. Spróbujmy pokazać tutaj różne barwy i odcienie bibliometrii, oraz kontekst gdzie te odcienie mają znaczenie, dla naukowców i nauczycieli akademickich. Bibliometria cyfrowa, bibliometria analogowa, bibliometria przemian pokoleniowych Jesteśmy wszyscy świadkami a uczeni także uczestnikami rewolucji naukometrycznej. Działamy w nowych, właśnie powstających warunkach tworzenia nowej nauki i oceny jej rezultatów. Podmiotem niniejszych dość swobodnych, eseistycznych rozważań i być może nieco subiektywnych refleksji są: zmienny kontekst rozwoju nauki i jej ewaluacji, a przede wszystkim ludzie nauki i instytucje, a w szczególności czasopisma naukowo-techniczne - publikatory wyników. Ograniczamy się głównie do naszego, znanego większości z nas, obszaru działania naukowo-technicznego EIT - elektroniki, fotoniki, informatyki i telekomunikacji, choć zapewne niektóre rozważania mają ogólniejszy zasięg. Traktujmy, proszę, te rozważania z pewnym dystansem, jako że sytuacja naukometrii (tutaj właściwie bibliometrii) zmienia się bardzo dynamicznie, a sama bibliometria nie przez nas wszystkich, tzn. środowisko naukowo-techniczne, jest traktowana całkiem poważnie. Liczne są różne bieguny jak zachwyt, aktywna lub jedynie neutralna akceptacja, ignorowanie, wrogość czy pogarda. Ale obecne są także dystans, racjonalizm i trzeźwa ocena dynamicznie zmieniającej się sytuacji. Bibliometria, ku rozpaczy niektórych uczonych, a ku zadowoleniu apologetów, przeliczana jest na kategoryzację i pieniądze, więc raczej powinna być traktowana poważnie. Pracownicy... więcej»

Zastosowanie sensorów mikrofalowych do detekcji parametrów życiowych ludzi w medycynie ratunkowej DOI:10.15199/13.2015.5.5
(MARIUSZ ŁUSZCZYK, ZENON SZCZEPANIAK, MATEUSZ KAWAŁKIEWICZ)

Zmiany demograficzne i społeczno-ekonomiczne zachodzące na całym świecie doprowadziły do gwałtownego wzrostu migracji ludności z obszarów wiejskich lub słabo zurbanizowanych do aglomeracji miejskich. Gwałtowny, często nie w pełni kontrolowany rozrost obszarów miejskich oraz systemów komunikacyjnych stwarza wzrost czynnika związanego z możliwością wystąpienia katastrof budowlanych lub komunikacyjnych. Pomimo stałego rozwoju technologicznego wciąż zagrażają nam katastrofy naturalne, tj. trzęsienia ziemi, tsunami oraz powodzie. Bez względu na charakter katastrofy (powodowany czynnikiem ludzkim lub siłami natury) można zaobserwować wzrost liczby ofiar w ludziach. Przyczyna tkwi w samym charakterze katastrofy, kiedy na ograniczonym obszarze gwałtownie pojawia się bardzo duża liczba osób potrzebujących natychmiastowej pomocy. Wszystko to odbywa się zazwyczaj w warunkach szeregu ograniczeń, tj. ograniczonego dostępu do miejsca wystąpienia zdarzenia, ograniczonej liczby personelu medycznego oraz środków transportu przystosowanego do przewozu osób poszkodowanych do punktów zorganizowanej pomocy medycznej. Najczęściej towarzyszą temu dodatkowo problemy z dostępem do aparatury medycznej, środków leczniczych, czystej wody oraz środków komunikacji bezprzewodowej. Opisana sytuacja stwarza potrzebę rozwoju medycyny ratunkowej, w tym medycyny katastrof. Oprócz rozwoju procedur medycznych potrzebne są nowe rozwiązania w zakresie urządzeń służących do diagnostyki, w tym do wstępnej segregacji pacjentów (triage). Jednym z systemów wstępnej segregacji pacjentów jest system oparty na trzech parametrach RPM - częstość oddechu (Respiratory rate), częstość tętna (Puls rate) oraz odpowiedź ruchowa (Motor response). Proponowane rozwiązanie pozwala monitorować dwa z trzech decydujących wskaźników. Ze względu na wspomniane ograniczenia istnieje potrzeba opracowania czujników bezkontaktowych, w tym czujników oddechu i częstości skurczów serca. Bezkonta... więcej»

Komitet Elektroniki i Telekomunikacji PAN. Struktura - Działanie - Perspektywy DOI:10.15199/13.2015.5.1
(Józef Modelski, Ryszard S. Romaniuk )

Komitet Elektroniki i Telekomunikacji PAN (KEiT-PAN) jest jednym z komitetow naukowych Polskiej Akademii Nauk, dzia.aj.cy w ramach Wydzia.u Nauk Technicznych PAN. Komitety PAN dzia.aj., podobnie jak ca.a korporacja, w okresach trzyletnich kadencji. Obecna kadencja zosta.a przed.u.ona i trwa w latach 2011.2015. Wybory do Komitetu nast.pnej kadencji odb.d. si. w listopadzie 2015 r. Zakres dzia.ania naukowego Komitetu Elektroniki i Telekomunikacji PAN w kraju jest zwi.zany z elektronik. i telekomunikacj. oraz technikami informacyjnymi, i obejmuje takie kierunki bada. jak: teoria i modelowanie (zjawisk, elementow, uk.adow, systemow, sygna.ow), nanoelektronika i mikroelektronika (uk.ady scalone wysokiej skali integracji), optoelektronika (technika laserowa, optoelektronika obrazowa, fotowoltaika, technika .wiat.owodowa, fotonika), sygna.y (cyfrowe i analogowe przetwarzanie sygna.ow), uk.ady i systemy (teoria i aplikacje systemow elektronicznych), materia.y i technologie (wytwarzanie uk.adow elektronicznych w warunkach badawczych i przemys.owych), technologia elektronowa, technologia materia.ow elektronicznych, in.ynieria sprz.tu i oprogramowania (integracja sprz.tu i oprogramowania, uk.ady FPGA/VHDL, uk.ady DSP, in.ynieria komputerowa), technika mikrofalowa i radiolokacyjna (uk.ady elektroniczne, i uk.ady promieniuj.ce, anteny, radary), telekomunikacja i radiokomunikacja (wyszukiwanie, przetwarzanie, przesy.anie i przechowywanie informacji), in.ynieria Internetu. Komitet dzia.a w trybie okresowych zebra. Prezydium, Sekcji oraz zgromadze. plenarnych. Zgromadzenia odbywaj. si. zmiennie na terenie ro.nych uczelni, Jednostek Badawczo- Rozwojowych, Parkow Technologicznych oraz jednostek przemys.owych. Obszar dzia.ania Komitetu obejmuje, mi.dzy innymi: wydawanie czasopism naukowych, organizowanie konferencji naukowych, inicjowanie nowych kierunkow bada. w dziedzinie elektroniki i telekomunikacji w kraju, stymulowanie wspo.pracy na... więcej»

Model systemu doradczego wspomagającego ochronę roślin sadowniczych DOI:10.15199/13.2015.5.9
(Małgorzata Tartanus, Daniel Sas, Tadeusz Antczak)

Aktualnie panuje powszechne przekonanie, że decyzje podejmowane przez producentów płodów rolnych nie mogą być trafne, jeśli nie są oparte o rzetelną wiedzę i aktualne informacje [18]. Skuteczna ochrona rozmaitych upraw wymaga dużego doświadczenia i wiedzy. Kaprysy pogody, różnorodność agrofagów, zmienność środowiska, zmieniający się asortyment pestycydów i zjawisko odporności agrofagów - te wszystkie tak różne czynniki sprawiają, iż trudno jest je analizować jednocześnie i to nie tylko producentom płodów rolnych. Dlatego też w ostatnich latach podejmowane są liczne próby tworzenia narzędzi, które nazywane są często systemami wspomagającymi decyzje lub systemami eksperckimi (doradczymi), które mogą być rozpowszechniane na szeroką skalę za pomocą Internetu i mogą być wykorzystane w różnych dziedzinach życia społecznego, w tym także w rolnictwie (np. [1-5], [7], [9], [10], [12-14], [16-18]). System ekspertowy jest to program lub zestaw programów komputerowych wspomagających korzystanie z wiedzy i ułatwiający podejmowanie decyzji. System taki może wspomagać doradców i producentów, dostarczać rad, zaleceń i diagnoz dotyczących problemów z danej dziedziny. Tego typu system informacyjny, na podstawie szczegółowej wiedzy (uzyskanej na podstawie badań naukowych), może wyciągać wnioski i podejmować decyzję, działając w sposób zbliżony do procesu rozumowania człowieka [6, 9]. Należy przy tym podkreślić fakt, iż przekazywanie szczegółowych informacji powinno być realizowane w możliwie jak najprostszej formie, a w rolnictwie również w jak najkrótszym czasie [1]. Takie systemy są również coraz częściej wykorzystywane w takim dziale rolnictwa, jakim jest ochrona roślin [2, 3, 5, 7, 13, 16] i dotyczą różnych aspektów tej dziedziny [4, 12, 14, 13]. Celem pracy jest prezentacja modelu systemu doradczego wspomagającego działania podejmowane w ramach ochrony roślin sadowniczych. Zwalczanie agrofagów jest jednym z głównych działań rolnika dla ... więcej»

Zobacz wszystkie publikacje »

2015-4

zeszyt-4361-elektronika-konstrukcje-technologie-zastosowania-2015-4.html

 
W numerze m.in.:
Szeregowanie i alokacja zadań periodycznych w heterogenicznych systemach wieloprocesorowych z wykorzystaniem obliczeń ewolucyjnych. Cześć 2 - wyniki obliczeń ewolucyjnych DOI:10.15199/13.2015.4.11
(Zbigniew Handzel, Mirosław Gajer, Dariusz Jamróz)

Implementacja algorytmu ewolucyjnego W przypadku gdy w systemie czasu rzeczywistego występuje duża liczba zadań, może okazać się, że nawet zastosowanie procesora o największej dostępnej mocy obliczeniowej nie pozwala na spełnienie warunku koniecznego na szeregowalność zbioru zadań. W takiej sytuacji jedynym możliwym wyjściem jest zastosowanie sytemu wieloprocesorowego i rozdzielenie poszczególnych zadań do odpowiednich procesorów w taki sposób, aby w ramach każdego z procesorów przydzielony do niego podzbiór zadań był szeregowalny. Ponadto jest rzeczą pożądaną, aby stopień obciążenia poszczególnych procesorów przez przydzielone do nich zadania był w miarę równomierny. W celu realizacji opisanego powyżej zadania autorzy postanowili zastosować technikę obliczeń ewolucyjnych, wykorzystując w tym celu algorytm ewolucyjny, którego działanie jest oparte na mutacji osobników oraz kodowaniu potencjalnych rozwiązań z wykorzystaniem liczb całkowitych [1, 2]. W przypadku każdego z osobników wchodzących w skład populacji liczba jego genów równa jest liczbie zadań podlegających procesowi szeregowania. Ponadto z każdym z genów związane jest tylko jedno przypisane do niego zadanie. W artykule rozważono przypadek systemu zbudowanego z sześciu heterogenicznych procesorów, odznaczających się zróżnicowanym poziomem mocy obliczeniowej. Z tego powodu poszczególne geny osobników mogą przybierać jedynie wartości całkowite z przedziału od jeden do sześciu. Wartość zapisana na danym genie determinuje automatycznie numer procesora, do którego skojarzone z rozważonym genem zadanie zostanie przydzielone. Tak więc, jeżeli na danym genie zapisana jest wartość k, wówczas skojarzone z tym genem zadanie zostanie przydzielone do procesora o numerze k. Podczas realizacji algorytmu ewolucyjnego poszczególne osobniki poddawane były genetycznym operacjom mutacji i selekcji. Operacja mutacji polegała na losowym wyborze genów do jej realizacji przewidzianych or... więcej»

Evolution method aided by knowledge base to improve learning effects of some neural networks DOI:10.15199/13.2015.4.5
(JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)

Creating mathematical models of unknown rules governing empirical data is an important but not easy task. One of ways to carry out this is to apply an approximation technique. To popular approximation functions belong polynomials. In order to obtain a polynomial-based approximation one has to determine values of the polynomial coefficients. This can be done in a variety of ways. Both deterministic and probabilistic methods are applied. One of them is using neural networks, where the coefficients are obtained in the way of learning the network. In this paper, instead of single polynomial rational functions (ratio of two polynomials) are proposed to be the main approximation description. This means that subject of the network learning are coefficients of the rational functions. Superiority of the rational-function-based special networks over the networks with a single polynomial is that the former is more flexible and better suited for the training task. If needed, one can also obtain a polynomial description making use of the rational function. To do this, proper conversion of the rational function must be done, which allows us to retain simplicity of network structure. Even though networks with rational functions may seem to by more complex than the ones using single polynomials, in reality the opposite situation takes place when using the proposed networks. An example illustrating this issue is presented in the paper. The proposed networks have such characteristic features as: 1) the use of reciprocal activation functions of the 1/(.) type as activation functions included in the network; 2) different from typical location of the activation functions, i.e. predominantly in the hidden layer and input nodes. As already mentioned, learning the special network is a way to determine coefficients of the used approximation function [1-13]. Main problems concern the learning and appear if the considered experimental data rules are p... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 4 DOI:10.15199/13.2015.4.10
(Ryszard S. Romaniuk)

Bibliometria współczesna, zmieniona zupełnie niedawno z raczej biernej, ciepłej, spokojnej, klasycznej, relatywnie prostej i nie budzącej kontrowersji metody dokumentacji wyników badań, do obecnej aktywnej i dość agresywnej postaci w ciągu bardzo krótkiego czasu budzi najwyższe zainteresowanie nas wszystkich, uczonych, autorów publikacji, dydaktyków, publicystów naukowych, całego środowiska naukowego. Spróbujmy pokazać tutaj różne barwy i odcienie bibliometrii, oraz kontekst, gdzie te odcienie mają znaczenie, dla nas szarych (zrównoważona mieszanina barw dopełniających) naukowców i nauczycieli akademickich. Bibliometria teoretyczna, teoria bibliometrii Pokrewne dziedziny jak socjologia nauki, bibliometria, naukometria, webometria, informetria, poszukiwanie informacji, generacja wiedzy, tworzą nowy obszar nauki. Jest to nauka stosowana, wokół której tworzone są różne teorie. Najprościej ujmując bibliometria jest badaniem aspektów ilościowych produkcji, rozpowszechniania i użycia zapisanej informacji. Bibliometria teoretyczna rozwija modele matematyczne i miary dla tych procesów i potem stosuje te modele i miary do przewidywania zachowania systemu i podejmowania decyzji. Naukometria bada ilościowe aspekty nauki jako dyscypliny lub działalności ekonomicznej. Naukometria jest w zasadzie częścią socjologii nauki oraz technik informacyjnych i posiada zastosowanie w polityce naukowej. Ilościowe badania działalności naukowej obejmują także publikacje - co z kolei wchodzi w obszar bibliometrii. Webometria, może być zdefiniowana analogicznie jako badania ilościowe konstrukcji, użycia zasobów informacji, struktur, technologii sieci Web, korzystając z metod bibliometrii i informetrii. Badana jest zawartość stron web, struktura i topologia linków, zachowanie użytkowników, wydajność silników, maszyn i metod poszukiwania itp. Bibliometria bazuje na wyszukiwaniu, zbieraniu i analizie informacji. Informacje są gromadzone w domenowych bazac... więcej»

iBeacons - mobilne usługi lokalizacyjne DOI:10.15199/13.2015.4.9
(Roman Czajkowski, Wojciech Nowakowski )

Co to są beacony? To po prostu małe radiolatarnie. Pomysł polega na tym, aby w różnych miejscach rozmieścić pobierające bardzo mało mocy niewielkie nadajniki cyfrowego sygnału radiowego z zakodowaną informacją, która może być odebrana przez znajdujące się w pobliżu urządzenia mobilne, np. smartfony. Może to działać w muzeum (informacje o eksponatach) lub w centrach handlowych (reklamy, promocje, wyprzedaże). Może to działać również tak, że nadany sygnał spowoduje otwarcie na urządzeniu mobilnym strony internetowej z większą, czy bardziej szczegółową informacją. Nowa przydatna technologia, czy efemeryda? Wearables, Nearables, iBeacons czyli Internet of Things w wersji lite Nearables jest terminem stworzonym dla idei inteligentnych obiektów utworzonych z przedmiotów codziennego użytku, do których przyklejono małe, elektroniczne urządzenia cyfrowe. Urządzenia te mogą być wyposażone w różne czujniki i działać jako nadajniki danych, zwykle z użyciem protokołu BLE [1]. Obiekty te mogą przekazywać drogą radiową mobilnym urządzeniom znajdującym się w pobliżu krótkie informacje o własnej lokalizacji, stanie i o tym, co znajduje się w ich otoczeniu. Termin nearables został utworzony na podobieństwo słowa wearables, oznaczającym urządzenia elektroniczne doczepiane czy przyklejane do odzieży lub biżuterii. Termin ten został pierwotnie zaproponowany przez Mano ten Napela, propagatora i wizjonera wszelkich nowości technologicznych na jego blogu Novealthy. Mano ten Napel stworzył ten termin jako korzystniejszy od terminu Internet Rzeczy (ang. Internet of Things, IoT) lub Internet Wszechrzeczy (ang. Internet of Everywhere, IoE) [2, 3]. Oba te terminy dotyczą idei nadawania przedmiotom i urządzeniom osobowości internetowej tak, by mogły komunikować się cyfrowo z urządzeniami mobilnymi używanymi przez człowieka (jak. np. smartfony, phablety, tablety, netbooki czy laptopy). Technologie takie w skali profesjonalnej rozwijane są przez wiele fir... więcej»

Analysis of selected steganography algorithms DOI:10.15199/13.2015.4.6
(Zbigniew Piotrowski, Jarosław Wojtuń)

Acoustic steganography consists in creating hidden communication channels using an acoustic signal. The acoustic signal is perceived here as a carrier of the hidden information. The compromise that has to be achieved between three basic parameters of a steganographic system: binary flow rate, robustness and perceptual transparency [1] is distinctly discernible in the case of a signal susceptible to many degrading factors in the VHF for the required binary flow rate of the hidden channel. There exist many methods of acoustic steganography described in the literature, e.g. in [2] the method for modifying the least important bit was described, whereas in [3] a system based on a wavelet transform. In [4][5] a system based on echo addition was proposed and in [1, 6-8] was described a system based on angle scanner method. Hardware professional implementations using data hiding algorithms [9] also are improved taking into account conducted emissions [10-13]. In this article two methods of acoustic steganography were compared to check their suitability for creating covert channels in VHF radio links. Operating principle of selected acoustic steganography algorithms A. Drift Correction Modulation The first of the presented acoustic steganography algorithms is an algorithm the DCM method of watermarking [14, 15]. Figure 1 shows the block scheme of the encoder The watermarking algorithm allows for embedding in an acoustic signal a binary signature with a capacity of: payload = 20P (1) where: P - number of bits per single harmonic of OFDM signal. If we change the watermarking algorithm so that a binary signature is changed over a specified time period Ts, we will receive a steganographic algorithm with binary flow rate of: (2) In the OFDM signal a signal composed of 27 harmonics is created. We may distinguish three types of harmonic components in this signal. 4 harmonics are used for correcting a phase angle drift. Another 3 harmon... więcej»

Zobacz wszystkie publikacje »

2015-3

zeszyt-4330-elektronika-konstrukcje-technologie-zastosowania-2015-3.html

 
W numerze m.in.:
Simulation of Dynamic RFID System DOI:10.15199/13.2015.3.2
(Marek Gotfryd, Bartosz Pawłowicz, Sebastian Twardzik)

RFID anticollision systems owing to their various advantages are treated as alternative for present identification systems such as smart cards, chip cards and bar codes. One of the most important areas of usage of anticollision RFID system is identification of multiple moving objects [1, 2, 4, 5]. Most of dynamic RFID systems operate on the basis of EPCgen-2 protocol approved as ISO 18000-6C standard. The contactless identification systems of moving objects are introduced in areas of road traffic and railway transport analysis, on factory conveyor belts, in logistic systems and in trade where the bar codes are being replaced by RFID systems [1]. The measure of the effectiveness of dynamic RFID system may be the ratio of the number of recognized objects to the number of objects in the given group. This ratio is influenced by the number of tags, the stream tags’ speed, protocol parameters, and many other factors. The aim of the work is to develop a program that may simulate the operation of dynamic RFID system. The application enables changing of various parameters affecting the reading process (such as protocol parameters, or the size of the group of tags) to estimate loss of tags in the identification process on the basis of probability. To verify proper operation of the application the calculated data were compared with actual ones, obtained from performed measurements. Model of the dynamic system The system model is based on known solutions [2, 4]. The system state is different in the various sections and rounds. Therefore, it is appropriate to adopt a method of analysis of the system, in which there is a possibility to take into account status in different rou... więcej»

Experimental optimization of laser cutting process parameters to prepare stencil printing for mounting SMD electronic components on inkjet printed flexible circuits DOI:10.15199/13.2015.3.15
(Jerzy Potencki, Jacek Szuba, Grzegorz Tomaszewski, Tadeusz Wałach)

In recent years the interest in various methods of manufacturing low cost electronics is growing very much. Different printing techniques, like offset printing, gravure printing, screen printing and inkjet printing are especially in the area of interest [1]. The inkjet printing is very promising technology of flexible electronics fabrication and is characterized by a simple, noncontact, plateless and maskless process. Various electronics devices e.g. RFID transponders, organic solar cells, organic thin-film transistors, low cost sensors can be partially or fully fabricated in the inkjet printing technology. This technology allows to eliminate photolitography/eaching, vacuum deposition and other complicated processes [2]. There are technological barriers to using traditional mounting methods in a simple application of inkjet printing techniques to fabricate connections on flexible substrates between surface mounted elements. It is impossible to create the electrical connections by soldering methods because in most cases the flexible substrates is not thermally resistant for applying high temperatures which characterize the classical SMT assembly process. Even the use of the high thermally resistant substrate, like polyimide film, does not guarantee reliable assembly with using the solder techniques because the stress between the solder material and the conductive inkjet printed layer on the flexible substrate causes the mechanical damage of the conductive layer. Therefore, the co... więcej»

Sterowanie i eksploatacja niskobudżetowej platformy transportowej typu line follower w środowisku przemysłowym DOI:10.15199/13.2015.3.21
(Igor Ostrowski, Łukasz Wojas, Grzegorz Kucharek, Andrzej Masłowski)

W technologii montażu polegającej na łączeniu ze sobą dużej ilości elementów zadania transportowe należą do najbardziej czasochłonnych oraz najprostszych działań. Automatyzacja tych zadań nie wymaga dużych nakładów finansowych ani znaczących modyfikacji w funkcjonowaniu hali montażu. Zadania transportowe polegające na dostarczeniu wózka sekwencyjnego do stanowiska może realizować pojazd wyposażony w klasyczny sterownik PLC z zaimplementowanym powszechnie znanym algorytmem podążania wzdłuż linii (tzw. Line Follower). Stabilność takiego rozwiązania oraz jego prostota powodują niską awaryjność, a w przypadku jakiejkolwiek konieczności ingerencji dają możliwość rozwiązania problemu bez konieczności wzywania serwisu, jak w przypadku komercyjnych rozwiązań. Algorytmy podążania za linią stanowią element obowiązkowego kształcenia inżynierów na kierunku "automatyka i robotyka" na większości polskich uczeni technicznych [1]. Wykorzystanie tych algorytmów w pojazdach komercyjnych jest powszechne jednak szczegółowy kod i strategia sterowania nie są zazwyczaj udostępniane użytkownikowi. Użytkownikowi nie wolno także, pod groźbą utraty gwarancji dokonywać żadnych modyfikacji w zakresie oprogramowania co może być uciążliwe w przypadku konieczności modyfikacji [2]. Skonstruo... więcej»

Fizyczne i eksperymentalne podstawy mechanizmów procesu umacniania konstrukcyjnych materiałów metalicznych DOI:10.15199/13.2015.3.24
(Witold Precht, Czesław Krewski)

Celem opracowania było: badanie właściwości i struktury materiałów magnetycznych, to jest &#945;Fe Fe8N i Fe4 N. Badania obejmowały efekty procesu wydzielania azotków koherentnych Fe8N (sieć zgodna z siecią osnowy) i heterogenicznych Fe4N (siec różna od osnowy) z przesyconego roztworu stałego Fe(N). W pracy przedstawiono wyniki badań dwóch serii: pierwsza dotyczyła próbek o zawartości azotu niższej od maksymalnej rozpuszczalności, tj. N<0,1%wag., druga zaś seria obejmowała próbki o zawartości wyższej od maksymalnej rozpuszczalności, tj. N>0,1%wag. W szczególności badano wzajemne fizyczne oddziaływanie obcych atomów międzywęzłowych z siecią bcc żelaza oraz z dyslokacjami w aspekcie procesów wydzielania i wtórnego rozpuszczania faz Fe8N i Fe4 N. Materiały i metody badawcze Jako materiału wyjściowego użyto żelazo Armco. Zawartość azotu w próbkach określono metodą "Leco". W celu odwęglenia i odprężenia próbek żelaza Armco, przeznaczonych do badań, przeprowadzono wyżarzanie w temp. 1200°C w atmosferze suchego wodoru przez okres 30 h. Po tym procesie próbki miały ziarno o średniej powierzchni około 0,10 mm2, a siła koercji magnetycznej wynosiła 0,30-0,50 Oe (24-40 A/m). 1 Oe = 80 A/m. Siłę koercji magnetycznej mierzono przy pomocy precyzyjnego koercjomierza firmy Foerster, używając do pomiarów specjalnej sondy wewnętrznej (wewnątrz cewki) obejmującej objętość poniżej 1 &#956;m3. Dla zapewnienia ciągłości badań "In situ" próbkę starzono w cewce koercjomierza w specjalnie zbudowanym uchwycie, w którym utrzymywano żądaną stałą temperaturę starzenia za pomocą termostatowanego oleju (rys. 2). Morfologię wydzieleń azotków po określonych czas... więcej»

Autonomous sensor with RFID interface DOI:10.15199/13.2015.3.4
(Piotr Jankowski -Mihułowicz, Włodzimierz Kalita, Mariusz Węglarski )

The use of radio frequency identification (RFID) technique, especially the sensor transponders, gives a new quality to broad implementation of automatic identification and intelligent wireless senor networks. A deployment of a number of autonomous transponders (both: fixed with labelled goods as well as deployed in a supervised environment) in a particular region gives the opportunity to determine precisely the values of parameters describing environmental conditions [1]. The market potentials for such a solution are tremendous [2, 3]. Nevertheless, some technical problems have to be overcome to achieve overall usefulness of the measuring networks [4]. The autonomous sensor with RFID interface (called also RFID sensor or sensor transponder) is in fact a semi-passive transponder. Additionally, in spite of being supplied from a built-in extra power source (usually battery or rechargeable cell), it harvests energy from the electromagnetic field generated by the antenna of read/write device (RWD) [3]. In all kinds of transponders, the communication process can be activated only when they are in the interrogation zone (IZ) [4, 5]. The extra power source supplies only additional functional blocks (e.g. analog-to-digital converter, extended memory of user data, serial data transmission driver, physical quantities transducers, other integrated circuits) that are not directly related to the automatic identification process (process of conveying the unique identification UID code and other data permitted by transmission protocols). Utilizing these facilities and a communication protocol standard, it is possible to use the RFID sensor as a wireless node of measuring network (wireless sensor network WSN) [2]. The RFID sensor node equipped with a serial data transmission driver (usually I2C or SPI standard - inter-integrated circuit and serial peripheral interface respectively) or an analog-to-digital converter can measure environmental ... więcej»

Zobacz wszystkie publikacje »

2015-2

zeszyt-4306-elektronika-konstrukcje-technologie-zastosowania-2015-2.html

 
W numerze m.in.:
Warstwy Mg2Si nanoszone metodą impulsowego rozpylania magnetronowego DOI:10.15199/13.2015.2.25
(Krzysztof Mars, Elżbieta Godlewska, Mateusz Augustyniak, Marzena Mitoraj)

Mg2Si jest jedynym związkiem międzymetalicznym w układzie Mg-Si. Krystalizuje w układzie z siecią regularną ściennie centrowaną o strukturze typu fluorytu. Mg2Si jest półprzewodnikiem typu n z przerwą energetyczną 0,78 eV [1]. Ze względu na możliwość odwracalnej interkalacji litem Mg2Si wykorzystywany jest jako materiał katodowy w bateriach litowo-jonowych [2]. Ponadto krzemek magnezu jest obiecującym materiałem do zastosowań termoelektrycznych w zakresie temperatury 300-600OC. Pierwiastki do syntezy tego materiału (Mg i Si) występują w dużej ilości w przyrodzie, są nietoksyczne i stosunkowo tanie. W celu poprawy właściwości termoelektrycznych, Mg2Si można domieszkować bizmutem, antymonem, srebrem, galem, cyną i germanem [4-9]. Krzemek magnezu w formie warstw otrzymuje się różnymi metodami fizycznego osadzania z fazy gazowej, wśród których można wymienić wyładowanie jarzeniowe [10], ablację laserową [11], lub rozpylanie jonowe [12]. Otrzymywanie warstw o składzie stechiometrycznym jest jednak zadaniem trudnym. W pracy [10] krzemek magnezu otrzymano w procesie wyładowania jarzeniowego przy użyciu targetu sektorowego, składającego się z naprzemiennie ułożonych płytek magnezu i krzemu. Przeprowadzone badania rentgenowskiej analizy fluorescencyjnej wykazały, że w wyniku rozpylania targetu, w którym stosunek powierzchni Mg:Si wynosił 50%:50% można otrzymać warstwę Mg-Si o zawartości magnezu zmieniającej się w zakresie 82-85% at. Do otrzymania warstwy, w której ilość magnezu była najbardziej zbliżona do wartości odpowiadającej stechiometrycznemu Mg2Si wykorzystano target o stosunku powierzchni Mg:Si wynoszącym 25% : 75%. W pracy [12] podjęto próbę otrzymania warstwy Mg2Si przez rozpylanie jonowe targetu sektorowego złożonego z naprzemiennie ułożonych płytek magnezu i krzemu. Wykonano trzy targety, w których udział powierzchni Mg:Si, wynosił 25% : 75%, 50% : 50%, oraz 75% : 35%. Rentgenowska analiza fluorescencyjna oraz rentgenow... więcej»

Ocena wpływu wzajemnego oddziaływania między elementami systemu antenowego namiernika radiowego na dokładność namierzania DOI:10.15199/13.2015.2.11

Namierzanie radiowe należy do podstawowych przedsięwzięć realizowanych w ramach monitoringu radiowego oraz walki elektronicznej. Namierzanie umożliwia uzyskanie szczególnie cennej informacji, którą jest położenie (lokalizacja) źródeł promieniowania fal radiowych. Do źródeł tych zaliczyć można: radiostacje, stacje radiolokacyjne, radiolinie, nadajniki zakłóceń itp. Źródła te zwykle są zainstalowane na określonych obiektach, przez co możliwe jest także określenie ich położenia. Możliwość ta jest szczególnie istotna w zastosowaniach wojskowych, ponieważ ułatwia określenie lokalizacji sztabów i stanowisk dowodzenia oraz innych obiektów przeciwnika, a także tras przemieszczania się tych obiektów. Aktualnie do lokalizacji źródeł promieniowania sygnałów radiowych wykorzystuje się różne metody. Oparte są one m.in. na pomiarze: kierunków propagacji AOA (ang. Angle of Arrival), opóźnień sygnału TDOA (ang. Time Difference of Arrival), zmian częstotliwości FDOA/DD (ang. Frequency Difference of Arrival/Differential Doppler) lub różnic poziomu odbieranego sygnału SSD (ang. Signal Strength Difference) przez rozmieszczone w terenie lub przemieszczające się sensory. Każda ze stosowanych metod lokalizacji charakteryzuje się określonymi właściwościami (szybkość pomiaru, dokładność lokalizacji, zależność dokładności lokalizacji od pasma sygnału) a także wymaganiami sprzętowymi (struktura i gabaryty systemu antenowego, liczba torów odbiorczych, wymagania dotyczące mocy obliczeniowej procesora, precyzji synchronizacji czy przepustowości łącza transmisji wyników, itd.). Spośród wymienionych najbardziej uniwersalne oraz zapewniające najlepsze dokładności w przypadku lokalizacji różnych środków radiokomunikacyjnych są metody AOA oparte na wykorzystaniu grupy rozwiniętych namierników (ewentualnie pojedynczego namiernika ruchomego), określeniu namiarów w miejscach ich rozwinięcia oraz wyznaczeniu punktów przecięcia linii namiarów (triangulacji). Naj... więcej»

Ocena oddziaływań pomiędzy antenami systemu antenowego głowicy namierzającej źródła sygnałów mikrofalowych DOI:10.15199/13.2015.2.10
(Mirosław CZYŻEWSKI, Adam Konrad RUTKOWSKI, Adam KAWALEC, Adam SŁOWIK)

Projektowana głowica do namierzania i analizy parametrów źródeł sygnałów mikrofalowych [1-3], których szczególnymi przypadkami są radary, musi być wyposażona w odpowiedni system antenowy. Zależnie od bieżących potrzeb, system ten może mieć różne konfiguracje. Poszczególne konfiguracje mogą różnić się liczbą wykorzystanych anten oraz ich wzajemnym ustawieniem. W tej sytuacji koniecznym jest określenie, jaki wpływ na parametry anteny ma fakt umieszczenia jej w określonym szyku antenowym i w różnych płaszczyznach polaryzacji. Analiza sprzężeń jakie występują pomiędzy antenami umieszczonymi w określonym szyku pozwala określić te zależności. Często problem ten jest pomijany lub traktowany w sposób ściśle powiązany ze specyfiką analizowanej konfiguracji antenowej. W przypadku urządzenia namierzania nastawionego na szerokopasmowy odbiór nawet bardzo słabych sygnałów w szerokim zakresie kątów, zagadnienie to nie może zostać pominięte. Układ antenowy stanowi pierwszy stopień głowicy namierzającej i zbyt duże zmiany parametrów anten mogłyby w istotny sposób wpłynąć na poprawność pracy kolejnych elementów toru pomiarowego, a w konsekwencji błędne określenie kąta nadejścia odebranych sygnałów mikrofalowych. W przypadku stwierdzenia minimalnych zmian parametrów wywołanych sprzężeniami pomiędzy antenami można będzie w oparciu o tą analizę, wyeliminować ten czynnik jako potencjalne źródło zakłóceń poprawnej pracy urządzenia. Metodyka pomiarowa przyjęta w szacowaniu sprzężeń pomiędzy antenami, została zdeterminowana specyfiką układu antenowego zastosowanego w projektowanym urządzeniu. Badania przeprowadzone zostały dla liniowego i cylindrycznego szyku antenowego, składającego się z różnej ilości anten. W pomiarach przyjęto ekstremalnie niekorzystne warunki, polegające na ustawieniu anten w możliwie najmniejsz... więcej»

Zaawansowane metody segmentacji obrazów w procesie rozpoznawania obrazów FLIR obiektów morskich DOI:10.15199/13.2015.2.1
(Tadeusz PIETKIEWICZ)

Czym jest segmentacja obrazów? Zadanie rozpoznawania obiektów morskich na podstawie obrazów FLIR sprowadza się do odpowiedzi na pytanie, czy obiekt zawarty w obrazie jest rzeczywiście obiektem morskim (w szczególności możemy zawęzić zbiór interesujących nas obiektów do pewnego podzbioru), a w przypadku uzyskania odpowiedzi pozytywnej oczekujemy odpowiedzi na kolejne pytanie, czy rozpoznawany obiekt należy do którejś z klas obiektów wcześniej sklasyfikowanych, a jeśli tak, to do której. Obraz wejściowy poddawany wyżej opisanej procedurze jest najczęściej zniekształcony na skutek zaszumienia, a także wykonania go z różnej odległości i pod różnym kątem aspektu. Na jakość obrazu mają również wpływ charakterystyki kamery FLIR. To wszystko powoduje, iż proces rozpoznawania jest procesem wieloetapowym, a wyniki rozpoznania noszą cechy przypadkowości. Niemniej jednak obrazy tego samego obiektu wykonywane w różnych warunkach mają cechy wspólne, które zwane są cechami dystynktywnymi. Ich wartości decydują o odpowiedziach na wcześniej sformułowane pytania, w szczególności o wyznaczeniu wartości odległości rozpoznawanego obiektu od obiektów wzorcowych przechowywanych w tzw. bazie wzorców. Jednym podstawowych zadań analizy obrazu termowizyjnego (FLIR) jest jego segmentacja, czyli podzielenie obrazu na obszary, które spełniają wybrane kryterium jednorodności. Ujmując inaczej, pojęcie segmentu (wyróżnionego obszaru) jest używane w celu określenia spójnej grupy punktów obrazu posiadających pewną wspólną cechę, niewystępującą poza najbliższym sąsiedztwem [5]. Segmentacja jest zatem techniką przetwarzania obrazu, która umożliwia wydzielenie obszarów spełniających pewne kryteria jednorodności. Kryteriami takimi mogą być: poziom jasności, kolor obszaru czy też faktura. Celem segmentacji jest najczęściej wydzielenie poszczególnych obiektów, które wchodzą w skład obrazu, oraz wyodrębnieniu ich od tła, na którym występują. Można ją wykorzystać ... więcej»

Demonstrator wzmacniacza mocy w technologii wysokonapięciowej DOI:10.15199/13.2015.2.16
(Andrzej Lewandowski, Robert Matyszkiel, Paweł Kaniewski)

Pierwszymi na świecie wzmacniaczami mocy były wzmacniacze lampowe, przeważnie były one wykonane w układzie klasycznym tj. posiadają lampę w stopniu końcowym mocy a obwody wyjściowe zbudowane były w układzie PI filtra. Zakresy częstotliwości pracy filtrów wybierane były podaniem jedynki logicznej na złączu znajdującym się z tyłu wzmacniacza. Układ automatyki był tak zbudowany, że PA nie posiadało innych mierników, gdyż jest zabezpieczone przed przeciążeniami i przepięciami. PI filtr dostrajany był przełączaniem stałych kondensatorów oraz płynnie zmienianą indukcyjnością. Wzmacniacz lampowy dostrajał się automatycznie za pomocą układów automatyki znajdujących się w panelu wzmacniacza. Dostrajanie odbywało się w następujący sposób: wpierw podawany był podzakres częstotliwości, na którym będzie pracował wzmacniacz a następnie układ dyskryminatorów wypracowywał sygnały do dokładnego dostrojenia. Układy automatyki wzmacniaczy lampowych nie posiadały mikroprocesora. Układy chłodzenia, zasilania, obwodów wejściowych, żarzenia oraz obwodów siatkowych znajdowały się także w panelu wzmacniacza. Lampa w stopniu końcowym posiadała moc admisyjną 1,6 kW. Przykładowe rozwiązanie lampowego wzmacniacza mocy pokazane jest na przykładzie wzmacniacza R&S. Wzmacniacz ten jest od wielu lat eksploatowany w systemach łączności KF. Konstrukcja przedstawionego wzmacniacza mocy oprócz zalet p... więcej»

Zobacz wszystkie publikacje »

2015-1

zeszyt-4276-elektronika-konstrukcje-technologie-zastosowania-2015-1.html

 
W numerze m.in.:
Direct transient co-simulation of a Step Recovery Diode (SRD) Pulse Generator DOI:10.15199/13.2015.1.14
(Vratislav Sokol)

The unique network co-simulation feature in CST STUDIO SUITE enables a direct transient simulation of a 3D structure in CST MICROWAVE STUDIO (CST MWS) with non-linear lumped components or circuit networks in CST DESIGN STUDIO (CST DS). This article shows the application of this feature to the simulation of a St... więcej»

Rozwiązanie zagadnienia asymetrycznych inwerterów immitancji. Zastosowanie do realizacji filtrów reaktancyjnych DOI:10.15199/13.2015.1.11
(Marek Bogdan ZARADNY, Michał RYMARZ)

Pierwszym pojęciem obwodu odwracającego impedancję, był element czwórnikowy Gyrator, zaproponowany przez Tellegenta [14]. Późniejsze rozwijanie pasywnych inwerterów obwodowych w postaci czwórników skupionych i mikrofalowych przez Cohna [4], i innych pionierskich badaczy [8, 5, 10, 11, 19] doprowadziło do rozwinięcia się wielu metod projektowania i syntezy sieci z ich zastosowaniem [1, 2, 9, 13, 17]. Jednak do chwili obecnej nie osiągnięto spektakularnego postępu, w kontekście proponowanych inwerterów asymetrycznych, a przynajmniej nie są znane w literaturze. Metoda zaproponowana przez Cohna, z zastosowaniem idealnych inwerterów jest bardzo wygodna, z tego względu, iż pasywne realizacje obwodowe inwerterów są dowolne (skupione lub rozłożone), tym samym filtry mogą być dowolnie konfigurowalne, z tym jednak założeniem, że spełniają warunki realizowalności inwertera w postaci macierzowej ABCD [1,10,11,16,17]. Inwertery symetryczne i asymetryczne Realizacja dowolnego inwertera bądź admitancyjnego typu &#928;, bądź typu impedancyjnego T wiąże się ze uzyskaniem macierzy łańcuchowej dodatniej lub ujemnej, o postaci jak na rysunku 1. W przypadku inwerterów skupionych LC, zawsze występuje związek pomiędzy pulsacją ... więcej»

Przetwornik do pomiarów kątów pochylenia, przechylenia i azymutu DOI:10.15199/13.2015.1.5
(PRZEMYSŁAW WÓJCIK, ANDRZEJ WITCZAK)

W wielu praktycznych rozwiązaniach współczesnych systemów niezbędnym elementem są podzespoły zdolne do dostarczenia informacji o położeniu przestrzennym poszczególnych urządzeń, czyli informacji o kątach pochylenia, przechylenia oraz kursu. Podzespołami takimi są zarówno miniaturowe elementy monolityczne wykonane w technologiach MEMS, które można stosować w najmniejszych urządzeniach, takich jak przykładowo telefony komórkowe, jak również laserowe lub światłowodowe systemy inercjalne. Różnią się one dokładnością, wymiarami oraz co w wielu przypadkach jest bardzo istotne - ceną. Prezentowany projekt miał za zadanie zbudowanie układu będącego kompromisem kosztów oraz jakości. W efekcie wykonanych prac powstał przetwornik, który może dokonywać pomiaru kątów przechylenia, pochylenia oraz kursu i opiera się na wspólnym wykorzystaniu miniaturowych układów żyroskopowych oraz czujnika pola magnetycznego. Zbudowany układ stał się udanym kompromisem pomiędzy jakością pomiarów i kosztami realizacji. Kluczową rolę w projekcie odgrywa aplikacja programowa obsługująca urządzenie, która wykonuje wszystkie operacje na nieprzetworzonych danych otrzymanych z mikrokontrolera, począwszy od obliczeń, aż do wizualizacji wyników w postaci kreślonych w czasie rzeczywistym diagramów, czy zobrazowań operacyjnych - finalnych danych przedstawianych na wskaźnikach graficznych. W ten sposób mikroprocesor jest odciążony od obliczeń nad otrzymywanymi informacjami, a jedynie wysyła dane - poprzez Bluetooth - do jednostki PC. Na obecnym etapie prac jest to rozwiązanie przejściowe, tym niemniej w wielu zastosowaniach, kiedy układ pomiarowy jest powiązany z dostępem do mocy obliczeniowych dowolnego komputera, jest rozwiązaniem dopuszczalnym. Budowa układu Zaprojektowany układ opiera się na współpracy czterech głównych bloków zgodnie z schematem przedstawionym na rysunku 1. Blok zasilania to dwuelementowa jednostka, w której użytkownik może wybrać zasilanie ... więcej»

Characterization Of Ball-Lensed Optical Fibers DOI:10.15199/13.2015.1.4
(Bartłomiej Guzowski, Błażej Sochacki)

The request of high quality optical sensors is becoming successfully higher. There is a need of sensors which take up small spaces but have high sensitivity of detection. Optical fibers are crucial for telecommunications and optical fiber sensors development. Huge advantages of these devices are detection speed and high sensitivity. What is more, they may respond to different types of chemical and physical variables such as: temperature, humidity, pressure, strain, vibration, electrical field or position [1]. The classification of optical fiber sensors can be explained in terms of three categories: the sensing location, the operating principle and the application [2, 3]. Tabl. 1. Sensor classifications Tab. 1. Klasyfikacja sensorów Sensing location Operating principles Applications - intrinsic - extrinsic - intensity - phase - frequency - polarization - physical - chemical - bio-medical The operation principle of fiber optics sensors is very simple. It is based on optical power measurements. The researched surface reflects the light and introducesit to the receiving optical fiber, as shown in Fig. 1. By changing the distance h, the received power PR also changes. Sensors are able to detect objects which are very close to the sensor but avoiding physical contact. In this type of sensors usually IR light is used [4, 5]. Optical fibers used in these sensors are usually cleaved [7-9]. Some sensors are equipped with additional lens thus complicating the sensor's construction. The innovative idea is to use ball-lensed optical fibers (BLOF) in reflective sensors, shown in Fig. 2. Ball-lensed Optical Fiber Lens is formed from the optical fiber which is going to be integrated. The ball lens is permanently integrated with the optical fiber, which significantly simplifies the construction of sensor, since no special case is needed to... więcej»

Nanokompozytowe warstwy C-Pd do zastosowania w detekcji wodoru DOI:10.15199/13.2015.1.3
(Elżbieta Czerwosz, Anna Kamińska, Ewa Kowalska, Sławomir Krawczyk, Mirosław Kozłowski, Piotr Dłużewski)

Wodór obecnie jest wykorzystywany w wielu zastosowaniach przemysłowych między innymi w produkcji amoniaku (NH3) [1], chlorowodoru (HCl), metanolu (CH4OH) [2], w uwodornieniu związków organicznych w produkcji półprzewodników, jest również stosowany w ogniwach paliwowych do zasilania urządzeń elektronicznych [3]. Wodór jest również stosowany w procesach redukcji (np. tlenków metali) w uwodornieniu lub krzepnięciu olejów w przemyśle spożywczym. Ze względu na swoje właściwości fizykochemiczne takie jak niska gęstość, mała waga, brak zapachu oraz wysoka wybuchowość po zmieszaniu z powietrzem w proporcji (co najmniej 4%) stosowanie wodoru wymaga monitorowania ujawniającego np. niekontrolowane wycieki tego gazu. Obecnie istnieje wiele różnych typów czujników wodoru opartych na półprzewodnikach np. czujnik gazów z akustyczna falą powierzchniową SAW (ang. Surface Acoustic Wave) [4] półprzewodnikowy tlenek metalu MOS (ang. Metal- Oxide-Semiconductor) [5] lub tranzystor polowy typu metal- tlenek-półprzewodnik MOSFETs (ang. Metal-Oxide-Semiconductor- Field-Effect-Transistors) [6]. Większość z tych czujników zawiera metale przejściowe np. nikiel, pallad, platynę lub ich stopy. Metale te są stosowane, ze względu na fakt, że rozpuszczalność w nich wodoru jest bardzo wysoka [7]. Adsorpcja wodoru na powierzchni tych metali zmienia ich właściwości fizyczne, elektryczne i optyczne w związku z tym te zmiany mogą stanowić podstawę działania czujników wodoru [8, 9]. Pallad jest pierwiastkiem, który znajduje najczęściej zastosowanie w czujnikach wodoru, bowiem tworzy z wodorem związek - wodorek palladu PdHx. Wodór adsorbuje się na powierzchni ziaren Pd i dysocjuje na atomy, które przenikają następnie do luk sieci krystalicznej fcc palladu powodując wydłużenie odległości między atomami Pd-Pd [10]. W zależności od ilości zaabsorbowanego wodoru tworzą się dwie fazy wodorku palladu PdHx. Dla niskiej koncentracji H2 (x < 0,02) tworzy się faza &#945;... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»