profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Metody integracji systemów INS/GNSS (Piotr Kaniewski, Stanisław Konatowski)
Zadania nawigacji sprowadzają się do odpowiedzi na pytania, które powstają podczas ruchu osób i pojazdów. Przede wszystkim jest to pytanie o miejsce położenia obiektu nawigowanego. Może być nim np. osoba, pojazd lądowy, obiekt pływający nawodny lub podwodny, statek powietrzny lub statek kosmiczny. Odpowiedź na to pytanie jest równocześnie rozwiązaniem zadania pozycjonowania. W celu ułatwienia nawigacji w warunkach stale rosnącego zagęszczenia ruchu, wzrostu prędkości maksymalnej pojazdów oraz wymagań ich użytkowników, niezbędna staje się automatyzacja obliczeń realizowana w zintegrowanych systemach pozycjonujących i nawigacyjnych [1, 2, 5]. W pozycjonowaniu i nawigacji pojazdów powszechne zastosowanie znajdują systemy zintegrowane złożone z systemu nawigacji inercjalnej INS (Inertial Navigation System) [4] i odbiornika GNSS (Global Navigation Satellite Systems) [3], oznaczane skrótem INS/GNSS. Systemy takie mogą być zintegrowane metodą filtracji lub kompensacji z korekcją w przód lub wstecz. W zależności od stopnia centralizacji algorytmu przetwarzania danych, mogą być one luźno lub ściśle zintegrowane [1]. Wybór jednej z metod integracji zależy zwykle od rodzaju integrowanych przyrządów nawigacyjnych i od uwarunkowań aplikacji (wymaganej dokładności, dostępnej mocy obliczeniowej itd.). Integracja metodą filtracji Integracja INS i odbiornika GNSS metodą filtracji polega na przetwarzaniu danych z obu urządzeń nawigacyjnych i estymacji elementów nawigacyjnych opisujących ruch pojazdu, takich jak położenie, prędkość i orientacja przestrzenna. Schemat blokowy takiego systemu INS/GNSS przedstawiono na rys. 1. Stopień integracji obu przyrządów zależy od tego, czy INS i odbiornik GNSS są traktowane jako systemy, czy jako czujniki oraz od stopnia sprzężenia pomiędzy nimi. Jeśli INS i odbiornik GNSS są traktowane jako systemy dostarczające wstępnie przetworzonych danych w postaci obliczonych elementów nawigacyjnych (położenia, prędk... więcej»

Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła (JANUSZ JAGLARZ, WOJCIECH KAPŁONEK, WŁODZIMIERZ LIPIŃSKI, MARCIN PAWEŁCZAK, ROMUALD SYNAK)
Praktyczne wykorzystanie zjawiska rozpraszania światła do pomiaru wysokości nierówności powierzchni charakteryzujących się dużą gładkością zostało zapoczątkowane przez Bennetta i Porteusa, którzy zbudowali pierwszy układ działający na zasadzie pomiaru całkowitej mocy promieniowania rozproszonego przez powierzchnię TIS (ang. Total Integrated Scatter) [1]. Później pojawiły się inne sposoby zastosowania tego zjawiska, polegające m.in. na pomiarze kątowego rozkładu natężenia promieniowania rozproszonego ARS (ang. Angle-Resolved Scatter) [3]. Rozkład taki można wyznaczyć w wybranej płaszczyźnie i przedstawić go za pomocą indykatrys rozpraszania. Istnieje również możliwość jego przedstawienia przestrzennego. W tym przypadku stosowana jest dwukierunkowa funkcja rozkładu reflektancji oznaczana akronimem BRDF (ang. Bidirectional Reflectance Distribution Function) lub BSDF (Bidirectional Scatter Distribution Function). Metody te i technika pomiarów została szeroko opisana w literaturze światowej (np. w pracach Stovera [16], Benett i Mattssona [2]), a także w monografiach krajowych [8, 12]. Zwięzły opis metod i przegląd aparatury pomiarowej podano też w pracy [18]. Pomimo powstania wielu innych technik bezstykowej oceny powierzchni gładkich, np., interferometrii i mikroskopii sił atomowych, umożliwiających uzyskanie topografii powierzchni i jej charakterystykę za pomocą bardzo wielu parametrów, metody rozpraszania światła są w dalszym ciągu intensywnie rozwijane. W wielu przypadkach, np. przy kontroli wyrobów istotny jest krótki czas pomiaru, niski koszt urządzenia i możliwość jego instalacji nawet w warunkach produkcyjnych. W takich warunkach często wystarczające jest zmierzenie kilku parametrów, a nawet jednego, którym jest najczęściej średnie kwadratowe odchylenie wysokości nierówności. Dlatego oprócz dawniej już opisywanych urządzeń przeznaczonych do takich celów [17, 22, 23] ostatnio pojawiło się wiele nowych aparatów przenośnych [... więcej»

Korekcja trajektorii wektora przestrzennego z wykorzystaniem logiki rozmytej (Tomasz BINKOWSKI)
Zasilanie odbiorników elektrycznych bardzo często wymaga dostarczenia energii przy zadanych parametrach napięcia, bądź prądu. Zachodzi zatem konieczność sterowania wartościami amplitud, częstotliwości, itp. W przypadku odbiorników zmiennoprądowych energia przekazywana jest do nich przez przepływ zmiennych prądów wynikających z przyłożonego napięcia (również zmiennego). W elektrotechnice najczęściej przyjmuje się, że prądy te powinny mieć przebieg sinusoidalny, co wynika z niezmienności kształtu funkcji w wyniku działania całkowania i różniczkowania. Są jednak sytuacje, w których kształt przebiegów może ulec zmianie. Ma to miejsce w przypadku np. odbiorników nieliniowych. Wtedy, gdy zasilane są odbiorniki wielofazowe, może także dojść do asymetrii powodowanej obciążeniem lub błędnie prowadzonym sterowaniem. Projektant układu sterującego musi zatem wyraźnie określić funkcję celu, gdyż najczęściej niemożliwa jest jednoczesna kontrola wszystkich parametrów. W przypadku przekształtników energoelektronicznych bilans mocy chwilowej sprawia, że kontrola kształtu prądu powoduje odkształcenia napięcia lub na odwrót. Dlatego też często sięga się po rozwiązania pośredniego przekształcania energii, w których wykorzystuje się magazyn energii, np. w postaci kondensatora. Przykładem może być klasyczny trójgałęziowy falownik napięcia zasilany z przekształtnika jednofazowego o sinusoidalnym prądzie wejściowym. Brak równości pomiędzy mocą chwilową układu wejściowego jednofazowego, a mocą chwilową układu trójfazowego wymusza stosowanie obwodu pośredniczącego, równoważącego obydwie strony. Konsekwencją bilansowania energii w obwodzie pośredniczącym jest powstanie tętnień napięcia, z którego kształtowane są napięcia wyjściowe falownika [1, 2]. Trójgałęziowy falownik napięcia jest przekształtnikiem energoelektronicznym, którego rolą jest przetwarzanie energii elektrycznej źródła napięcia stałego na energię elektryczną dostarczaną do dwu- lub trójf... więcej»

Napędy elektrohydrauliczne dla pojazdów użytkowych (Rafał KORUPCZYŃSKI, Hubert WROTEK, Krzysztof ŻOCHOWSKI )
Celem zadania było opracowanie i wykonanie układu modelowego trakcyjnego napędu elektrohydraulicznego dla pojazdów użytkowych z własną akumulatorową baterią trakcyjną. W układzie zastosowano: - bezczujnikowy silnik reluktancyjny z klatką, - szybkoobrotową pompę hydrauliczną, - falownik PWM wykonany w oparciu o moduł IPM umożliwiający sterowanie prądowe (momentowe) silnika reluktancyjnego z zachowaniem sinusoidalnego kształtu prądów fazowych w całym zakresie nastawionych częstotliwości tj. od 0 do 100 Hz, - wysokomomentowy wolnoobrotowy silnik hydrauliczny, - rozdzielacz hydrauliczny umożliwiający zmianę kierunku wirowania silnika hydraulicznego oraz jego awaryjne hamowanie, - układ sterujący falownika PWM umożliwiający niezależną regulację prędkości obrotowej silnika reluktancyjnego i jego momentu i analogicznie silnika hydraulicznego. Schemat układu hydraulicznego przedstawiono na rys. 1. Opracowany układ napędowy umożliwia hamowanie generatorowe (ze zwrotem energii hamowania do baterii akumulatorów trakcyjnych) z pełnym momentem hamującym w zakresie prędkości od nmax (f = 100 Hz) do n = 0 obr/min (f = 0 Hz) przy pomocy opisanej dalej "elektronicznej skrzyni biegów". Po nastawieniu dźwigni rozdzielacza w położeniu neutralnym uzyskuje się funkcję hamulca postojowego. Opis układu napędowego Aktualnie daje się obserwować znaczne zainteresowanie wykorzystaniem w napędach maszyn i pojazdów użytkowych silników bezszczotkowych, w których istnieje możliwość regulacji prędkości wirnika i momentu Jednymi z dominujących rozwiązań w tym zakresie są na przykład silniki synchroniczne z magnesami stałymi, które posiadają możliwość regulacji prędkości przy sterowaniu napięciem i prądem jedynie w obwodzie stojana. silnika przy znacznych wahaniach momentu obciążenia. Rys. 1. Schemat układu hydraulicznego: 1 - trójfazowy silnik reluktancyjny, 2 - pompa hydrauliczna, 3 - rozdzielacz hydrauliczny, 4 - silnik hydrauliczny, 5 - chłodnica, 6 -... więcej»

Dostrajanie regulatora z pominięciem eksperymentu identyfikacji obiektu przy użyciu Imperialist Competitive Algorithm (Michał Awtoniuk)
Wyniki badania prowadzone przez najznamienitszych naukowców świata wskazują na to, że 90% pętli regulacji działających w przemyśle bazuje na algorytmie PID [1, 2]. Olbrzymia popularność tego algorytmu nie przekłada się jednak na jakość regulacji. Badania firmy Honeywell wskazują, że wiele spośród pętli regulacji pozostaje otwarta [3]. Sytuację tą można poprawić wykorzystując dostępne w sterownikach PLC procedury automatycznego doboru nastaw. Jest to rozwiązanie korzystne ze względu na to, że takie podejście nie wymaga specjalistycznej wiedzy. Zazwyczaj producenci sterowników udostępniają w ramach wsparcia technicznego dokumentację, która krok po kroku opisuje co należy zrobić aby uruchomić funkcję autotuningu. Innym rozwiązaniem jest ręczny dobór parametrów regulatora. W tym przypadku konieczna jest już niestety pewna wiedza teoretyczna. Zazwyczaj utalentowany automatyk-praktyk jest w stanie dobrać nastawy zdecydowanie lepsze od nawet najskuteczniej działającej procedury strojenia automatycznego. W przytoczonych wcześniej badaniach można również znaleźć informację na temat zamkniętych pętli regulacji. Okazuje się, że zaledwie połowę z nich cechuje zadowalająca jakość [3]. Fakt ten powinien być bodźcem powodującym głębszą analizę tychże układów. Obiekt regulacji Doświadczenia były prowadzone na obiekcie schematycznie przedstawionym na rysunku 1. Jest to zbiornik z regulowanym poziomem wypełnienia wodą przy pomocą pompy. Jej wydatek jest sterowany sygnałem analogowym u pochodzącym ze sterownika PLC. Sygnał rozpatrywany jest w zakresie 0..10 V, gdzie 0 V oznacza całkowite wyłączenie pompy, natomiast 10 V pracę z maksymalnym wydatkiem. W omawianym układzie regulacji, sygnał ten będzie traktowany jako wyjście regulatora. Otwarty zawór Z2 powoduje samoczynny wypływ cieczy ze zbiornika. Stan tego zaworu może diametralnie zmienić obiekt sterownia. W przypadku, gdy zbiornik będzie szczelny, bez żadnego wypływu cieczy, wówczas obiekt ... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Wpływ dipu na właściwości propagacyjne solitonów jasnych w światłowodzie skokowym (Tomasz KACZMAREK)
Światłowody jednomodowe są szeroko stosowane w technice sensorowej [1, 2] zarówno jako czujniki jak i medium transmisyjne oraz w technice informatycznej [3, 4] jako szerokopasmowe medium transmisyjne o nie w pełni wykorzystanych możliwościach propagacyjnych. Niniejszy artykuł również dotyczy światłowody jednomodowych ale w kontekście ich wykorzystania w transmisji solitonowej dalekiego zasięgu. W 2011 roku pojawił się cykl artykułów [5, 6, 7] dotyczących światłowodu skokowego, którego parametr geometryczny (promień rdzenia a) oraz parametr optyczny (różnica współczynników załamania pomiędzy rdzeniem i płaszczem &#916;n = n1 - n2) były tak zoptymalizowane, aby umożliwić generację solitonu podstawowego, przy wykorzystaniu dostępnych komercyjnie laserów półprzewodnikowych w okolicach trzeciego okna transmisyjnego, przy zapewnieniu jednoczesnej maksymalizacji zakresu pracy jednomodowej oraz dyspersji anomalnej. Optymalizacja promienia rdzenia a pozwala uzyskać zrównanie się długości fali odcięcia modu drugiego (TE01) &#955;C z długością fali zerowania się dyspersji chromatycznej &#955;ZD1, czyli równość &#955;ZD1 = &#955;C i w ten sposób uzyskać maksymalizację zakresu długości fal, w którym można generować solitony jasne. W tym miejscu warto wspomnieć, że przy określonym składzie chemicznym rdzenia oraz płaszcza, czyli przy określonej wartości parametru &#916;n istnieje tylko jedna wartość a = aOPT gwarantująca spełnienie warunku &#955;ZD1 = &#955;C. W przypadku, gdy a > aOPT, wówczas &#955;ZD1 < &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem pracy jednomodowej. Natomiast, gdy a < aOPT, wówczas &#955;ZD1 > &#955;C i zakres generacji solitonu jasnego jest ograniczony zakresem dyspersji anomalnej. Optymalizacja różnicy współczynników załamania pomiędzy rdzeniem i płaszczem światłowodu &#916;n umożliwia uzyskanie na charakterystyce dyspersji chromatycznej dwóch miejsc zerowych w zakresie od 1 do 2 &#956;m oraz... więcej»

Technologia wytwarzania i pomiary absorpcji szkieł chalkogenidkowych domieszkowanych jonami ziem rzadkich (Łukasz Sójka, Elżbieta Bereś-Pawlik, Zhuogi Tang, David Furniss, Angela Beth Seddon, Trevor Mark Benson, Sławomir Sujecki)
Jednym z podstawowych problemów współczesnej fotoniki jest opracowanie efektywnych źródeł światła pracujących w zakresie średniej podczerwieni. Potencjalne źródła światła pracujące w tym zakresie mogą znaleźć wiele zastosowanie w branży medycznej oraz czujnikowej. Źródła pracujące w tym zakresie powinny się charakteryzować prostą konstrukcją, wysoką efektywnością, niezawodnością, przystępną ceną, dobrą jakością wiązki wyjściowej. Jednym z urządzeń, które spełniają te wymagania są lasery światłowodowe [1-3]. Sygnały generowane przez obecnie lasery światłowodowe oparte na szkle krzemionkowym oraz fluorkowym mogą pokryć zakres długości fali do około 3 &#956;m. Barierą technologiczną która blokuje konstrukcje laserów światłowodowych powyżej 3 &#956;m jest wysoka energia fononów szkła krzemionkowego (1100 cm-1) oraz szkła fluorkowego (560 cm-1) [4, 5]. W celu osiągnięcia emisji powyżej 3 &#956;m potrzebne jest szkło charakteryzujące się niską energią fononów. Jednym z materiałów który może spełnić to wymaganie jest szkło chalkogenidkowe. Szkła te charakteryzują się niską energią fononów poniżej 400 cm-1 co predysponuje je do osiągnięcia emisji powyżej 3 &#956;m [6-9]. Szkła chalkogenidkowe są to szkła oparte na materiałach z 16 grupy układu okresowego pierwiastków tj. S (siarka), Se (Selen) oraz Te (Tellur), elementy te wraz z elementami z 14 oraz 15 grupy układu okresowego tj Ge (German), As (Arsen), Sb (Antymon), Ga (Gal) two... więcej»

Automatyczny pomiar pojemności złączowej półprzewodnikowego złącza p-n (Ireneusz Brzozowski, Szymon Wawszczak, Piotr Bratek, Andrzej Kos)
Pojemność złączowa (barierowa) jest jednym z ważniejszych parametrów diod półprzewodnikowych, a zwłaszcza w przypadku zastosowania w układach dużej częstotliwości. Pojemność złączowa jako główny parametr zaporowo spolaryzowanego złącza ma również znaczny udział w przypadku poboru energii w układach scalonych [1]. W wielu przypadkach sposobność szybkiego i możliwie dokładnego pomiaru tej pojemności jest nieoceniona. W przypadku warikapów i waraktorów jest to najważniejszy parametr. Co więcej, możliwość uzyskania charakterystyki pojemnościowo- napięciowej może być także bardzo cenna. Ponadto, oprócz wartości pojemności dla konkretnych napięć polaryzujących diodę taka charakterystyka pozwala na wyznaczenie innych ważnych parametrów złącza, np. potencjału barierowego czy profilu domieszkowania. W artykule przedstawiono stanowisko pomiarowe umożliwiające automatyczne wyznaczanie charakterystyk pojemnościowo- napięciowych złączy półprzewodnikowych i na tej podstawie ekstrakcję niektórych parametrów diod. Stanowisko składa się ze specjalnego układu pomiarowego oraz oprzyrządowania kontrolno- pomiarowego, które jest sterowane za pomocą aplikacji napisanej w środowisku LabVIEW, przez magistralę GPIB. W dedykowanym module pomiarowym zastosowano metodę rezonansową pomiaru pojemności. Wybór metody pomiarowej Z pośród wielu metod pomiaru pojemności kondensatorów można wymienić techniczną, mostkową, rezonansową i inne. Nie wszystkie z nich nadają się do zastosowania w przypadku pomiaru pojemności złączowej diody. Niektóre z nich wymagają dobrej liniowości elementu, dużej dobroci lub stałości napięcia do niego przyłożonego [2]. Tymczasem dioda półprzewodnikowa to element nieliniowy, a więc jej parametry zmieniają się wraz z napięciem polaryzującym. W szczególności pojemność złączowa, ale również rezystancja szeregowa, dobroć itd. W związku z tym dla uzyskania dobrej dokładności pomiarów należy zapewnić małą amplitudę składowej zmiennej n... więcej»

Analiza możliwości wykorzystania siatek długookresowych w strukturach gradientowych światłowodów planarnych (Tomasz Kotyczka, Roman Rogoziński)
Obecnie w przemyśle elektronicznym wraz z dynamicznym rozwojem technologii, obserwować można nieustanne dążenie do miniaturyzacji układów, a tym samym redukcji kosztów ich produkcji. Układy elektroniczne stają się coraz mniejsze, tańsze oraz bardziej energooszczędne. Coraz popularniejsze stają się jednostki zintegrowane, w których poszczególne komponenty urządzenia elektronicznego produkowane są w postaci pojedynczego układu. Podobną tendencję widać w dziedzinie układów optycznych. Z dobrze opanowanymi technologiami produkcji, bazując na materiałach wysokiej jakości, można wytwarzać układy optoelektroniczne z dużą precyzją oraz w sposób wysoce powtarzalny. Urządzenia optyczne w stosunku do swoich elektronicznych odpowiedników charakteryzują się przede wszystkim niewrażliwością na obecność oraz zmiany pola elektrycznego i magnetycznego. Mogą pracować w skrajnie trudnych warunkach, a także często dzięki swojej budowie ich czas życia znacząco się wydłuża. Głównym motorem ciągłego postępu oraz poszukiwania nowych rozwiązań jest potrzeba automatyzacji oraz kontroli i nadzoru wszelkiego rodzaju procesów. Dotyczy to zarówno wszystkich gałęzi przemysłu jak również technologii medycznych gdzie główny nacisk kładzie się na niezawodność oraz precyzję działania. Wszędzie gdzie występują trudne warunki lub wymagana jest nieustanna kontrola projektuje się czujniki, które z duża dokładnością oraz w krótkim czasie pozwolą na detekcję pożądanych parametrów. W raz z rozwojem telekomunikacji znaczącą role zaczęły odgrywać układy wytwarzane bezpośrednio na włóknach. Do przykładów takich rozwiązań należą chociażby lasery światłowodowe [16], pompy optyczne, wszelkiego rodzaju czujniki płynów oraz gazów, a także filtry [3, 5, 6, 13, 15]. Te ostatnie oparte są na siatkach długookresowych LPG (Long Period Fiber Grating) [13]. Umożliwiają one sprzęganie mocy poszczególnych modów propagujących się w światłowodzie. Ze względu jednak na ograniczenia mat... więcej»

Projekt i wykonanie eksperymentalnej światłowodowej sieci odniesienia DWDM o przepływności 80 Gbit/s (Grzegorz Żegliński , Jerzy Gajda)
Zapotrzebowanie na usługi związane z transmisją danych i obrazów wymagających dużych przepływności stymuluję większe zapotrzebowanie na instalacje sieciowe dostępowe i transportowe dla Internetu optycznego. Jak również rozwój telekomunikacji radiowej opartej na transporcie poprzez szybkie sieci światłowodowe (np.: Internet szybki LTE o przepływności 100 Mbit/s) wpływa na zmianę architektury transportowej sieci światłowodowych. Prace z ostatnich kilku lat o wymienionej tematyce wskazują na znaczący postęp naukowy w zakresie sieci DWDM (Dense Wavelenght Division Multiplexing) na co wskazuję nowe podejście do tematu modulacji i uzyskiwanie coraz większych efektywności spektralnych źródeł laserowych stosowanych w nadajnikach DWDM [1-5]. Z drugiej strony rozwój optycznych pasywnych sieci dostępowych wskazuje na potrzebę tworzenia i wdrażania nowych standardów teleinformatycznych wykorzystujących zwielokrotnienie falowe: sieci WDM-PON (Wavelenght Division Multiplexing Passive Optical Network) [6-8]. W niniejszej pracy została zrealizowana zaawansowana technologicznie i naukowo, zaprojektowana w 2008 roku numerycznie w środowisku RSOFTOPTSIM i zainstalowana w latach 2009-2010 w Laboratorium Technologii Teleinformatycznych i Fotoniki propozycja uniwersalnej transportowej sieci odniesienia pozwalającej na testowanie i pomiary wielu różnych standardów sieci wykorzystujących zwielokrotnienie falowe. W roku 2011 wykonano sprawdzenia zrealizowanego projektu w ramach pracy dyplomowej przez studentów kierunku Elektronika i Telekomunikacja (Wydział Elektryczny Zachodniopomorskiego Uniwersytetu Technologicznego) [9]. Transportowa sieć odniesienia DWDM Sieć odniesienia została zrealizowania w Pracowni Optyczn... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Realizacja nieliniowego ortogonalnego filtru klasy Volterry-Wienera na platformie wieloprocesorowej (Paweł Biernacki)
Rozpatrując wzór opisujący działanie nieliniowego ortogonalnego filtru parametryzującego klasy Volterry-Wienera [3]:gdzie x &#961;i są uogólnionymi (wielowymiarowymi) współczynnikami Fouriera (Schura) sygnału y(k) [6], łatwo zauważyć, iż parametrami jakie stanowią o złożoności filtru są: rząd filtru N (pamięciowość filtru) oraz stopień nieliniowości filtru M. Zwiększenie któregokolwiek z nich pociąga za sobą szybki wzrost nakładu obliczeniowego potrzebnego do wyznaczenia sygnału y(k). Liczba rotorów w bloku dekorelującym, dla przypadku niestacjonarnego wyrażona jest wzorem: (2) Rysunek 1 pokazuje jak szybko rośnie wartość wyrażenia (2) przy zmianie N lub M.     - L =0 N =0 N =i N =i ,..., i y(k )= &#961; x +...+ ... &#961;x i1 i1 i2 1 iM M 1 ki1 M x ki1 x i1 Filtr ten może działać w trybie off-line i on-line. W pierwszym przypadku w jednym momencie czasu na wszystkich wejściach pojawiają się odpowiednie sygnały wejściowe w postaci wektorów próbek. Każda sekcja filtru (rotor) jest wykorzystana tylko jeden raz w procesie filtracji. Takie działanie filtru wykorzystują procedury parametryzacji sygnału, ekstrakcji... więcej»

Astronomia i techniki satelitarne, Wilga 2012 (Ryszard S.Romaniuk)
Trzydzieste, jubileuszowe Sympozjum Wilga 2012 "Fotonika i Inżynieria Internetu" zgromadziło ponad 250 uczestników, w edycji styczniowej i majowej. Zaprezentowano ponad 200 artykułów - głównie dotyczących realizowanych prac doktorskich oraz uczestnictwa w dużych projektach badawczych, krajowych i europejskich. Przedstawiono również kilkanaście referatów plenarnych na temat systemów fotonicznych i elektronicznych. Sympozjum jest organizowane pod auspicjami SPIE - The International Society for Optical Engineering, IEEE Sekcja Polska i Region 8, Polskiego Stowarzyszenia Fotonicznego, KEiT PAN, PKOpto SEP oraz WEiTI PW. Sympozjum jest organizowane corocznie przez młodych uczonych z laboratorium PERG/EHEP ISE PW we współpracy z Oddziałami Studenckimi SPIE i IEEE. Patronat medialny i publikacyjny nad Sympozjum Wilga sprawują: Elektronika oraz International Journal of Electronics and Telecommunications KEiT PAN, a także Proceedings SPIE. Sympozjum Wilga jest tematycznie związane z cyklicznymi konferencjami na temat światłowodów i ich zastosowań organizowanych co 18 miesięcy w Białowieży przez prof. J. Dorosza (Politechnika Białostocka) oraz poprzednio w Krasnobrodzie, a obecnie w Nałęczowie przez UMCS Lublin i prof. Waldemara Wójcika (Politechnika Lubelska). Artykuł przedstawia wybrane zagadnienia dyskutowane w czasie Sympozjum w zakresie tematycznym astronomii i technologii satelitarnych. Główne ośrodki prezentujące tą tematykę były: CBK PAN, CAMK PAN, UW i PW. Tematyka jubileuszowego XXX Sympozjum Wilga 2012 Fotonika i Inżynieria Sieci Internet Główne grupy tematyczne Sympozjum Wilga 2012 były następujące: nanotechnologie i nanomateriały dla optoelektroniki i fotoniki, światłowody czujnikowe, światłowody aktywne, światłowody nieliniowe, elementy i urządzenia w pełni fotoniczne, czujniki i sieci czujnikowe - optyczne i hybrydowe, obiektowo zorientowane projektowanie sprzętu fotonicznego i optoelektronicznego, zastosowania fotonik... więcej»

Inkrementacyjne sekwencje adresowe o niskim narzucie sprzętowym w dwuprzebiegowych testach krokowych (Ireneusz Mrozek, Svetlana V. Yarmolik )
Pamięci półprzewodnikowe RAM stanowią jeden z głównych elementów współczesnych modułów i urządzeń elektronicznych. Zwiększająca się w szybkim tempie złożoność i pojemność układów pamięci stawia wciąż nowe wyzwania związane z efektywnym jej testowaniem. Jednym z najbardziej skomplikowanych uszkodzeń pamięci RAM, analizowanym w wielu kluczowych publikacjach odnoszących się do dziedziny, jest uszkodzenie uwarunkowane zawartością opisane modelem PSF (ang. Pattern Sensitive Faults) [3-4]. Ten typ uszkodzenia oraz korespondujące z nim testy zdefiniował w 1980 roku J.P. Hayes [5]. Dalsze badania prowadzili m.in. Suk i Reddy [6]. Testy CM-79N i March-100N pozwalające zwiększyć dotychczasową efektywność wykrywania uszkodzeń PSF zaproponował Cheng [7]. W literaturze przedmiotu (np. Cascaval et. al. [8]) można znaleźć również wiele modyfikacji testów dedykowanych uszkodzeniom PSF, pozwalających wykrywać różne klasy tych uszkodzeń. Dotychczasowe badania wykazały, iż przy obecnych rozmiarach pamięci jedynymi testami możliwymi do realnego zastosowania w procesie testowania pamięci są testy z grupy testów maszerujących określanych również mianem testów krokowych (ang. march tests). Charakteryzują się one liniową złożonością, wysokim pokryciem uszkodzeń i niskim narzutem sprzętowym przy ich implementacji jako testy wbudowane BIST (ang. Built- In Self-Test). Ponadto klasyczne testy krokowe są łatwo konwertowalne do testów transparentnych (ang. transparent march tests). Z uwagi na narzut czasowy jaki powstaje przy tradycyjnej konwersji i implementacji testu krokowego jako testu transparentnego, zaproponowane zostały różne techniki zwiększające efektywność testowania transparentnego [14-16]. Jednak tradycyjne testy krokowe nie generują wszystkich możliwych wzorców niezbędnych do detekcji uszkodzeń PSF. Dlatego zaproponowane zostały techniki, wykorzystujące w swej podstawie testy krokowe, umożliwiające zwiększenie pokrycia uszkodzeń PSF. Jedn... więcej»

Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Inteligencja obliczeniowa, zastosowania biomedyczne i ontologiczne bazy wiedzy, Wilga 2012 (Ryszard S.Romaniuk)
Kryptografia, bezpieczeństwo sieci pomiarowych Rozproszone sieci kontrolno-pomiarowe, monitorujące krytyczne parametry, wymagają pewnej formy bezpieczeństwa. Szeroki rozkład geograficzny sieci, zbierającej istotne dane przez niezabezpieczone kanały komunikacyjne powoduje, że taka sieć jest podatna na ataki cyfrowe. Kryptograficznie bezpieczny sprzętowy generator liczb przypadkowych dedykowany do zabezpieczenia takich sieci jest badany przez zespół w IRE PW (prof. W. Winiecki) oraz ISE PW (prof. T. Adamski). Motywacją i usprawiedliwieniem badań nad bezpieczeństwem systemów kontrolno pomiarowych jest: sieci takie charakteryzują się znaczną asymetrią mocy obliczeniowej, kanały komunikacji radiowej mają wąskie pasmo, kanały komunikacji fotonicznej mają szerokie pasmo, zasilanie z baterii jest dosyć skromne i wymaga oszczędności energii lub zastosowania technologii energy/power harwesting. Radiowe kanały komunikacyjne RF lub otwarte optyczne są podatne na dodanie informacji, intencjonalną zmianę informacji, interferencję, itp. Istnieje potrzeba zastosowania bezpiecznych podsystemów komunikacyjnych dla takich sieci. Projektowany pod-system bazuje na sprzętowym generatorze liczb losowych, analogicznym do stosowanych w systemach kryptograficznych. Generator prawdziwych liczb losowych TRNG bazuje na nieprzewidywalnym zjawisku losowym, np. szumie białym. Generator liczb pseudolosowych PRNG bazuje na deterministycznym algorytmie obliczeniowym. System zrealizowano na generatorze chaotycznym z zastosowaniem procesora ATmega oraz oprogramowania Python (P. Czernik, IRE PW). W modelu zastosowano generator liczb losowych RDieHarder z zastosowaniem interfejsu GNU R. Zrealizowany TRNG był testowany i okazał się wystarczającym rozwiązaniem dla systemów pomiarowych o asymetrycznych zasobach. Lepsza przypadkowość była osiągana dla mniejszych częstotliwości próbkowania. Bity przypadkowe w przykładowym słowie 10-bitowym są rozmieszczone nierównomi... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Modulatory &#916; z adaptacją interwału próbkowania - rozwiązania predyktorów w technologii CMOS (RYSZARD GOLAŃSKI, JULIUSZ GODEK, JACEK KOŁODZIEJ)
Obszary zastosowań modulatorów z asynchronicznym próbkowaniem, to np.: medyczne techniki obrazowania (tomografia komputerowa i rezonans magnetyczny, rejestracja sygnałów EKG i ogólnie zdalne nadzorowanie), rejestracja zakłóceń impulsowych w liniach energetycznych, czujniki i rejestratory stężenia gazów np. w kopalniach [1]. Istotną cechą metod kodowania różnicowego jest to, że uwalniając całkowitą informację źródła od redundancji i kodując jej pozostałą część, mogą silnie zmniejszać wymaganą liczbę bitów, czyli zwiększać kompresję. Algorytmy modulacji różnicowych w swym opisie funkcjonalnym są bardzo proste, co skłania ku ich bezpośredniej realizacji sprzętowej. Modulatory ANS-DM (ang. Adaptive Nonuniform Sampling - Delta Modulation [2]), to przetworniki różnicowe 1-bitowe z adaptacją zarówno kroku kwantyzacji jak i częstotliwości próbkowania (NS-DM - to przetworniki różnicowe 1-bitowe z adaptacją jedynie częstotliwości próbkowania). Dzięki jednoczesnemu zmniejszaniu odstępu próbkowania &#964;pi (i - kolejny moment próbkowania) i zwiększaniu kroku kwantyzacji qi koder ANS-DM charakteryzuje się dużą szybkością zmian sygnału aproksymującego, przy stosunkowo niewielkim zakresie zmian każdego z adaptowanych parametrów. Zmniejsza to szumy przeciążenia stromości przez ograniczenie przeregulowań [3], zapewniając, wypadkowo wzrost SNR co jest szczególnie istotne przy konwersji analogowych sygnałów niestacjonarnych. Pojawiające się w przetwarzanym sygnale składowe wolnozmienne prowadzą do zmniejszenia odstępów między kolejnymi momentami próbkowania i kroku kwantyzacji, a to z kolei redukuje szum granulacji i średnią przepływność bitową [2, 3]. Zgodnie ze schematem blokowym modulacji ANS-DM, (rys. 1) analogowy sygnał wejściowy x(t) porównywany jest z sygnałem aproksymującym y(t), którego wielkość na wyjściu predyktora w chwilach próbkowania ti wynosi: (1) Operacja kwantowania, podobnie jak w przypadku NS-DM przebiega zgodnie z: (2... więcej»

Przetworniki obrotowo-impulsowe jako czujniki przemieszczeń i przesunięcia fazowego układów mechatronicznych (Izabela Krzysztofik, Janusz Tuśnio, Zbigniew Koruba)
Większość wykonujących ruch obrotowy zespołów maszyn może być zamodelowanych jako układy dyskretne, składające się z punktów materialnych i brył doskonale sztywnych (elementy inercyjne) połączonych elementami odkształcalnymi (bezmasowymi), obdarzonych sprężystością i tłumieniem [1]. Parametry tak zamodelowanych rzeczywistych układów mechatronicznych w postaci masy, momentów bezwładności, sprężystości i tłumienia mają wpływ na właściwości dynamiczne (charakterystyki przejściowe) obiektu badań oraz na jego ruch względem elementu napędzającego w stanie ustalonym. Skutkiem istnienia wymienionych czynników mogą być drgania obiektu podczas procesu przejściowego (rozruchu i hamowania) a także podczas pracy. Występowaniu tych zjawisk zapobiega odpowiedni dobór relacji pomiędzy sprężystością, tłumieniem i momentem bezwładności tak, by projektowany układ mechatroniczny zamiast członu oscylacyjnego stawał się członem inercyjnym, najczęściej drugiego rzędu. Wspomniane działanie nie zapobiega jednak przesunięciu fazowemu pomiędzy wirującym elementem napędzającym (silnikiem) a odbiornikiem energii. Przesunięcie fazowe ma istotne znaczenie w eksploatacji odpowiedzialnych i precyzyjnych urządzeń, a szacunkowe obliczanie jego wartości nie zawsze jest wystarczające, chociażby ze względu na tłumienie układu, które w różnych warunkach klimatycznych oraz z upływem czasu ulega zmianom. W układach mechatronicznych o dużej sztywności kąty wzajemnego przemieszczenia (skręcenia), a tym samym przesunięcia fazowego wirujących, obciążonych momentem elementów maszyn są niewielkie (rzędu ułamka stopnia), a ich pomiar może odbywać się za pomocą klasycznych mostków tensometrycznych. Istotny problem stanowi przekazanie sygnału różnicowego (o wartości rzędu pojedynczych miliwoltów lub mniej) z wirujących elementów maszyn do układu obróbki. Ze względu na znaczne zakłócenia układów komutacji stosowane są wtedy między innymi telemetryczne układy transmisji danyc... więcej»

Wyznaczanie niepewności próbek pomiarowych o kilku niegaussowskich rozkładach prawdopodobieństwa (Zygmunt L. WARSZA)
Wiele badań naukowych i technicznych prowadzi się obecnie przy użyciu przyrządów i systemów pomiarowych z czujnikami o realizowanym wirtualnie cyfrowym przetwarzaniu sygnałów. Obejmuje ono również różne rodzaje ich filtracji i szacowanie dokładności w czasie rzeczywistym lub off line. Rola właściwego wyboru algorytmów przetwarzania surowych danych pomiarowych jest szczególnie istotna przy oprogramowywaniu systemów z czujnikami przeznaczonych do pracy ciągłej. W obiekcie mierzonym i współpracujących z nim urządzeniach pomiarowych dominuje zwykle niewielka liczba źródeł zakłóceń oddziałujących losowo. Wówczas rozrzut wartości obserwacji pomiarowych występuje w ograniczonym przedziale i odbiega od normalnego rozkładu prawdopodobieństwa. Takie przypadki modeluje się kilku prostymi rozkładami niegaussowskimi o ograniczonym rozpięciu. Dotychczasowe przepisy międzynarodowe o szacowaniu dokładności wyniku pomiarów dotyczą danych o rozrzucie modelowanym rozkładem normalnym. Obejmują one zasady wyznaczania i oceny niepewności wyniku pomiarów ujednolicone w skali międzynarodowej jako zalecenia zawarte w przewodniku Guide to the Expression of Uncertainty in Measurement, nazywanym w skrócie GUM [1]. Tłumaczenie polskie wersji GUM z 1995 r. wydał i zalecił do stosowania w Polsce Główny Urząd Miar [2]. Według tego Przewodnika estymatorem wartości menzurandu jest średnia arytmetyczna X- obserwacji pomiarowych stanowiących próbkę z populacji generalnej po skorygowaniu ich przez znane poprawki. Oszacowaniem dokładności tego wyniku jest zaś niepewność rozszerzona U (ang. uncertainty U), która stanowi sumę geometryczną dwóch niepewności składowych, uA i uB, pomnożoną przez współczynnik rozszerzenia kP &#8712; (2, 3), tj. (1) Jest to przedział wartości wielkości mierzonej w którym może wystąpić wynik pomiaru z arbitralnie przyjętym prawdopodobieństwem P. Niepewność składowa uA jest odchyleniem standardowym średniej X- danych próbki. Sposób wyzn... więcej»

Drgania w układach wyposażonych w przetworniki piezoelektryczne (Wojciech Kołton, Tomasz Trawiński)
Pierwszą wzmiankę na temat zjawiska piezoelektrycznego możemy znaleźć w artykule Piotra i Jakuba Curie z 1880 roku. Opisano w nim zjawisko powstawania ładunku elektrycznego, którego wartość jest wprost proporcjonalna do przyłożonego naprężenia. Rok po odkryciu zjawiska piezoelektrycznego Gabriel Jonas Lippmann wykazał możliwość występowania zjawiska odwrotnego, polegającego na powstaniu deformacji kryształu pod wpływem zewnętrznego pola elektrycznego [1]. Najczęściej do produkcji piezoelektryków jest stosowana ceramika np. tytanian ołowiano-cyrkonowy (PZT), niobian ołowianomagnezowy (PMN), których charakterystyki deformacji w funkcji natężenia pola elektrycznego są przedstawione na rysunku 1. Piezoelektryki ceramiczne wytwarza się z użyciem tego samego procesu technologicznego co w przypadku np. porcelany. Umożliwia to tanią produkcję elementów na skalę masową, bez żadnych ograniczeń wymiarowych oraz łatwy wpływ na parametry elementów poprzez odpowiednie domieszkowanie i cięcie. Główną wadą Rys. 1. Deformacja S w funkcji natężenia pola elektrycznego E piezoelektryków PZT i PMN [4] Fig. 1. Deformation S versus electric field E piezoelectrics PZT and PMN [4] 118 Elektronika 9/2012 ceramiki jest: duży rozrzut parametrów (sięgający kilkunastu procent), silny efekt starzenia, wysoki dryft temperaturowy parametrów. Pozostałymi materiałami, z których wytwarza się piezoelektryki są kryształy pozbawione środków symetrii np. tlenku krzemu SiO2, soli Seignette&#8217;a (winian sodu i potasu), turmalin [2]. Piezoelektryki ze względu na swoje właściwości, takie jak: niska masa, brak ruchomych części, szybka odpowiedź, możliwość działania w skrajnych temperaturach, znalazły szereg zastoso... więcej»

Komplementarne zastosowanie metod dyfrakcji i spektroskopii absorpcyjnej promieniowania X do charakteryzacji cienkich warstw Ti-Si-C (Krystyna Ławniczak -Jabłońska, Marcin T. Klepka, Anna Wolska, Elżbieta Dynowska, Michał A. Borysiewicz, ANNA PIOTROWSKA)
Zaawansowane przyrządy elektroniczne oparte na azotku galu (GaN), w szczególności działające w reżimie wysokich mocy i wysokich częstości, czy też w atmosferze korozyjnej, wymagają opracowania stabilnych termicznie i chemicznie metalizacji kontaktowych. Obiecującymi materiałami dla takich zastosowań są materiały z grupy tzw. faz MAX, łączące w sobie metaliczne przewodnictwo elektryczne i cieplne z ceramiczną stabilnością temperaturową i odpornością na korozję [1, 2]. Przedmiotem szczególnego zainteresowania są fazy MAX oparte na związkach Ti lub Al z C lub N, m.in. będąca przedmiotem niniejszej pracy faza Ti3SiC2. Zainteresowanie to wynika z faktu, że dopiero niedawno zademonstrowano możliwość wytwarzania tego typu faz w formie cienkowarstwowej na drodze magnetronowego rozpylania katodowego w wysokiej (900oC), ale akceptowalnej w technologii przyrządów na bazie GaN temperaturze [3]. Niniejsza praca jest częścią projektu badawczego, którego celem jest opracowanie procesu wytwarzania cienkich warstw Ti- 3SiC2 przydatnych do technologii stabilnych termicznie metalizacji kontaktowych do GaN/AlGaN. Z uwagi na złożoność procesu wysokotemperaturowego rozpylania katodowego, w badaniach relacji parametrów procesu i struktury fazowej materiału zastosowane zostały dwie komplementarne techniki charakteryzacji: dyfrakcja promieniowania X (XRD) oraz spektroskopia absorpcyjna promieniowania X (XAS, ang. X-Ray Absorption Spectroscopy) w zakresie EXAFS (ang. Extended X-Ray Absorption Fine Structure). Omówione zostaną wyniki obydwu metod wraz z podkreśleniem ich komplementarności. Eksperyment Cienkie warstwy Ti-Si-C osadzono na podłożach Al2O3 (00.1) przy pomocy reaktora Surrey NanoSystems &#947;1000C, z targetów pierwiastkowych Ti, Si i C o czystościach 5N w atmosferze Ar o czystości 6N przy ciśnieniu 5 mtorr. Rozpylanie było prowadzone przy stałej mocy targetu Ti (70W) oraz zmiennych mocach targetów Si i C. Na podłoża podgrzane do temperatu... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Z wizytą u górali
Wojskowy Instytut Wydawniczy organizuje cyklicznie "Spotkania z Armią". W kolejnej edycji 44-osobowa grupa dziennikarzy gościła w 22 Karpackim Batalionie Piechoty Górskiej w Kłodzku oraz w Sudeckim Oddziale Straży Granicznej. Dowódca batalionu, podpułkownik Adam Bera przedstawił jednostkę działaj... więcej»

Układy przetwarzania sygnałów wyjściowych przetworników bezrdzeniowych o małym poziomie szumów własnych (Aleksander Lisowiec )
Bezrdzeniowe przetworniki pola magnetycznego działające na zasadzie cewki Rogowskiego charakteryzują się doskonałą liniowością w bardzo szerokim zakresie mierzonego prądu. Od dołu zakres pomiarowy jest ograniczony szumami termicznymi rezystancji własnej przetwornika, a od góry napięciem przebicia między zwojami jego cewki. Schemat zastępczy bezrdzeniowego przetwornika pola magnetycznego, zwanego dalej przetwornikiem, przedstawiono na rys. 1. Napięcie pomiarowe Up przetwornika jest proporcjonalne do indukcyjności wzajemnej M cewki przetwornika oraz do pochodnej mierzonego prądu. Indukcyjność wzajemna M jest zależna od parametrów geometrycznych cewki tworzącej przetwornik. Dla prądu sinusoidalnego i (t ) = sin(2 &#8901; &#960; &#8901; f &#8901; t) płynącego w obwodzie pierwotnym przetwornika zachodzi Up(t ) = M &#8901; 2 &#8901; &#960; &#8901; f &#8901; i (t). Iloraz Up(t )/ i (t ), równy 100 &#8901; &#960; &#8901; M dla f = 50 Hz, jest nazywany czułością przetwornika i mówi on, jaka jest wartość RMS napięcia Up dla prądu sinusoidalnego o wartości 1 ARMS płynącego w obwodzie pierwotnym cewki przetwornika. Napięcie na wyjściu przetwornika obciążonego rezystancją Robc wyraża się równaniem: (1) gdzie: (2) F( f ) R R R U U obc obc p o &#8901; + = 2 0 2 0 2 0 ( ) ( ) j f Q f j f f F f f + &#8901; &#8901; + &#8901; = Rys. 1. Elektryczny układ zastępczy bezrdzeniowego przetwornika prądowego Fig. 1. Electrical equivalent circuit of an air core current transducer Up=M(di/dt) L R eR C Robc Uo 92 Elektronika 8/2012 jest charakterystyką częstotliwościową przetwornika [1]. Dla typowych konstrukcji przetwornika charakterystyka częstotliwościowa jest płaska do wartości co najmniej 10 kHz. Właściwości szumowe przetwornika Wartość skuteczna szumów termicznych rezystancji R wyraża się zależnością: (3) gdzie T jest temperaturą w Kelvinach, kB = 1,380658(12) &#8901;10-23 J&#183;... więcej»

Technologia jednoczesnego zgrzewania i cięcia włóknin wielowarstwowych w sposób ciągły na przykładzie urządzenia AZW-10 (Maciej Brylski, Piotr Gawryś, Łukasz Krzemiński, Bohdan Młynarski)
Technologia zgrzewania ultradźwiękowego jest jedną z metod łączenia ze sobą termoplastycznych materiałów polimerowych. Metoda ta posiada wiele zalet, które sprawiają, że jest ona coraz powszechniej stosowana - szczególnie w przemyśle. Zgrzewanie ultradźwiękowe polega na lokalnym uplastycznianiu i przetapianiu materiału zgrzewanego pod wpływem oddziaływania fali akustycznej o wysokiej częstotliwości - ultradźwięków. Proces łączenia realizowany jest na zgrzewarkach, których konstrukcja i parametry dostosowane są indywidualnie do realizacji procesu. Na konstrukcję zgrzewarki wpływ mają typy materiałów zgrzewanych, ich kształty oraz wymagania jakości połączenia. Ze względu na zjawiska wykorzystane w zgrzewaniu ultradźwiękowym łączenie odbywa się bez użycia dodatkowych elementów łączących ani substancji chemicznych, co sprawia, że proces ten jest ekologiczny i ekonomiczny. Selektywne oddziaływanie ultradźwięków zmienia strukturę materiału tylko w punktach styku, co pozytywnie wpływa na estetykę produktu oraz przyczynia się do niskiej energochłonności procesu, ponadto pozwala uzyskać odpowiednią szczelność i wytrzymałość mechaniczną spoiny. Proces zgrzewania ultradźwiękowego jest łatwy w automatyzacji, a jego wydajność pozwala na zastosowanie go w produkcji masowej. Odpowiednio dużą wydajność w przypadku produkcji wykrojów z wielowarstwowych włóknin z materiałów termoplastycznych można uzyskać jedynie w procesie ciągłym. Technologia zgrzewania ultradźwiękowego z jednoczesnym odcinaniem realizowana w procesie ciągłym kilkakrotnie zwiększa wydajność procesu w porównaniu z procesem zgrzewania sekwencyjnego. Dodatkowo wyeliminowana jest jedna operacja odcinania materiału zgrzanego, często realizowana poprzez wykrojnik. Analiza procesu Opracowanie nowatorskiego urządzenia, poprawnie realizującego określony proces zgrzewania i odcinania z zastosowaniem kowadła obrotowego, wymagało wcześniejszego przeprowadzenia szczegółowej analizy teg... więcej»

Analiza charakterystyk temperaturowych rezystorów cienko- i grubowarstwowych wbudowanych do wnętrza płytki obwodu drukowanego (Tomasz Serzysko, Janusz Borecki, Wojciech Stęplewski)
Podzespoły bierne (rezystory liniowe i nieliniowe, kondensatory, cewki, bezpieczniki itp.) stanowią niezbędną część każdego zespołu elektronicznego. Ze względu na ich dużą liczbę w wyrobie zajmują one znaczną powierzchnię warstw zewnętrznych płytek obwodów drukowanych i jednocześnie, ze względu na swoje małe gabaryty (np. 0402 lub 0201) stają się kłopotliwe w automatycznym montażu elektronicznym i uciążliwe w kontroli jakości połączeń lutowanych. Technologia wbudowywania tego typu podzespołów wewnątrz wielowarstwowej płytki obwodu drukowanego pozwala na pokonanie szeregu problemów związanych z podzespołami do montażu powierzchniowego, zwłaszcza takich jak koszt, magazynowanie i manipulowanie, czas montażu, wydajność montażu, narażenia na warunki lutowania bezołowiowego i wymagana powierzchnia na warstwach zewnętrznych płytki obwodu drukowanego [1, 2]. Wbudowanie rezystora wewnątrz płytki obwodu drukowanego skutkuje jednak niemożnością jego wymiany w przypadku uszkodzenia bądź niewłaściwych parametrów pracy. Z tego też powodu konieczne jest zastosowanie optymalnej i powtarzalnej technologii ich wytwarzania oraz dokładna kontrola ich parametrów elektrycznych w trakcie produkcji i w produkcie finalnym. Poprawa niezawodności tego typu podzespołów jest podstawowym priorytetem pozwalającym na szersze i bardziej powszechne stosowanie elementów wbudowanych. Badania wpływu zmian temperatury na właściwości rezystorów oraz badania termowizyjne umożliwiają dokładniejsze poznanie właściwości cienkich oraz grubych warstw rezystywnych i dostosowanie ich parametrów pracy do konkretnych wymagań. Badane struktury rezystorów cienkoi grubowarstwowych Najczęściej spotykanym materiałem rezystywnym w procesie wytwarzania rezystorów cienkowarstwowych jest stop niklu z fosforem nakładany na folię miedzianą drogą metalizacji chemicznej [3]. Jego rezystancja powierzchniowa (rezystancja na kwadrat) uzależniona jest głównie od grubości warstwy i wynos... więcej»

International Symposium on Electric Vehicles 2012
Dwudniowa konferencja była kontynuacją odbytej w 2010 roku w Politechnice Warszawskiej międzynarodowej konferencji naukowej na temat pojazdów elektrycznych, hybrydowych i ich infrastruktury. Poświęcona była wskazywaniu dróg postępu przez badania naukowe, rozwój edukacji i wprowadzania innowacji do nowoczesnego transportu ekologicznego. Przedstawiono również wymagania stawiane energetyce niskoemisyjnej w odniesieniu do pojazdów z napędem elektrycznym w transporcie publicznym. Patronat nad konferencją sprawowali: &#9679; Wicepremier, Minister Gospodarki - Waldemar Pawlak, &#9679; JM rektor Politechniki Wars... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Compressed Sensing Applied to Image reconstruction in a noise SAR (Jacek Misiurewicz, Łukasz Maślikowski)
SAR imaging is performed with a radar platform moving perpendicularly to the imaging direction. Thus, the wave reflected by objects in the field of view travel a distance that first diminishes, then starts to increase. This results in a phase modulation which is present in the received baseband signal as a complex chirp along the cross-range dimension. The chirps from reflecting objects are processed with a matched filter. In the filter output signal sharp peaks are observed at locations corresponding to object positions. The peaks are much narrower than the original chirp length - their width corresponds approximately to beamwidth of synthesized antenna, i.e. an antenna whose length is determined by the travel distance of the real antenna during the signal acquisition. When we consider also the distance measurement by calculating the echo delay, we can view the whole signal as a two-dimensional one. A SAR (Synthetic Aperture Radar) processor uses this signal, sampled in temporal and spatial dimensions to create an image of the observed scene. The temporal dimension corresponds to the delay measurement, and the spatial dimension relates to repeating the measurements from different positions along the radar movement track. As a typical radar scene contains a limited number of bright (strongly reflecting) points, it may be modelled as sparse in the space-delay domain. Compressed Sensing is a novel approach to sensing and sampling, which is based on the assumption of signal sparsity instead of traditional (Nyquist) low-pass assumption. With the sparse model of the signal, a proper sampling scheme may give enough information to reconstruct the signal from much lower number of samples than it is required by Nyquist theory [1]. In the SAR application of a noise radar [2], long integration time may be used due to good sounding signal properties. This in turn permits to use low transmitted power, which is one of advantages fo noise... więcej»

Charakterystyka optoelektroniczna wysokosprawnych ogniw słonecznych na bazie krzemu krystalicznego otrzymywanych w procesie kwasowej teksturyzacji powierzchni (Grażyna Kulesza, Piotr Panek, Paweł Zięba)
Teksturyzacja powierzchni krzemu jest jednym z kluczowych elementów produkcji ogniw słonecznych. Przeprowadzana jest w celu usunięcia warstwy zdefektowanej i wytworzenia mikrostruktury powierzchni zatrzymującej promieniowanie słoneczne wewnątrz materiału poprzez wielokrotne odbicie. Teksturyzacja chemiczna jest szeroko stosowana w sektorze PV ze względu na jej niski koszt [1]. Również ze względu na redukcję kosztów stosowany jest tańszy krzem multikrystaliczny (mc-Si). Płytki mc-Si trawione są tylko w roztworach kwasowych, ponieważ wówczas teksturyzacja przebiega izotropowo, przez co nie generują się niekorzystne uskoki na granicach ziaren. Dodatkowo usuwanie warstwy zdefektowanej i teksturyzacja odbywają się w jednym etapie [3, 4]. Teksturyzacja powierzchni odbywa się w roztworach kwasowych na bazie HF i HNO3 z zastosowaniem odpowiednio dobranego rozpuszczalnika. Skład roztworu dobierany jest na podstawie trójkąta stężeń w układzie HF-HNO3- rozpuszczalnik (rys. 1). Celem pracy było zbadanie zależności stosunku objętościowego HF/HNO3, jak i wpływu stosowanego rozpuszczalnika na zmianę morfologii powierzchni krzemu multikrystalicznego, która skutkować będzie w optymalnych parametrach optoelektronicznych wytworzonych ogniw słonecznych. CH3COOH i wodę dejonizowaną. W celu umożliwienia porównania wpływu stężenia kwasów zawartych w roztworze stężenie rozpuszczalnika pozostało niezmienne i wynosiło 20% objętości całego roztworu. Czas procesu wynosił 60 sekund. Jako próbkę ... więcej»

Multisensor system for monitoring human psycho-physiologic state with the use of microwave sensor (Krzysztof Różanowski, Tadeusz Sondej, Jarosław Lewandowski, Mariusz Łuszczyk)
The psychophysiological-state monitoring system presented herein combines technologies of communication between sensor subsystems, technologies of measurement-information transfer, and an IT layer comprising advanced data-processing, decisionmaking, and management modules. The implementation uses state-of-the-art technologies in the area of micro-sensors - miniature non-invasive electronic devices which provide digital information about the human body state and location. Thanks to the small size of those sensors and the manner of their application, they do not cause any restrictions or discomfort in performing everyday tasks by the subjects. The developed set of micro-sensors and the data processing algorithms enable working out certain indicators to assess the psychophysiological state. Such indicators can be transmitted to a remote supervision system (operator console, command center). Two monitoring modes are supported: online and offline (with storing the data to a locally installed memory card). The system has been designed to be used in the process of selecting subjects by determining their predisposition to combat operations. The requirements for such systems are definitely more stringent than in case of systems designed for use in laboratories with defined device operating conditions. In extreme conditions, most otherwise proven methods of information acquisition may be inapplicable. An important element of the designed system is a noninvasive sensor of glucose level in blood, consisting of a microwave probe with an bio-oscillator and a measuring module. The works on developing a microwave-based technology to measure changes of glycaemia in humans required research in overlapping areas of such disciplines as microwave electronics, medicine, physiology, chemistry, and signal processing. It is an inElektronika 7/2012 83 novative task. Many years of work resulted in a number or original results. The achievements include... więcej»

Automatic image registration for computer-aided Burn Wounds evaluation (WOJCIECH TYLMAN, WOJCIECH KUZAŃSKI, MARCIN JANICKI, ANDRZEJ NAPIERALSKI)
The ability to perform temperature measurements of human body areas is important in some types of medical diagnosis. In particular, it has been shown that precise temperature measurements carry valuable indications for the treatment of burn wounds. Such measurements may be used, for example, when the physician has to determine whether the particular area of the wound may be expected to heal by itself, without surgical intervention. One possible approach to such measurements is utilisation of thermovision measurements, in particular the solutions where matrix infrared sensors are used. Such sensors are capable of capturing the temperature of many (hundreds of thousands) points at the same time. The resulting temperature map - a thermovision image - is ideally suited to the purpose of burn wound evaluation, as the burn wound itself is very often a large object, requiring multipoint measurements. Once the thermal image is captured, a detailed analysis is required in order to extract useful information. This analysis should be carried out by the physician in the hospital environment. Precision of results, short analysis time and ease of use are important here. For this purpose a dedicated software solution has been proposed, described in [1]. This paper presents further work aiming at improving and enhancing the software. BurnDiag - a PC solution for analysis of Burn Wounds This section briefly introduces BurnDiag software. For details consult [1]. Input data and user interface The BurnDiag software is intended to work with two types of images: thermovision and visible light. The main input is the thermovision image, the visible light one is supplemental, providing means to map burn wound areas to the body areas as seen by the human eye. Both images are read from a disk (usually a memory card of the camera). Although it would be possible to use a direct connection with the camera, this would require additional cables, which a... więcej»

Analiza właściwości cienkich warstw TiO2:Tb jako powłok fotokatalitycznych (Damian Wojcieszak, Danuta Kaczmarek, Jarosław Domaradzki, Eugeniusz Prociów, Michał Mazur, Piotr Domanowski&#8201;)
Rozwój nowoczesnych technologii związany jest obecnie w dużym stopniu z właściwościami oraz z możliwościami zastosowania materiałów na bazie tlenków metali. Jednym z takich materiałów jest dwutlenek tytanu (TiO2), który ma szereg takich zalet jak np. duża przezroczystość, duża stabilność termiczna, chemiczna i mechaniczna oraz duża aktywność fotokatalityczna [1-3]. Właściwości dwutlenku tytanu mogą być modyfikowane m.in. przez zmianę parametrów procesu nanoszenia [4], domieszkowanie [4, 5] lub też przez obróbkę poprocesową (np. wygrzewanie) [6]. TiO2 jest uznanym materiałem fotokatalitycznym, powszechnie stosowanym przy wytwarzaniu powłok samoczyszczących. Jego aktywność fotokatalityczną można dodatkowo zwiększyć wytwarzając materiały o większej powierzchni aktywnej lub stosując domieszki np. w postaci takich pierwiastków ziem rzadkich jak terb, europ, czy też neodym [2, 3, 5]. Część eksperymentalna Cienkie warstwy TiO2 i TiO2:Tb naniesiono metodą wysokoenergetycznego rozpylania magnetronowego, rozpylając metaliczne targety Ti oraz Ti... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Azaheterocyclic materials for organic photovoltaic cells (Natalia Nosidlak, Monika Pokladko-Kowar, Ewa Gondek, Andrzej Danel, Jerzy Sanetra )
Recently we can observe growing interest in organic photovoltaic cells. Nowadays, when the development of renewable sources of energy is necessary, photovoltaic energy becomes an opportunity to reduce consumption of fossil fuels. Organic photovoltaic cells are easy built by deposition techniques like spin coating, moreover PV devices have lower weight, flexible shape and low production cost in comparison with inorganic equivalents [1]. These features have fuelled the interest of both science and industry. The conversion of solar light into electric power requires the generation of both negative and positive charges. The operation of a photovoltaic cell can be generally divided into three basic steps: light absorption, charge separation and charge collection of the appropriate carriers to anode and metallic cathode.When photons are absorbed, only small part of incident light is absorbed because of size of ba... więcej»

Dwuwymiarowe kryształy fotoniczne jako elementy aktywne spektroskopowych czujników gazów (Marcin WIELICHOWSKI, Adrian ZAKRZEWSKI, Sergiusz PATELA)
Optyczna detekcja gazów możliwa jest dzięki oddziaływaniu światła z ośrodkiem gazowym. Obecność molekuł gazu podlegającego detekcji zmienia właściwości fizyczne ośrodka (np. powietrza). Interesujące z punktu widzenia optycznej detekcji gazów, zmieniające się właściwości fizyczne powietrza, to optyczny współczynnik załamania i optyczny współczynnik absorpcji. O ile zmiany współczynnika załamania manifestują się niezależnie od długości fali światła, o tyle zmiany absorpcji zachodzą tylko dla ściśle określonych zakresów długości fali (piki absorpcji). Ponieważ selektywność ze względu na długość fali przekłada się na selektywność ze względu na rodzaj wykrywanego gazu, w praktyce wykorzystuje się przede wszystkim zmiany współczynnika absorpcji. Absorpcyjne pomiary stężenia gazów to część rozległej, dobrze opanowanej dziedziny - spektroskopii absorpcyjnej. Oprócz selektywności, istotną cechą detekcji optycznej w czujnikach jest brak konieczności chemicznego oddziaływania wykrywanego gazu ... więcej»

Detekcja gazowego chloru przy użyciu ogniwa elektrochemicznego z elektrolitem stałym 8YSZ (Małgorzata DZIUBANIUK, Jan WYRWA, Paweł PASIERB, Mieczysław RĘKAS)
Jednym z podstawowych wymogów bezpieczeństwa w zakładach pracy, w których stosowany jest gazowy chlor, jest ciągła kontrola jego zawartości w powietrzu. Niezbędnymi elementami systemu kontroli są sensory i detektory o wystarczająco wysokich parametrach użytkowych [1, 2]. W literaturze opisano potencjometryczne sensory chloru, w których jonowe związki chloru zostały wykorzystane jako elektrolity stałe lub jako materiały na elektrody gazoczułe [3-5]. Przykładem sensora, który pozwala określać zawartość Cl2 w powietrzu dla stężeń 1&#8230;100 ppm, jest ogniwo elektrochemiczne zbudowane w oparciu o tlenek cyrkonu domieszkowany magnezem (MSZ) [6]. Tlenek cyrkonu jest cenionym elektrolitem stałym z uwagi na stabilność termiczną, mechaniczną i chemiczną oraz wysokie przewodnictwo jonowe i gazoszczelność. Najwyższe przewodnictwo jonowe materiału można uzyskać przez domieszkowanie tlenkiem itru w stosunku 0,92ZrO2-0,08Y2O3 (8YSZ). W opisanych urządzeniach jako fazy gazoczułe wykorzystano KCl, BaCl2 oraz mieszaninę BaCl2-KCl-MgO. Urządzenia wyka... więcej»

Multifunctional coatings for solar cells application (Karolina Sieradzka, Michał Mazur, Danuta Kaczmarek, Jarosław Domaradzki, Damian Wojcieszak)
In recent years, an increased interest of nanocrystalline oxide materials was been observed [1, 2]. Such oxides join a few selected, well-defined properties such as high transparency, good electrical conductivity, hydrophilic or hydrophobic properties, antireflective properties, etc. [3, 4]. In contrary to conventional semiconductors, such thin oxide films, prepared for transparent electronics or solar cells application, combine mainly two specific features [5]: high transparency in visible light and the ability of electrical conduction at room temperature. These oxides, depending on the level of electrical resistivity are divided into two groups of materials: Transparent Conducting Oxide (TCO) or Transparent Oxide Semiconductor. However, in the literature, there is increasing number of reports about trying to get the additional properties, but most showed examples of multilayers. For example, it might be a thin oxide films with additional antireflective properties, prepared as TiO2 /SiO2 multilayers [4, 6] in order to obtain the largest possible reduction of light reflectance. Pemble et al. described dual functionality self-cleaning thermochromic films prepared by APCVD method. The multilayers based on VO2 and TiO2 revealed good degradation of stearic acid under UV radiation and thermochromic properties with the switching temperature of 55oC. In the first part of this paper, the possibilities of characterization of nanostructures used in the Laboratory of Optoelectrical Diagnostics of Nanomaterials located at Wroclaw Univeristy of Technology have been showed. Then antireflective, photoactive nanocrystalline Ti-V oxide as a multifunctional thin film has been presented. Directions of current research The scope of current work carried out in the Laboratory involves the research for new, nanocrystalline oxide materials with unique electrical and optical properties, which might be applied as multifunctional coatings for example s... więcej»

Analiza zjawisk w czujnikach chemicznych z warstwą przyelektrodową (Helena TETERYCZ, Patryk HALEK, Patrycja SUCHORSKA, Olga RAC, Marta FIEDOT, Dominika OLEŚ, Grzegorz HALEK, Kamil WIŚNIEWSKI)
Chemiczne rezystancyjne czujniki gazu charakteryzują się przede wszystkim niską ceną i relatywnie dobrymi parametrami użytkowymi [1]. Duże znaczenie ma również ich prosta konstrukcja. Typowo składają się one z podłoża, grzejnika, elektrod oraz warstwy gazoczułej. Materiałami sensorowymi są najczęściej proste tlenki metali o właściwościach półprzewodnikowych, natomiast do budowy elektrod wykorzystuje się materiały stabilne chemicznie i termicznie. Najczęściej warstwy elektrod wykonuje się ze złota lub platyny [2]. Rezystancyjne czujniki gazów to najczęściej ceramiczne, grubo- lub cienkowarstwowe rezystory półprzewodnikowe, które zmieniają swoją konduktancję (rezystancję) w wyniku reakcji chemicznej zachodzącej na powierzchni warstwy gazoczułej z udziałem cząsteczek oznaczanych gazów [2]. Mimo, iż najważniejszym elementem czujnika jest warstwa gazoczuła, to jednak o jego parametrach użytkowych decydują zarówno parametry warstwy gazoczułej, jak i materiał elektrod oraz właściwości kontaktu warstwa gazoczuła - elektroda. Właściwości tego kontaktu są bardzo ... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Perceptron with reciprocal activation functions to implement polynomial relationships (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
In many situations, there is a need to create symbolic descriptions of rules governing physical phenomena or measurement data given only in a numerical form. The latter is often connected with a necessity of calibrating measurement instruments. The rule discovering is difficult when we measure complex quantities, like humidity or luminous intensity, and the description takes a multidimensional polynomial form. The rule discovery task can be solved, among others, using atypical perceptron-type neural networks [1-11] implementing a given symbolic relationship. Such an approach is especially attractive when the number of dimensions of the applied polynomial is large. Realizing complex polynomial relations in a form of the perceptron neural network, we utilize the fact that perceptrons can be trained in a rather simple manner when applying the popular back propagation learning technique (BP) or methods originated with BP. Using special perceptron networks, like that presented in the literature as well as that proposed in this paper, some of the intricate relations can be realized in a simple way. Parameters of symbolic relations realized by means of such perceptrons can be directly determined during the network learning process. The simple neural network realization of the complex relations is possible only for some expressions describing a given data set. Polynomial forms are ones of them. In this paper, we deal with polynomial expressions and show that the atypical perceptron neural network realizing the rule discovery task can be based on reciprocal functions exclusively, without using activation functions of other types. The perceptron presented in this paper is a novel simple solution proposed by the authors. Determination of the polynomial parameters by means of the perceptron is performed during the network learning process. The proposed reciprocal-function based perceptron is useful to solve plenty of physical and metrolo... więcej»

IFA Global Press Conference
W dniach 12-15 kwietnia w Dubrowniku (Chorwacja) odbyła się Międzynarodowa Konferencja Prasowa prezentującą doroczną wystawę radiową. W ciągu trzech dni trwania konferencji organizatorzy przedstawili swoje zamierzenia związane z ekspozycją, która ma się odbyć w dniach od 31 sierpnia do 5 września br. Ogromny wzrost dynamiki innowacji w odczuciu klientów, którzy są zafascynowani nowymi opracowaniami stworzył nastrój optymizmu wśród producentów elektronicznego sprzętu powszechnego użytku i placówek handlowych. Międzynarodowa Wystawa Radiowa, organizowana corocznie w Berlinie (IFA Internationale FunkAusstellung), w ostatnich latach wyjątkowo... więcej»

Zastosowanie przekształceń grafiki trójwymiarowej w obrazowej diagnostyce medycznej (Adam Skurski, Piotr Mazur, Jakub Chłapiński, Marek Kamiński, Andrzej Napieralski, Jarosław Kasprzak, Piotr Lipiec)
Graficzna reprezentacja wyników analiz medycznych może dostarczyć dużo większą ilość informacji przy zwiększonej czytelności prezentowanych danych, niż analiza wyłącznie tabelarycznych danych tekstowych. Dzięki rozwojowi technik cyfrowych raporty medyczne zmieniły swoją postać z wykazu wartości liczbowych na bardziej wyrafinowane i łatwiejsze w interpretacji formy prezentacji wyników. W okresie ostatnich 30 lat można zauważyć istnienie silnej tendencji w kierunku uproszczenia sposobu wyświetlania danych wynikowych poprzez przedstawianie ich w postaci wykresów, czy prezentacji kolorowych modeli. Współczesne techniki diagnostyki medycznej wymagają, aby dane prezentowane w formie graficznej były dokładne i intuicyjnie interpretowalne, co często wymaga długotrwałego przetwarzania danych zebranych podczas badania. Tego rodzaju analizy wymagają więc od personelu medycznego wydłużonego czasu oczekiwania na wynik w celu podjęcia dalszych kroków diagnostyki i przyjęcia odpowiedniej ścieżki leczenia. Ciągły postęp technologiczny umożliwia obecnie znaczące skrócenia tego czasu przyczyniając się do gwałtownego rozwoju diagnostyki obrazowej. Wykorzystanie techniki CT (ang. Computed Tomography - tomografia komputerowa) dało możliwości reprezentacji wnętrza ludzkiego ciała za pomocą obrazów dwu- i trójwymiarowych (2D/3D). Zastosowanie algorytmów segmentacji obrazu umożliwiło osiągnięcie wysokiej precyzji odwzorowania przy obserwacji pojedynczych organów wewnętrznych. Inne algorytmy, takie jak algorytm Marching Cubes [7], pozwalają na opracowanie z otrzymanych obrazów modeli analizowanych struktur w postaci cyfrowej siatki geometrycznej reprezentującej ich powierzchnię boczną. Implementacja wybranych algorytmów i zastosowanie nowoczesnych technik komputerowych umożliwiło skrócenie czasu wykonywania tego rodzaju przekształceń graficznych do kilku sekund. To natomiast sprawiło iż kolejne metody przekształceń obrazów medycznych pozwalają na uz... więcej»

World Telecommunication and Information Society Day 2012 (WTISD): "Women and Girls in ICT" (Hamadoun I. Touré)
Dear Sir/Madam, World Telecommunication and Information Society Day, celebrated each year on 17 May, marks the anniversary of the signature of the first International Telegraph Convention in 1865 which led to the creation of the International Telecommunication Union. I am... więcej»

Narodowy test interoperacyjności podpisu elektronicznego (Marek Hołyński)
Duży zbiór rodzajów dokumentów elektronicznych oraz różnorodne ich przeznaczenie wymusza wielość formatów i rodzajów e-podpisu. Na rynku pojawiają się rozmaite, nie zawsze zgodne z sobą produkty oraz aplikacje. Istnieje zatem pilna potrzeba uporządkowania tej sytuacji i praktycznej weryfikacji oferowanych przez producentów rozwiązań na otwartym publicznym forum. Dla oceny rzeczywistej sytuacji w dniach 26-27 października 2011 r. został zorganizowany w Warszawie Narodowy Test Interoperacyjności Podpisu Elektronicznego. Koordynacji tego wydarzenia podjął się Instytut Maszyn Matematycznych, w którym od dwóch lat działa Laboratorium Podpisu Elektronicznego. Impreza organizowana była przy współpracy Ministerstwa Gospodarki i pod osobistym ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Bezstratna kompresja obrazów wykorzystująca elastyczne techniki mieszania predykcyjnego (Grzegorz Ulacha)
W obecnych czasach istotnym problemem są wysokie wymagania pamięciowe związane z przechowywaniem danych wizyjnych. Zmniejszenie wymagań pamięciowych możliwe jest dzięki kompresji. Kompresję można podzielić na stratną i bezstratną, przy czym w tej pracy skupiono się głównie na tym drugim typie. Wśród istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy wyróżnić archiwizację obrazów medycznych 2D, 3D oraz 4D, astronomicznych, a także kompresję zdjęć satelitarnych. Ponadto często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production) itp. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [1]. W tej pracy skupiono się na opisaniu etapu pierwszego, który realizowany jest z użyciem metod predykcyjnych. Nieustanne dążenie do uzyskania coraz większej efektywności bezstratnej kompresji obrazu prowadzi do opracowywania metod o wzrastającej złożoności implementacyjnej. Lata dziewięćdziesiąte XX wieku były okresem największej aktywności projektantów nowych metod. Do dziś uznawaną za jedną z najefektywniejszych metod jest zaprezentowana w roku 1996 CALIC (ang. Context Based Adaptive Lossless Image Coding) [2]. Na owe czasy metoda ta okazała się zbyt wymagająca obliczeniowo w porównaniu z metodą LOCO-I, której modyfikacja stała się standardem JPEG-LS [3]. Wśród najefektywniejszych algorytmów o wysokiej złożoności implementacyjnej można wyróżnić prace trzech zespołów badawczych: metoda TMW (1997) [4] i jej późniejsze rozwinięcie TMW LEGO (2001) [5], WAVE-WLS (2002) [6] oraz najnowsza wersja MRP 0.5 zaprezentowana pod nazwą &#8216;VBS & new-cost&#8217; (2005) [7]. Zakodowanie jedego obrazu przy użyciu każdej z tych propozycji wymaga wie... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 1 - magnetron prostokątny WMP100×2500 (Jarosław Halarewicz, Witold Michał Posadowski, Piotr Domanowski, Artur Wiatrowski&#8201;)
Powierzchnie wielkogabarytowych tafli szklanych, pokrywanych cienkimi warstwami w przemysłowych procesach próżniowych (np. na potrzeby architektury budowlanej), mogą mieć wielkość rzędu kilkunastu metrów kwadratowych. Jedynym sposobem, który może zapewnić równomierne, wydajne i stabilne osadzanie na nich cienkich warstw jest metoda próżniowego rozpylania. Magnetronowe układy rozpylające są najszerzej stosowane do tych celów. Zapewniają one powtarzalne wytwarzanie par materiału wyjściowego nad pokrywanymi powierzchniami. Powłoki mogą być nanoszone w postaci warstw jedno- i wieloskładnikowych, stopów, mieszanin, związków chemicznych, wielowarstw i ostatnio coraz szerzej wdrażanych tzw. nanowymiarowych struktur cienkowarstwowych. Tak szerokie możliwości otrzymywania warstw pozwalają na osadzanie warstw o określonych właściwościach fizykochemicznych (optycznych, mechanicznych, dekoracyjnych). Wśród nich można wyróżnić tzw. warstwy funkcjonalne (low-e layers) (np. Ag); o dużym współczynniku odbicia (np. Cr, Ti...); absorpcyjne (np. CrN, TiN...); dielektryczne (np. Al2O3, SiO2, TiO2....) i inne. Podłoża pokrywane za pomocą magnetronowych systemów rozpylających są stosowane na potrzeby architektury budowlanej, optyki, fotowoltaiki i wszędzie tam, gdzie korzystne jest osadzanie warstw na płaskich wielkowymiarowych podłożach. Układy magnetronowe do nanoszenia warstw przy obniżonym ciśnieniu są szeroko stosowane zarówno w wielu dziedzinach przemysłu, jak i w laboratoriach naukowo-badawczych. Zasada działania tych systemów polega na bombardowaniu jonami gazu szlachetnego (np. Ar) materiału rozpylanego (targetu), mocowanego na ujemnie spolaryzowanej katodzie. Obecnie, w większości wypadków stosuje się impulsowe (unipolarne lub bipolarne) zasilanie ze średnią częstotliwością. Taki sposób zasilania magnetronu gwarantuje stabilność procesów rozpylania nawet wówczas, gdy na materiale rozpylanym tworzą się dielektryczne aglomeraty (powstają ... więcej»

Metody analizy parametrów roboczych detektora punktu rosy typu MEMS (Roman Iwaszko, Ryszard Jachowicz)
Półprzewodnikowy detektor punktu rosy typu MEMS jest zintegrowanym czujnikiem umożliwiającym pomiar wilgotności bezwzględnej gazu w sposób zgodny z definicją tego parametru. W odróżnieniu od klasycznych higrometrów z detektorem optycznym, w higrometrze z detektorem półprzewodnikowym wykorzystywana jest zależność parametrów elektrycznych detektora od ilości molekuł wody kondensującej na jego powierzchni. Parametry wypadkowe detektora, jakie ulegają zmianie wraz z pojawianiem się nowych warstw wody to wypadkowe wartości rezystancji równoległej Rp i pojemności równoległej Cp oraz moduł impedancji |Z|, będący wypadkową poprzednich dwóch wielkości. W rzeczywistości każda z wymienionych wielkości jest elementem zastępczym systemu linii transmisyjnych RiCi o stałych rozłożonych, których parametry zależą od ilości molekuł wody i rodzaju ich rozłożenia na powierzchni detektora [1], [2]. Znajomość zależności wymienionych wielkości od ilości wody na powierzchni lustra pozwala na określenie progu detekcji, a tym samym na określenie istotnego czynnika mającego wpływ na dokładność pomiaru wilgotności gazu. Problem jaki pojawia się w trakcie pomiaru wilgotności z wykorzystaniem opisywanego detektora, to wybór odpowiedniego progu detekcji, to jest wartości Cp, Rp lub |Z| dla których zmierzona temperatura powierzchni detektora jest temperaturą punktu rosy. Konstrukcja detektora typu MEMS i jego zasada pracy Detektory punktu rosy typu MEMS [3] zaprojektowano w Zespole Mikrosystemów i Czujników Pomiarowych Politechniki Warszawskiej, a wykonano w Instytucie Technologii Elektronowej na podłożu krzemowym z dwiema warstwami metalizacji (rys. 1). Rys.1. Przekrój przez strukturę detektora MEMS Fig 1. MEMS detector cross-section Rys. 2. Widok poszczególnych warstw metalizacji detektora punktu rosy: a) geometria grzejnika (linie grube) i termorezystora (linie cienkie), b) geometria detektora molekuł wody (system elektrod grzebieniowych) Fig. 2. Separ... więcej»

Analiza efektywności czasowej metod dekompozycji (Adam OPARA, Dariusz KANIA, Marcin KUBICA)
Kluczowym problemem syntezy logicznej przeznaczonej dla struktur FPGA (ang. Field Programmable Gate Array) typu tablicowego LUT (ang. Look-Up Table) jest dekompozycja, bezpośrednio powiązana z problemem podziału projektowanego układu na elementarne komórki logiczne typu LUT. Dekompozycja może być ukierunkowana na minimalizację wykorzystywanej powierzchni struktury programowalnej (minimalizację liczby wykorzystanych bloków LUT), minimalizację liczby warstw logicznych (minimalny czas propagacji sygnałów) lub minimalizację poboru mocy [10]. Znanych jest szereg prac związanych z problemami dekompozycji funkcji oraz realizacją funkcji w strukturach FPGA typu tablicowego [1, 6, 9-11]. Celem artykułu jest przedstawienie porównania dwóch strategii dekompozycji zaimplementowanych w akademickich systemach Decomp [4] oraz dekBDD [1]. Obydwa systemy bazują na klasycznym modelu dekompozycji Ashenhursta-Curtisa. Podstawowa różnica tkwi w sposobie reprezentacji funkcji logicznych. System Decomp wykorzystuje reprezentację tablicową, natomiast dekBDD - binarne diagramy decyzyjne BDD (Binary Decision Diagram). Podstawy teoretyczne dekompozycji Niech f będzie funkcją odwzorowującą zbiór B n w zbiór B m, tzn. f :B n&#8594;B m, gdzie B = {0,1}. Niech Y = f (In-1,...,I1,I0), gdzie Y = {Ym&#8209;1, ...,Y1,Y0 }. Funkcja f : B n&#8594;B m podlega dekompozycji, tzn. (1) wtedy i tylko wtedy, gdy złożoność kolumnowa matrycy podziałów &#957; (X2&#63718;X1) &#8804; 2 p. Zbiory X1 i X2 nazywane są odpowiednio zbiorem związanym i wolnym, przy czym X1 &#8746; X2 = I oraz X1 &#8746; X2 = &#8709;, gdzie I = {In&#8209;1,...,I1,I 0}. Wykorzystanie powyższego twierdzenia o dekompozycji funkcjonalnej stanowi podstawę rozbicia wielowyjściowego bloku scharakteryzowanego uporządkowaną parą liczb (liczba wejść, liczba wyjść) wynoszącą (n, m) na dwa podukłady scharakteryzowane parami (k, p) oraz (n-k + p, m). Rozbicie układu wynikające z twierdzenia o dekompozycji ze... więcej»

Ideal traffic system creator (Janusz Pochmara, Aleksandra Świetlicka, Mateusz Majchrzycki, Krzysztof Kolanowski, Alicja Szulta, Piotr Szablata, Jakub Pałasiewicz)
An effective distribution of goods must assure the movement of products and materials from the supplier&#8217;s warehouses to the customer&#8217;s objects at the possibly lowest cost. This means that the distribution costs, such as the costs of transport, supply and administration are to be reduced, which requires the improvement of the customers service standards at the same time. The improvement of customers service standards manifest mainly in on-time delivery. The on-time delivery is connected with formation of the transport standards in order to keep it on time [1]. In logistics, every distribution system is a fundamental component of a market economy which must consist of: &#9679; tracking and tracing system, &#9679; monitoring with GSM/GPS communication system, &#9679; alerts system, while is transit, &#9679; route optimization in real time system, &#9679; safeguarding people system, &#9679; pay per use possibility. Combining these systems together with wireless technology makes it possible to track down and trace vehicles, goods shipments, employees and mobile resources. It therefore supports logistics companies that need to constantly monitor the flow of goods they transport. This also implies an organization and synchronization of flows through nodes and network strategies. When drivers get stuck in a traffic jam, their level of stress rises rapidly. It is connected with anxiety of being late or missing an appointment (time and money loss), impossibility to predict a journey time, wasting fuel or breathing in exhaust fumes [2]. Consequently, stressful life can lead to many diseases, such as heart attack, increased blood pressure, migraine headaches etc. ... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufr&#234;ne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Challenges of thermo-mechanical numerical prototyping in the contemporary electronic packaging (Artur Wymysłowski)
Electronic packaging refers to the packaging of integrated circuits (IC), chips (dies), their mounting and interconnecting on PCB&#8217;s for signal and power transmission and heat dissipation. In electronic systems, packaging materials may also serve as electrical conductors or insulators, provide structure, thermal paths and protect the circuits from environmental factors such as moisture, contamination, hostile chemicals, radiation, etc. Electronic packaging can be divided into four levels of which level first and second seem to be the most important. Out of that four levels two: first and second seem to be the key problem in case of thermo-mechanical prototyping. First level refers to chip and system packaging while second level refers to mounting and interconnecting packaged and/or bare chips on PCB surface. A general scheme at first and second packaging level is given in Fig. 1 [1, 2]. The current industry and market driven development trend is towards enhanced product functionality and improved reliability with balanced market parameter defined as cost vs quality. In case of electronic packaging the above can be achieved through rapid and precisely defined development stages (optimization, sensitivity analysis, tolerance design, etc.) of which numerical thermo-mechanical prototyping seems to be the key factor. The same contemporary engineers, especially due to generational change, face problems that require on one hand interdisciplinary knowledge on materials, interfaces, physical phenomena, failure mechanisms, etc. and on the other hand the advanced knowledge on thermo-mechanical prototyping methods, tools, algorithms, etc. Especially in case of electronic packaging the future trend defined by slow technology change from micro to nano scale is not feasible without profound understanding of underlying fields coupling, as thermo-mechanical or thermo-electric, etc. or availability of appropriate numerical software tools b... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Rekonstrukcja cyfrowa starych nagrań audiowizualnych
Narodowy Instytut Audiowizualny (NinA) jest instytucją powołaną w celu digitalizacji, udostępniania i promocji polskiej twórczości audiowizualnej. W ciągu kilku lat swojej działalności zrealizował wiele przedsięwzięć na polu wydawniczym, w dziedzinie produkcji i rejestracji dzieł i wydarzeń artystycznych. Wśród opracowanych materiałów znajdują się spektakle operowe, teatralne, koncerty, debaty, relacje z festiwali i konferencji. Współpracuje z Polskim Radiem (PR 2), TVP Kultura oraz instytucjami realizującymi zadania o szczególnym znaczeniu dla kultury polskiej i europejskiej. NInA w ramach Wieloletniego Programu Rządowego "Kultura+" koordynuje programy wspierające cyfryzację zasobów kultury oraz archiwizację i upowszechnianie zbiorów audiowizualnych. Istnieją dwie drogi postępowania - analogowa lub cyfrowa. Ze względu na ograniczenia, jakie niesie ze sobą tradycyjne kopiowanie (analogowe), wydaje się słuszne inwestowanie coraz większych środków w digitalizację. Zwłaszcza, gdy coraz częściej mówi się o końcu taśmy filmowej i kin opartych na projekcji analogowej. Telewizja Polsk... więcej»

Zastosowanie ceramiki HTCC w konstrukcjach mikromechanicznych z warstwami grubymi PZT (Arkadiusz Dąbrowski, Leszek Golonka)
Technologie - ceramiczna i grubowarstwowa pozwalają na wykonywanie różnego rodzaju czujników, przetworników i innych urządzeń mikromechanicznych, takich jak na przykład sensory ciśnienia [1], siły [2]. W opisywanych zastosowaniach chętnie stosowana jest ceramika LTCC (Low Temperature Co-fired Ceramics - niskotemperaturowa ceramika współwypalana) głównie ze względu na temperaturę wypalania poniżej 900oC. Umożliwia to stosowanie typowych materiałów grubowarstwowych, co pozwala na wykonywanie różnego rodzaju biernych elementów elektronicznych wewnątrz wielowarstwowego modułu ceramicznego [3]. W przeciwieństwie do LTCC, ceramika HTCC wypalana jest w temperaturach z zakresu 1500&#8230;1800oC. Z tego powodu przy wykonaniu zagrzebanych metalizacji, należy stosować materiały o wysokiej temperaturze topnienia, jak W, Mo, Mn [4], o względnie większej rezystywności. W tabeli 1 przedstawiono porównanie podstawowych parametrów dwóch rodzajów ceramiki. Dla konstrukcji mikromechanicznych istotne są właściwości mechaniczne, takie jak moduł Younga oraz wytrzymałość na odkształcenia. Ceramika HTCC cechuje się blisko 3-krotnie wyższym modułem Younga w odniesieniu do LTCC, co jest jednoznaczne ze zwiększeniem sztywności konstrukcji i zmniejszeniem deformacji elementów w wyniku oddziaływania siły. Ponadto ceramika wysokotemperaturowa może pracować w wyższych temperaturach oraz posiada większą wytrzymałość mechaniczną. Ceramika HTCC znajduje głównie zastosowanie przy wykonywaniu układów mikrofalowych [5] oraz obudów [4], a także nielicznych konstrukcji mikrofluidycznych i mikromechanicznych [6]. Tab. 1. Porównanie wybranych parametrów ceramiki LTCC i HTCC [4] Tabl. 1.Comparison of selected parameters of LTCC and HTCC [4] Parametr Jednostka LTCC HTCC Przewodność cieplna W.m-1.K-1 3 20 Współczynnik rozszerzalności liniowej ppm.K-1 6 7 Wytrzymałość dielektryczna V.m-1×106 15 14 Stała dielektryczna (10 GHz) 7,8 9 Stratność dielektryczna (tg&#948... więcej»

Synteza nanocząstek materiałów sensorowych (Helena Teterycz, Dominika Oleś, Marta Fiedot , Olga Rac, Patrycja Suchorska, Patryk Halek, Grzegorz Halek)
W ostatnich kilkunastu latach w literaturze pojawiają się doniesienia o możliwości syntezy nanomateriałów różnymi metodami. Syntezuje się je między innymi następującymi metodami: hydrotermalną [1], techniką "odwróconego opalu" [2], z roztworu ciekłego [3], za pomocą wzorca [4], elektrochemicznie [5], utleniania termicznego [6], itp. Metodami tymi otrzymuje się nanorurki, nanopręty, nanokwiatki, nanopastylki oraz inne interesujące nanostruktury. Materiały o takiej nanostrukturze mogą znaleźć zastosowanie nie tylko w technice sensorowej, jak warstwy gazoczułe i filtry aktywne [7], ale również jako różne materiały w nanoelektronice i optoelektronice do konstrukcji różnych elementów, np. ogniw słonecznych, czy kryształów fotonicznych, jako katalizatory heterogeniczne, nanomateriały magnetyczne, wypełniacze do kompozytów i wiele innych [8]. W niniejszym artykule przedstawiono wyniki otrzymywania różnych nanomateriałów nową metodą z roztworu wodnego zawierającego organiczne związki stabilizujące. Część eksperymentalna Nanocząstki dwutlenku tytanu otrzymano w reakcji strącania chlorku tytanu(III) wodorotlenkiem amonu z roztworu wodnego (1), a następnie utleniania powietrzem atmosferycznym (2). (1) (2) W początkowym etapie syntezy nanocząstek tlenku tytanu(IV) przygotowywano wodny roztwór prekursora jonów tytanu (TiCl3), syntetycznego polimeru (polietylenoimina, PEI) oraz surfaktantu niejonowego (Triton &#174; X-100). Otrzymany roztwór mieszano na mieszadle magnetycznym i stopniowo dodawano roztwór wodorotlenku amonu. Nanocząstki złota otrzymywano w wodnym roztworze prekursora jonów złota (HAuCl4) oraz niejonowego surfaktantu (Tween &#174; 80). Otrzymany roztwór reakcyjny mieszano mieszadłem magnetycznym ... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Analysis of pulse durability of thin-film and polymer thick-film resistors embedded in printed circuit boards (Adam Kłossowicz, Andrzej Dziedzic, Paweł Winiarski, Wojciech Stęplewski, Grażyna Kozioł)
Traditional passives are three-dimensional discrete components, soldered through or onto surface. They occupy significant part of top/bottom surface (up to 50% of the surface area) and increase thickness and weight of electronic circuits/systems. The embedded passives (resistors, capacitors and/or inductors - Fig. 1) are more and more used in multichip module (MCM) technologies. They are fabricated among others in Low Temperature Co-fired Ceramics (LTCC) substrates or PCBs. The embedded passives in comparison to traditional ones are essentially two-dimensional elements that become part of the internal layers of a PCB or LTCC substrate increasing its thickness only of around several &#956;m. Shifting of passives into substrate can increase a free space of PCB for active components and improve packaging density. The embedded passive technology (EPT) is incited by many factors such as the need for higher packaging density, lower production costs and better electrical properties. EPT permits for distance reduction between components (which leads to reduction of parasitics, less crosstalk and enhance transmission quality) and improving of electrical performance especially in higher frequencies (because of lower loss and lower noise yield). One should note, that EPT can also simplify the assembly process and reduce assembly cost (for example embedded passives has not problem with positioning). By using embedded passives we can lower material cost by reducing the number of discrete passives, flux, and solder paste. Nowadays technology allows to embedding both thick-film and thin-film resistors. Pulse durability is an important parameter of passive components and active devices. In general, the susceptibility to high voltage pulses and electrostatic discharges has been investigated for thin- and thick-film resistors for more than 30 years [1, 2]. Such investigations can be performed with the aid of single or series of "long" pulses (... więcej»

An investigation of the quality of the conductive lines deposited by inkjet printing on different substrates (Janusz Sitek, Konrad Futera, Darko Belavič, Marina Santo Zarnik, Marek Kościelski, Krystyna Bukat, Kamil Janeczek, Danjela Kuščer Hrovatin, Małgorzata Jakubowska)
A lot of telecommunications, medical, industrial automation and measurement equipment, as well as sensor applications, are currently in the process of miniaturizing their dimensions. The reliability requirements of electronic equipment and devices is also constantly on the rise. One of the miniaturization solutions is thick-film technology and 3D structures [1]. Such devices require conductive lines to connect the different layers of simply manufactured devices. The fabrication of reliable, very narrow, conductive lines for thick-film and other structures is a crucial issue in the production of electronic components. Inkjet printing is a technology that could be ap- An investigation of the quality of the conductive lines deposited by inkjet printing on different substrates (Badanie jakości ścieżek przewodzących wytworzonych metodą druku strumieniowego na różnych podłożach) Ph.D Janusz Sitek 1), M.Sc.Eng. Konrad Futera 1,5), Darko Belavič 2,3,4), Ph.D Marina Santo Zarnik 2,3,4), M.Sc.Eng. Marek Kościelski 1), Ph.D Krystyna Bukat 1), M.Sc. Kamil Janeczek 1), Ph.D Danjela Kuščer Hrovatin 2,4), D.Sc.Eng. Małgorzata Jakubowska 5,6) 1) Tele- and Radio Research Institute, Centre of Advance Technology, Warsaw, 2) Jozef Stefan Institute, Ljubljana, Slovenia 3) HIPOT-RR, Otočec, Slovenia, 4) Centre of Excellence NAMASTE, Ljubljana, Slovenia 5) Warsaw University of Technology, Faculty of Mechatronics, 6) Institute of Electronic Materials Technology, Warsaw plied for t... więcej»

EMC Aspects in microelectronics structures made in LTCC technology (Wiesław SABAT, Dariusz KLEPACKI, Włodzimierz KALITA)
The fast development of LTCC technology (Low Temeperature Cofired Ceramic) is observed in relation to realization of multilayered hybrid structures. It is applied for manufacturing of wide range of microelectronic circuits, especially MCM-C structures (Multi Chip Module on Ceramics) which are used in different areas of industry. The multilayered structures, sensors, microsystems, passive elements, microwave elements can be found in telecommunication, informatics, radioengineering, mechatronics, transport, etc. The possibility of creation of channels and cavities inside of LTCC module allows to realization of chemical microreactors, hydraulic systems in microscale (together with pumps and valves), fuel cells, flat plasma displays, sensors of physical quantities and systems applied in biotechnology and medicine [1, 2]. Parasitic elements of paths&#8217; system The calculations of mutual capacitance CM and effective inductance Lz (for two parallel paths system with parametrically changed the mutual distance "s" and paths width "w") were made using elaborated PACAPIND program. They allowed to determine range of parameters changes of parasitic elements in typical LTCC structure for three basic configurations. For experimental investigations (determination of per-unitlength parameters) the test circuits were made in configuration of mutual parallel path systems (Fig. 1) on the basis of silver conductive paste HF612Ag and LTCC substrate 943PX from DuPont. The test circuits were made in three configurations: onelayered, two-layered with ground plane (microstrip configurations) and layered with the same thickness of subs... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Analysis of long-term stability of thin-film and polymer thick-film resistors embedded in Printed Circuit Boards (Paweł Winiarski, Andrzej Dziedzic, Adam Kłossowicz, Wojciech Stęplewski, Grażyna Kozioł)
Embedded passives play a major role in miniaturisation of electronic circuits, where e.g. MCM or HDI technologies [1] can be used. In most cases resistors represent the majority of passive components used on a circuit board. Besides size aspects, there are other very important issues like tolerance, reliability and long-term stability of components, especially in specialized applications. Technology and production processes are extensively studied and improved. However, to determine real reliability of fabricated components proper measuring methods are needed. To analyze stability of the resistors an accelerated ageing process can be used. Treating resistors with elevated temperature (or/and humidity) allows (in quite short time) obtain long-term behaviour of tested samples referred to a few years of service [2]. Test structures The thin-film resistors were fabricated on FR-4 laminate in accordance with Ohmega-Ply&#174; techno-logy [3, 4]. In this technique firstly thin layer of Nickel-Phosphorous alloy is electroplated on copper foil, afterwards this composite foil called RCM (resistor-conductor material) is laminated to FR-4 substrate. Finally copper circuitry and planar resistors are realized by subtractive processes. Two types of resistive foil were used for fabrication of structures with sheet resistance 25 &#937;/sq and 100 &#937;/sq (with thickness 0.4 &#956;m and 0.1 &#956;m respectively). The rectangular resistors, with width from 0.25 mm to 1.5 mm and aspect ratio n=l/w between 1 and 4, were designed and fabricated. Moreover, to investigate embedded resistors, part of the samples was covered with two types of cladding - Resin Coated Copper (RCC) or Laser Drillable Prepreg (LDP) 2 × 106. The cladding gives additional protection from environ-mental conditions. The PTF resistors were made using a standard thick-film method [5]. To fabricate resistors three types of resistive inks were used, with sheet resistance 20 &#93... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»