profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
DC measurements method of the thermal resistance of power MOSFETs (Stałoprądowa metoda pomiaru rezystancji termicznej tranzystorów mocy MOS) (Krzysztof Górecki, Janusz Zarębski)
Temperature affects electrical properties (characteristics) of semiconductor devices very strongly [1, 2]. Therefore, the estimation of the device thermal resistance describing its ability of heat dissipation at the steady state is of a great importance [3, 4]. According to the definition [3]: the thermal resistance Rth of any semiconductor device is expressed as the quotient of an increase of the device inner (junction) temperature Tj over the ambient one Ta and the device dissipated power Pth, which caused this temperature to increase: (1) The values of the ambient temperature and the dissipated power can be measured in a simple manner. The value of the temperature Tj must be measured at the steady state. With regard to the way the value of the temperature Tj is obtained, one can distinguish two kinds of methods measuring the device thermal resistance. The first are optical (infrared) methods [1, 3], in which the value of the device inner temperature is obtained by measuring infrared radiation energy emitted by the investigated device [5]. The other are electrical methods, in which the information about the device inner temperature results from the measurements of the device temperature-sensitive parameter of the known temperature dependence. The advantage of the optical methods is a possibility of estimating the temperature distribution on the device surface, but then a free access to the device surface is indispensable. Apart from this, the problem is to estimate precisely surface emissivity of the investigated device. The incorrectly estimated value of this parameter can result in the incorrect estimation of the excess of the device inner temperature over the ambient one, which differs from the actual value by even more than 50% [5]. In turn, the advantage of the electrical methods is a possibility of estimating the thermal resistance of both capsulated and uncapsulated devices. As results from [5], the optical methods ... więcej»

Korekcja trajektorii wektora przestrzennego z wykorzystaniem logiki rozmytej (Tomasz BINKOWSKI)
Zasilanie odbiorników elektrycznych bardzo często wymaga dostarczenia energii przy zadanych parametrach napięcia, bądź prądu. Zachodzi zatem konieczność sterowania wartościami amplitud, częstotliwości, itp. W przypadku odbiorników zmiennoprądowych energia przekazywana jest do nich przez przepływ zmiennych prądów wynikających z przyłożonego napięcia (również zmiennego). W elektrotechnice najczęściej przyjmuje się, że prądy te powinny mieć przebieg sinusoidalny, co wynika z niezmienności kształtu funkcji w wyniku działania całkowania i różniczkowania. Są jednak sytuacje, w których kształt przebiegów może ulec zmianie. Ma to miejsce w przypadku np. odbiorników nieliniowych. Wtedy, gdy zasilane są odbiorniki wielofazowe, może także dojść do asymetrii powodowanej obciążeniem lub błędnie prowadzonym sterowaniem. Projektant układu sterującego musi zatem wyraźnie określić funkcję celu, gdyż najczęściej niemożliwa jest jednoczesna kontrola wszystkich parametrów. W przypadku przekształtników energoelektronicznych bilans mocy chwilowej sprawia, że kontrola kształtu prądu powoduje odkształcenia napięcia lub na odwrót. Dlatego też często sięga się po rozwiązania pośredniego przekształcania energii, w których wykorzystuje się magazyn energii, np. w postaci kondensatora. Przykładem może być klasyczny trójgałęziowy falownik napięcia zasilany z przekształtnika jednofazowego o sinusoidalnym prądzie wejściowym. Brak równości pomiędzy mocą chwilową układu wejściowego jednofazowego, a mocą chwilową układu trójfazowego wymusza stosowanie obwodu pośredniczącego, równoważącego obydwie strony. Konsekwencją bilansowania energii w obwodzie pośredniczącym jest powstanie tętnień napięcia, z którego kształtowane są napięcia wyjściowe falownika [1, 2]. Trójgałęziowy falownik napięcia jest przekształtnikiem energoelektronicznym, którego rolą jest przetwarzanie energii elektrycznej źródła napięcia stałego na energię elektryczną dostarczaną do dwu- lub trójf... więcej»

Koncepcja wielomikroprocesorowego urządzenia do nagrzewania indukcyjnego (Marcin Wesołowski, Ryszard Niedbała)
Konstrukcja wielu urządzeń przeznaczonych do nagrzewania indukcyjnego opiera się na wykorzystaniu generatorów funkcjonalnych dostosowanych do racjonalnego nagrzewania dedykowanym układzie wzbudnik-wsad. Takie nagrzewnice pracują zazwyczaj w wąskim zakresie częstotliwości, w którym zachowują wysoką sprawność elektryczną, zwłaszcza w fazie końcowej procesu. Kryterium to przestaje być podstawowym w przypadku konieczności kształtowania profilu temperatury wsadu oraz podczas funkcjonowania układów regulacyjnych. Sprawność elektryczna przybliżana przez parametry zastępcze indukcyjnych układów grzejnych [3] opisywana jest zależnością: (1) gdzie: indeksem 1 oznaczono parametry wzbudnika a 2 wsadu. R - rezystancja; d, l - średnice i długości; ρ, μ - rezystywność i przenikalność magnetyczna; Fr(ξ ) - współczynnik kształtu wsadu; ξ = d2 δ 2 - współrzędna względna (średnica odniesiona do głębokości wnikania fali em) Analiza podstawowych zależności [3] wskazuje, że największa wartość sprawności osiągana jest przy jak najwyższych częstotliwościach. Wówczas współczynnik kształtu Fr dąży do jedności - maksymalnej wartości - czyniąc stosunek oporów R1 / R2 możliwie małym. Tym niemniej, biorąc pod uwagę cel jaki powinien spełniać proces nagrzewania, np. jednorodnie nagrzewać wsad, podstawowym kryterium staje się warunek zachowania we wsadzie maksymalnej średniej mocy objętościowej pvśr odniesionej do mocy objętościowej na jego powierzchni pv 0: (2) Dla wsadów cylindrycznych zależność powyższa przyjmuje postać określoną zależnością (3), z której już jednoznacznie można określić optymalną częstotliwość nagrzewania: (3) Powyższą zależność cechuje wyraźne występowanie maksimum. Jednoznacznie wykazana jest także konieczność dostosowywania częstotliwości w procesie nagrzewania wraz ze zmieniającymi się parametrami materiałowymi będącymi funkcjami temperatury i natężenia pola magnetycznego. Prowadząc proces nagrzewania ... więcej»

Algorytm kompensacyjny w procesach identyfikacji i sterowania złożonych systemów dynamicznych (STANISŁAW KAPKA)
Współczesne złożone systemy dynamiczne są instalowane w przemyśle lotniczym, chemicznym, militarnym, elektroenergetycznym, robotyce. Rozwiązania zagadnień identyfikacji i sterowania w większości są realizowane techniką cyfrową. Wiąże się to z szerokimi możliwościami współczesnych technologii i systemów komputerowych. Wraz ze wzrostem złożoności systemu dynamicznego, czego przykładem jest system elektroenergetyczny, wydajne algorytmy sterowania komputerowego by zachować przewagę technologiczną, powinny być wspierane rozwiązaniami tworzącymi najniższą warstwę identyfikacji i sterowania o działaniu równoczesnym. Znajduje to potwierdzenie w opisie stanów nieustalonych, stabilności, regulacji, stabilizacji systemu elektroenergetycznego [1, 2], a także w opisie systemów cyfrowych [3, 4]. Wraz ze wzrostem wymiaru systemu, pojawiają się trudności z konstrukcją modelu jak również z szybkim uzyskaniem rezultatów symulacyjnych. Aby przyspieszyć procesy symulacyjne można wprowadzić proponowany algorytm kompensacyjny, umiejscowiony w najniższej warstwie identyfikacji i sterowania. Jest on realizowalny w strukturze elektronicznej, w opisie funkcjonalnym prezentowanym w [1- 6]. Na rysunku 1 zilustrowano typowy układ regulacji automatycznej z analogowym sprzężeniem zwrotnym, gdzie: EP - element porównujący, yO(t)- wielkość odniesienia, e(t) - sygnał uchybu, PID - regulator, u(t), u’(t) - sterowania, z’(t) - zakłócenia, y’(t), y’’(t) - wyjścia obiektu regulacji odpowiednio analogowe i impulsowe. Stosownie do wyjść, wprowadza się czujniki analogowe lub impulsowe realizujące proces konwersji sygnałów silnoprądowych na odpowiednie sygnały napięciowe, dalej przetwarzane w elemencie pomiarowym i przetwarzającym. Niedogodnością struktury z analogowym sprzężeniem zwrotnym jest wpływ przełącznika umiejscowionego w torze sprzężenia zwrotnego (elementu porównania) na sterowanie. Proces przełączania pętla otwarta/pętla zamk... więcej»

Metoda LORETA jako przykład metody rozwiązywania zagadnienia odwrotnego w interfejsie mózg-komputer (Urszula Jagodzińska, Łukasz Oskwarek )
Zgodnie z definicją podaną przez Jonathana R. Wolpaw na pierwszej międzynarodowej konferencji poświęconej interfejsowi mózg-komputer (BCI) w 1999 r. "Interfejs mózg-komputer (BCI) jest systemem komunikacji i kontroli, w którym wiadomości i polecenia użytkownika nie zależą od normalnych kanałów wyjściowych mózgu. Oznacza to, że wiadomość nie jest przekazywana przez nerwy i mięśnie, i co więcej, aktywność neuronów mięśniowych nie jest potrzebna do wyprodukowania aktywności która przekazuje informację." System BCI - system mózg computer (interfejs mózg-komputer) - nazywany jest również systemem MMI , DNI lub BMI . Jest to system bezpośredniej komunikacji pomiędzy mózgiem i urządzeniami zewnętrznymi, wykorzystujący aktywność mózgu związaną z pracą neuronów. Aktywność ta sprowadza się do ruchu ładunków, które wytwarzają pole elektryczne i magnetyczne. Sygnały wysyłane przez neurony są rejestrowane przez urządzenia zewnętrzne. Systemy BCI zazwyczaj uczestniczą, wspierają albo też reperują funkcje kognitywne lub sensomotoryczne organizmu ludzkiego. Metoda LORETA bazuje na nieinwazyjnych technikach badania, takich jak: magnetoencefalografia (MEG), funkcjonalny magnetyczny rezonans jądrowy (fMRI), tomografia optyczna światła rozproszonego (NIRS), pozytronowa emisyjna tomografia komputerowa (PET), elektroencefalografia (EEG). Ze względu na koszty i komplikacje techniczne, najczęściej wykorzystywaną techniką w BCI jest EEG, która bada elektryczne aktywności mózgu. Z powodu powszechnego stosowania techniki EEG, działanie systemów BCI najprościej jest analizować w oparciu tę metodę. Polega ona na tym, że sygnał elektryczny EEG zbierany jest za pomocą elektrod, które odczytują wskazania sygnałów elektrycznych ze skóry głowy. Po przekazaniu do elektroencefalografu sygnały są wzmacniane i w postaci cyfrowej przesyłane do komputera. "A brain-computer interface (BCI) is a communication or control system in which the user’s messages or... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Sprzętowy generator kluczy kryptograficznych dedykowany dla systemów pomiarowo-sterujących o asymetrycznych zasobach (Paweł CZERNIK)
Termin Rozproszone, Bezprzewodowe Systemy Pomiarowo-Sterujące o asymetrycznych zasobach odnosi się do sieci tworzonych w trybie ad hoc przez nieduże, autonomiczne urządzenia nazywane węzłami pomiarowo-sterującymi, które oprócz funkcji komunikacyjnych realizują funkcje pomiarowe, przetwarzania, a często także funkcje wykonawcze. Komunikacja w sieci odbywa się za pomocą fal radiowych (lub innej bezprzewodowej techniki transmisyjnej). Węzły poza elementami pomiarowymi, są wyposażone w niewielki mikrokontroler, pamięć, moduł radiowy oraz źródło zasilania. Ponieważ najczęściej są one zasilane bateryjnie, ich zasoby bywają znacznie ograniczone. Zastosowanie tych systemów nieustannie się poszerza. Urządzenia takie mogą być instalowane nie tylko na ziemi, ale też w wodzie i powietrzu. Bezpieczeństwo w większym lub mniejszym stopniu jest w zasadzie istotne we wszystkich rodzajach sieci. Ale biorąc pod uwagę, jak dużym ograniczeniom podlegają analizowane systemy pomiarowe, staje się oczywiste, że zapewnienie go w tego typu sieciach stanowi szczególnie trudne wyzwanie. Ograniczenia węzłów są konsekwencją wymagań co do ich rozmiarów, kosztów produkcji, lokalizacji, a przede wszystkim tego, aby stanowiły one autonomiczne terminale. Sygnały chaotyczne posiadają cechy w sposób znaczący odróżniające je od sygnałów używanych powszechnie do komunikacji w bezprzewodowych systemach pomiarowo-sterujących. Najistotniejszą cechą sygnału chaotycznego jest wrażliwość na warunki początkowe. Wrażliwość tą można utożsamić z tzw. "efektem motyla", czyli zjawiskiem zachodzącym w tych układach, w których nawet niewielka zmiana warunków początkowych prowadzi do diametralnie różnych zachowań układu. Przy skończonej dokładności pomiaru bardzo trudno przewidzieć wartości sygnału w chwili odległej (zarówno w przyszłości, jak i w przeszłości) o pewien horyzont czasowy od momentu wykonania pomiaru. Odmienne właściwości tego typu przebiegu elektrycznego przekładaj... więcej»

Stan aktualny i rozwój systemu INMARSAT (Jerzy Czajkowski)
Satelitarny system INMARSAT jest nierozerwalnie związany ze Światowym Morskim Systemem Łączności Alarmowej i Bezpieczeństwa - GMDSS (Global Maritime Distress and Safety System) i od momentu jego powstania jego głównym zadaniem było polepszenie, tj. zwiększenie efektywności i niezawodności morskiej radiokomunikacji. W szczególności chodziło o podniesienie bezpieczeństwa i zapewnienie radiokomunikacji umożliwiającej szybkie i skuteczne alarmowanie. Dlatego też tworząc system GMDSS, jeden z obszarów morskich A3 [4] zdefiniowano jako akwen żeglugi w zasięgu satelitarnego systemu z wykorzystaniem satelitów geostacjonarnych nazwanego INMARSAT. System ten został w późniejszym czasie także wykorzystany w ruchomej służbie lądowej oraz aeronautycznej.Po ponad dwudziestu latach działania jako międzynarodowa organizacja, system INMARSAT w 2001 roku w wyniku prywatyzacji został przekształcony w organizację IMSO (International Mobile Satellite Organization) spełniając funkcje systemu GMDSS, jednak nazwa systemu jako całości pozostała niezmieniona. System INMARSAT składa się z trzech zasadniczych komponentów: - segmentu kosmicznego nadzorowanego przez INMARSAT, - naziemnych stacji lądowych LES (Land Earth Station), zwanych także CES (Coast Earth Stadion) nadzorowanych przez Administracje Morskie Państw będących sygnatariuszami INMARSAT- u, - oraz stacje statkowe SES (Ship Earth Station). Strukturę segmentu kosmicznego przedstawiono na rys. 1, gdzie na orbicie geostacjonarnej w odległości ok. 36000 km od równika usytuowane są satelity umożliwiające pokrycie radiokomunikacyjne czterech obszarów oceanicznych nazwanych: Obszar Wschodni Oceanu Atlantyckiego - (AOR-E - Atlantic Ocean Region East), Obszar Zachodni Oceanu Atlantyckiego - (AOR-W - Atlantic Ocean Region West), Obszar Oceanu Indyjskiego (IOR - Indian Ocean Region), Obs... więcej»

Światłowody mPOF do zastosowań telekomunikacyjnych (Paweł Gdula, Katrin Welikow, Ryszard Buczyński, Paweł Szczepański, Ryszard Piramidowicz)
Dynamiczny rozwój technologii informacyjnych i telekomunikacyjnych, obserwowany w ostatnich latach doprowadził do znaczących zmian w sieciach telekomunikacyjnych, wymuszając ich ewolucję w kierunku transparentnych, w pełni optycznych systemów. W sieciach dostępowych, stanowiących najniższą warstwę systemów telekomunikacyjnych, włókna optyczne systematycznie wypierają rozwiązania miedziane, pozwalając na radykalne zwiększenie przepustowości i niezawodności przy jednoczesnej redukcji kosztów. Należy jednak podkreślić, że o ile w przypadku sieci dalekiego zasięgu i metropolitalnych nie ma alternatywy dla włókien jednomodowych, to specyficzne wymagania nakładane przez sieci dostępowe, a w szczególności systemy wewnątrz-budynkowe sprawiają, że włókna dla tych sieci stanowią przedmiot intensywnych badań i analiz, prowadzonych zarówno w jednostkach R&D największych operatorów i producentów włókien jak też wiodących ośrodków naukowych. W sytuacji, kiedy istotną rolę zaczynają odgrywać straty mikro- i makro-zgięciowe, problemy odporności mechanicznej, łatwości rekonfigurowania połączeń, koszty instalacji i utrzymania sieci, czy wreszcie aspekty bezpieczeństwa, coraz częściej rozważa się zastosowanie światłowodów wielomodowych czy plastikowych o dużym rdzeniu [1,2].Te ostatnie, oferujące dużą elastyczność równocześnie z niskim kosztem produkcji i prostotą obróbki wydają się być szczególnie obiecujące w kontekście sieci dostępowych, a przede wszystkim systemów Fiber To The Home (FTTH). Światłowody polimerowe zapewniają również większe bezpieczeństwo użytkownikom w przypadku przerwania ciągłości włókna - nie łamią się tak jak włókna szklane, które pozostawiają drobne, ostre odłamki. Ponadto, pracują w zakresie bezpiecznej dla oczu części widma optycznego, przypadającej zwykle na obszar czerwieni [3]. Głównymi czynnikami ograniczającymi powszechne wdrożenie włókien polimerowych w systemach transmisyjnych są stosunkowo duże tłumienie oraz,... więcej»

Światłowodowy czujnik siły bazujący na interferometrze Sagnaca z dwójłomnym światłowodem fotonicznym (Cezary Kaczmarek)
Interferometr Sagnaca zawierający odcinek światłowodu dwójłomnego ma wiele właściwości, które czynią go podzespołem o szerokim zastosowaniu zarówno w telekomunikacji jak i w sensoryce światłowodowej. Jedną z tych właściwości jest niezależność od polaryzacji wejściowej wiązki światła. Inną jest periodyczność widma wiązki wyjściowej i odbitej interferometru, którego okres zależy od długości odcinka światłowodu dwójłomnego, a nie od długości pętli. Interferometr Sagnaca ze światłowodem dwójłomnym jest wykorzystywany w telekomunikacji optycznej jako filtr WDM [1]. W sensoryce podzespół ten ma zastosowanie jako czujnik wielu wielkości fizycznych i chemicznych [2, 3] oraz jako dyskryminator długości fali dla czujników z siatkami Bragga [4]. Zastosowanie w interferometrze Sagnaca dwójłomnego światłowodu fotonicznego zamiast konwencjonalnego światłowodu dwójłomnego, radykalnie poprawia parametry metrologiczne i użytkowe tego podzespołu. Ta poprawa wynika z właściwości dwójłomnych światłowodów fotonicznich, głównie bardzo małego wpływu zmian temperatury i znacząco większej dwójłomności modowej w porównaniu z konwencjonalnymi światłowodami dwójłomnymi. Dla interferometru ze światłowodem dwójłomnym produkowanego przez Blaze-Photonics zmiany okresu widma pod wpływem zmian temperatury wynoszą 0,05 pm/K, natomiast przesunięcie widma pod wpływem zmian temperatury wynosi 0,25...0,3 pm/K [5, 6]. Duża wartość dwójłomności światłowodów fotonicznych pozwala znacząco zredukować ich wymaganą długość w czujnikach z interferometrem Sagnaca. W artykule przedstawiono czujnik siły o zakresie 0...50 N, w układzie interferometru Sagnaca z dwójłomnym światłowodem fotonicznym typu PM-1550-01 wyprodukowanym przez Blaze... więcej»

Wykorzystanie światła rozproszonego do wyznaczania dwójłomności modowej światłowodów planarnych (Kazimierz GUT, Tomasz HERZOG)
Światłowodowe struktury optyczne wytwarzane technologią optyki planarnej obok zastosowań w dziedzinie telekomunikacji (pracujące m.in. jako modulatory, multi- i demultipleksery), ze względu na liczne zalety nieosiągalne w technologii włókien optycznych znajdują coraz szersze wykorzystanie w budowie układów sensorowych monitorujących wielkości fizyczne, procesy biologiczne i chemiczne, a także liczne parametry w różnych gałęziach nauki i przemysłu. Świadczy o tym stale rosnąca liczba publikacji naukowych prezentujących nowe rozwiązania i udoskonalenia czujników optycznych wykorzystujących planarne struktury światłowodowe [4]. Jednym z najważniejszych parametrów charakteryzujących wytworzony falowód optyki zintegrowanej jest tłumienność, definiowana jako strata mocy optycznej na jednostkową drogę propagacji [3]. W przypadku układów optyki zintegrowanej właściwy dobór metody pomiaru tłumienia jest znacznie bardziej skomplikowany niż w przypadku włókien optycznych, przede wszystkim ze względu na inną geometrię, budowę, przeznaczenie wytworzonego układu oraz zróżnicowany przedział badanych strat, z tego też powodu nie jest możliwe opracowanie jednej uniwersalnej metody pomiaru tłumienności, a większość dotychczas stosowanych metod to przede wszystkim projekty przeznaczone do wykonywania pomiarów w ... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Inteligencja obliczeniowa, zastosowania biomedyczne i ontologiczne bazy wiedzy, Wilga 2012 (Ryszard S.Romaniuk)
Kryptografia, bezpieczeństwo sieci pomiarowych Rozproszone sieci kontrolno-pomiarowe, monitorujące krytyczne parametry, wymagają pewnej formy bezpieczeństwa. Szeroki rozkład geograficzny sieci, zbierającej istotne dane przez niezabezpieczone kanały komunikacyjne powoduje, że taka sieć jest podatna na ataki cyfrowe. Kryptograficznie bezpieczny sprzętowy generator liczb przypadkowych dedykowany do zabezpieczenia takich sieci jest badany przez zespół w IRE PW (prof. W. Winiecki) oraz ISE PW (prof. T. Adamski). Motywacją i usprawiedliwieniem badań nad bezpieczeństwem systemów kontrolno pomiarowych jest: sieci takie charakteryzują się znaczną asymetrią mocy obliczeniowej, kanały komunikacji radiowej mają wąskie pasmo, kanały komunikacji fotonicznej mają szerokie pasmo, zasilanie z baterii jest dosyć skromne i wymaga oszczędności energii lub zastosowania technologii energy/power harwesting. Radiowe kanały komunikacyjne RF lub otwarte optyczne są podatne na dodanie informacji, intencjonalną zmianę informacji, interferencję, itp. Istnieje potrzeba zastosowania bezpiecznych podsystemów komunikacyjnych dla takich sieci. Projektowany pod-system bazuje na sprzętowym generatorze liczb losowych, analogicznym do stosowanych w systemach kryptograficznych. Generator prawdziwych liczb losowych TRNG bazuje na nieprzewidywalnym zjawisku losowym, np. szumie białym. Generator liczb pseudolosowych PRNG bazuje na deterministycznym algorytmie obliczeniowym. System zrealizowano na generatorze chaotycznym z zastosowaniem procesora ATmega oraz oprogramowania Python (P. Czernik, IRE PW). W modelu zastosowano generator liczb losowych RDieHarder z zastosowaniem interfejsu GNU R. Zrealizowany TRNG był testowany i okazał się wystarczającym rozwiązaniem dla systemów pomiarowych o asymetrycznych zasobach. Lepsza przypadkowość była osiągana dla mniejszych częstotliwości próbkowania. Bity przypadkowe w przykładowym słowie 10-bitowym są rozmieszczone nierównomi... więcej»

Tendencje rozwojowe w elektronice 2012
W trakcie czołowych światowych targów elektroniki konsumenckiej IFA (Internationale FunkAusstellung Berlin wrzesień 2012) zaprezentowano całą gamę produktów z branży rozwijającej się niezwykle dynamicznie. Coraz większe ekrany telewizyjne z ostrym obrazem o lśniących kolorach, wyświetlanie przestrzenne (3D) z okularami i i bez okularów. Przedstawiono także komputery cienkie, lekkie, o wielkiej wydajności, szybkie, wspólpracujące z sieciami telekomunikacyjnymi, urządzeniami do pracy w domu i w podróży. Na targach IFA 2012 prezentowano tendencje rozwojowe wszystkich części sektora. Telewizory o wielkiej rozdzielczości (HD) z jaskrawymi kolorami, z obrazem przestrzennym (3D) i bez konieczności używania okularów stały się już prawie codziennością. Tegorocznym gorącym tematem jest tajemniczy skrót 4k. Oznacza to format obrazu 4096 x 2160 pikseli, co odpowiada rozdzielczości ponad 8 megapikseli. Czterokrotne zwiększenie rozdzielczości w stosunku do, dotychczas maksymalnej osiągalnej (Full HD), powoduje, że takie rozwiązanie staje się idealne dla projektorów i dużych ekranów, a także do wyświetlania filmów stereoskopowych. W porównaniu z konwencjonalnymi ekranami HD, ekrany 4k mają dwa razy więcej linii. Sprawia to, że możliwe jest zbudowanie telewizorów 3D, które wytwarzają obrazy w pełnej rozdzielczości HD, nawet jeśli są oglądane p... więcej»

Astronomia i techniki satelitarne, Wilga 2012 (Ryszard S.Romaniuk)
Trzydzieste, jubileuszowe Sympozjum Wilga 2012 "Fotonika i Inżynieria Internetu" zgromadziło ponad 250 uczestników, w edycji styczniowej i majowej. Zaprezentowano ponad 200 artykułów - głównie dotyczących realizowanych prac doktorskich oraz uczestnictwa w dużych projektach badawczych, krajowych i europejskich. Przedstawiono również kilkanaście referatów plenarnych na temat systemów fotonicznych i elektronicznych. Sympozjum jest organizowane pod auspicjami SPIE - The International Society for Optical Engineering, IEEE Sekcja Polska i Region 8, Polskiego Stowarzyszenia Fotonicznego, KEiT PAN, PKOpto SEP oraz WEiTI PW. Sympozjum jest organizowane corocznie przez młodych uczonych z laboratorium PERG/EHEP ISE PW we współpracy z Oddziałami Studenckimi SPIE i IEEE. Patronat medialny i publikacyjny nad Sympozjum Wilga sprawują: Elektronika oraz International Journal of Electronics and Telecommunications KEiT PAN, a także Proceedings SPIE. Sympozjum Wilga jest tematycznie związane z cyklicznymi konferencjami na temat światłowodów i ich zastosowań organizowanych co 18 miesięcy w Białowieży przez prof. J. Dorosza (Politechnika Białostocka) oraz poprzednio w Krasnobrodzie, a obecnie w Nałęczowie przez UMCS Lublin i prof. Waldemara Wójcika (Politechnika Lubelska). Artykuł przedstawia wybrane zagadnienia dyskutowane w czasie Sympozjum w zakresie tematycznym astronomii i technologii satelitarnych. Główne ośrodki prezentujące tą tematykę były: CBK PAN, CAMK PAN, UW i PW. Tematyka jubileuszowego XXX Sympozjum Wilga 2012 Fotonika i Inżynieria Sieci Internet Główne grupy tematyczne Sympozjum Wilga 2012 były następujące: nanotechnologie i nanomateriały dla optoelektroniki i fotoniki, światłowody czujnikowe, światłowody aktywne, światłowody nieliniowe, elementy i urządzenia w pełni fotoniczne, czujniki i sieci czujnikowe - optyczne i hybrydowe, obiektowo zorientowane projektowanie sprzętu fotonicznego i optoelektronicznego, zastosowania fotonik... więcej»

Realizacja dedykowanej aplikacji wzmacniacza fazoczułego w środowisku LabVIEW (Maciej Kubicki)
W wielu zastosowaniach pomiarowych wymagane jest określanie amplitudy i fazy sygnałów o amplitudzie mniejszej od 1 mV w obecności szumu, w przypadku gdy znana jest częstotliwość tych sygnałów. Przykładem jest detekcja sygnałów rejestrowanych przy określaniu szczelności elementów elektronicznych z zastosowaniem technik termoakusystycznych opisanych w opracowaniach [1-3]. Na rysunku 1 schematycznie przedstawiono układ testowy do pomiaru szczelności z wykorzystaniem wspomnianej metody. Termoakustyczna technika pomiaru szczelności obudów elementów elektronicznych może stanowić nieniszczącą alternatywę dla niszczących testów precyzowanych przez standardy stosowane obecnie w przemyśle [10-11]. W rozpatrywanej metodzie źródłem sygnału pomiarowego jest mikrofon umieszczony w szczelnej komorze termoakustycznej rejestrujący sygnał akustyczny pojawiający się w wyniku periodycznego wydzielania mocy w badanym elemencie. Jedną z metod pomiaru sygnału stosowaną w rozważanym przypadku jest detekcja fazoczuła. Dostępne na rynku wzmacniacze fazoczułe, poza wysokim kosztem mogą nie być dostosowane do danego pola aplikacji. W odróżnieniu od samodzielnych urządzeń, narzędzia jakie oferują współczesne systemu akwizycji sygnałów pomiarowych umożliwiają tworzenie dedykowanych aplikacji pomiarowych automatyzujących dodatkowo proces pomiaru. W artykule opisano programową realizację wzmacniacza fazoczułego, stanowiącą podstawę systemu akwizycji i przetwarzania sygnałów pomiarowych układu do pomiaru szczelności tranzystorów w obudowach metalowych z wykorzystaniem technik termoakustycznych. Aplikacja pomiarowa została stworzona w środowisku LabVIEW w oparciu o 16-bitową kartę pomiarową NI-6251. Inne przykłady programowych realizacji wzmacniaczy fazoczułych znaleźć można w pozycjach literaturowych [7-9].Zależności umożliwiające wyznaczenie amplitudy i fazy sygnału pomiarowego przytaczane są w wielu publikacjach na temat wzmacniaczy fazoczułych [4-9]. Ab... więcej»

Regulator temperatury o rozmytej logice (Bernard Wyrwoł)
W układach regulacji temperatury wykorzystuje się zwykle specjalizowane sterowniki, które pełnią funkcję stabilizatora. Zadaniem takiego sterownika jest utrzymywanie temperatury obiektu To (wielkość regulowana) na stałym poziomie Tz (wartość zadana) w obecności pojawiających się zakłóceń (rys. 1). Sterownik w tego typu aplikacjach powinien posiadać możliwość pomiaru temperatury obiektu oraz umożliwiać sterowanie jego temperaturą (sygnał sterujący G), które w ogólnym przypadku odbywa się poprzez włączanie lub wyłączanie urządzenia dostarczającego energię (element grzejny) do sterowanego obiektu.W praktycznych realizacjach systemów stabilizacji temperatury można spotkać regulatory dwupołożeniowe oraz regulatory typu P, PI, PID. O tym jaki typ regulacji zostanie zaimplementowany w sterowniku decydują takie czynniki jak charakter obiektu, wymagana dokładność regulacji temperatury czy też koszt wykonania samego regulatora. Projekt systemu regulacji (dobór typu regulatora jak i jego parametrów) zwykle wymaga znajomości dokładnego modelu matematycznego obiektu cieplnego (charakterystyki statycznej i dynamicznej). W przypadku, kiedy jego parametry są nieznane albo ulegają znacznym zmianom w czasie, wówczas zamiast klasycznych algorytmów sterowania wykorzystywane są bardziej złożone algorytmy sterowania oparte na logice rozmytej lub sieciach neuronowych [5]. Rys. 2. Ogólny schemat blokowy sterownika Fig. 2. General block diagram of the controller Rys. 3. Schemat ideowy przykładowych rozwiązań modułu wejść Fig. 3. Example solution of the inputs module Jednostka centralna Moduł wyjsc Moduł wejsc Moduł komunikacji RS232 (USB) Panel ster. WE0 WE1 WE7 WY0 WY1 WY7 Moduł zasilania Vout +Vs GND LM35 ADCi +Vcc GND Jednostka centralna Wejscie analogowe DQ Vdd GND DS18x20 Wejscie cyfrowe PAi +Vcc GND Jednostka centralna Buy a cheap license to remove this www.iwesoft.com 62 Elektronika 10/2012 typów czujników (... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Nowe źródła pojedynczych fotonów dla kryptografii kwantowej (Wojciech Nowakowski )
Kryptografia kwantowa teoretycznie jest bezpieczna, co wynika z samych praw mechaniki kwantowej [1, 2], ponieważ każda próba podsłuchania sygnału wprowadza zmiany tego sygnału, co informuje komunikujące się strony o ingerencji. W praktyce jednak współczesne, nawet komercyjne systemy kryptografii kwantowej są niedoskonałe, gdyż występuje wiele problemów implementacyjnych i technicznych [3]. Praktyczne wykorzystanie tej, teoretycznie doskonałej metody szyfrowania transmisji danych jest więc bardzo ograniczone, właściwie do urządzeń demonstracyjnych lub krótkich łączy specjalnie chronionych, np. na terenie jednej instytucji. Złośliwi twierdzą nawet, że kryptografia kwantowa do doskonały "temat wieczny", bo bardzo nośny i nowoczesny, ale od lat nie przynoszący żadnych realnych korzyści. Główne problemy to tanie i efektywne źródło strumienia pojedynczych fotonów o dostatecznej energii oraz ich poprawna technicznie, skuteczna detekcja. Wykazano np. [3], że po stronie detekcji sygnału łatwo jest oślepić fotopowielacz i stworzyć tym samym warunki niedostrzegalnego podsłuchu. Z problemem generacji fotonów jest jeszcze gorzej. Nie mamy dobrych źródeł pojedynczych fotonów, a jest to zagadnienie dla kwantowej kryptografii zupełnie fundamentalne: gdy wygenerujemy zamiast pojedynczego choćby dwa fotony, przejęcie jednego z nich (a zatem zmiana jego parametrów) może zostać niezauważona, gdyż tę samą informację niosą obydwa; drugi jest poprawny. Stosowane są różne metody zapobiegania wysyłaniu zwielokrotnionych fotonów. Jednym ze sposobów jest użycie bardzo... więcej»

Test stabilografii nadążnej (Zenon Kidoń, Jerzy Fiołka)
Do oceny stabilności układu utrzymywania równowagi człowieka powszechnie wykorzystuje się stabilografię statyczną. Podstawowym narzędziem stosowanym w tej metodzie jest platforma stabilograficzna wraz ze specjalnym oprogramowaniem. Za jej pomocą rejestrowany jest sygnał stabilograficzny opisujący zmiany położenia w czasie punktu przyłożenia wypadkowej sił nacisku na płaszczyznę platformy, tzw. punkt COP, (ang. Center of Pressure) [1]. W czasie badania, które trwa zwykle 30…60 sekund, pacjent proszony jest o możliwie najlepsze utrzymywanie równowagi w pozycji stojącej. Wyróżnia się przy tym wariant z oczami otwartymi i zamkniętymi. Po otrzymaniu tych wskazówek następuje rejestracja sygnału [2]. Uzyskana w ten sposób trajektoria zawiera informację o sprawności całego układu utrzymywania równowagi, jak i jego poszczególnych składowych (na przykład: ośrodkowego układu nerwowego czy błędnika). Ponadto, rozwijaną w ostatnich latach dziedziną zastosowań stabilografii jest diagnozowanie oraz ocena postępów w rehabilitacji wad postawy oraz uszkodzeń układu mięśniowo-kostnego, zwłaszcza dolnej partii ciała człowieka [3]. Nowe możliwości w zakresie zastosowań stabilografii statycznej w diagnostyce medycznej i rehabilitacji stwarza wprowadzenie biologicznego sprzężenia zwrotnego do schematu badań. W tym przypadku, stanowisko do badań uzupełnione jest o dodatkowy monitor komputerowy. Ekran ten - umieszczony na wysokości wzroku pacjenta - służy do wyświetlania bodźca wzrokowego. Zadaniem pacjenta jest wówczas takie przemieszczanie własnego punktu COP (wyświetlanego również na ekranie), aby nadążał on za poruszającym się bodźcem bez odrywania stóp od płaszczyzny platformy. Koncepcja ta znacząco zwiększa możliwości diagnostyczne. Może być także stosowana w procesie rehabilitacji układu kostno-mięśniowego dolnej partii ciała. Prace w tym drugim zakresie prowadzone są od kilku lat w Instytucie Elektroniki Politechniki Śląskiej [4]. Stan... więcej»

Krystalizacja techniką PAMBE nanostruktur GaN na podłożach Si (Zbigniew R. Żytkiewicz, Marta Sobańska, Kamil Kłosek, Jolanta Borysiuk, Aleksandra Wierzbicka, Anna Reszka, Giorgi Tchutchulashvili)
W pracy przedstawiono procedurę krystalizacji warstw GaN na podłożach Si(111) przy użyciu techniki epitaksji z wiązek molekularnych (MBE) z wykorzystaniem plazmowego źródła azotu (plasma-assisted MBE - PAMBE) oraz standardowych komórek efuzyjnych Ga i Al. W trakcie prowadzonych prac stwierdzono, że morfologia otrzymywanych struktur silnie zależy od stosunku strumieni galu i azotu wykorzystywanych w trakcie wzrostu. W warunkach nadmiaru galu otrzymuje się warstwy planarne, zaś przy tej samej temperaturze krystalizacji w warunkach bogatych w azot na powierzchni podłoża Si wzrastają gęsto ułożone nanodruty GaN (rys. 1). Wzrost techniką PAMBE i właściwości planarnych warstw GaN Ze względu na dużą różnicę współczynników rozszerzalności termicznej azotku galu i krzemu (111) (~116%), prowadzącą do silnych naprężeń termicznych i pękania warstw grubszych niż ~1 μm, zastosowano różne konfiguracje międzywarstw AlN o grubościach 40…120 nm kompensujące naprężenia powstające podczas chłodzenia warstw do temperatury pokojowej [1]. Po zakończeniu wzrostu bufora AlN krystalizowano właściwą warstwę GaN. Jej wzrost odbywał się w warunkach bogatych w gal (Garich, rys. 1),... więcej»

Hybrydowy system autonomicznego bezprzerwowego zasilania rozproszonego (Wojciech Grzesiak, Michał Cież, Jacek Piekarski, Piotr Maćków)
Dynamika rozwoju cywilizacji jest w dużym stopniu uzależniona od licznych produktów, których prawidłowa i niezawodna praca wymaga ciągłości i jakości dostaw energii elektrycznej o wysokiej jakości. Często produkty te odpowiedzialne są za jakość, poziom i bezpieczeństwo naszego życia. W przypadku braku dostępu do sieci energetycznej lub zbyt wysokich kosztów jego uzyskania, celowym jest rozważenie zastosowania autonomicznego źródła zasilania. Ponieważ w Polsce w poszczególnych miesiącach występuje duże zróżnicowanie nasłonecznienia, celowym jest wspomaganie takiego systemu z dodatkowego źródła energii elektrycznej, którym może być generator spalinowy, turbina wiatrowa lub też nowoczesne i perspektywiczne rozwiązanie, jakim jest ogniwo paliwowe. Godnym uwagi jest zastosowanie ogniwa paliwowego typu DMFC (Direct Methanol Fuel Cell). Uzasadnieniem takiego rozwiązania są dane przedstawione na rys. 1, na którym obszary zaznaczone kolorem żółtym pokazują, ile w poszczególnych miesiącach można pozyskać energii elektrycznej z instalacji fotowoltaicznej o mocy 1 kWp w warunkach nasłonecznienia typowych dla terenu Polski południowej. Obszary zaznaczone kolorem czerwonym pokazują ile energii należy pozyskać z dodatkowego źródła energii elektrycznej, którym w tym przypadku jest ogniwo paliwowe typu DMFC tak, aby w każdym z miesięcy uzyskać ilość energii elektrycznej na stałym poziomie 100 kWh, czyli 1200 kWh rocznie. Z przeprowadzonej analizy wynika, że w skali roku udział energii pozyskanej ze słońc... więcej»

Influence of kinetics parameter of electroless nickel plating in order to optimalisation electrical parameters of Ni-P resistive layers (Zbigniew Pruszowski, Piotr Kowalik)
In the last several years the Ni-P resistive layers are one of the most popular layers in technology of high precision resistors [1]. In the preparation the Ni-P resistive films are produced by a chemical reaction involving nickel salts are reducing agent e.g. hypophosphite salts. The reactions taking place during the electroless nickel plating have been investigated for example by Brenner [2] Serota [3] and Pearlstein [4]. Electroless nickel plating is heterogeneous reaction in a solidsolid system and the plated metallic surface is a catalyst [5]. It is generally know, that the electrical parameters like resistance and TCR of the resistive layers depend on the technological paramethers such an acidity of technological solution, temperature and concentration of substrates [3]. This problem has a great significance for production of precision film fixed resistors by the chemical deposition method [6-8]. Currently using this method allows to produce Ni-P resistive layers having sheet resistance range of 0.5…100 Ω/□ together with TCR values in the range ±25 ppm/K [9]. In the recent years the studies are mainly focuse on kinetics of the phase trancition: amorphous-cristalline [10]. The low-P (about 6% weight) Ni-P resistive layer transform in the process of thermal stabilization to stable phase Ni3P, but the rich-P (about 10% weight) Ni-P transform to metastable phase Ni5P2 first, and than to the stable Ni3P [11]. The rich P Ni-P layer are characterised by the higher crystallization temperature because Ni3P crystals are forming at two stages [11]. The changes amorphous phase to crystalline started at the temperature range from 673K (6% P weight) to 723K (10% P weight). There is no any correlation between the chemical concentration of Ni-P alloy and basic technological param... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Integracja elementów pojemnościowych z płytką obwodu drukowanego (Wojciech Stęplewski, Grażyna Kozioł, Tomasz Serzysko, Kamil Janeczek, Aneta Araźna)
Od wielu lat w różnych światowych ośrodkach badawczych prowadzone są prace mające na celu opracowanie technologii wbudowywania elementów biernych wewnątrz płytki obwodu drukowanego w procesie jej produkcji. Elementy bierne są niezbędne w każdym układzie elektronicznym, a w wielu wypadkach stanowią znaczną jego cześć. Ich udział w wyrobach elektronicznych stale rośnie i chociaż wymiary tych podzespołów ulegają ciągłemu zmniejszaniu, to otaczająca je powierzchnia nie może być dalej zmniejszana z powodów ograniczeń narzuconych przez urządzenia montażowe oraz wymagania procesu lutowania. Idea upakowania większej liczby podzespołów na płytce obwodu drukowanego przez wprowadzenie nowych technologii wbudowywania elementów biernych wewnątrz płytki staje się obecnie dla producentów nowoczesnego sprzętu koniecznością. Koncepcja wbudowywania elementów pasywnych, w tym kondensatorów, do wnętrza płytki obwodu drukowanego powstała już wiele lat temu. Pierwsze próby z wbudowywaniem kondensatorów rozpoczęto jeszcze pod koniec lat sześćdziesiątych ubiegłego wieku [1]. Do tej pory powstało wiele materiałów, które mogą być wykorzystywane na kondensatory, jednak technologia ta wykorzystywana jest w niewielkim stopniu najczęściej w zastosowaniach wojskowych i elektronice lotniczej, w tym również elektronice używanej w przestrzeni kosmicznej. W ostatnich latach wielki wzrost zapotrzebowania na wysoko zaawansowane, a jednocześnie tanie urządzenia elektroniczne, takie jak telefony komórkowe, laptopy, urządzenia sieciowe itp. spowodował szerokie zainteresowanie nowymi technologiami, w tym technologiami elementów biernych wbudowanych. Można zauważyć trend w rozwoju płytek obwodów drukowanych, który zmierza do jak największej integracji z nią elementów elektronicznych. Materiały i konstrukcje wbudowanych kondensatorów planarnych Obecnie na rynku dostępnych jest wiele materiałów przeznaczonych do wytwarzania kondensatorów wbudowanych. Coraz więcej fi... więcej»

Algorytm szybkiego obliczania wartości modułu liczby zespolonej (Marek Orzyłowski, Zbigniew Rudolf)
Systemy pomiarowe często są wyposażane w układy mikroprocesorowe, sterujące procesem pomiaru oraz wstępnie przetwarzające sygnały pomiarowe. W wyniku wstępnego przetwarzania sygnałów następuje redukcja informacji pomiarowej do niezbędnej liczby danych. Dzięki temu przy przesyłaniu wyników pomiarów na zewnątrz tych systemów pomiarowych nie trzeba stosować kanałów transmisyjnych o nadmiarowej przepustowości. Specjalizowane układy mikroprocesorowe, przeznaczone do pracy w systemach pomiarowych, mają stosunkowo ograniczoną moc obliczeniową, w związku z tym często istotne jest zastosowanie efektywnych algorytmów obliczeniowych o krótkim czasie wykonywania. W efekcie pomiarów uzyskuje się często wyniki w postaci liczb zespolonych. Przykładem może być analiza harmoniczna FFT, po przeprowadzeniu której, otrzymuje się wyniki jako liczby zespolone w postaci części rzeczywistej i urojonej. Gdy przy pomiarze istotne są tylko amplitudy harmonicznych, czyli moduły wspomnianych liczb zespolonych, można zredukować przesyłaną dalej informację do połowy. Pewnym problemem może być w takim przypadku jednak fakt, że dla obliczenia modułu liczby zespolonej niezbędne jest wykonanie operacji pierwiastkowania, która przy podejściu standardowym jest procedurą stosunkowo długo wykonywaną przez jednostkę centralną. Niniejszy artykuł przedstawia algorytm szybkiego obliczania modułów wartości liczb zespolonych z dokładnością niezbędną dla celów pomiarowych. Zastosowanie mikrokonwerterów W elektronicznych układach do celów pomiarowych i sterowania, szerokie zastosowanie znalazły mikrokonwertery, które stanowią zintegrowane układy klasycznych mikrokontrolerów z precyzyjnymi przetwornikami analogowo-cyfrowymi (A/C). Układy te, zawierające oprócz jednostki centralnej nieulotną pamięć programu, pamięć RAM oraz rozbudowane układy wejścia i wyjścia... więcej»

Doświadczenia z badań i oceny systemów alarmowych w procesie certyfikacji (Andrzej Krzysztof WACH)
Jakość wyrobów jest istotnym kryterium decydującym o sukcesie producenta na rynku. Jednym z elementów wiarygodnego potwierdzenia jakości wyrobu jest jego certyfikat, wskazujący dokumenty (prawne i/lub normatywne), których wymagania spełnia wyrób. Zauważmy, że certyfikacja prowadzona przez akredytowaną jednostkę jest obiektywnym sposobem oceny zgodności wyrobu. Proces certyfikacji (ustalony w programie certyfikacji) określa sposób postępowania, w ramach którego trzecia strona (niezależna od producenta i klienta), będąca jednostką o potwierdzonych kompetencjach, w formie pisemnej zapewnia, że produkt jest zgodny z wymaganiami odpowiedniego (wyszczególnionego) dokumentu. Dokumentem stanowiącym pisemne zapewnienie spełnienia określonych wymagań jest certyfikat zgodności, który może jednocześnie upoważniać producenta (importera) do używania odpowiedniego znaku zgodności. Certyfikat zgodności (wydany np. w systemie 5 wg PKN-ISO/IEC Guide 67:2007) potwierdza, że proces wytwarzania wyrobu przebiega w warunkach stabilnych, jest odpowiednio udokumentowany, podlega właściwemu nadzorowi, a stosowane materiały i etapy procesu wytwarzania spełniają warunki określone obowiązującym prawem. Jednocześnie uzyskany w wyniku tego procesu wytwarzania wyrób spełnia wymagania określonych (w certyfikacie), odpowiednich dla wyrobu, dokumentów. Celem procesu certyfikacji jest ustanowienie zaufania pomiędzy producentem (importerem), a klientem i/lub władzami danego kraju. Przewagą certyfikacji (nad innymi rodzajami potwierdzeń) jest fakt, że realizowana jest ona przez niezależny ośrodek certyfikacji, którego kompetencje potwierdzane są okresowo przez krajową jednostkę akredytującą. Istotnym jest również fakt, że wymagania stawiane wyrobowi w procesie certyfikacji, jak i wymagania techniczne na wykonywane badania, są jednoznacznie zdefiniowane w ogólnie dostępnych dokumentach. Certyfikacja jest szczególnie ważnym elementem, gdy dotyczy urządzeń techni... więcej»

Sol-gel and ALD antireflection coatings for silicon solar cells (Leszek Adam Dobrzański, Marek Szindler)
The application of one or more antireflection coatings on the front surface of the solar cells reduces the reflection of the incident light, which increases the device efficiency. For solar cells it is important to have a minimum reflection over all the visible spectrum range [1]. The studies of solar cells can be divided into two approaches. One is to reduce production costs, the second is to increasing efficiency of solar cells. The design of low-cost antireflection coatings is possible by using the sol gel method. It is a process for preparing materials at low temperatures from solutions. We can produce different forms of materials include gels, gel-derived glasses, ceramics in form of nano- and micro-powders, bulk, fibres, thin films and coatings as well as more recent materials such as hybrid organicinorganic materials and composites. Controlling of the physical and chemical parameters of production process gives materials with precisely adjusted parameters such as mechanical strength, transparency, size and distribution of the pores. Generally the sol gel method consists in a few steps as shown in Fig. 1 [2-4]. There are many kinds methods of deposition antireflection coatings from solutions. For example, by spinning, dipping or spraying. Spin coating is a fast and easy method to prepare thin and homogeneous organic and inorganic films. Spin coating is a procedure used to deposit uniform thin films onto fla... więcej»

Zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia w wieloetapowym procesie montażu elektronicznego (Janusz Borecki, Tomasz Serzysko)
Dalece zaawansowany stopień miniaturyzacji i integracji podzespołów elektronicznych sprawia, że nowoprojektowane urządzenia elektroniczne zawierają elementy o bardzo zróżnicowanej budowie i wielkości. Coraz częściej zdarza się tak, że projektanci, wbrew ogólnie znanym zasadom rozmieszczania podzespołów na poszczególnych stronach płytki obwodu drukowanego (pierwsza strona montażu - lżejsze podzespoły; druga strona montażu - cięższe podzespoły), umieszczają dość ciężkie podzespoły na obydwu stronach montażowych płytki obwodu drukowanego. W efekcie dochodzi do sytuacji, kiedy siły napięcia powierzchniowego przetapianego lutowia, podczas wykonywania montażu drugiej strony pakietu elektronicznego, nie są wystarczające, aby utrzymać na powierzchni płytki podzespoły, które zostały zamontowane na pierwszej stronie pakietu. Istnieje wtedy bardzo duże ryzyko odpadania zbyt ciężkich podzespołów lub zniekształcenia ich połączeń lutowanych. Należy w tym miejscu wspomnieć, że formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa bardzo ważne zadania, jakimi są: przyłączenie podzespołów elektronicznych do sieci połączeń obwodu elektrycznego montowanego pakietu oraz mechaniczne zamocowanie podzespołów na powierzchni płytki obwodu drukowanego. Każde zniekształcenie połączenia lutowanego może mieć negatywny wpływ na jego wytrzymałość i tym samym obniżyć nieuszkadzalność całego zespołu elektronicznego. Zagadnienie wieloetapowego montażu pakietów elektronicznych dotyczy zarówno technologii ołowiowej, jak i bezołowiowej, a zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia powinno pozwolić na zapobieganie sytuacji odpadania podzespołów podczas procesu montażu. Co prawda można kłopotliwe podzespoły kleić do powierzchni płytki po zmontowaniu jej pierwszej strony, jednakże wymaga to wprowadzenia do procesu montażu dodatkowej operacji. Takie rozwiązanie powoduje również pewne trudności w wypadku ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Właściwości hydrofilowe przezroczystych i półprzewodzących cienkich warstw tlenków Ti-V do zastosowań w transparentnej elektronice (Karolina Sieradzka, Jarosław Domaradzki, Bogdan Adamiak, Kosma Baniewicz )
W ostatnich latach, w literaturze światowej obserwujemy zwiększone zainteresowanie nanokrystalicznymi materiałami tlenkowymi. Coraz bardziej pożądane są nowoczesne materiały o zadanych, ściśle określonych takich właściwościach, jak np. wysoka przezroczystość, dobre przewodnictwo elektryczne, właściwości hydrofilowe lub hydrofobowe, właściwości antyrefleksyjne itp. [1, 2]. Nanokrystaliczne cienkie warstwy ze względu na fakt, iż łączą w sobie przede wszystkim dwie specyficzne cechy [3]: (1) wysoką przezroczystość dla światła oraz (2) zdolność przewodzenia nośników prądu elektrycznego w temperaturze pokojowej, stanowią alternatywę dla klasycznych półprzewodników. W zależności od poziomu rezystywności elektrycznej, tlenki te, zaliczane są do materiałów typu TCO (ang. Transparent Conducting Oxide) lub TOS (ang. Transparent Oxide Semiconductor). Zwiększone zainteresowanie materiałami typu TCO oraz TOS wynika również z faktu, że bardzo często wykazują one dodatkowo inne pożądane właściwości. Dla przykładu, cienkie warstwy tlenków o właściwościach antyrefleksyjnych, wytwarzane zwykle w układzie wielowarstwowym TiO2-SiO2 [2], pozwalają uzyskać znaczną redukcję współczynnika odbicia światła. Inny przykład stanowią warstwy o właściwościach hydrofilowych, mające zdolność do równomiernego zwilżania wodą powierzchni materiału [1]. Wówczas, krople wody łącząc się w obrębie większego obszaru, zbierają napotykane na swojej drodze wszelkie zabrudzenia i spływając pozostawiają czystą, pozbawioną smug powierzchnię. Zazwyczaj, kąt zwilżania dla wody w wypadku najczę... więcej»

Obliczenia cieplne urządzeń elektronicznych (Grzegorz Maj)
Do prawidłowej pracy każdego urządzenia elektronicznego niezbędne jest zapewnienie mu odpowiednich warunków cieplnych tak, aby temperatura nie przekraczała maksymalnej wartości dopuszczalnej przez producenta. Ponieważ, wraz ze wzrostem temperatury niezawodność elementów elektronicznych szybko maleje, często pożądane jest zapewnienie korzystniejszych warunków termicznych niż wymaga producent. Trwałość i jakość urządzeń elektronicznych zależy więc od skuteczności odprowadzania ciepła, co jest jednym z zadań osoby konstruującej urządzenie - dobór odpowiedniego chłodzenia. Obecnie konstruktorzy mają do wyboru wiele rozwiązań umożliwiających skuteczne odprowadzania ciepła z układów. Są to chłodzenie cieczowe, ogniwa Peltiera, chłodzenie dwustanowe (rurki cieplne) itp. Jednak z wielu względów nadal najbardziej rozpowszechnioną i najczęściej wykorzystywaną w elektronice metodą chłodzenia, jest metoda odprowadzania ciepła przy wykorzystaniu różnego rodzaju radiatorów, zarówno bez jak i z wymuszonym obiegiem powietrza. Metoda ta jest najtańsza, najprostsza i najbardziej niezawodna, dlatego w dalszej części artykułu zostaną dokładniej omówione metody obliczeń i doboru radiatorów. Ciepło wydziela się na elementach elektronicznych w postaci mocy strat. Radiator musi umożliwiać wypromieniowanie, co najmniej mocy równej tejże mocy strat. W przypadku, gdy istnieje możliwość doboru radiatora kupnego zazwyczaj wystarczy przeprowadzić uproszczone szacunki na podstawie następującego wzoru: (1) gdzie: P [W] - moc wydzielająca się podczas pracy elementu w postaci ciepła; t [K] - temperatura złącza elementu; t 0 [K] - temperatura otoczenia rozpatrywanego elementu; Rthja [K/W] - rezystancja cieplna "połączenia" złącze - otoczenie (junctionambient). Wielkość rezystancji cieplnej Rthja charakteryzuje konkretną obudowę elementu pod względem przewodzenia ciepła. Podawana jest ona zazwyczaj w kartach katalogowych producentów podzespołów elektroniczn... więcej»

Method of temperature fluctuations compensation in the silicon photomultiplier measurement system (Mateusz Baszczyk, Piotr Dorosz, Sebastian Głąb, Wojciech Kucewicz, Łukasz Mik, Maria Sapor )
Independently of the direction the p-n junction is polarized in, the currents in it are strongly dependent on temperature. In the state of the avalanche breakdown, the increase of the temperature contributes to the more vivid vibrations of the particles of the crystal lattice. The vibrating atom occupies more space and the probability of the collision with an accelerated carrier increases. The collisions occur earlier so the free path is shorter. It means that the carriers are accelerated on shorter path and have smaller kinetic energies. Insufficient energy results in a reduction of the probability of knocking out carriers pairs. Avalanche multiplication becomes weaker and the avalanche current decreases. Silicon Photomultiplier operates in Geiger mode which mean that it is polarized beyond the breakdown voltage. Variation of breakdown voltage especially influence the parameters of SiPM. This voltage depends on temperature. When temperature increase value of the breakdown voltage increase also [1]. This variation leads to fluctuation of the current of SiPM because polarization voltage is constant during measurement. Distance between polarization voltage and the breakdown voltage is changed. To set operating parameters of SiPM on the stable level there is need to control temperature. This article introduce new method for compensating temperature fluctuations. This method is based on controlling distance between breakdown voltage and polarization voltage to set current of the p-n junction on the stable level. If the temperature of the Silicon Photomultiplier is higher than 0K, inside the detector, due to vibrations of the lattice, pairs of the electron-hole carriers are created. It is called the thermal generation of the carriers. The probability of detecting the photon (detecting the absorption of the photon resulting in the generation of avalanche current) is directly proportional to the value of bias voltage of the detector.... więcej»

Impact of subsurface unhomogeneity on proper interpretation of GPR data based on A-scan measurements (PAWEŁ KACZMAREK, JANUSZ KARCZEWSKI, MARIAN ŁAPIŃSKI)
Possible features of GPR signature of template object depend on radar’s parameters like range resolution or received polarizations. Patterns can be saved in a database as amplitude vs. time or any other as long as they will be viable during discrimination/interpretation phase. In the paper analyzed A-scan were interpreted using template matching method - measurements were compared with prerecorded data and percentage based comparison was given as a result [2]. Output of an algorithm used in the process suggests which of database’s entries is the most similar to analyzed Ascan. Theoretically in ideal conditions (no disturbance from noise or clutter, exactly the same soil, humidity, etc.) one can expect results close to 100% similarities. In real GPR conditions soil parameters can change few times a day. In the paper one of such numeric estimators of distance between template and measured data was discussed - Euclidean distance calculated from (1): (1) x(t) - original range profile, y(t) - measured range profile. Template matching requires range profile to be synchronized in distance (time) and normalized in amplitude, i... więcej»

An automated design of substrate integrated waveguide filters based on implicit space mapping optimization (Natalia Leszczyńska, Łukasz Szydłowski, Jakub Podwalski)
Over the past years, substrate integrated waveguide filters have received particular attention due to the possibility of achieving higher quality factor and better selectivity than classical planar circuits. This technology is relatively new and it offers many advantages like an easy fabrication and integration, a relatively low cost of production and low radiation. The design of filters in SIW technology requires full wave electromagnetic simulations with dense mesh. If it uses a full wave solver for optimization, the design process is very time consuming. To reduce this cost a design methodology called space mapping [1], [7] can be applied. The goal of this method is to shorten the design cycle by using a fast but less accurate coarse model to gain the information about the optimal parameters setting of the expensive but accurate fine model. To obtain the optimal design for the fine model, the space mapping technique compares the results of both simulations. If the misalignment between the fine and coarse models is not significant, the algorithm automatically reduces the differences. Space mapping application is most often used for modeling and optimization of microwave circuits. In most cases it uses circuit models as surrogates and a full wave solver to provide the reference results for model alignment. This methodology has been successfully applied to design microwave circuit such as filters, antennas and couplers. Recently, space mapping was also applied to design SIW filters in in-line configuration [13]. To this end segmentation technique with equivalent circuit models of the SIW discontinuities was adopted for fast coarse model computations. The circuit models were derived using BI-RME method [12]. In this paper an alternative approach to space mapping design of substrate integrated waveguide (SIW) filters [9-11] is proposed. Instead of using equivalent circuit models of discontinuities the initial design is obtained ... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Wyznaczanie zawartości CO metodą NDIR z algorytmiczną kompensacją temperatury gazów (Sławomir Cięszczyk, Paweł Komada, Waldemar Wójcik)
Metody monitorowania i pomiarów in-situ są preferowane w wielu procesach przemysłowych. W przypadku monitorowania gazów we wnętrzu obiektów stosowane są często różnego rodzaju metody spektroskopowe. Główną ich zaletą jest ich nieinwazyjność oraz brak wpływu na przebieg procesu. W odróżnieniu od metod laboratoryjnych największym problemem w metodach in-situ jest zmienność warunków fizykochemicznych. Powoduje ona problem z kalibracją i odtwarzaniem wartości pomiarowych. W pomiarach laboratoryjnych zapewniamy stałość warunków takich jak temperatura, ciśnienie oraz wilgotność. W pomiarach środowiskowych oraz procesowych ze względu na brak powtarzalności warunków trudno jest przeprowadzić klasycznie rozumianą kalibrację, czyli powiązanie wielkości wyjściowej z wielkością wejściową systemu pomiarowego. Metoda NDIR Metody NDIR polegają na zastosowaniu odpowiednich filtrów spektralnych. Ich główną zaletą jest brak konieczności stosowania spektrom... więcej»

Zastosowanie transoptorów odbiciowych jako czujników odległości (Michał BOŁTRUKIEWICZ)
Transoptory odbiciowe są elementami optoelektronicznymi pełniącymi funkcje czujników odległości lub binarnych czujników zbliżeniowych [1] w układach automatyki i mechatroniki (rys. 1).Podstawowym parametrem transoptora odbiciowego jest przekładnia prądowa CTR (ang. Current Transfer Ratio) stanowiąca iloraz prądu emitera transoptora i wywołującego go prądu diody elektroluminescencyjnej, której wartość zależy od odległości pomiędzy transoptorem i powierzchnią odbijającą. Dla transoptora wykorzystywanego w pracach eksperymentalnych przebieg wartości przekładni prądowej CTR w funkcji odległości x aproksymowano zależnością: CTR (x) = 0,0413 e - 0,16 x w której x wyrażone jest w milimetrach. Do jej wyznaczenia wykorzystano regresję wykładniczą oraz uzyskane doświadczalnie... więcej»

Algorytm sterowania procesem spalania z wykorzystaniem sygnałów optycznych (Waldemar WÓJCIK, Andrzej KOTYRA, Konrad GROMASZEK, Andrzej SMOLARZ, Krzysztof JAGIEŁŁO)
Współczesne pojęcie efektywności dotyczy parametrów techniczno- ekonomicznych, jak i ekologicznych - w oparciu o wytyczne Komisji Europejskiej - norm dyrektywy IPPC (Integrated Pollution Prevention and Control), ograniczają emisję NOx, CO i SO2. Instalacje przemysłowe, w których wykorzystywane jest spalanie węgla, muszą efektywnie prowadzić proces spalania w kotłach, które w dużej mierze pochodzą sprzed 50 lat. Dlatego też, przy wytwarzaniu energii opartym na spalaniu węgla kamiennego, brunatnego oraz współspalaniu biomasy, dużo uwagi poświęca się metodom pierwotnym niskoemisyjnych technik spalania [3, 4, 6]. Wykorzystanie skojarzonych z metodami pierwotnymi układów pomiarowych, diagnostycznych oraz wykonawczych pozwoli spełnić rygory dyrektywy LCP (ang. Large Combustion Plants), dotyczącej spalania w kotłach energetycznych, przy redukcji kosztów w stosunku do potencjalnych wdrożeń metod redukcji katalitycznej [4]. Tania redukcja tlenków azotu (NOx) stanowi bardzo istotne zagadnienie [3, 6]. Trudności efektywnego sterowania takim procesem wynikają między innymi: ze wzajemnej interferencji nieliniowych zjawisk fizyko-chemicznych, dużej dynamiki, opóźnień, niedostępności niektórych wielkości pomiarowych oraz z faktu występowania zagrożeń, przy nieprzewidywalnym jego przebiegu. Ponadto, istniejące ograniczenia w zakresie ster... więcej»

Dwuwymiarowe kryształy fotoniczne jako elementy aktywne spektroskopowych czujników gazów (Marcin WIELICHOWSKI, Adrian ZAKRZEWSKI, Sergiusz PATELA)
Optyczna detekcja gazów możliwa jest dzięki oddziaływaniu światła z ośrodkiem gazowym. Obecność molekuł gazu podlegającego detekcji zmienia właściwości fizyczne ośrodka (np. powietrza). Interesujące z punktu widzenia optycznej detekcji gazów, zmieniające się właściwości fizyczne powietrza, to optyczny współczynnik załamania i optyczny współczynnik absorpcji. O ile zmiany współczynnika załamania manifestują się niezależnie od długości fali światła, o tyle zmiany absorpcji zachodzą tylko dla ściśle określonych zakresów długości fali (piki absorpcji). Ponieważ selektywność ze względu na długość fali przekłada się na selektywność ze względu na rodzaj wykrywanego gazu, w praktyce wykorzystuje się przede wszystkim zmiany współczynnika absorpcji. Absorpcyjne pomiary stężenia gazów to część rozległej, dobrze opanowanej dziedziny - spektroskopii absorpcyjnej. Oprócz selektywności, istotną cechą detekcji optycznej w czujnikach jest brak konieczności chemicznego oddziaływania wykrywanego gazu ... więcej»

Evaluation of surface morphology of texturized Si wafers for solar cells applications (Sławomir Białas )
Nauką zajmującą się pozyskiwaniem energii elektrycznej z promieniowania słonecznego jest fotowoltaika, a jej głównym kręgiem zainteresowań są ogniwa słoneczne (ogniwa fotowoltaiczne, ogniwa PV). Sprawność ogniwa słonecznego, a więc jego zdolność do efektywnej konwersji promieniowania świetlnego na prąd elektryczny, zależy od szeregu czynników takich jak: ● rodzaj i grubość materiału użytego do wytworzenia ogniwa, ● technologia wytworzenia, ● zasłonięcie obszaru ogniwa pod elektrodą, ● warunki pracy (widmo promieniowania, temperatura, zacienienie), ● straty wynikające z nieabsorbowania fotonów wysoko- i niskoenergetycznych, ● straty wynikające z rekombinacji nośników prądu i rezystancji pasożytniczych, ● straty wynikające z odbicia promieniowania od powierzchni ogniwa. Ostatni z wymienionych czynników można minimalizować dzięki teksturyzacji, to znaczy rozwinięciu powierzchni w taki sposób, aby promieniowanie nie ulegało odbiciu, lecz pochłonięciu. Im więcej promieniowania zostanie pochłonięte, tym więcej fotonów dotrze w głąb materiału, a więc jest większe prawdopodobieństwo zajścia efektu fotowoltaicznego. Badania nad teksturyzacją powierzchni ogniw krzemowych prowadzone są przez autora niniejszej publikacji w ramach pracy magisterskiej w Zakładzie Mikroelektroniki i Nanotechnologii WEMiF Politechniki Wrocławskiej. Skupiono się nad znalezieniem najbardziej optymalnej geometrii tekstury, która wytworzona na powierzchni podłoża krzemowego zapewniałaby możliwie najmniejszy (a wręcz zerowy) współczynnik odbicia. W tym celu przeanalizowano zaprezentowane w literaturze symulacje komputerowe różnych struktur. Następnie zbadano (przy użyciu mikroskopii SEM) morfologię powierzchni podłoży krzemowych poddanych procesowi teksturyzacji. Celem analiz było skorelowanie geometrii powstającej tekstury ze spektralną charakterys... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

World Telecommunication and Information Society Day 2012 (WTISD): "Women and Girls in ICT" (Hamadoun I. Touré)
Dear Sir/Madam, World Telecommunication and Information Society Day, celebrated each year on 17 May, marks the anniversary of the signature of the first International Telegraph Convention in 1865 which led to the creation of the International Telecommunication Union. I am... więcej»

Układ zasilania i sterowania impulsowej diody laserowej z rozłożonym sprzężeniem zwrotnym pracującej w paśmie widmowym bezpiecznym dla wzroku (Wiesław Pichola, Maria Maciejewska, Marcin Mamajek, Jacek Kwiatkowski, Jacek Świderski)
We wczesnych latach 70. lasery pompowane były głównie lampami błyskowymi lub innymi laserami [1, 2]. Koniec lat 80. i lata 90. to okres, w którym zaczęto wykorzystywać diody laserowe jako źródła pompujące lasery ciała stałego i fakt ten zadecydował w ogromnej mierze o ich gwałtownym rozwoju, jaki obserwujemy do dnia dzisiejszego [3-5]. Postęp technologii, opracowanie nowych metod wytwarzania (epitaksja, podwójna epitaksja) nowych materiałów i struktur spowodowały dynamiczny rozwój rozpartywanych źródeł światła. Zastosowanie nowych rozwiązań technologicznych pozwala m.in. na zmniejszenie rezystancji termicznej między złączem a obudową, co skutkuje zwiększeniem mocy z jednostki objętości diody laserowej, podwyższeniem częstotliwości przy pracy impulsowej z dziesiątek kHz do powyżej 100 MHz i skróceniem czasu trwania impulsu poniżej 1 ns. Są to kluczowe parametry dla wielu aplikacji wykorzystujących bezpośrednio lub pośrednio diody laserowe - np. w dalmierzach laserowych, wskaźnikach celów lub układach LADAR [6,7]. Artykuł przedstawia propozycję rozwiązania układowego generatora impulsów prądowych dla diod laserowych z rozłożonym sprzężeniem zwrotnym na przykładzie diody LC25T firmy OCLARO [8], generującej promieniowanie o długości fali 1550 nm. Opracowanie założeń i projekt koncepcyjny zasilacza impulsowej diody laserowej Projektowany zasilacz miał być źródłem energii elektrycznej dla impulsowej diody laserowej typu LC25T firmy OCLARO z możliwością zapewnienia odpowiedniego chłodzenia diody. W tabeli przedstawiono parametry rozpatrywanej diody laserowej, na podstawie których ustalono wymagania w stosunku do jej układ zasilania. Z danych przedstawionych w tab. można wyodrębnić zasadnicze podzespoły projektowanego układu zasilania i określić... więcej»

LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Proste metody tworzenia map głębokości i wypełniania luk informacyjnych przy konwersji obrazów 2D do 3D (Julian Balcerek, Adam Konieczka, Adam Dąbrowski, Tomasz Marciniak)
Istniejące proste metody konwersji obrazów 2-wymiarowych 2D (ang. two-dimensional) na 3-wymiarowe 3D (ang. three-dimensional) wykorzystują binarne mapy głębokości określające, które obiekty przedstawione na obrazie widz ma postrzegać jako bliższe, a które jako dalsze. Mapy głębokości oraz metody ich tworzenia opisano w [1-7]. Obecnie jednym z największych problemów jest opracowanie skutecznych metod automatycznego generowania map dla obrazów nieruchomych oraz dla sekwencji wizyjnych. Kolejnym problemem jest opracowanie metod wypełniania tzw. luk informacyjnych. Człowiek, patrząc na dowolny obiekt, widzi go każdym okiem pod nieco innym kątem i na nieco przesuniętym tle. Na tej podstawie mózg określa odległości i tworzy wrażenie trójwymiarowości postrzeganej sceny. W przypadku zdjęcia zarejestrowanego jednym obiektywem brakuje więc części informacji, którą, w celu konwersji do formatu 3D, należy uzupełnić. Ten brak określa się mianem luk informacyjnych. Nowe metody ich wypełniania autorzy opisali w pracy [8]. Opracowanie aplikacji programowej do skutecznej konwersji obrazów 2-wymiarowych na 3-wymiarowe może mieć zastosowanie np. w systemach monitoringu CCTV (ang. Closed-Circuit Television), aby zwrócić uwagę operatora monitoringu oglądającego obraz z wielu kamer na sytuacje potencjalnie niebezpieczne [9]. Ogólna idea proponowanego dodatkowego narzędzia dla operatora monitoringu jest przedstawiona na rys. 1. W dalszej części opisano metody detekcji i śledzenia obiektów w celu generacji map głębokości, natomiast w rozdziale trzecim zaproponowano metodę tworzenia obrazów 3-wymiarowych z 2-wymiarowych przy wykorzystaniu binarnych map głębokości wraz z proponowanym sposobem wypełniania luk informacyjnych. Wykrywanie i śledzenie obiektów w celu generacji binarnych map głębokości Algorytmy detekcji ruchu w sekwencjach wizyjnych bazują na różnicach zawartości kolejnych ramek. Systemy wizyjne wykonujące detekcję ruchu służą głównie ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Profesor TADEUSZ ZAGAJEWSKI (1912-2010) (Adam Błaszkowski, Jerzy Hickiewicz, Lucjan Karwan, Andrzej Kukiełka)
Tadeusz Zagajewski urodził się 16 grudnia 1912 r. we Lwowie jako syn Karola, doktora filozofii - germanisty, tłumacza z języka niemieckiego i holenderskiego, profesora gimnazjalnego, wizytatora szkół, lektora UJK we Lwowie i Marii ze Zborowskich. W 1930 roku zdał egzamin dojrzałości i rozpoczął studia na Oddziale Elektrotechnicznym Wydziału Mechanicznego Politechniki Lwowskiej. W 1935 roku uzyskał dyplom inż. elektryka z postępem bardzo dobrym. W latach 1935-1936 odbył służbę wojskową w Szkole Podchorążych Rezerwy Artylerii we Włodzimierzu Wołyńskim i w 1936 r. rozpoczął pracę w Państwowych Zakładach Telei Radiotechnicznych w Warszawie. Tam dał się poznać jako utalentowany konstruktor serii krótkofalowych nadajników radiokomunikacyjnych. Po wybuchu wojny, we wrześniu 1939 r. powrócił do Lwowa i po uruchomieniu przez Rosjan Lwowskiego Instytutu Politechnicznego (LIP) rozpoczął pracę jako asystent w Katedrze Radiotechniki, kierowanej przez profesora Janusza Groszkowskiego. Prowadził tam ćwiczenia tablicowe i laboratoryjne oraz wykłady z urządzeń radionadawczych. W 1941 roku Niemcy zaatakowali ZSRR i zajęli Lwów, a Politechnika i inne uczelnie zostały natychmiast zamknięte. Po pewnym czasie, wobec braku fachowego personelu, potrzebnego do zagospodarowania podbitych na wschodzie terenów, Niemcy zdecydowali się na otwarcie w 1942 r. Staatliche Technische Fachkurse Lemberg - oczywiście bez Katedry Radiotechniki. Inż. T. Zagajewski zaczął pracować wtedy jako technik w Parowozowni Lwów-Wschód. Wykorzystując swoje umiejętności konstruktorskie, naprawiał tam nadajniki radiowe dla AK. Po zdobyciu Lwowa przez wojska radzieckie w 1944 r. i ponownym uruchomieniu LIP został docentem w Katedrze Radiotechniki, kierowanej już wtedy przez Rosjanina, prof. N. B. Charkiewicza. W październiku 1945 r. przyjechał z rodziną do Gliwic i podjął pracę w Politechnice Śląskiej. W książce pt. "W moich oczach - 45 lat z Profesorem Tadeuszem Zagajewskim" ... więcej»

Fabrication and properties of multilayer capacitors with multicomponent ferroelectric dielectric (Jan Kulawik, Dorota Szwagierczak)
Multilayer ceramic capacitors can offer small size, high capacitance, stable temperature characteristics, high reliability and low cost [1-8]. The successful attainment of these features is strongly dependent on applied dielectric materials. The MLCC structure manufactured in LTCC process consists of alternate dielectric layers and metallic electrodes in parallel configuration. High dielectric constant, small thickness and large number of dielectric layers are factors determining high volumetric efficiency of a multilayer capacitor. The progress in tape casting and LTCC technology has made it possible to produce hundreds of very thin dielectric layers with a thickness diminished down to 3 μm. The early dielectric formulations are based on BaTiO3 which resulted in necessity of the use of expensive platinum or gold platinum internal electrodes. Application of sintering aids lowering BaTiO3 firing temperature down to 1150°C allowed utilization of cheaper palladium-silver electrodes. A further decrease in this temperature making possible the use of Ag electrodes requires excessive amounts of fluxes and causes detrimental diminishing of dielectric constant of BaTiO3 ceramic. One of the best solutions overcoming these problems is the introduction of relaxor compounds with perovskite structure and a general formula of Pb(B’B")O3 (B’=Mg, Zn, Fe; B"=Nb, Ta, W). High and broad maxima of dielectric permittivity along with low sintering temperature and ability to form thin layers are advantages of capacitor dielectrics containing these materials. In this work the multicomponent composition of dielectric was tailored to attain a few purposes determining processing conditions and desired properties of multilayer capacito... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 2 - linia przesyłowa (Jarosław Halarewicz, Piotr Domanowski, Jerzy Dora, Andrzej Wawrzak, Kazimierz Karwowski, Piotr Pinio, Artur Wiatrowski, Witold Michał Posadowski)
Przemysłowe linie osadzania powłok cienkowarstwowych można podzielić, ze względu na sposób pracy, na systemy tzw. in-line i off-line. Odpowiednikiem w języku polskim są odpowiednio, potokowe i wsadowe systemy nanoszenia cienkich warstw. Różnica między nimi polega na sposobie realizacji cyklu próżniowego. W wypadku systemu potokowego (in-line) podłoża są pokrywane powłokami w sposób ciągły i przemieszczają się przez kolejne komory urządzenia przy "otwartym" wejściu i wyjściu linii. Warunki próżniowe są osiągane w wyniku pompowania kolejnych komór oraz śluz między nimi (tzw. komór buforowych). Dzięki odpowiednim rozwiązaniom konstrukcyjnym są zapewnione wymagane warunki procesów osadzania warstw przy dynamiczne "otwartym" systemie próżniowym. Kolejne partie, przesuwających się wzdłuż linii, podłoży są pokrywane w sposób ciągły powłokami cienkowarstwowymi i cykl produkcyjny zamyka się w jednym cyklu próżniowym. W wypadku systemu wsadowego (off-line), po załadowaniu do komory roboczej określonej liczby podłoży, następuje proces pompowania, procesy obróbki wstępnej podłoży, właściwy proces pokrywania warstwami, a następnie komora robocza jest zapowietrzana. Po zakończeniu cyklu próżniowego, podłoża są wyładowywane z komory, ich miejsce zajmuje następna partia podłoży i jest realizowany kolejny cykl próżniowy. Zatem na cykl produkcyjny składają się kolejne cykle próżniowe. Wybór systemu do nanoszenia cienkich warstw zależy od stawionych wymagań. Linie potokowe składają się z kilku (kilkunastu) komór roboczych, a ich długość jest rzędu kilkudziesięciu metrów. Działanie systemu wsadowego zakłada prowadzenie procesu otrzymywania warstw w jednej komorze roboczej. W systemie potokowym istnieje możliwość pokrywania wielu podłoży, ale w praktyce tylko płaskich. Mogą również wystąpić ograniczenia przy stosowaniu bardziej specjalistycznych technologii. W systemie wsadowym stwarza się różnorodne możliwości technologiczne oraz zapewnia nanos... więcej»

Termoelektryczne, konduktometryczne i optyczne badania gazoczułej cienkiej warstwy TiO2:(V, Ta) (Eugeniusz Prociów, Michał Mazur, Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Karolina Sieradzka, Łukasz Franczyk)
Detection of flammable and exhaust gases is a subject of growing importance both in energy-saving and environmental protection industry [1]. Due to simple operation principle, low cost, small size and good compatibility with standard microelectronic processing of semiconducting metal oxide gas sensors, tremendous efforts have been devoted recently to develop such sensor for application in toxic gas detection, air quality management and environmental monitoring [2-6]. Compared with optical sensors and electrochemical sensors, metal oxide gas sensors have good sensitivity to some relevant gases like CO, NOx, H2 and hydrocarbons [7], but possess relatively low selectivity to a specific target gas [8]. Obviously, selection of the thin film composition is related to detected gas, however SnO2 [9, 10], ZnO [11, 12], WO3 [13, 14] and TiO2 [15, 16] are the most frequently used thin films in gas sensing. Increase of the TiO2 thin film sensors selectivity can be obtained by decrease of the crystallite size. In such case, active surface area of the coating is increased, which results in larger adsorption of the gas particles [17]. Also, it can be obtained by selective doping of TiO2 with different dopants, but incorporation of too much amount of dopant can cause increase of resistance, which will simultaneously deteriorate the gas detection selectivity. There are two main measurement methods used in gas sensing. The most common is conductometrical, which is based on measurement of a change of electrical resistance. The value of resistance is directly dependent on carrier concentration and it changes in the presence of detected gases. The most important parameters of gas sensors are response and recovery time. Response of the sensing layer is the time required from the initial contact with the gas to 90% of the output signal [18-20]. Similarly, recovery of the sensing layer is the time required for change of the output signal to 10% of it... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: ● how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; ● how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; ● how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Strategiczne kierunki rozwoju technologii i produktów militarnych w Bumar Elektronika (Zenon Szczepaniak, Jerzy Miłosz, Andrzej Kątcki, Zenon Obrycki, HENRYK KANTECKI)
W perspektywie 2012-2020 Dywizja Bumar Elektronika powinna osiągnąć następujące cele strategiczne: - Utrzymać wiodącą pozycję dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, - Wejść ze swoimi produktami i usługami na rynek uzbrojenia zagraniczny, szczególnie europejski, - Zdobyć wybrany segment rynku cywilnego (krajowego i zagranicznego). W celu utrzymania wiodącej pozycji dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, w wyżej opisanych warunkach rosnącej konkurencji, a więc możliwości dostaw (obiektów) systemów wspomagania dowodzenia i sensorów przez konkurencyjne firmy (krajowe i zagraniczne), należy zdobyć pozycję integratora systemu C4ISR SZ RP. Wtedy Bumar Elektronika będzie miała wpływ na kształtowanie architektury systemu oraz zasad integracji, wzrośnie też szansa, że podsystemy, obiekty i produkowane sensory będą bardziej konkurencyjne w stosunku do wyrobów innych producentów. Realnym jest wejście na rynki zagraniczne (w tym europejski) z podzespołami, podsystemami, czy specyficznymi usługami (szczególnie w zakresie oprogramowania), ale jako podwykonawca czy dostawca wybranej firmy lub firm europejskich. Natomiast, w celu uzyskania konkurencyjności wybranych produktów i usług Bumar Elektronika na rynku cywilnym należy wydzielić "linię produkcji cywilnej" lub powołać "firmę -córkę", która nie byłaby obciążona kosztami związanymi z wymaganiami dotyczącymi produkcji wojskowej. Proces osiągania celów strategicznych powinien składać się z następujących faz: - Faza I - konsolidacja spółek - cel bliższy (ok. 2 lata) - utrzymanie ciągłości realizacji umów i zobowiązań, - Faza II - utrzymanie rynku i budowanie bazy do osiągania celów strategicznych - cel średnioterminowy (do ok. 5 lat). Osiąganie celu bliższego (Faza I) polega na wdrożeniu takich struktur organizacyjnych oraz zachowaniu zasobów ludzkich pozwalających na realizację podpisanych (obe... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Bumar Elektronika - Polskie Zakłady Elektroniki Profesjonalnej (Roman Dufrêne, Zbigniew Czekała, Andrzej Kątcki, Jerzy Miłosz)
Wszystkie zakłady, które w najbliższym czasie tworzyć będą trzon nowopowstającej spółki Bumar Elektronika, mają bardzo długą i chlubną historię. Przemysłowy Instytut Telekomunikacji wywodzi się z tradycji Państwowego Instytutu Telekomunikacyjnego utworzonego w 1934 roku. Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR jest spadkobiercą tradycji Warszawskich Zakładów Radiowych T1 założonych w 1954 roku, zaś Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM zostało utworzone w 1962 r. W niniejszym artykule przedstawiono historię przedsiębiorstw, z których powstaje Bumar Elektronika, poprzez historię rozwoju produktów tych spółek, ze szczególnym uwzględnieniem wyrobów opracowanych i produkowanych na potrzeby obronności naszego kraju. Utworzony w latach pięćdziesiątych ubiegłego wieku polski przemysł radiolokacyjny to nie tylko przedstawiane firmy. Na jego sukces składały się także cywilne i wojskowe uczelnie techniczne oraz jednostki badawczo-rozwojowe. Niezwykle istotnym elementem rozwoju polskiego przemysłu radiotechnicznego była i jest współpraca ze środowiskiem wojskowym. Historia tego przemysłu to zarówno urządzenia radiolokacyjne, jak i systemy wspomagające dowodzenie i kierowanie ogniem, systemy rozpoznania i walki radioelektronicznej oraz obrony przeciwlotniczej. Te specjalności wyrosły na bazie doświadczeń wynikających z rozwoju radarów i systemów radarowych, elektroniki profesjonalnej oraz technologii informatycznych. Początki przemysłu elektroniki profesjonalnej Historia Przemysłowego Instytutu Telekomunikacji SA rozpoczęła się w dniu 22 marca 1934 roku, gdy w Monitorze Polskim ukazało się Rozporządzenie Ministra Poczt i Telegrafów powołujące Państwowy Instytut Telekomunikacyjny (PIT). Powstał on na bazie istniejącego od 1929 r. Instytutu Radiotechnicznego oraz Laboratorium Teletechnicznego. W Monitorze Polskim określono szczegółowo cele i zadania nowo powołanego Instytutu. Siedziba Instytu... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wielofunkcyjny system komputerowy do współpracy ze spektrometrem EPR (Ireneusz Stefaniuk, Bogumił Cieniek)
Do modernizacji użyto standardowego spektrometru na pasmo X produkcji Politechniki Wrocławskiej, oznaczony jako typu SE/ X [1]. Jest to spektrometr odbiciowy z podwójną modulacją pola magnetycznego. Badana próbka paramagnetyczna umieszczona jest w prostokątnej mikrofalowej wnęce odbiciowej i poddawana równoczesnemu działaniu dwóch wzajemnie prostopadłych pól magnetycznych. Stałego - wytworzonego przez elektromagnes niskoomowy z hallotronową stabilizacją pola oraz mikrofalowego - wytworzonego przez generator klistronowy i doprowadzonego do wnęki rezonansowej torem falowodowym. W wyniku rezonansowej absorpcji paramagnetycznej, w takt zmian pola wytwarzanego przez elektromagnes, zmienia się poziom energii mikrofalowej odbijanej od wnęki zawierającej próbkę. Zmiany te po detekcji mikrofalowej, wzmocnieniu rezonansowym i detekcji fazowej są rejestrowane za pomocą rejestratora XY [1]. W tabeli zastawiono parametry użytkowe spektrometru, zaś na rys. 1 przedstawiono jego widok. Do akwizycji danych i sterowania użyto komputera PC posiadającego pusty port PCI potrzebny do zamontowania karty analogowo-cyfrowej oraz szeregowy port RS-232 do rejestracji sygnału z magnetometru. Wykorzystano kartę produkcji firmy National Instruments model NI PCI-6221 (16 wejść analogowych 16-bitowych, szybkość próbkowania 250 kS/s, 24-cyfrowe linie I/ O, 2 wyjścia analogowe 16-bitowe, 2 liczniki 32-bitowe) [2]. Karta została połączona z terminalem przyłączeniowym (SCB-68 Noise Rejecting, Shielded I/O Connector Block) wyposażonym w gniazda do których można włączyć przewody z sygnałem. Terminal posiada ekranowaną obudowę dzięki której eliminuje się zakłócenia zewnętrzne. Przy wyborze karty i terminala uwzględniono częstotliwość próbkowania, która musiała być na tyle duża żeby prawidłowo został odtworzony rejestrowany sygnał (uniknięcia aliasingu). Wybrany zestaw umożliwia pomiar temperatury za pomocą termopary w której jedno złącze z temperaturą odniesieni... więcej»

Wykorzystanie zaawansowanych trybów mikroskopii sił atomowych w badaniach struktur i przyrządów półprzewodnikowych (Adam Szyszka, Wojciech Macherzyński, Joanna Pra żmowska, Mateusz Wośko, Andrzej Stafiniak, Jacek Gryglewicz, Maria Ramiączek -Krasowska, Bogdan Paszkiewicz, Bogdan Jankowski, Beata Ściana, Regina Paszkiewicz, Marek Tłaczała)
Zmniejszanie wymiarów charakterystycznych obszarów aktywnych przyrządów półprzewodnikowych oraz wykorzystywanie nowych materiałów są głównymi kierunkami rozwoju współczesnej elektroniki. Prowadzi to do zwiększenia częstotliwości pracy urządzeń oraz skali integracji, zmniejszenia wartości napięć zasilających oraz zużywanej energii, umożliwia powstawanie urządzeń których zasady działania są oparte na efektach kwantowych oraz pozwala zwiększyć czułość i czas reakcji elementów czujnikowych. W związku z tym opracowanie technologii wytwarzania nowoczesnych przyrządów półprzewodnikowych wymaga zastosowania w fazie badań metod charakteryzacji umożliwiających pomiar właściwości materiałów z rozdzielczością nanometrową. Jednymi z technik możliwych do zastosowania w tym celu są metody będące rozwinięciem klasycznej mikroskopi sił atomowych, w których badanie oddziaływań różnego typu między końcówką ostrza miktoskopu, a powierzchną próbki pozwala na określenie jej właściwości z rozdzielczością nanometrową. W niniejszym tekście zostaną przedstawione wyniki badań prowadzonych metodami SSPM, SSRM oraz obrazowania fazowego. Charakteryzacja właściwości struktur i przyrządów metodami mikroskopi AFM Skaningowa mikroskopia potencjału powierzchniowego Skaningowa mikroskopia potencjału powierzchniowego jest techniką mikroskopii sił atomowych, pozwalającą na zbadanie elektrostatycznego potencjału występującego na powierzchni materiału. W technice tej dokonuje się pomiaru potencjału powierzchni próbki, przez zmianę napięcia przyłożonego do przewodzącego ostrza tak, aby jego potencjał był taki sam jak potencjał materiału, co pozwala na minimalizacje siły elektrostatycznej oddziałującą między ostrze... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju – część 2 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej gabarytowo i ciężkiej aparatury na platformie samochodowej (mobilnej) było praktycznie niemożliwe. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, ogólnie zarówno w płaszczyźnie elewacji, jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można w razie potrzeby dynamicznie regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, rakiety, w tym balistyczne, oraz różnego rodzaju pociski, głównie moździerzowe. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Pojęcie radaru wielofunkcyjnego odnosi się do nowoczesnych systemów radiolokacyjnych, które oprócz "standardowego" określenia współrzędnych położenia wykrywanych celów ruchomych p... więcej»

System detekcyjny elektronów wtórnych i wstecznie rozproszonych do obrazowania 3D w niskopróżniowej SEM (Witold Słówko, Michał Krysztof)
Skaningowa Mikroskopia Elektronowa (SEM) jest szeroko rozpowszechnionym narzędziem badawczym i pomiarowym, historycznie rzecz biorąc uważanym za instrument próżniowy, umożliwiający obrazowanie dwuwymiarowe. Prace prowadzone w ostatnich latach zmieniają te cechy, pozwalając na obserwacje wymagających tego obiektów w atmosferze gazowej (VP SEM -Variable Pressure SEM), lub trójwymiarowe (3D) obrazowanie topografii ich powierzchni. Autorzy mieli już okazję przedstawić w Elektronice wyniki swoich prac w obu wymienionych technikach badawczych [1, 2], jednak zupełnie nowym przedsięwzięciem jest ich połączenie, zmierzające do trójwymiarowego obrazowania topografii obiektów badanych w atmosferze gazowej, np. preparatów nieprzewodzących, czy też zawierających wodę [3]. Autorzy stosują w swych pracach techniki wielodetektorowe wywodzące się z metody fotometrycznej [4]. W tym wypadku, synteza obrazu trójwymiarowego opiera się na informacjach wynikających z rozkładu kątowego elektronów wtórnych i wstecznie rozproszonych. Zakłada się, że jest to rozkład lambertowski, a kierunkowy przepływ elektronów z danego punktu emisji do czterech symetrycznie rozmieszczonych detektorów jest źródłem sygnałów, których wzajemna relacja jest miarą nachylenia powierzchni w tym punkcie. Sygnały te są zapamiętywane w formie czterech obrazów wejściowych. Całkowanie nachyleń zgodnie z siatką obrazową pozwala na wyznaczenie kształtu powierzchni, zapamiętywanego w formie bit-mapy wysokości. Powierzchnia może być wizualizowana w dowolnej formie, z wykorzystaniem znanych technik komputerowych. Nowym problemem wynikającym z zastosowania opisanej techniki w atmosferze gazowej jest rozpraszanie elektronów na skutek zderzeń z molekułami gazu... więcej»

Wybrane zagadnienia metrologii mikro- i nanostruktur (Teodor Gotszalk, Grzegorz Jóźwia, Zbigniew Kowalski, Karol Nitsch, Tomasz Piasecki, Jacek Radojewski, Anna Sankowska, Jarosław Serafińczuk, Przemysław Szecówka)
Postęp w dziedzinie mikro- i nanotechnologii jest związany nie tylko z rozwojem technologii wytwarzania mikro- i nanostruktur, ale również wymaga opracowania i wdrożenia nowych metod i technik badania stosowanych materiałów, konstruowanych przyrządów i podzespołów. Od technik i metod badawczych oczekuje się w tym przypadku przede wszystkim możliwości metrologicznej - innymi słowy - ilościowej oceny obserwowanych zjawisk. Dodatkowo powinny one się charakteryzować dużą czułością pozwalającą często na rejestrację zjawisk kwantowych oraz - w wielu przypadkach - nadzwyczajną lokalną zdolnością rozdzielczą umożliwiającą przeprowadzenie eksperymentu w obszarze kilkudziesięciu nanometrów kwadratowych. Należy zwrócić uwagę, że metrologia obejmuje nie tylko praktykę prowadzenia pomiaru, ale obejmuje również jego aspekty teoretyczne. W przypadku mikro- i nanostruktur oznacza to również interpretację rejestrowanych wyników, wykraczającą poza stosowane w makroskali rozumowanie bazujące często na statystycznym uśrednianiu. Konieczne jest również opracowanie i wdrożenie wiarygodnych i powszechnych metod skalowania stosowanych układów i przyrządów, co umożliwiałoby porównywanie wyników między poszczególnymi laboratoriami. Zakład Metrologii Mikro- i Nanostruktur (ZMMiN) Wydziału Elektroniki Mikrosystemów i Fotoniki (WEMIF) Politechniki Wrocławskiej (PWr) zajmuje się opisanymi zagadnieniami od 2006 roku. Ideą prowadzonych badań jest, aby integrując różne metody i techniki badawcze, dokonywać ilościowej oceny zachowań struktur spotykanych w nanotechnologii, biotechnologii i technice mikrosystemów. Integracja ta obejmuje techniki pomiaru właściwości elektrycznych (m. in. spektroskopia impedancyjna, ang. Impedance Spectroscopy, IS), skaningową mikroskopię elektronową (ang. Scanning Electron Microscopy, SEM), mikroskopię bliskich oddziaływań (ang. Scanning Probe Microscopy, SPM), dyfraktometrię rentgenowską (ang. X-ray diffraction, XRD), optoele... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Problematyka modelowania w programie SPICE charakterystyk stałoprądowych elektroizolowanych diodowych modułów mocy zawierających diody typu PiN oraz diody typu FRED (Jacek Dąbrowski, Janusz Zarębski)
W półprzewodnikowych elementach elektronicznych, znajdujących zastosowanie w energoelektronice, coraz częściej stosowane są podłoża elektroizolowane. Charakterystyczną właściwością tych elementów jest izolacja wszystkich wyprowadzeń, a zatem także wewnętrznej struktury półprzewodnikowej, od podstawy odprowadzającej ciepło z obudowy. Wśród rozwiązań technicznych pozwalających uzyskać podłoża elektroizolowane należy wymienić technologię DCB (Direct Copper Bonding) oraz technologię DAB (Direct Aluminum Bonding) [1, 2]. Podłoża tego typu bazują przede wszystkim na ceramice Al2O3 lub AlN. Ceramiczne płytki podłożowe typu DCB metalizowane są miedzią, natomiast w przypadku podłoży typu DAB jako metal wykorzystywane jest aluminium. Materiały na podłoża elektroizolowane dobierane są między innymi pod kątem współczynnika rozszerzalności cieplnej tak, aby jego wartość była zbliżona do wartości współczynnika rozszerzalności cieplnej struktury półprzewodnikowej osadzanej na takim podłożu. Elementy elektroizolowane często są określane mianem modułów lub bloków. Obecnie tego typu elementy mogą zawierać w obudowie pojedyncze przyrządy mocy (np. diody, tranzystory MOSFET, tranzystory IGBT, tyrystory) lub kilka przyrządów (tego samego typu lub różnych) połączonych wewnętrznie w różnych konfiguracjach. Wytwarzane są również specjalizowane cyfrowe moduły elektroizolowane, zawierające w jednej obudowie także przyrządy mocy, określane mianem IPM (Intelligent Power Modules) lub SPM (Smart Power Modules) dedykowane w szczególności do przekształtników energii elektrycznej [3]. Podczas projektowania układów elektronicznych lub energoelektronicznych przy wykorzystaniu komputerowych programów symulacyjnych, np. programu SPICE, istotne jest, aby dysponować wiarygodnymi modelami użytych elementów. Szczególnie w przypadku programu SPICE wystarczające jest dysponowanie wartościami parametrów modeli elementów wbudowanych w ten program. Niestety producenci m... więcej»

Impedance spectroscopy as a diagnostic tool of degradation of Solid Oxide Fuel Cells (Konrad Dunst, Sebastian Molin, Piotr Jasiński)
Solid oxide fuel cell (SOFC) is an electrochemical device that converts chemical potential energy directly into electrical power. In comparison with a traditional combustion process, the SOFCs offer greater efficiency, reliability and environmental friendliness [1]. The SOFCs have a great potential to generate power from a wide range of fuels: hydrogen, carbon monoxide, hydrocarbons and alcohols. However, when operated, the fuel cells usually degrade. The nature of this process depends on the type of the applied fuel and materials used to fabricate the SOFC. In particular, when hydrocarbons are used as a fuel, a carbon can deposit inside the anode structure [2]. The deposited carbon may cause a complete degradation of the fuel cell. Further development of the SOFCs requires investigation of degradation process during fuel cells operation. Among the fuel cell diagnostic tools, AC impedance spectroscopy is a powerful technique [3]. This method allows obtaining information about different electrode processes, namely, oxygen reduction reaction kinetics, mass transfer and electrolyte resistance losses [4]. Selection of the appropriate experimental conditions (temperature, pressure and flow rate) may provide information extracted from the impedance spectra about the performance losses from the each fuel cell element separately [3,5]. Different electrode processes reveal unique characteristic frequencies, which depend on cell structure, materials used for SOFC fabrication and testing conditions. For example, in case of the anode supported cells with LSM ((La0.75Sr0.25)0.95 MnO3) cathode operated at 750°C it was found [6], that the characteristic freque... więcej»

EMC Aspects in microelectronics structures made in LTCC technology (Wiesław SABAT, Dariusz KLEPACKI, Włodzimierz KALITA)
The fast development of LTCC technology (Low Temeperature Cofired Ceramic) is observed in relation to realization of multilayered hybrid structures. It is applied for manufacturing of wide range of microelectronic circuits, especially MCM-C structures (Multi Chip Module on Ceramics) which are used in different areas of industry. The multilayered structures, sensors, microsystems, passive elements, microwave elements can be found in telecommunication, informatics, radioengineering, mechatronics, transport, etc. The possibility of creation of channels and cavities inside of LTCC module allows to realization of chemical microreactors, hydraulic systems in microscale (together with pumps and valves), fuel cells, flat plasma displays, sensors of physical quantities and systems applied in biotechnology and medicine [1, 2]. Parasitic elements of paths’ system The calculations of mutual capacitance CM and effective inductance Lz (for two parallel paths system with parametrically changed the mutual distance "s" and paths width "w") were made using elaborated PACAPIND program. They allowed to determine range of parameters changes of parasitic elements in typical LTCC structure for three basic configurations. For experimental investigations (determination of per-unitlength parameters) the test circuits were made in configuration of mutual parallel path systems (Fig. 1) on the basis of silver conductive paste HF612Ag and LTCC substrate 943PX from DuPont. The test circuits were made in three configurations: onelayered, two-layered with ground plane (microstrip configurations) and layered with the same thickness of subs... więcej»

Design and realization of a microfluidic capillary sensor based on a silicon structure and disposable optrodes (Zbigniew Szczepański, Michał Borecki, Dariusz Szmigiel, Michael L. Korwin Pawlowski)
During the last years microfluidic sensors that use optical capillaries have gained an increasing importance due to their new applications as diagnostic tool in biotechnology, medicine and in environmental sciences. This was possible because the capillary enables multiparametric sensing [1-7] contrary to the classical optical fiber sensors [8], which find applications in physical measurements such as pressure and also magnetic field [9]. In this paper the improvements in the design of microfluidic sensors that use local heating in optical capillaries as a base of multiparametric diagnostics is presented [4]. The application of local heating opened interesting new possibilities for the sensors, that do not use any chemical sensitive layers or reagents, while raising specific issues relating to their construction, materials and technology [5]. The mentioned sensors can be used for in situ diagnostic in medicine and veterinary and as biofuel usability testers [10-12].The proposed microfluidic capillary sensor consists of a stabilized-intensity light source unit, a testing head with replaceable optical capillary, a heater and a detection unit. The optical capillary performs the functions of a liquid sample holder and at the same time of a multiparametric sensing element. The sensor operates in a multiparametric sensing mode, monitoring, registering and processing the indirect information such as the index of refraction, the boiling point, the vapour pressure, the heat capacity, the heat of fusion, the viscosity, the surface tension of the liquid and turbidity changes in a thermally forced measuring cycle. The measuring cycle is initiated by applying local heating to the sample [5]. The measuring cycle is controlled indirectly by changes in optical signals and temperatures [10]. The raw optical data are processed by an optoelectronic ci... więcej»

Investigation of multiple degradation and rejuvenation cycles of electroluminescent thick film structures (MATEUSZ MROCZKOWSKI, MICHAŁ CIEŻ, JERZY KALENIK)
Copper doped zinc sulfide displays electroluminescent prosperities and it is used as a phosphor in thick film light emitting structures. Such electroluminescent structures, or alternating current electroluminescent devices (ACEL), are used as backlight for liquid crystal displays in portable electronic devices (cell phones, notebooks, PDAs, etc.) and as a source of light in the advertising industry. Unfortunately such structures are prone to degradation and have a limited life time [1, 2]. Degraded electroluminescent thick film structures can be rejuvenated by annealing [1]. An attempt to investigate the possibility of repeated rejuvenation of degraded EL lamps was undertaken. The goal of this investigation is to better understand the mechanism of degradation and rejuvenation of thick film EL lamps and prolong their life time. Alternating Current Electroluminescent Devices (ACEL) Typical EL lamps are fabricated as a multi-layer thick film structures. A layer of phosphor, for examp... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»